Computerhardware: Grafikkarte
Die Grafikkarte hatte ursprünglich die Aufgabe, den Elektronenstrahl eines Röhrenbildschirms zu steuern. Der Elektronenstrahl erzeugt durch Beschuss der Fluoreszenzschicht des Bildschirms ein leuchtendes Bild. Weil die Bildpunkte nur für Sekundenbruchteile nachleuchten, muss der Elektronenstrahl jeden Bildpunkt immer wieder neu ansteuern. Bei Röhrenmonitoren muss das 85-mal pro Sekunde geschehen, um ein flimmerfreies Bild zu erhalten. Weil Flachbildschirme nicht flimmern, genügt bei ihnen eine Bildwiederholfrequenz von 60 Hertz.
Auf heutigen Grafikkarten sind mindestens 512 MB RAM eingebaut. Ein Teil dieses „Video-RAM“ (VRAM) wird als Arbeitsspeicher für den Grafikprozessor verwendet. Ein anderer Teil des VRAM wird als BildWiederholSpeicher (BWS) benutzt. In diesem BWS ist für jedes Pixel (Picture Element = Bildpunkt) des Bildes gespeichert, wie hell und in welcher Farbe er leuchten soll. Während der Elektronenstrahl über den Bildschirm huscht, liest die Elektronik der Grafikkarte immer wieder, 60-mal pro Sekunde oder öfter, Punkt für Punkt die im BWS gespeicherte Farbinformation und stellt sie an den digitalen Ausgängen der Grafikkarte für Flachbildschirme bereit.
Für die Ansteuerung älterer Monitore (z. B. von Röhrenmonitoren) muss eine Baugruppe „RAM Digital Analog Converter“ (RAMDAC) die digitale Farbinformation für jeden Bildpunkt in drei analoge Helligkeitssignale umwandeln, für jede der drei Grundfarben ein Signal. Diese drei Farbsignale, ergänzt um Synchronsignale für Zeilen- und Bildanfang, werden am analogen "VGA"-Ausgang bereitgestellt und über das Kabel zum Monitor gesandt, um die Bildschirmdarstellung zu aktualisieren.
Bauformen der Grafikkarte
[Bearbeiten]Etwa bis ins Jahr 2000 waren PCI-Grafikkarten üblich, denn die PCI-Steckplätze der Hauptplatine hatten die schnellste Übertragungsrate. Weil PCI mit den wachsenden Anforderungen an die Grafikleistung nicht mehr mithalten konnte, bekam die Grafikkarte einen speziellen Steckplatz auf der Hauptplatine: den AGP-Steckplatz. AGP ermöglichte die doppelte Datenübertragungsrate wie PCI. Seit 2006 gibt es den heute noch genutzten Typ PCI-Express, der einen abermals deutlich beschleunigten Datentransfer ermöglicht. Seit Jahren werden nur noch Grafikkarten mit PCI-Express-Schnittstelle produziert.
Grafikkarten gibt es bereits ab 30 Euro. Hochleistungs-Grafikkarten für Spieler kosten über 500 Euro, wiegen fast ein Kilogramm und brauchen bis 375 W Strom. Zwei davon kann man in einen PC einbauen. Deren Grafikprozessoren haben bis zu fünfmal mehr Transistoren als aktuelle CPUs. Solange Sie keine 3D-Spiele starten, bleibt fast die gesamte Leistung der Grafikprozessoren ungenutzt. Bei den Spitzenmodellen ist der Preisverfall extrem hoch, weswegen sich für den durchschnittlichen Nutzer der Kauf kaum lohnt.
Für spezielle rechenintensive Aufgaben (z. B. für das „Bitcoin Mining“, das Generieren von Kryptowährung) wird die Rechenlast auf viele Grafikkarten verteilt. Spezielle Mainboards wie das „ASUS B250 MINING EXPERT" haben 19 PCIe-Steckplätze, an die mit Adaptern bis zu 19 Grafikkarten zu je 300 Euro angeschlossen werden können.
Auflösung und Farbtiefe
[Bearbeiten]Als Auflösung bezeichnet man die Anzahl der Bildpunkte, die horizontal und vertikal untergebracht werden können. Eine Auflösung von 800 x 600 bedeutet, dass das Bild aus 800 Pixeln in der Waagerechten und 600 Pixeln in der Senkrechten besteht. Gebräuchlich ist die Auflösung von 1920 x 1080 Pixeln, wobei moderne Grafikkarten Auflösungen bis 3840 x 2160 beherrschen.
Farbtiefe nennt man die „Feinheit“ der Abstufung, mit der Farben gespeichert und wiedergegeben werden können. Windows unterscheidet True Color (24 Bit) und High Color (16 Bit).
Die 16 Bit High Color werden auf je 5 Bit für rot und Blau sowie 6 Bit für Grün aufgeteilt. Blau und rot können mit jeweils 25 = 32 Abstufungen der Helligkeit dargestellt werden, Grün mit 26 = 64 Abstufungen. Für grafische Darstellungen reicht das, für Fotos nicht.
Eine Farbtiefe von 24 Bit bedeutet, dass acht Bit auf jede der drei Grundfarben entfallen. Weil 28 = 256 ist, kann man 256 Helligkeitsabstufungen für jede der Grundfarben kodieren. Für Rot, Grün und Blau jeweils 256 Helligkeitsabstufungen ergeben 256 x 256 x 256 = 2 hoch 24 = 16.777.216 mögliche Farbkombinationen. Diese Auflösung wird TrueColor genannt. Diese Farbtiefe wird auch von Digitalkameras benutzt, so dass Fotos ohne Farbverlust wiedergegeben können. Allerdings reichen 16 Millionen Farben noch nicht aus, um tiefschwarze Schatten und gleißendes Licht darzustellen. In der Medizin und der professionellen Fotografie werden teilweise 16 Bit pro Farbkanal verwendet, was 281 Billionen Farben ergibt. Dafür braucht man Spezialkameras und -monitore. Hier sind Röhrenmonitore mitunter besser als TFT. Auf PCs mit 32-Bit-Architektur werden 32 Bit pro Pixel reserviert: 3 x 8 Bit für die Farben und weitere 8 Bit bleiben ungenutzt. Diese Speicherverschwendung wird inkauf genommen, weil die Verarbeitung von 32-Bit-Worten für einen 32-Bit-Prozessor schneller erfolgt als die Verarbeitung von 24-Bit-Worten.
Bei 1920 x 1080 Bildpunkten x 32 Bit Farbtiefe benötigt man 16 MByte VRAM auf der Grafikkarte. Wenn Sie mit Ihrem PC nicht spielen wollen, ist mehr VRAM auf der Grafikkarte eigentlich nicht nötig.
Tatsächlich hat ihre Grafikkarte viel mehr RAM. Grafikkarten mit weniger als 1024 MByte RAM werden nicht mehr hergestellt.
Wie viel RAM muss die Grafikkarte mindestens haben? Das hängt von der Bildschirmauflösung und der Farbtiefe ab. Jede Einstellung benötigt eine andere Menge RAM. Für jeden Grafikmodus ist eindeutig festgelegt, welche Bits im Grafik-RAM für welchen Bildpunkt zuständig sind.
Bei einer Auflösung von 1920 × 1080 werden 2,1 Millionen Pixel dargestellt. Die Farbinformation pro Pixel benötigt vier Byte (für die Speicherung von True Color werden die 24 Bit um ein weiteres Byte ergänzt, um auf eine gerade Bytezahl zu kommen). Es werden also 2,1 × 4 = 8,3 Megabyte gebraucht, aufgerundet auf die nächste Zweierpotenz ergibt das 16 MByte Bildwiederholspeicher. Wenn Sie mit Ihrem PC nicht spielen wollen, wäre mehr RAM auf der Grafikkarte nicht nötig. Tatsächlich hat Ihre Grafikkarte viel mehr RAM. Grafikkarten mit weniger als 512 MByte RAM werden nicht mehr hergestellt. Der große Rest vom RAM wird bei 3D-Darstellungen als Arbeitsspeicher für den Grafikprozessor verwendet. Für Spiele und Videoschnitt gilt wie bei der CPU: Mehr Grafikspeicher macht die Grafikkarte schneller!
Empfehlung: Sehen Sie doch einmal nach, wie Ihr Computer eingestellt ist:
Wenn Sie mit Windows arbeiten, klicken Sie mit der rechten Maustaste auf einen freien Bereich Ihres Desktops, dann mit der linken Taste auf „Eigenschaften“. Wählen Sie die Registerkarte „Einstellungen“. Links unten sehen Sie die Farbtiefe, und rechts unten finden Sie einen Schieberegler, unter dem die momentane Auflösung steht. Mit „Abbrechen“ kommen Sie wieder zurück.
Rendern
[Bearbeiten]Sie wissen schon, dass bei „TrueType“-Schriften das Aussehen jedes Buchstabens mit einer Formel beschrieben wird, weil man nur so die bestmögliche Darstellung in jeder beliebigen Größe berechnen kann, ob für Drucker oder Bildschirm. Viele Gestaltungselemente von Webseiten und auch die Hintergründe, Spielszenen und -figuren von Computerspielen werden mit Formeln beschrieben. Mit den Formeln wird berechnet, welche Bildpunkte leuchten sollen und welche nicht. Diese Berechnung ist schwierig und aufwendig: Einerseits gibt es viele verschiedene Bildschirmauflösungen, andererseits kann man in fast jeder Anwendung einen Zoomfaktor wählen.
Diesen Umrechnungsvorgang − von der Vektorgrafik zur „Pixelgrafik“ − nennt man das „Rendern“. Die Berechnungen sind relativ simpel, aber zahlreich. Deshalb stecken in einem Grafikprozessor viele hunderte Kerne (Core), während die CPUs mit zwei bis zehn Kernen auskommen.
SLI
[Bearbeiten]Scalable Link Interface ist ein Verfahren von NVIDIA aus dem Jahr 2005, damit zwei oder mehr Grafikchips die Arbeit beim Rendern untereinander aufteilen können. AMD entwickelte eine ähnliche Technologie namens Crossfire, um bis zu vier Radeon-Grafikkarten in einem PC „parallel“ zu betreiben. Beide Lösungen machten die Darstellung von Spielen detailreicher und flüssiger. Höhere Auflösungen wurden möglich, z. B. um die Darstellung auf bis zu vier Bildschirme zu verteilen.
In der Regel benötigt man Grafikkarten des gleichen Typs mit der gleichen Grafik-BIOS-Version, doch manchmal können unterschiedliche Grafikkarten zusammenarbeiten, wenn sie aus der gleichen „Familie“ stammen. „Hybrid CrossFireX“ ermöglichte es, zwei unterschiedliche Grafikkarten zusammenzuschalten. Das ist besonders für Notebooks interessant: Die im Chipsatz integrierte stromsparende Grafiklösung reicht für 2D-Anwendungen aus. Bei Bedarf wird ein leistungsfähigerer Grafikchip dazugeschaltet. Aber so ganz ausgereift waren die Technologie bzw. die Treiber nicht. Bei zwei baugleichen Grafikkarten wird die Rechenleistung verdoppelt − theoretisch. Realistisch waren Leistungssteigerungen von 25 % bis 70 %, je nach Anwendung. Allerdings neigt die Darstellung zu „Mikrorucklern“. Der Artikel https://www.computerbase.de/2018-07/crossfire-sli-test-2018/ empfiehlt, besser eine einzelne gute Grafikkarte zu kaufen. SLI und Crossfire werden von immer weniger Spielen unterstützt, und der Leistungsgewinn ist gering. NVIDIA unterstützt nur noch maximal zwei Grafikkarten. Auf absehbare Zeit werden SLI und Crossfire wohl aussterben.
CUDA
[Bearbeiten]Die Recheneinheiten (Kerne) der Grafikkarte können mehr als nur Grafiken berechnen. NVIDIA hat eine Technologie CUDA entwickelt, die es ermöglicht, die Prozessoren der Grafikkarte als „Co-Prozessoren“ für Berechnungen zu benutzen. Manche wissenschaftliche, technische und medizinische Anwendungen können dadurch um ein Vielfaches beschleunigt werden. Die Konvertierung von Videos mit einer Software von NVIDIA konnte beispielsweise auf das 20-fache beschleunigt werden. Neueste „CUDA-Grafikkarten“ haben eine Rechenleistung, die mit den im Jahr 1993 weltgrößten Supercomputern vergleichbar ist. Es gibt Hauptplatinen, die man mit bis zu 18 Grafikkarten bestücken kann. Der „Tianhe-1A“, einer der schnellsten Supercomputer der Welt, benutzt außer seinen 14.366 Sechskernprozessoren weitere 7168 NVIDIA-Grafikprozessoren.
3D-Darstellung
[Bearbeiten]Spielszenen heutiger Spiele sind dreidimensional. Es ist eine gewaltige Rechenarbeit nötig, um eine naturgetreue Darstellung zu erhalten. Die Oberflächen müssen berechnet, gefärbt und texturiert werden. Textur ist das Aussehen der Oberfläche: Spiegelnd, matt, geriffelt, textil, geknittert, ... Es muss ermittelt werden, welche Teile eines Körpers im Hintergrund durch davor befindliche Körper verdeckt werden. Lichtreflexe und Schattenwurf sind zu berechnen. Die Rechenarbeit wird zwischen der CPU und der Grafikkarte geteilt: Vereinfacht gesagt, liefert die CPU die Umrisse und die GPU (Grafik Prozessor Unit, deutsch: der Grafikprozessor) füllt sie aus. Die von der GPU durchzuführenden Berechnungen sind zahlreich, aber einfach und lassen sich gut parallelisieren (gleichzeitig ausführen). Deshalb haben Grafikkarten viele Prozessorkerne, sogenannte „Stream-Prozessoren“. Heutige leistungsfähige GPUs verteilen die Rechenarbeit auf hunderte oder tausende Stream-Prozessoren, während die CPUs mit zwei bis zehn Kernen auskommen müssen. Im Jahr 2018 hatten NVIDIA und AMD in ihren Spitzenmodellen vier- bis fünftausend Kerne.
Wieso braucht eine 3D-Grafikkarte so viel RAM? Weil die Rechenarbeit zur Generierung eines Bildes aufwändig ist, gibt es den BWS zweimal: Der eine BWS stellt das aktuelle Bild dar, während im zweiten BWS allmählich das nächste Bild berechnet wird. Den BWS nennt man nun "Frame-Buffer". Weil die Berechnung der Helligkeit eines Pixels in mehreren Rechenschritten erfolgt, sind Rundungsfehler unvermeidlich. Deshalb werden interne Berechnungen mit vielfach höherer Genauigkeit durchgeführt. Beispielsweise werden bei der Farbtiefe "FP24" 24 Bit für die Farbe jedes Kanals benötigt, aufgeteilt in 7 Bit Exponent und 16 Bit Mantisse, was acht Millionen Farbtöne pro Farbe ermöglicht. Deshalb brauchen Frame-Buffer viel RAM.
Onboard-Grafikkarte
[Bearbeiten]Es geht auch ohne Grafik-Steckkarte. Manche Hersteller integrieren die Grafik-Elektronik (GPU) in den Chipsatz der Hauptplatine oder ins Gehäuse der CPU. Diese „Onboard-Grafik“ hat Vorteile:
- Durch den Wegfall einer separaten Grafikkarte wird das PC-System um ein paar Dutzend Euro billiger.
- Der Energieverbrauch verringert sich gegenüber einer Mittelklasse-Grafikkarte um etwa 50 Watt.
Ein Spieler würde die Grafikleistung einer Onboard-Grafik als bescheiden bezeichnen, doch für typische Office-Anwendungen ist das völlig ausreichend, und für viele Home-PCs auch.
Eigentlich wird eine separate Grafikkarte vor allem für aktuelle Action-Computerspiele und für spezielle grafische Anwendungen benötigt, z. B. für Videoschnitt und eventuell für hochauflösende Videos.
Wenn irgendwann die Leistung der Onboard-Grafiklösung nicht mehr ausreicht, kauft man eine separate Grafikkarte und steckt sie in einen freien Steckplatz, soweit vorhanden. In seltenen Fällen gibt es dabei Probleme, wenn die Abschaltung der Onboard-Komponente nicht funktioniert.
Shared Memory
[Bearbeiten]Der Grafikprozessor benötigt Speicher: Für den Bild-Wiederhol-Speicher und als GPU-Arbeitsspeicher. Bei den einfacheren Onboard-Lösungen wird ein Teil des allgemeinen Arbeitsspeichers für die GPU abgezweigt. Das nennt man eine „Shared Memory“-Architektur.
Bei einer Auflösung von 1024 x 768 mit High Color beispielsweise muss der Grafikchip pro Sekunde 1024 x 768 x 32 Bit x 85 Hz = 267 Millionen Byte lesen. Weil der Elektronenstrahl der Bildröhre nicht stoppen kann, erzwingt die Grafikelektronik den Vorrang für das Lesen der Bildinformation. Der Prozessor, die Festplatte und andere Komponenten müssen für ihre Speicherzugriffe auf eine der zeitlichen Lücken warten, welche die Grafikelektronik übrig lässt.
Woran erkennt man, dass die GPU keinen eigenen RAM hat? Die Onboard-Grafikkarte zweigt mindestens 64 MB RAM für die Grafikelektronik vom (Haupt-)Arbeitsspeicher ab. Wenn der PC z. B. 4096 MB RAM hat, bleiben noch 4096 – 64 = 4032 MB Hauptspeicher übrig. In den Prospekten wird das verständlicherweise nicht hervorgehoben, sondern mit Formulierungen wie „bis zu 4 GB VRAM“ verschleiert.
Leider wirkt es sich verheerend auf die Leistung aus, wenn die Onboard-Grafikelektronik sich einen Teil des Hauptspeichers mit der CPU teilen muss. Grafikelektronik und Grafikspeicher arbeiten intensiv zusammen. Bei einer Auflösung von z. B. 1920 x 1080 in True-Color muss der Grafikchip pro Sekunde 1920 x 1080 x 4 Byte x 60 Hz = 498 MByte aus dem Videospeicher lesen und zum Bildschirm senden. Weil die GPU stets den Vorrang für den Speicherzugriff erhält, müssen die CPU, die Festplatte und andere Komponenten mit den Speicherzugriffen auf eine der zeitlichen Lücken warten, welche die Grafikelektronik übrig lässt. Wenn man mehr vorhat, als gelegentlich im Internet zu surfen oder kleine Texte zu verfassen, kann man Shared Memory nicht empfehlen. Von der Leistung mal ganz abgesehen, funktionieren manche neueren Spiele deshalb nicht, weil sie eine Grafikkarte mit eigenem Speicher voraussetzen.
Turbo-Cache und Hyper-Memory
[Bearbeiten]Grafik-RAM ist teuer, noch teurer als Arbeitsspeicher. Die Firma NVIDIA hatte eine clevere Idee. Die Onboard-GPU bekommt einen kleinen eigenen Speicher, in einer Größe von 32 bis 128 MB. Im Vergleich zu den 2 bis 4 GB einer Grafikkarte ist das wenig. Andererseits haben wir im Abschnitt „Auflösung und Farbtiefe“ ausgerechnet, dass 16 MB für den BWS (Bildwiederholspeicher) ausreichen. Diese Shared-Memory-Technik heißt "Turbo-Cache“. Bei ATI heißt diese Technik „Hyper Memory“. Beeindruckende Namen für eine Sparlösung, die langsamer ist als eine „normale“ Grafikkarte.
Wenn dieser kleine eigene Video-RAM nicht ausreicht, wird wie beim Shared Memory ein Teil des Hauptspeichers mitbenutzt. Weil die PCI-Express-Schnittstelle eine schnellere Datenübertragung als AGP ermöglicht, ist der Leistungsverlust weniger nachteilig als bei konventionellem Shared Memory. Wenn die Grafikkarte mindestens 8 MB eigenen RAM hat, tritt bei Büroanwendungen kein Geschwindigkeitsverlust ein. Bei Spielen und 3D-Anwendungen kommt man nur auf die halbe Leistung wie bei einer ausreichend mit RAM bestückten Grafikkarte.
Allerdings setzen zahlreiche Spiele eine Grafikkarte mit eigenem Speicher zwingend voraus und funktionieren mit Turbo-Cache nicht. Es scheint, Turbo-Cache wird seltener, auch weil Grafikspeicher immer billiger wird.
Dual-Monitor-Lösungen
[Bearbeiten]Es gab schon vor Jahrzehnten Profi-Grafikkarten mit zwei Monitoranschlüssen. Architekten und Konstrukteure konnten auf einem großen Bildschirm die Zeichnung darstellen, während ein kleinerer Zweitbildschirm für Befehle und Hilfsaufgaben verwendet wurde. Heute ist diese Technik bezahlbar geworden, fast jede Grafikkarte hat mehrere Anschlüsse. Auch die Onboard-Grafikkarten aktueller PCs und Notebooks unterstützen drei Bildschirme.
Die Möglichkeit, zwei oder drei Bildschirme gleichzeitig anzuschließen, ist sehr interessant. Windows ermöglicht es, beliebige Fenster ganz einfach auf weitere Bildschirme zu verschieben. Zwei 19"-Bildschirme haben die gleiche Gesamtfläche wie ein 27"-Bildschirm. Die Bildschirme dürfen unterschiedliche Eigenschaften haben, denn man kann Auflösung und Bildfrequenz für beide Anschlüsse der Grafikkarte unterschiedlich einstellen. Wenn Sie einen neuen Monitor gekauft haben, können Sie den alten Monitor sinnvoll als Zweitbildschirm nutzen, wenn genügend Platz auf dem Tisch ist.
Wichtig ist natürlich, dass die Grafikkarte ausreichend leistungsfähig ist, HD-Inhalte auf einer doppelt- oder dreifach so großen „Pixelspielwiese“ darzustellen. Doch normalerweise gibt es Probleme allenfalls bei Onboard-Lösungen mit zwei angeschlossenen hochauflösenden Bildschirmen. Wenn Geschwindigkeit oder Stabilität der GPU nicht ausreicht, meldet Windows eventuell „Der Anzeigetreiber xxxxx Windows Kernel Mode Driver, Version xxx.xx reagiert nicht mehr und wurde wiederhergestellt.“ Die Meldung, dass der Treiber wiederhergestellt wurde, wird von der Windows-Funktion TDR (Timeout Detection Recovery), der „Totmannschaltung“ erzeugt.
Im Geschäftsleben muss man meist mit mehreren Fenstern arbeiten: Das E-Mail-Programm, die E-Mail mit der Bestellung des Kunden, die Preisliste, das Fakturierungsprogramm, die Webseite mit den Preisen des Großhändlers oder der Konkurrenz und noch mehr. Wenn man alle benötigten Fenster ständig geöffnet haben kann, spart man eine Menge Herumgeklicke und kann konzentrierter arbeiten. In Vergleichstests wurde festgestellt, dass durch den Ersatz eines 19" Monitors durch einen 26" Monitor die Produktivität um etwa 50% steigt. Ergänzt man einen 19" Monitor mit einem zweiten 19" Monitor, steigt die Produktivität um 25 bis 40%. Eine weitere Steigerung durch einen dritten Monitor ist von der Art der Arbeit abhängig und ist meist nur gering. Übrigens fordert die Bildschirmarbeitsverordnung bei Notebooks, die mehr als nur geringfügig stationär genutzt werden, einen großen Bildschirm und außerdem externe Tastatur und Maus.
Einmal angenommen, Sie sparen eine halbe Stunde pro Arbeitstag (was ich für krass untertrieben halte). Nehmen wir weiter an, der Mitarbeiter kostet Sie einschließlich Nebenkosten nur 20 Euro pro Stunde. Bei 11 eingesparten Stunden im Monat sparen Sie 440 Euro in nur zwei Monaten − mehr als ein zweiter Bildschirm kosten würde. Eine Investition, die sich rechnet!
Windows kennt einige Shortcuts, welche die Arbeit mit mehreren Monitoren erleichtern:
- Windows-Taste plus Pfeiltaste nach links oder rechts verschiebt das aktuelle Fenster an den seitlichen Rand des aktuellen Monitors. Durch wiederholtes Drücken wird es auf den daneben stehenden Monitor weitergeschoben.
- Durch zusätzliches Drücken der Shifttaste wird das Fenster auf den nächsten Monitor geschoben.
- Windows-Taste plus Leertaste macht alle Fenster transparent.
Es ist manchmal nicht einfach, den Mauszeiger zu finden. Sie könnten in der Maussteuerung „Zeige die Mausposition beim Drücken der Strg-Taste“ einschalten, auch das Einschalten der Mausspur kann sinnvoll sein.
Anschlüsse
[Bearbeiten]DVI-I Stecker | Grafikkarte |
eines Adapters |
VGA und DVI
[Bearbeiten]Im Bild rechts sehen Sie die rückwärtigen Anschlüsse einer modernen Grafikkarte. Oben ist der klassische 15polige VGA-Anschluss zu sehen, in der Mitte ein kleiner runder Composite-Anschluss für den Anschluss eines Röhrenfernsehers und unten ein DVI-D Anschluss.
Anfangs waren alle TFT-Flachbildschirme mit dem klassischen VGA-Stecker ausgestattet, um sie an jede Grafikkarte anschließen zu können. Das brachte nicht die bestmögliche Bildqualität, denn die digitale Bildinformation im Bildwiederholspeicher wurde zuerst im RAMDAC in ein analoges Signal umgewandelt und im TFT-Flachbildschirm in ein Digitalsignal zurückverwandelt. Deshalb haben heute die meisten Grafikkarten und TFT-Bildschirme einen DVI-Anschluss (Digital Visual Interface). Es gibt mehrere Arten DVI-Anschlüsse, die wichtigsten sind DVI-D (nur digital), DVI-A (nur analog) und DVI-I (integriert, das heißt: analog und digital). An DVI-A und DVI-I kann man über einem Adapter auch einen Monitor mit dem klassischen 15-poligen Stecker anschließen. Das kleinere der nebenstehenden Fotos zeigt die Steckerseite eines solchen Adapters. Wenn Sie die nebenstehenden Fotos vergleichen, sehen Sie: Der Stecker (DVI-I) hat vier Stifte beidseits neben dem flachen senkrechten Kontakt, am Anschluss der Grafikkarte (DVI-D) fehlen die dazugehörigen Kontaktbuchsen. Außerdem ist das längliche Masse-Pin des DVI-I-Steckers etwas breiter als beim DVI-D-Stecker. Der Stecker passt also nicht. Das bedeutet, die Grafikkarte hat für den digitalen Ausgang keinen RAMDAC und kann kein Analogsignal erzeugen. Suchen Sie nicht in Fachgeschäften nach einem anderen Adapter, Sie werden niemals einen VGA-Bildschirm anschließen können. Nur ein TFT-Flachbildschirm passt, falls er einen DVI-Anschluss hat. Manche Flachbildfernseher haben einen DVI-Eingang, so dass man einen Computermonitor einsparen kann.
DVI unterstützt Auflösungen bis 1600 x 1200 Pixel bei einer Bildwiederholfrequenz von 60 Hertz. Bei der Auflösung von 1920 x 1200 Bildpunkten verringert sich die Bildwiederholfrequenz auf 52 Hertz. Solange keine schnellen Bewegtbilder übertragen werden, ist das unkritisch. Für höhere Auflösungen braucht man einen DVI Dual-Port. Damit sind maximal 2560 x 1920 Pixel bei 60 Hertz möglich.
DVI-D ist aufwärtskompatibel zu HDMI. Das bedeutet: DVI-D lässt sich mit einem Adapter nach HDMI konvertieren.
VGA oder DVI – was ist besser?
[Bearbeiten]Einen Röhrenmonitor passt nur an den VGA-Anschluss, da hat man keine Wahl. Bei TFT-Monitoren trifft man oft beide Anschlussmöglichkeiten an, damit man sie auch an eine ältere Grafikkarte ohne DVI anstecken kann. Wenn man die Wahl hat, sollte man DVI bevorzugen. Bei digitaler Übertragung sind Qualitätsverluste im Monitorkabel ausgeschlossen, deshalb dürfen DVI-Kabel bis zu 5 Meter lang sein. Bis 10 m sind möglich, wenn das Kabel aus hochreinem Kupfer mit hervorragender Isolierung gefertigt ist. Bei VGA-Kabeln sollte die zulässige Kabellänge bis zum Monitor möglichst nicht über zwei Meter betragen, sonst lässt die Darstellungsqualität nach. Mit bloßem Auge kann man den Unterschied aber nur selten erkennen. Die Bildschirmhersteller haben sich geeinigt, die VGA-Schnittstelle nur noch bis zum Jahr 2015 zu unterstützen[1].
HDMI
[Bearbeiten]-
HDMI-Eingangsbuchse
-
Ein HDMI-Stecker
Als Nachfolger von DVI wird seit 2003 die HDMI Schnittstelle (High Definition Multimedia Interface) entwickelt. Sowohl die Filmindustrie als auch die Herstellern von Unterhaltungselektronik unterstützen HDMI. Bild- und Tondaten werden digital mit einem Kabel mit 19-poligem Miniatur-Stecker übertragen. Leider gibt es die Versionen HDMI 1.1, 1.2, 1.3 und 1.3a mit unterschiedlichen Übertragungsbandbreiten und unterschiedlichen Steckertypen. Kabellängen von 5 Metern sind problemlos möglich, mit hochwertigen Kabeln 10 bis 15 Meter. Der Kopierschutz HDCP ist integriert. [2]
HDMI ist abwärtskompatibel zum Vorgängerstandard DVI: Mit Adapter kann man einen DVI-Bildschirm an eine HDMI-Grafikkarte anschließen.
DisplayPort
[Bearbeiten]-
DisplayPort-Stecker mit Verriegelung
-
Mini DisplayPort an einem Apple MacBook
Die Video Electronics Standards Association (VESA) hat eine neue Schnittstelle „DisplayPort“ entwickelt. Es gibt Stecker in Normal- und Mini-Ausführung. Gegenüber dem DVI-Standard sind Stecker und Buchsen deutlich kleiner. Dadurch können zukünftige Handys und andere kleine Geräte mit einem Bildschirmanschluss ausgestattet werden. Apple ist Vorreiter beim DisplayPort. Ihr Bildschirm hat keinen DisplayPort-Anschluss? Es gibt Adapter für VGA, DVI und HDMI. Ebenso wie bei DVI und HDMI wird der Kopierschutz HDCP verwendet.
Der DisplayPort ist technisch besser als DVI. Über eine Hauptverbindung können 2560 x 1600 Pixel mit 10 Bit Farbtiefe angesteuert werden. Ein Zusatzkanal kann für USB, Lautsprecher oder Eingabegeräte wie Mikrofon, Kamera oder berührungsempfindliche Bildschirme genutzt werden.
Thunderbolt
[Bearbeiten]Auf Basis des Displayport-Standards wurde von Intel und Apple die Schnittstelle Thunderbolt entwickelt welche neben den DisplayPort-Bilddaten auch eine Übertragung von PCI-Express ermöglicht. Dabei werden Datenraten von 10 GBit/s auf zwei Kanälen erreicht - viermal so schnell wie USB 3.0. Zusätzlich definiert der Standard die Kaskadierung von Monitoren, so dass über eine einzige Schnittstelle mehrere Monitore hintereinandergehängt werden können. Dabei müssen die verwendeten Monitore jedoch neben einem DisplayPort/Thunderbolt-Eingang auch über einen entsprechenden Ausgang verfügen an den das nachfolgende Gerät angeschlossen werden kann.
Mehrere Hersteller haben Thunderbolt-Peripherie angekündigt. Interessant ist die Schnittstelle dabei für sehr datenintensive Anwendungen wie schnelle Festplatten-Verbünde und Geräte zur Aufnahme von sehr hochauflösenden Videos.
VGA, DVI, HDMI, DisplayPort oder Thunderbolt – was ist besser?
[Bearbeiten]Anschluss | Auflösung |
---|---|
DisplayPort 2.0 | 15360 x 8480 |
DisplayPort 1.4 | 7680 x 4320 |
DisplayPort 1.3 | 5120 x 2880 |
HDMI | 4096 x 2160 |
DVI Dual | 2560 x 1600 |
VGA | 2048 x 1536 |
DVI | 1920 x 1200 |
DVI, HDMI, DisplayPort und Thunderbolt sind gleichwertig, was die Bildqualität betrifft. Unterschiedlich sind die höchstmöglichen Auflösungen. HDMI, DisplayPort und Thunderbolt übertragen außer dem Bildsignal auch den Ton, während DVI und VGA ihn nicht übertragen.
Darüber hinaus spielt aber auch eine Rolle, welche Schnittstelle Sie für den Anschluss einsetzen. Denn die maximale Auflösung, die der Grafikchip darstellen kann, wird nicht an jeder Schnittstelle bereitgestellt. Sie sollten daher vor eventuellen Investitionen in das oder die notwendigen Anschluss- und Verlängerungskabel in der Produktbeschreibung genau prüfen, welche maximalen Auflösungen an welchen Schnittstellen der Grafikkarte nutzbar sind. Die Tabelle zeigt Beispiele.
Einbau einer Grafikkarte
[Bearbeiten]Achtung beim Selbsteinbau! Moderne Grafikkarten brauchen viel Strom - mitunter mehr als über die kleinen Kontakte des Steckplatzes zugeführt werden kann. Leistungshungrige Karten müssen mit ein oder zwei Zusatzsteckern direkt an das Netzteil angeschlossen werden. Betreiben Sie die Grafikkarte nicht mal eine Sekunde ohne diese Zusatzversorgung, sonst könnte sowohl die Grafikkarte als auch die Hauptplatine durchbrennen!
- ↑ VGA nur noch bis 2015 http://www.dotnetpro.de/news3947.aspx
- ↑ Hintergrundinfos zu HDMI http://www.hifi-regler.de/hdmi/hdmi.php#hdmi_04