Bitmapped Graphics
mehrere Bit-Ebenen übereinander,.
mehrere Bit-Ebenen übereinander,.
Farbpalette (Color-lookup-table) = Tabelle von Farben
bitplane: Tabelle, wobei jedes Bit genau einem Pixel entspricht
Hyperthreading:
Mehrere Unabhängige Befehle gleichzeitig ausführen.
Treppeneffekt:
Kann entstehen, wenn Linien diagonal dargestellt werden sollen.
Antialiasing:
Dabei werden „benachbarte“ Pixel in einer ähnlichen (helleren) Farbe gesetzt.
Wird bei einer sehr hohen Auflösung nicht benötigt – z.B. bei 300dpi Laserdruckern.
Gammakorrektur:
Sorgt dafür, dass der Helligkeitsverlauf möglichst gleichmäßig aussieht.
Dithering:
Damit kann man auf Bildschirmen mehr Farben erscheinen lassen als er unterstützt. Das passiert auf Kosten der Auflösung, da für ein Pixel einer Graustufe von 50% zB 4 Pixel benötigt werden wovon 2 ausgeleuchtet werden.
Odererd Dithering:
Ist ein Trick ohne zu viel Auflösung zu verlieren Graustufen darzustellen.
Man hat dabei für jeden Helligkeitswert ein vordefiniertes Muster.
GIFs wird zum Beispiel mit Dithering dargestellt werden
Dafür benötigt man eine Gammakorrektur. Unser Auge nimmt Helligkeit nicht richtig war. Die Physik versteht unter Helligkeit etwas anderes als unser Auge
Stochastic Dithering:
Wird bei einem Grauwer von 70% gewürfelt, ob ein schwarzes oder weißes Pixel kommt (70% schwarz, 30% weiß) – zufälliges Muster
Z-Buffer:
Das zuletzt gezeichnete Polygon ist sichtbar
Das Pixel welches den größten Abstand zur Bildebene hat, wird dargestellt.
Für jedes Byte gibt es eine Z-Koordinate.
Der Z-Buffer Wert gibt an, wie weit der eigentliche Punkt vom Betrachter entfernt ist.
Texturen:
Sind Bilder die auf die Objekte „geklebt“ werden.
Bumpmap:
wird für Vertiefungen benötigt – kein echtes 3D-Modell! Damit lässt sich alles sehr schön beleuchten ohne es wirklich 3D darzustellen.
Anisotrope Filterung:
Verschönert den Übergang zwischen den Texturen (wenn zB Texturen in die Tiefe gehen, könne es ohne den Filter zu sehr groben Übergängen kommen, die ins Auge stechen) – benötigt jede Menge Rechenleistung.
Erkennen verdeckter Objekte:
Es ist wichtig verdeckte Objekte zu erkennen (z.B wenn bei GTA4 100 Wolkenkratzer hintereinander sind, sollen nicht alle berechnet werden), es sollten nur Objekte gerendert werden, die aus der Sicht der Kamera erkannt werden – braucht ansonsten unglaublich viel Rechenleistung.
Vertex Shader:
Programm, das nur die Punkte der Dreieckskanten berechnet.
Pixel Shader:
Berechnet jedes einzelne Pixel. (Oberfläche eines Objekts berechnet. (z.B. Wasser, Felder)
Framebuffergrafik:
Malt Pixel direkt in den Videospeicher (VRAM).
Keine GPU – CPU übernimmt dabei die ganze Arbeit.
Werden beim Booten verwendet, da noch keine Grafikkarte aktiv ist.
Motion Capturing:
wenn eine Person einen schwarzen Anzug mit weißen Punkten an den Gelenken hat und von vielen Kameras gefilmt wird – so lassen sich reale Bewegungen in Computerspielen darstellen (oder beispielsweise der Gollum in „Herr der Ringe“)
Frames:
Bilder pro Sekunde. Es macht keinen Sinn mehr frames einzustellen, als der Monitor darstellen kann ( tft. 60Hz)
Austastlücke:
Zeit, die der Strahl braucht um wieder an den Anfang des Bildes zu wandern.
Doublebuffering:
Während ein Frame dargstellt wird, berechnet die GPU schon den nächsten Frame.
2 Bildspeicher!
Mehr als 60 Frames ergeben keinen Sinn, weil sie dann wieder weggeworfen werden müssen
Wird für verdeckten Bildaufbau benötigt.
Rasterstrahlsynchronisierung:
verhindert, dass beim Doublebuffering nur halbe Bilder ausgetauscht werden
Dual-Ported-RAMs:
Speicher der 2 Schnittstellen hat.
GPU, und derVideosignalgenerator können gleichzeitig, aktiv darauf zugreifen.
- GPU baut das Bild auf
- Videosignalgenerator (RAMDAC) ließt das Bild aus, und erzeugt ein analoges Video-Signal
(Ist für die Qualität der Bilder verantwortlich. (scharf, keine Doppelbilder, Kontrast))
hat absoluten Vorrang, da sonst kein Bild generiert wird.
DMAC(Direct Memory Access Controller)
Agiert als “Laufbursche” der CPU.
Kann nur Daten transferieren (in Hauptspeicher, oder von Hauptspeicher weg).
Wichtig weil CPU schneller arbeitet als externe Geräte kommunizieren können.
Ablauf:
Die CPU generiert grob, welche Objekte vorhanden sind (Lichtquellen usw.)
dann transferiert sie die Daten (Polygone, Texturen…) und die Programme zur GPU.
Dieser berechnet dann alles.
Family-Driver:
Ein Treiber, der für alle Produkte eines Herstellers (derselben Art), funktioniert.
3D – Displays:
Es werden für beiden Augen unterschiedliche Bilder generiert.
Im Gehirn werden die unterschiedlichen Bilder dann zu einem 3-D Modell zusammengefügt.
Shutter – Brille
Rot – Grün Brille, die man bei 3D – Filmen trägt.
Ein durchscheinendes LCD, sodass man 60Bilder pro Sekunde jedem Auge sieht, Augen sieht (120Hz)
benötigt Batterien.
Polarisationsbrillen:
Lichtwellen Schwingen.
Es wird ein Bild für das Linke und Rechte Auge erzeugt.
Die Brillengläser filtern unterschiedlich die Wellen.
(waagrecht und senkrecht Polarisiert)
(waagrecht und senkrecht Polarisiert)
keine Batterie benötigt
Probleme:
- Man darf den Kopf nicht bewegen
- Man muss viel heller das Bild ausstrahlen.
- Spezialbildschirm beötigT
Autostereodisyplay:
erzeugt ein Hologramm.
Der Bildschirm strahlt in jede Richtung ein anderes Bild ab.
Das Bild ändert sich je nach Blickwinkel.
Keine Brille erforderlich!
Probleme:
- enorme Rechenleistung erforderlich
- Qualitätsverlust
Overscan:
horizontaler Overscan 30%
vertikaler Overscan 5%
Pixelfrequenz(Bandbreite) (MHz) (60-350) = Pixel pro Sekunde
Zeilenfrequenz (KHz) (40-110) = Zeilen pro Sekunde
Bildwiederholfrequenz(Hz) (60-100) = Anzahl der vollen Bilder pro Sekunde
Rechenbeispiele:
Auflösung: 1024×768
Frequenz: 75Hz
——————————–
Zeilenfrequenz: (768 + 5%) * 75Hz = 60KHz
Pixelfrequenz: (1024 + 30%) * 60KHz = 80MHz
Auflösung: 1280×1024
Frequenz: 81KHz
Bildwdh.rate … ?
——————————–
x = 81000 / (1024*1.05) = 75Hz
Auflösung: 2048*1535
Bandbreite: 300Mhz
Bildwdh.rate … ?
——————————–
300.000.000 / (2048*1.3*1636*1.05)
|