Auflösung, Pixeldichte und Co: Was macht ein Display scharf?

DisplayscharfHeader3

Ich weiß nicht, wie oft ich schon in Foren oder mit Freunden über Auflösung, Pixeldichte oder Bildgrößen diskutiert habe. Seitdem Apple mit seinem Retina-Display hohe Auflösungen salonfähig gemacht hat und alle Welt von PPI oder DPI faselt, geistern immer wieder Halbwahrheiten und Binsenweisheiten durchs Netz.

Was also macht ein Display eigentlich „scharf“?

Zuerst muss man dabei die Frage genauer formulieren, denke ich. Gemeint ist in aller Regel nämlich nicht, wann ein Display scharf ist, sondern wann ein Bild auf einem Display scharf wirkt. Für ein scharfes Bild sind im Grunde 3 Faktoren wichtig: Auflösung, Displaygröße und das Ausgangsmaterial.

Die Auflösung ist (lange) nicht alles

Man könnte meinen, die Auflösung ist der wichtigste Faktor. Das stimmt aber nur teilweise. Die Auflösung ist isoliert betrachtet für die „Schärfe“ eines Bildes ebenso ohne Bedeutung wie die Angabe eines Quadratmeterpreises für die Kosten ein Mietwohnung. Die Auflösung erlangt genauso wie der Quadratmeterpreis nur dann Bedeutung, wenn man sie in Bezug zur Displaygröße oder eben der Gesamtfläche der Wohnung sieht.

Der erste Fehler ist also, allein von der Auflösung auf die Schärfe eines Displays zu schließen. Mein Fernseher besitzt beispielsweise eine Auflösung von 1920 x 1080 Pixeln. Er kann also 1920 kleine Punkte in der Horizontalen und 1080 Punkte in der Vertikalen anzeigen. Das macht insgesamt 2.073.600 kleine Bildpunkte, die ähnlich wie Mosaiksteine in einer Fassade insgesamt das Bild ergeben. Das klingt doch erstmal gar nicht schlecht, oder? Über 2 Millionen kleine Bildpunkte sollten doch ein „scharfes“ Bild ergeben, richtig? Nein, nicht zwangsläufig.

Mein iPhone 5 beispielsweise zeigt „nur“ 1136 x 640 Pixel an, muss seine Bilder also mit weitaus weniger Bildbausteinen darstellen. Trotzdem ist das iPhone 5 Display „schärfer“ als mein Fernseher, der deutlich mehr Bildpunkte anzeigen kann. Das liegt schlicht und ergreifend an der Größe der Displays, auf denen diese Bildpunkte dargestellt werden. Damit sind wir ohne große Umwege auch direkt bei dem zweiten wichtigen Faktor: dem Display.

Auf die Größe (des Displays) kommt es an

Der Unterschied zwischen meinem Fernseher und meinem iPhone ist ganz klar die Größe des Displays. Der TV hat in meinem Fall exakt die 10-fache Größe des iPhones, nämlich 40 Zoll, während das iPhone nur 4 Zoll misst. Zwar kann der Fernseher mehr Pixel darstellen, muss diese aber auch auf viel mehr Fläche verteilen. Das iPhone bietet zwar weniger Pixel, muss diese dafür aber auch nur auf einer viel kleineren Fläche verteilen. Der Knackpunkt ist deshalb nicht die Auflösung allein, sondern die Auflösung im Verhältnis zur Fläche, oder anders: Die Pixel per Inch oder kurz PPI (alternativ wird auch von Dots per Inch, kurz DPI geredet). Der PPI Wert meines Fernsehers liegt bei lächerlichen 55 PPI während das iPhone bei 326 PPI liegt. Wer die Pixeldichte seiner Geräte ausrechnen möchte, dem kann ich den Pixel Density Calculator empfehlen.

Vergleichen kann man das mit einem Stück kariertem Papier, auf dem nur die Karos mit Farbe ausgefüllt werden dürfen, um ein Bild darzustellen. Abhängig davon, wie groß die Karos sind und welche Fläche ich benutzen darf, habe ich am Ende beispielsweise ein Gesicht auf dem Feinheiten zu erkennen sind oder nur grobe Flächen, die mit viel Phantasie ein Gesicht erkennen lassen. Darf ich auf einem Papierblatt von der Größe eines Fußballfeldes zum Beispiel ein Raster von 20×10 Karos ausmalen, kommt da für jemanden, der auf dem Feld steht, wenig bei raus. Auf einem DIN A4 Blatt hingegen kann man damit durchaus etwas erreichen.

Warum also ist dann mein Fernseher trotz seiner „nur“ 55 PPI brauchbar scharf? Das liegt an dem Abstand zum Display. Während ich das iPhone vielleicht maximal einen Meter von meinem Gesicht entfernt halte, sitze ich vom Fernseher ca. 4 Meter entfernt. Im Beispiel mit dem Papierbogen wird ein Passagier in einem über das Fußballfeld hinwegfliegenden Flugzeug ein brauchbares Bild erkennen können. Genauso wirkt der Fernseher durchaus scharf, weil ich mir die 55 PPI von viel weiter weg ansehe, während das Smartphone mit derselben Pixeldichte wohl eher die Bildqualität des ersten Nintendo Gameboys erreichen würde.

Die Bedeutung der „Pixeldichte“ wird besonders deutlich, wenn man sich Geräte anschaut, die die gleiche Auflösung auf verschieden großen Displays benutzen. Ein gutes Beispiel sind hier das aktuelle iPad Air und das iPad mini mit Retina-Display. Beide zeigen 2048 x 1536 Pixel an. Das Ipad Air tut dies allerdings auf 10 Zoll und das iPad mini auf 7,9 Zoll. Im Ergebnis ist das Display vom iPad mini Retina also deutlich feiner, wenn man es aus demselben Abstand betrachtet, da es die gleiche Auflösung auf kleinerem Raum bietet. Die zur Verfügung stehenden Bildbausteine sind schlicht viel kleiner und schwerer zu erkennen.

Das bringt uns zu einem anderen interessanten Aspekt. Wann empfindet das menschliche Auge eigentlich etwas als „scharf“? Der leider viel zu früh verstorbene Apple-Mitgründer Steve Jobs hat das einmal extrem anschaulich während der Vorstellung des iPhone 4 auf der WWDC 2010 Keynote erklärt (die Keynotes sind allesamt auf iTunes und Youtube verfügbar). Scharf sei ein Bild dann, wenn das Auge die einzelnen Pixel nicht mehr erkennen kann, also nicht wahrnimmt, dass das Bild aus kleinen Bausteinen besteht. Je weiter ich weg bin, um so grober darf das Bild sein und je näher ich am Display bin, desto feiner muss das Bild sein. Das iPhone 4 war nun laut Steve Jobs auch das erste Gerät, dass die magische Schwelle für Smartphones überschritt. Im Verhältnis zum durchschnittlichen Sichtabstand eines Smartphones zum Auge soll ab einer Schwelle von 300 PPI für das menschliche Auge kein einzelner Bildpunkt mehr erkennbar sein. Apple nennt das Ganze dann marketingtechnisch „Retina-Display“.

Schärfe ist also immer abhängig vom Abstand zum Bild. Das ist so einleuchtend wie altbekannt. Nicht umsonst ist es ja fast schon im allgemeinen Sprachgebrauch üblich, von „pixeligen“ Bilder zu sprechen. Aber auch die Pixel per Inch sind noch nicht die endgültige Antwort auf die Frage, wann ein Bild scharf ist.

Das Material macht es

Die dritte und vielleicht wichtigste Komponente ist letztlich das dargestellte Material. Nur weil ein Display Millionen Pixel darstellen kann, wird das dargestellte Bild nicht besser. Wer eine alte grobe Photographie abfotografiert, erhält auf seinem Display kein besseres Bild, nur weil das Display höher auflöst. Eine DVD wird nicht schärfer, nur weil ich sie auf einem 4K-Fernseher anschaue. Die dargestellten Materialien müssen stattdessen immer mitwachsen, wie es etwa die BluRay für Full HD Filme getan hat.

Dieses Problem betrifft aber nicht etwa nur Filme oder Bilder, sondern alle dargestellten Inhalte. Das haben die Besitzer des iPhones 4 damals sehr deutlich gespürt. Viele App-Symbole, Icons, Bilder und Flächen waren noch nicht bereit für das hochauflösende Display des damals neuen iPhone 4. Das gleiche Problem kennen Android-Nutzer, die auf ihren High-End-Geräten Apps nutzen, die für viel unschärfere Geräte programmiert wurden. Trotz der scharfen Displays sehen die Apps verwaschen und unscharf aus.

Die Erklärung ist sehr einfach. Ein Bild, das 100 x 100 Pixel groß ist, kann mit sehr scharfen Displays auf zwei Arten umgehen. Es kann entweder kleiner werden oder weniger scharf. Das alte 13 Zoll Macbook Pro hat beispielsweise eine Auflösung von 1280 x 800. Das Icon für Twitter etwa nimmt mit 100×100 Pixeln dann ca. zwei Quadratzentimeter ein. Will ich dasselbe Icon nun auf dem 13 Zoll Retina Macbook Pro (2560 x 1600) darstellen, ist das Icon nur ca. 1 Quadratzentimeter groß, da das Display die 100 x 100 Pixel auf viel kleinerer Fläche darstellen kann. Würde man das Icon auf den gleichen zwei Quadratmeter darstellen, müsste man es auf die doppelte Größe zoomen und würde dabei ein sehr „pixeliges“, grobes Bild bekommen.

Die Lösung ist so einfach wie aufwändig. Die Entwickler von Programmen müssen alle ihre Grafiken und Bilder ihrer Programme doppelt so groß machen, damit sie auf den neuen scharfen Displays wieder gleich groß und gleichzeitig scharf sind. Nach der Umstellung vom iPhone 3GS auf das iPhone 4 warteten daher viele Millionen Käufer auf das „Retina“-Update für ihre Lieblings-Apps, genauso wie es die Macbook Pro Retina-Käufer zwei Jahre später taten.

Eine Besonderheit ist hier übrigens Text. Text ist in Mac OS X wie in Windows keine Bilddatei, sondern eine sogenannte Vektorgrafik, die verlustfrei größer und kleiner gemacht werden kann. Deshalb sieht Text auf allen Geräten immer gut aus, egal wie hoch die Pixeldichte ist.

Skalierung und Pentile-Matrix

Bevor ich diesen Artikel beende, noch ein Wort zu Skalierung und Pentile Matrix.

Eine Pentile Matrix ist ein kleiner gemeiner Trick, um die Pixeldichte künstlich hoch zu schrauben. Anders als im Beispiel mit dem karierten Papier, wo jedes Karo mit seiner eigene Farbe gefüllt werden darf, teilen sich die Karos in einer Pentile Matrix einige Farben. Technisch betrachtet sind Pixel jeweils dreifarbig (rot, grün, blau, bzw. rgb) und können daher alle Farben darstellen. In Pentile Matrizen teilen sich zwei Pixel eine, oft die blaue, Farbe. Das Ergebnis ist ein etwas faseriges Bild und diese Technik wird gemeinhin als weniger hochwertig betrachtet. So bekam etwa das Galaxy S3 einige Kritik für den Einsatz dieser Technik. Letztlich sind die Pixel in einer Pentile Matrix nämlich keine vollwertigen Pixel, sondern 4/5 Pixel.

AlphaPixelVergleich2

Pentile-Matrix und RGB-Matrix im Direktvergleich

Skalierung hingegen ist eine weitere technische Reaktion auf immer höher auflösende Displays. Programme sind nämlich nicht bloß in Bezug auf ihre Grafiken auf eine bestimmte Pixeldichte ausgelegt, sondern auch die schlichte Größe des Fensters wurde vom Programmierer in einer bestimmten Größe geschrieben. Um hier etwas flexibel zu sein, werden die Programme auf dem Display skaliert. In Windows kann man so etwa eine Darstellung zwischen 100 % und 150 % wählen. Leider bleibt dabei oft der Inhalt auf der Strecke, wenn einige Programme bestimmte Zeilenumbrüche vorsehen (siehe etwa die Ausführungn dazu in meinem Review zum Dell XPS 13 Laptop).

Was also macht nun ein Display scharf?

Bilder bzw. Displays sind immer dann scharf, wenn die Pixeldichte hoch genug ist und die dargestellten Inhalten ebenfalls hochauflösend sind. Das nächste Mal, wenn jemand über Auflösungen faselt, dann fragt ihn doch einfach, welche Größe das Display hat. Und wenn jemand mit seinem neuen Riesen-Flatscreen glänzen will, darf er sich vielleicht die Frage gefallen lassen, ob denn die Auflösung auch mitgewachsen ist. Und schließlich: Das nächste Mal, wenn eine App auf eurem neuen High-End-Super-Duper-Smartphone grässlich aussieht, dann erinnert euch daran, welche Arbeit es für die Entwickler sein kann, alle Grafiken und Bildelemente auf die hochauflösenden Displays anzupassen.

Zuletzt ein Wort zu Apple’s Retina-Display: Wer etwas länger mit einem Smartphone gearbeitet hat, das 450 PPI und mehr bietet, der wird schnell sehen, wie unscharf dazu im Verhältnis die aktuellen iPhone Displays wirken. Entweder das oder er braucht eine Brille (ausführlicher habe ich das Thema im Artikel „Retina, Quad HD & Co: Wieviele Pixel braucht ein Smartphone?“ beleuchtet). Das macht übrigens die Frage sehr interessant, wie Apple beim kommenden iPhone 6 mit dieser Entwicklung Schritt halten will. Aber das kommende iPhone 6 Display Dilemma habe ich ja bereits angesprochen.

See you in the comments!

12 Kommentare

Artikel kommentieren

Dein Kommentar wird in der Regel sofort veröffentlicht. Bei erhöhtem Spam-Aufkommen kann es aber zu Verzögerungen kommen. Hab dann bitte einfach Geduld. Zur Erkennung von Spam verwendet das Blog ein Plugin, das den Inhalt des Kommentars, seine Uhrzeit sowie einige weitere Daten, wie zB enthaltene URLs, berücksichtigt. Bitte beachte deshalb die Datenschutzhinweise zur Kommentarfunktion.

Notwendige Felder sind mit * markiert.