Warum wir nicht mehr sehen können

Um es gleich vorweg zu nehmen: Mit „sehen“ meine ich nicht unbewußtes Sehen, so wie man auf der Straße eine rote Ampel sieht oder einen Laternenpfahl, um nicht dagegen zu laufen. Solches Sehen kriegen die Meisten wohl noch hin. Es geht mir auch nicht um „künstlerisches Sehen“ im weiteren Sinn, so wie man zum Beispiel einen Sonnenuntergang sieht und ihn schön findet oder wie man ein interessantes Fotomotiv sieht. Nein, es geht mir um bewußtes Sehen in dem Sinn, daß man rein technische Bildqualität beziehungsweise deren Abwesenheit erkennt. Denn das ist eine Fähigkeit, die anscheinend heutzutage vielen leider fehlt. Warum das so ist, darüber habe ich mir meine Gedanken gemacht.

Auslöser dafür, wieder intensiver über diese Problematik nachzudenken, war eine Usenet-Diskussion, die sich um das Für und Wider von ClearType drehte, einer Technologie, welche die Schriftdarstellung insbesondere auf TFT-Displays verbessern soll. Dabei werden am Rand von Schriften als eine Art modifiziertes Antialiasing die sogenannten RGB-Subpixel getrennt angesteuert, um so die wahrgenommene Auflösung und damit die Schärfe der Schriftdarstellung zu erhöhen. Das Problem dabei: es entstehen Farbsäume an den einzelnen Buchstaben, die den Text zumindest unter bestimmten Umständen deutlich matschiger aussehen lassen und die, gehässig formuliert, schlicht einen Bildfehler namens Chromatische Aberration darstellen. Erschreckt hat mich bei dieser Diskussion, wie vehement diese Technik von einigen Diskutanten verteidigt wurde und zum Beleg auch noch Screenshots gepostet wurden, bei deren Anblick die Schrift vor lauter Farbsäumen vor meinen Augen flimmerte und mir beinahe übel wurde.

So kam ich auf die Frage, wie es dazu kommen kann, daß solche eklatanten Bildfehler als toll und sogar als Verbesserung gegenüber eines gestochen scharfen Schriftbildes ohne ClearType – und bei kleinen Schriften auch ohne Antialiasing – empfunden werden. Um es gleich vorweg zu nehmen: meiner Meinung nach gibt es mehrere Ursachen, die sich aber alle unter dem Stichwort „Abstumpfung“ zusammenfassen lassen.

Ein ganz prägnantes Beispiel dafür sind billige Digitalkameras. Um keine Mißverständnisse aufkommen zu lassen: Ich habe absolut nichts gegen Digitalkameras, auch nicht per se gegen billige. Das Problem liegt im Umgang damit: Von breiten Bevölkerungsschichten werden solche Kameras schlicht danach gekauft, welches Modell am billigsten ist, auch werbewirksam hohe Megapixel-Zahlen mögen eine Rolle spielen. Doch genau diese Kombination aus niedrigem Preis und vielen Pixeln führt zu Kameras mit Sensoren, die bereits bei niedrigen ISO-Einstellungen anfangen, starkes Rauschen zu produzieren. Da solche Kameras dann oft auch noch mit lichtschwachen (weil ebenfalls billigen) Objektive ausgestattet sind, drehen die Automatiken  in den Kameras (ich behaupte, daß nur eine Minderheit an Kamerabenutzern sich mit den absoluten Grundlagen der Fotografie wie Belichtungszeit und Blende auseinandersetzt und der große Rest die Vollautomatiken der Kameras benutzt – schließlich hat die Werbung ja automatisch schöne Bilder versprochen) die Sensorempfindlichkeit nach oben, was für noch stärkeres Rauschen sorgt. Hilfsweise, bei gezündetem Blitz in einer Kompaktkamera, zu einer grotesken Lichtverteilung im Bild.

Als Resultat erhält man also riesige Mengen an schlechten, weil verrauschten Bildern, die aber über kurz oder lang als normal hingenommen werden, weil man sich einerseits irgendwie daran gewöhnt hat, andererseits der Nachbar, Freund, Arbeitskollege oder sonstwer mit seiner Kompaktkamera ja auch die selbe Bild-„Qualität“ erhält.

Den gleichen Effekt, nur noch wesentlich stärker, rufen die inzwischen allgegenwärtigen „Foto“-Handys hervor. Ich gebe zwar zu, daß es inzwischen vereinzelt Modelle gibt, die eine für gelegentliche Schnappschüsse akzeptable Bildqualität liefern, jedoch habe ich schon genügend Bilder aus Handys – die aus meinem eigenen Siemens M75 eingeschlossen – gesehen, die wirklich extrem schlecht waren. Um beim Beispiel M75 zu bleiben: Das produziert einen brutalen Cyan-Stich in den Bildern, hat einen übel eingeschränkten Dynamikumfang und ist derart unscharf, daß man Mühe hat, die etwas kleiner geschriebenen technischen Daten zu entziffern, wenn man beim Saturn einen A3-Preis- und Infoaufsteller formatfüllend fotografiert hat. Getoppt wird das dann höchstens noch von Handy-Videos, wo dann zur schlechten Standbildqualität noch bildfüllende Kompressionsartefakte und nutzerverschuldet hochseeverdächtiges Kamerawackeln hinzukommen.

Ein anderes Beispiel sind die Flachbildfernseher, die hierzulande besonders zur Fußball-Weltmeisterschaft 2006 wie Pilze aus dem Boden schossen. Doch insbesondere zur damaligen Zeit brachten diese Fernseher zwei eklatante Nachteile mit sich: Abgesehen von Blu-ray und HD-DVD (die auch noch selten, weil teuer, waren) war an Bildquellen in HD-Auflösung noch nicht zu denken. Da aber die Panels in den Geräten bereits HD-Auflösung hatten, mußte jegliches Bildmaterial vom Fernseher in der Auflösung hochgerechnet werden, was zur damaligen Zeit weitgehend mehr schlecht als recht gelang. Die Folge war eine schon an sich maue Bildqualität. Erschwerend kam noch hinzu, daß Flachbildfernseher grundsätzlich eine Anzeigefläche im Seitenverhältnis 16:9 haben, Mitte der 2000er Jahre der weitaus größte Teil an Fernsehsendungen (wenn mich mein Gedächtnis nicht im Stich läßt, sogar die Übertragungen der genannten Fußball-WM) noch im Format 4:3 ausgestrahlt wurde. Aus Gründen die ich bis heute nicht wirklich verstehe (wahrscheinlich, weil ein entsprechend seitenrichtiges 4:3-Bild auf den eigentlich großen 16:9-Bildschirm doch recht bescheiden wirkt), war – und ist es in entsprechenden Fällen auch heute noch – bei der Mehrheit der Fernsehnutzer Usus, sich 4:3-Material auf einem 16:9-Bildschirm dergestalt anzuschauen, daß das Bild vom Fernseher in die Breite gezerrt wird. Gerne auch in der verschärften Version mit ungleichmäßiger Verzerrung (wenig in der Bildmitte, stark am linken und rechten Bildrand).

Das Resultat ist, ich schrieb es bereits, ein verzerrtes Bild, also ein grober Bildfehler. Auch hier konnte ich nirgends Widerspruch dagegen entdecken, im Gegenteil: Sogar mein Fernsehhändler behauptete damals, darauf angesprochen, „da gewöhne man sich daran“. Hätte er nur wenige Jahre zuvor versucht, seinen Kunden einen Röhrenfernseher mit derartigen Bildfehlern zu verkaufen, hätte man ihm die Ware wohl rechts und links um die Ohren gehauen. Auch hier kann ich mir die Akzeptanz der Fehler nur so erklären, daß durch das massenweise Sehen beziehungsweise Sehenmüssen eine Abstumpfung dagegen stattgefunden hat.

Um nun zum eingangs erwähnten ClearType zurückzukommen, so fehlt mir etwas die Erklärung, warum das als toll empfunden wird. Möglicherweise saßen viele Computernutzer früher vor Röhrenmonitoren mit unscharfem Bild und schlechter Konvergenz, so daß sie vom naturgemäß scharfen Bild von LC-Displays überrascht waren und sich den alten Bildeindruck zurückwünschten.

Zusammenfassend kann man also sagen, daß ich hinter dem ganzen Problem eine Spirale von technisch immer minderwertiger werdender Massenware und dagegen durch Gewöhnung abstumpfende Konsumenten vermute. Und ich fürchte, daß – von einigen wenigen Lichtblicken abgesehen – sich diese Spirale auch zukünftig weiter nach unten drehen wird. Und das eher schneller als langsamer…

Schreibe einen Kommentar