@dot:
Deinen letzten Satz habe ich leider noch nicht verstanden. Warum hebt man denn die "gamma-Funktion" des Monitors durch die Inverse auf, sodass das Image linear dargestellt wird, wenn die menschliche Wahrnehmung gar nicht erst linear ist?
Klar wird das Bild linear dargestellt, in der Natur ist es ja auch linear. Im Unterschied zur Natur haben wir jedoch mit 8-Bit-Werten nicht nahezu unendlich viele Helligkeitsabstufungen. Da unsere Empfindlichkeit für HelligkeitsUNTERSCHIEDE mit sinkender Helligkeit zunimmt, ist es von Vorteil, in dunklen Bereichen mehr Abstufungen zu haben als in hellen.
Genau das passiert durch die Gammakorrektur. Die 256 Werte einer 8-Bit-Zahl werden so verteilt, dass die Helligkeit mit den WERTEN nichtlinear steigt, d.h. mehr Werte entsprechen geringerer Helligkeit als höherer Helligkeit. Nehmen wir beispielsweise die Intensität 0.5. Ohne Gammakorrektur entspräche dieser genau der 8-Bit-Wert 128, d.h. wir hätten gleich viele Werte darunter und darüber. Mit Gammakorrektur entspricht die Intensität 0.5 jedoch dem 8-Bit-Wert 180 (= 255 * sqrt(0.5)), d.h. es liegen mehr Werte im dunklen Bereich darunter (181 Werte) als im hellen Bereich darüber (75). Der Monitor wandelt die korrigierten Werte zwar wieder in ein lineares Bild um, auch dort sind nun die dunklen Bereiche jedoch genauer beschrieben als die hellen Bereiche. In dunklen Bereichen haben wir mehr (kleinere) Abstufungen, in helleren weniger größere, insgesamt ist die Intensität linear zu unserem ursprünglichen, unkorrigierten Bild.
Im Übrigen ist die Gammakurve zu diesem Zweck alles andere als optimal, aber aus historischen Gründen (CRTs) war sie eben ohnehin schon in den Systemen verankert.