{"id":1737,"date":"2013-07-24T10:08:00","date_gmt":"2013-07-24T09:08:00","guid":{"rendered":"https:\/\/svenscholz.de\/?p=1737"},"modified":"2025-07-24T10:27:53","modified_gmt":"2025-07-24T09:27:53","slug":"raw-was-ein-paar-bit-mehr-pro-kanal-ausmachen","status":"publish","type":"post","link":"https:\/\/svenscholz.de\/index.php\/raw-was-ein-paar-bit-mehr-pro-kanal-ausmachen\/","title":{"rendered":"RAW \u2013 was ein paar Bit mehr pro Kanal ausmachen"},"content":{"rendered":"\n<p><em>[Dieses Posting erschien zuerst im &#8222;Fotoschraubr&#8220;-Blog, das leider nicht mehr existiert, weshalb ich es aus der wayback-machine rauskopiert habe.]<\/em><\/p>\n\n\n\n<p>Ich werde immer mal gefragt, warum ich Bilder beim Fotografieren ausschlie\u00dflich im RAW-Modus speichere. Zum einen liegt das ein bisschen an meiner \u201eGeschichte\u201c, die ich <a href=\"https:\/\/svenscholz.de\/index.php\/ich-und-die-fotografie\/\">hier<\/a> in meinem Blog letztens ausf\u00fchrlich erz\u00e4hlt hatte. Zum anderen aber, nat\u00fcrlich, hat es sehr praktische Gr\u00fcnde.<\/p>\n\n\n\n<p>RAW-Daten haben, neben dem Umstand, dass noch kein Komprimierungsverlust vorliegt, eine h\u00f6here Bit-Tiefe pro Kanal als JPGs. Es kommt ein wenig auf die Kamera an, welche genau, manche haben 11 Bit, meine alte D90 hatte 12 Bit und die aktuelle D800 hat maximal 14 Bit, wobei sie die nur in den Tiefen nutzt, da im Mittel- und H\u00f6henbereich da eh nur \u201eNoise\u201c gespeichert w\u00fcrde.<\/p>\n\n\n\n<p>Worums mir aber jetzt erst einmal geht ist die Frage, was das grunds\u00e4tzlich bringen soll, daf\u00fcr sind die Unterschiede in den Details der RAW-Daten der verschiedenen Kameras (bei Nikon haben die z.B. die Dateiendung \u201eNEF\u201c, andere Hersteller nennen sie wieder anders) relativ wurscht, drum gehe ich auf solche hier nicht weiter ein.<\/p>\n\n\n\n<p>Die Information eines Bildes setzt sich ja aus drei Kan\u00e4len zusammen, n\u00e4mlich Rot, Gr\u00fcn und Blau (Das steckt hinter dem K\u00fcrzel \u201eRGB\u201c). Einem \u201enormalen\u201c JPG, wie man es kennt, stehen pro Kanal 8 Bit \u201eInformationsbreite\u201c zur Verf\u00fcgung, das hei\u00dft, jeder dieser drei Kan\u00e4le ist quasi ein Graustufenbild mit 256 Helligkeitsstufen zwischen Wei\u00df und Schwarz. Das ergibt sich aus der bin\u00e4ren Natur von digitalen Daten: 1 Bit kann entweder 0 oder 1 sein, 8 Bit hei\u00dft, dass 2 hoch 8 Kombinationen m\u00f6glich sind, also 256.<\/p>\n\n\n\n<p>In der \u00dcberlagerung dieser drei \u201eBilder\u201c in ihren jeweiligen Farben Rot, Gr\u00fcn und Blau entstehen dann wiederum 265 hoch 3 m\u00f6gliche Mischungen, sprich, \u201eFarben\u201c. Also 16,7 Millionen zwischen 0 R, 0 G und 0 B = Schwarz und 255 R, 255 G und 255 B = Wei\u00df. Da ein Monitor eh nicht mehr als das darstellen kann reicht das dann auch. <\/p>\n\n\n\n<p>Das hei\u00dft, was analog ein \u201eAbzug\u201c war ist digital eben ein solches normales 8 Bit JPG, denn es enth\u00e4lt genau so viele Informationen wie das Ausgabeger\u00e4t auch anzeigen kann, so wie ein auf ein Fotopapier belichtetes Negativ eben auch das anzeigt, was es anzeigt. (Dass man nat\u00fcrlich auch bei diesem JPG noch in einem gewissen Rahmen \u201enachjustieren\u201c kann, im Gegensatz zu einem echten Abzug, lasse ich hier jetzt mal unter den Tisch fallen)<\/p>\n\n\n\n<p>Ein RAW hat jetzt pro Kanal mehr als diese 8 Bit zur Verf\u00fcgung: 12 Bit 2 hoch 12, ergibt 4096 Grauwerte pro Kanal, bei 14 Bit sind es wahnsinnige 16384 pro Kanal. Was in der Kombination der Kan\u00e4le f\u00fcr 12 Bit 68,7 Milliarden und f\u00fcr 14 Bit 4,4 Trillionen m\u00f6gliche Kombinationen, sprich, \u201eFarben\u201c ergibt. Die als Information vorliegen, von denen man aber dennoch nur 16,7 Millionen auf einem Monitor darstellen lassen, den Rest \u201esieht man nicht\u201c.<\/p>\n\n\n\n<blockquote class=\"wp-block-quote is-layout-flow wp-block-quote-is-layout-flow\">\n<p>Und da fragt sich dann auch die Logik erstmal: warum soll ich denn so viele mehr Bildinformationen speichern als ich sehe bzw. als ein Monitor darstellen kann? <\/p>\n\n\n\n<p>Ganz einfach: weil ich daraus ausw\u00e4hlen kann, welche ich darstellen lassen m\u00f6chte. <\/p>\n<\/blockquote>\n\n\n\n<p>Das menschliche Auge \u201esieht\u201c ja viel besser als ein Kamerasensor, was vor allem an den \u00fcberragenden dynamischen M\u00f6glichkeiten des Auges liegt.<\/p>\n\n\n\n<p>Am deutlichsten wird das in Gegenlichtsituationen: w\u00e4hrend das menschliche Auge ein Gesicht auch gegen einen hell leuchtenden Hintergrund problemlos herausheben kann, kann man einen Sensor entweder auf den Hintergrund ausrichten, um zum Beispiel noch blauen Himmel oder gar Wolken sichtbar zu haben, dann wird so ein Gesicht im Vordergrund aber sehr dunkel oder gar nur noch als schwarze Silouette zu sehen sein. <\/p>\n\n\n\n<p>Oder man stellt den Sensor auf das Gesicht, dann ist der Hintergrund aber schnell grell-wei\u00df, eventuelle Landschaft wird schnell stark \u00fcberbelichtet und im schlimmsten Fall wird deren Rand zum Himmel \u00fcberblendet, sprich, das Licht \u201efrisst\u201c sich in die Kanten, und was wei\u00df ist bleibt wei\u00df, das l\u00e4sst sich meist nicht mehr reparieren. Weshalb es sich empfiehlt, lieber einen Teil des Bildes \u201eunterzubelichten\u201c \u2013 sprich, die Justierung auf den hellsten Bereich auszurichten \u2013 um ein Ausbluten der hellen Bildbereiche zu vermeiden.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><a href=\"https:\/\/svenscholz.de\/wp-content\/24113807.c3d96c89.1024.jpg\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"683\" src=\"https:\/\/svenscholz.de\/wp-content\/24113807.c3d96c89.1024.jpg\" alt=\"\" class=\"wp-image-1738\" srcset=\"https:\/\/svenscholz.de\/wp-content\/24113807.c3d96c89.1024.jpg 1024w, https:\/\/svenscholz.de\/wp-content\/24113807.c3d96c89.1024-300x200.jpg 300w, https:\/\/svenscholz.de\/wp-content\/24113807.c3d96c89.1024-768x512.jpg 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption class=\"wp-element-caption\">1\/640 \u2022 f\/13.0 \u2022 24.0 mm \u2022 ISO 100<\/figcaption><\/figure>\n\n\n\n<p><\/p>\n\n\n\n<p>Gerade bei solchen Lichtverh\u00e4ltnissen spielt RAW seine gro\u00dfe St\u00e4rke aus. Wenn man eine Gegenlichsituation an den hellen Bereichen ausrichtet, also \u00dcberbelichtungen vermeidet, liegen dann, wie man auch am obigen Bild gut sieht, dynamisch im Extremfall die schattigen Bereiche des Motives sagen wir mal in den 5% des dunkelsten Helligkeitsbereiches. Das ist nicht viel, drum kommt es jetzt auf die Informationsdichte an. Also auf die Bit-Aufl\u00f6sung.<\/p>\n\n\n\n<p>Bei 8 Bit stehen daf\u00fcr gerade mal 12 Detailstufen pro Kanal zur Verf\u00fcgung, was theoretisch 1728 Farbm\u00f6glichkeiten zwischen Schwarz und Wei\u00df ergibt. Praktisch weit weniger, denn nat\u00fcrlich will man ja f\u00fcr so ein Motiv nicht das volle Farbspektrum nutzen, ein Gesicht zum Beispiel hat ja nur einen sehr engen Farbbereich. Wer schon einmal versucht hat, so ein Gesicht aus einem Gegenlichtbild rauszuholen, bei einem normalen JPG, kennt das sicher: das Ergebnis wird entweder sehr farblos\/grau, wenn man versucht, mehr Farben darzustellen, verrauscht es nur v\u00f6llig.<\/p>\n\n\n\n<p>Mit 12 Bit haben wir aber schon rund 200 Detailstufen pro Kanal und mit 14 Bits sagenhafte 800. Also, bei 14 Bit, 512 Millionen Farbstufen, also allein in den dunkelsten 5% des \u201eNegativs\u201c 35 mal mehr Farbabstufungen als in einem kompletten \u201eAbzug\u201c, sprich JPG. Bei 12 Bit haben wir immerhin mit einer Range von 8 Millionen auf grade einmal 1\/20 der m\u00f6glichen vollen Dynamik die knappe H\u00e4lfte dessen, was ein ganzes 8 Bit JPG bzw. ein Monitor \u00fcberhaupt darstellen kann, zur Verf\u00fcgung.<\/p>\n\n\n\n<p>Mit der RAW-Bearbeitung macht man jetzt nichts anderes, als aus der gespeicherten Bildinformation die Teile in den \u201esichtbaren Bereich\u201c f\u00fcr die 8 Bit-Darstellung auszuw\u00e4hlen, die man f\u00fcr die einzelnen dynamischen Bereiche (Tiefen, dunkle und helle Mitten, Lichter) sehen m\u00f6chte. <\/p>\n\n\n\n<p>Und da RAW eben in diesen Bereichen viel mehr Informationen speichern konnte als der Sensor bzw. dessen Standard-Darstellung im Monitor (der ja nur 8 Bit darstellen kann) anzeigte, kann ich das, was das menschliche Auge automatisch macht, in der Nachbearbeitung simulieren: verschiedene Dynamikbereiche verschieden sichtbar machen. Und damit eine Abbildung auf den Monitor bringen, die viel n\u00e4her an das herankommt, wie ich es vor Ort mit meinen nat\u00fcrlichen Augen gesehen habe.<\/p>\n\n\n\n<p>Denn im Gegenlicht sehe ich ja auch beides: den strahlend blauen Himmel, die leuchtend Gr\u00fcne Landschaft im Hintergrund, auch wenn die Sonne in dieser Richtung am Himmel steht \u2013 und aber auch das durch das Hintergrundlicht im Schatten stehende Motiv im Vordergrund in allen Details inklusive dessen Farbigkeit.<\/p>\n\n\n\n<p>Und wie so etwas in der Praxis aussehen kann m\u00f6chte ich hier an einem Beispiel demonstrieren. Das Bild da oben am Anfang dieses Artikels machte ich in England, unter schwierigen Lichtverh\u00e4ltnisen. <\/p>\n\n\n\n<p>Zum einen gab es starkes Gegenlicht, denn die Wolken lie\u00dfen die Sonne, die in Fotografie-Richtung stand, stellenweise noch so stark durchscheinen, dass sie ein diffuses, aber deutliches Gegenlicht erzeugte, aber an andererseits waren sie dicht genug, um sie abzuschatten und so dennoch einen starken Schatten auf die Landschaft zu werfen, der die Gegenlichtabschattung des allgemien vorhandenen diffusen Gegenlichtes noch verst\u00e4rkte.<\/p>\n\n\n\n<p>Dass bei ISO 100 und einer mit 1\/13 schon ziemlich deutlich geschlossenen Blende noch immer eine Verschlussgeschwindigkeit von 1\/640 n\u00f6tig war, um in den hellen Bereichen eine \u00dcberbelichtung zu vermeiden zeigt das, denke ich, deutlich. Und dieses \u201e\u00dcberbelichtung vermeiden\u201c in den Lichter-Bereichen bedeutet f\u00fcr den Rest des Bildes: Unterbelichtung Galore.<\/p>\n\n\n\n<p>Die Standard-Dynamikeinstellung der Kamera, die bei Nikon \u201eD-Lighting\u201c hei\u00dft und schon versucht, zu starke Dynamikschwankungen in einem Bild automatisch etwas auszugleichen (und das in \u201enormalen\u201c Lichtverh\u00e4ltnissen auch gut hinbekommt), ergab also erst einmal das obere Bild.<\/p>\n\n\n\n<p>Das Bild da oben w\u00e4re also der \u201eAbzug\u201c gewesen, also das fertige JPG, w\u00fcrde die Kamera so eingestellt sein, dass sie gemachte Bilder als JPG und nicht als RAW speichert. (Zum grunds\u00e4tzlichen Thema <a href=\"https:\/\/svenscholz.de\/index.php\/was-soll-das-mit-diesem-straight-out-of-camera\/\" data-type=\"link\" data-id=\"https:\/\/svenscholz.de\/index.php\/was-soll-das-mit-diesem-straight-out-of-camera\/\">&#8222;bearbeitete Fotos vs. &#8222;out of camera&#8220; hab ich hier<\/a> auch mal was geschrieben)<\/p>\n\n\n\n<p>Mit den Zahlen von oben im Kopf, welche m\u00f6glichen Farbabstufungen in verschiedenen Dynamikbereichen des Bildes zur Verf\u00fcgung stehen, hier vor allem nicht nur in den dunklen 5% sondern in den Tiefen bis dunklen Mitten, also grob gesch\u00e4tzt den dunklen 20% des Bildes ist glaube ich nachvollziehbar, dass ich aus dem 8 Bit JPG in den dunklen Bereichen vielleicht schon noch ein wenig h\u00e4tte nachjustieren k\u00f6nnen, aber grade farbdynamisch schnell an Grenzen gesto\u00dfen w\u00e4re. Ich habe deshalb die RAW-Daten in einem Programm, das RAWs bearbeiten kann (in meinem Fall Adobe Lightroom) nachjustiert und dann erst einen \u201e8 Bit Abzug\u201c gemacht \u2013 nochmal die Zahlen von oben in Erinnerung gerufen und es wird klar, woher die Farben und Details, die im oberen Bild kaum erkennbar waren, kommen.<\/p>\n\n\n\n<p>Denn nachdem ich in diesem dunklen Dynamikbereich die anzuzeigenden Farben n\u00e4her an das eingestellt hatte, wie ich sie selbst vor Ort mit meinen nat\u00fcrlichen Auge habe sehen k\u00f6nnen kann sich das, denke ich, jetzt auch auf einem Monitor mit seiner eigenen, speziellen und beschr\u00e4nkten, Dynamik sehen lassen\u2026.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><a href=\"https:\/\/svenscholz.de\/wp-content\/14943411.533b66b0.1024.jpg\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"684\" src=\"https:\/\/svenscholz.de\/wp-content\/14943411.533b66b0.1024.jpg\" alt=\"\" class=\"wp-image-1739\" srcset=\"https:\/\/svenscholz.de\/wp-content\/14943411.533b66b0.1024.jpg 1024w, https:\/\/svenscholz.de\/wp-content\/14943411.533b66b0.1024-300x200.jpg 300w, https:\/\/svenscholz.de\/wp-content\/14943411.533b66b0.1024-768x513.jpg 768w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/a><figcaption class=\"wp-element-caption\">1\/640 \u2022 f\/13.0 \u2022 24.0 mm \u2022 ISO 100<\/figcaption><\/figure>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>[Dieses Posting erschien zuerst im &#8222;Fotoschraubr&#8220;-Blog, das leider nicht mehr existiert, weshalb ich es aus der wayback-machine rauskopiert habe.] Ich werde immer mal gefragt, warum ich Bilder beim Fotografieren ausschlie\u00dflich im RAW-Modus speichere. Zum einen liegt das ein bisschen an meiner \u201eGeschichte\u201c, die ich hier in meinem Blog letztens ausf\u00fchrlich erz\u00e4hlt hatte. Zum anderen aber, &hellip; <a href=\"https:\/\/svenscholz.de\/index.php\/raw-was-ein-paar-bit-mehr-pro-kanal-ausmachen\/\" class=\"more-link\"><span class=\"screen-reader-text\">RAW \u2013 was ein paar Bit mehr pro Kanal ausmachen<\/span> weiterlesen <span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":1739,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"activitypub_content_warning":"","activitypub_content_visibility":"","activitypub_max_image_attachments":3,"activitypub_interaction_policy_quote":"anyone","activitypub_status":"","footnotes":""},"categories":[5],"tags":[38,37,30],"class_list":["post-1737","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-persoenlich","tag-foto","tag-fotografie","tag-selbstreferentielles"],"_links":{"self":[{"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/posts\/1737","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/comments?post=1737"}],"version-history":[{"count":2,"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/posts\/1737\/revisions"}],"predecessor-version":[{"id":1741,"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/posts\/1737\/revisions\/1741"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/media\/1739"}],"wp:attachment":[{"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/media?parent=1737"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/categories?post=1737"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/svenscholz.de\/index.php\/wp-json\/wp\/v2\/tags?post=1737"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}