🚂📾 Oh, look! A nerdy guide to making train pics look marginally less terrible! Dive into the riveting world of 'vertical stripes' and 'demosaicing', because why wouldn't you want to spend your weekend pretending you're coding the next Mars Rover camera? 🚀🩆
https://daniel.lawrence.lu/blog/y2025m09d21/ #trainphotography #verticalstripes #demosaicing #codingnerd #weekendprojects #MarsRover #HackerNews #ngated
Line scan camera image processing

I use my line scan camera to take cool pictures of trains and other stuff.

RAW Entwicklung Deep Dive

Lesedauer 5 Minuten

Heute wird’s noch mal speziell und technisch. Aber eine Sorge, das wird hier nicht der neue Standardinhalt. Nachfolgender Text kann fĂŒr all jene interessant sein, die tĂ€glich mit Fotografie zu tun haben und es einfach ein wenig genauer wissen wollen
 Falls du wie ich obendrein “im Grenzbereich”, also mit Infrarot oder Ultraviolett fotografierst oder eine manuell modifizierte Kamera benutzt, dann sind diese Infos vielleicht noch relevanter.

Immer noch hier? Ok. Los geht’s.

Im letzten Beitrag habe ich ja unter anderem beschrieben, wo Standard-RAW-Entwickler wie Lightroom bei der Infrarotfotografie an ihre Grenzen stoßen. Das Fazit war: Automatisierte Prozesse, die fĂŒr die normale Fotografie optimiert sind, werden von den Eigenheiten eines IR-Bildes komplett aus dem Konzept gebracht.

Der erste Schritt JEDER Bildbearbeitung ist das sogenannte Demosaicing. Aber auch wenn du direkt ins JPEG Format fotografierst passiert dieser Schritt als erstes, dann eben direkt in der Kamera.

Was ist Demosaicing ĂŒberhaupt? Die Kunst des Puzzelns

Eine RAW-Datei ist kein fertiges Bild. Man muss sie sich eher wie ein unvollstĂ€ndiges Mosaik vorstellen. Jeder Pixel auf dem Kamerasensor sitzt unter einem Farbfilter – meistens Rot, GrĂŒn oder Blau (dem sogenannten Bayer-Filter). Ein Pixel unter einem Rot-Filter kennt also nur einen Helligkeitswert fĂŒr Rot, von GrĂŒn und Blau hat er keine Ahnung. Das Demosaicing ist nun der Prozess, bei dem die Software dieses Puzzle löst. Der Algorithmus schaut sich einen Pixel und seine Nachbarn an und macht eine SchĂ€tzung, um die fehlenden Farbwerte fĂŒr jeden einzelnen Pixel zu berechnen. Erst danach haben wir ein richtiges Farbbild.

Wie die Software dieses Puzzle löst, ist aber motiv-, situations- und Kamera-abhĂ€ngig und damit weder eine gleichbleibende mathematische Aufgabe sondern eher eine strategische Frage. Und hier trennt sich die Spreu vom Weizen. Es gibt eine Reihe verschiedener Möglichkeiten diese Aufgabe zu lösen und weil die meisten Menschen sich nicht mit Algorithmen sondern mit Fotos befassen wollen haben Programme wie RawTherapee intelligente Prozesse um fĂŒr uns zu wĂ€hlen. Aber sie lassen uns auch selbst entscheiden was sogar besser sein kann, wissen wir als Fotograf:innen doch oft am Besten worauf es uns ankommt.

Hier ein Screenshot aus RawTherapee. Es zeigt einen 100% Ausschnitt eines meiner RAW Bilder bei deaktiviertem Demosaicing. Man kann deutlich die Struktur des Sensors sehen:

Dasselbe Bild, der gleiche Ausschnitt. Einziger Unterschied: Der Algorithmus.

Grob kann man die meisten Algorithmen in zwei Philosophien einteilen:

1. Die “Detail-zuerst”-Philosophie (Die Optimisten)

Diese Algorithmen gehen davon aus, dass die Bilddaten sauber sind und jede noch so feine Abweichung zwischen den Pixeln ein echtes Detail darstellt. Sie analysieren Kanten und Muster aggressiv, um das schÀrfstmögliche Bild zu rekonstruieren.

  • Beispiele fĂŒr solche Algorithmen: AMaZE, RCD, DCB
  • StĂ€rken: Liefern bei sauberen Low-ISO-Bildern perfekte SchĂ€rfe. Ideal fĂŒr Stoffe, Architektur oder feine Strukturen.
  • SchwĂ€chen: Sie lassen sich leicht tĂ€uschen. Rauschen sieht fĂŒr sie aus wie ein feines Muster – und wird prompt “verstĂ€rkt”. Das fĂŒhrt zu sogenannten Labyrinth-Artefakten. An harten Kanten können Falschfarben (bunte SĂ€ume) oder bei feinen Mustern MoirĂ© (Regenbogenmuster) entstehen.

2. Die “Artefakt-Vermeidungs”-Philosophie (Die Vorsichtigen)

Diese Algorithmen sind konservativer. Ihr oberstes Ziel ist es, keine Fehler zu machen, selbst wenn das einen Hauch weniger SchÀrfe bedeutet. Sie gehen davon aus, dass die Daten verrauscht sein könnten und legen mehr Wert auf glatte FlÀchen und saubere Farben.

  • Beispiele: LMMSE, IGV, VNG4
  • StĂ€rken: Sie sind die ideal bei High-ISO-Bildern oder verrauschten Daten. Labyrinth-Artefakte oder MoirĂ© sind hier kaum ein Thema.
  • SchwĂ€chen: Bei einem absolut perfekten Bild können sie im direkten Vergleich etwas “weicher” wirken als die aggressiven Kollegen.

NĂŒtzliche Parameter, die man kennen sollte

Neben der Wahl des Algorithmus gibt es noch ein paar Regler, mit denen man die Strategie verfeinern kann. Nachfolgendes bezieht sich auf RawTherapee aber analoge Möglichkeiten finden sich auch in anderen Werkzeugen.

  • Dual Demosaic (z.B. AMaZE+VNG4): Ein genialer Hybrid-Ansatz. Man kann einen “Detail-Algorithmus” fĂŒr die scharfen Bereiche des Bildes und einen “vorsichtigen Algorithmus” fĂŒr die glatten FlĂ€chen (z.B. Himmel) verwenden. Der Kontrast-Schwellenwert-Regler legt fest, wo die Grenze verlĂ€uft.
  • Falschfarben-UnterdrĂŒckung: Dieses Werkzeug wendet einen Filter an, der nur die Farbinformation beeinflusst, nicht die SchĂ€rfe. Er glĂ€ttet bunte Farbflecken, die oft an Kanten entstehen.
  • Rand: Die Pixel am Ă€ußersten Rand des Sensors können nicht perfekt rekonstruiert werden, weil ihnen Nachbarn fehlen. Normalerweise schneiden RAW-Konverter sie einfach weg. Mit diesem Regler kann man die Software zwingen, es trotzdem zu versuchen – aber auf eigene Gefahr, hier können Artefakte entstehen.

Mit diesem Wissen können wir jetzt gezielt die richtige Strategie fĂŒr unsere Bilder wĂ€hlen. Bei Standardaufnahmen sind heutige RAW-Entwickler aber auch oft schon sehr gut darin das fĂŒr uns zu tun. Low ISO Aufnahme? => AMaZE, Low ISO: einen der anderen
 FĂŒr Fotograf:innen wird das Wissen darum dann wertvoll wenn ihr vom Standardfall abweicht. Versehentlich mit hoher ISO fotografiert? Spezielles Lichtspektrum oder exzessiver Filtereinsatz der ein Szenario produziert das die Software nicht erraten kann? Den Algorithmus selbst zu wĂ€hlen kann helfen!

Ein solches Szenario ist nun die IR Fotografie und darum jetzt noch eine ErklÀrung wie das konkret in diesem Fall aussieht.

Filtergruppe 1: “Super Color” / Niedrige WellenlĂ€nge (550nm, 585nm, 625nm)

  • Die Herausforderung: Hier kommt ein wilder Mix aus starkem Infrarotlicht und einem Teil des sichtbaren Spektrums auf den Sensor. Das Ergebnis sind sehr krĂ€ftige Falschfarben und ein hohes Risiko fĂŒr Artefakte. Wir haben aber in mehreren KanĂ€len brauchbare Detailinformationen.
  • Die Strategie: Wir brauchen einen Kompromiss. Ein “Detail-zuerst”-Algorithmus ist gut, aber er muss Falschfarben im Griff haben.
  • Die Wahl: Hier starte ich fast immer mit DCB. Er ist scharf wie AMaZE, aber speziell fĂŒr Kameras ohne AA-Filter (wie meine RP) besser im Umgang mit Falschfarben geeignet. Eine Alternative ist ein Dual Demosaic-Ansatz, um Himmel und Laub getrennt zu behandeln. Darum zur UnterstĂŒtzung den Regler fĂŒr die Falschfarben-UnterdrĂŒckung auf 2 oder 3.

Filtergruppe 2: “Klassisches IR” / Mittlere WellenlĂ€nge (720nm)

  • Die Herausforderung: Das Signal ist jetzt fast reines Infrarot. Der Rot-Kanal ist der unangefochtene König, wĂ€hrend der GrĂŒn- und Blau-Kanal schwach und extrem verrauscht sind. Die ISO 100 in den Metadaten ist eine LĂŒge – fĂŒr G und B gleicht das Bild eher ISO 12.800.
  • Die Strategie: Wir mĂŒssen die Software zwingen, das Bild wie eine High-ISO-Aufnahme zu behandeln. Eine “Artefakt-Vermeidungs”-Strategie ist Pflicht, um das Rauschen nicht als Detail zu interpretieren und zu verstĂ€rken.
  • Die Wahl: FĂŒr Falschfarben-Bilder sind LMMSE oder IGV hier die erste Wahl. Sie gehen mit den verrauschten KanĂ€len behutsam um und verhindern die gefĂŒrchteten Labyrinth-Muster. Gerade beim 720nm Filter könnte man aber auch beschließen, direkt in die Schwarz-Weiß-Umsetzung zu gehen. Das bringt uns zur nĂ€chsten Option


Filtergruppe 3: “Deep IR” / Hohe WellenlĂ€nge (850nm) & die Schwarz-Weiß-Umsetzung

  • Die Herausforderung: Hier gibt es so gut wie keine Farbinformation mehr. Die G- und B-KanĂ€le sind praktisch reines Rauschen. Ein traditionelles Demosaicing wĂ€re hier sinnlos und kontraproduktiv.
  • Die Strategie: Wir sollten uns auf das stĂ€rkste und sauberste Signal konzentrieren, das wir haben, und den Rest ignorieren.
  • Die Wahl: Das ist der perfekte Anwendungsfall fĂŒr den Mono-Algorithmus. Er ist der “Anti-Demosaicer”. Er ignoriert die kaputten G- und B-KanĂ€le und baut das Schwarz-Weiß-Bild direkt aus den Daten des sauberen Rot-Kanals auf. Das Ergebnis ist die maximal mögliche SchĂ€rfe und TonalitĂ€t ohne jegliche Störfaktoren.

So, das war’s jetzt fĂŒr heute. Irgendwann werde ich diese Artikelreihe noch um Dateiformate und FarbrĂ€ume erweitern aber fĂŒr den Moment soll das erstmal genug sein. Letztlich reicht es ja auch weiterhin fĂŒr den pragmatischen Fall einfach auf “Sport” zu schalten und der Technik zu vertrauen 😉

#Demosaicing #Fotografie #Infrared #Photography #RawTherapee #Technologie