Umbau zur Monochrom-DSLR: Wer hat Erfahrung?

BLOG: Go for Launch

Raumfahrt aus der Froschperspektive
Go for Launch

Man kann schon seit langem seine digitale Spiegelreflexkamera (DSLR) speziell für den astronomischen Einsatz umbauen lassen oder gleich ein Neugerät im modifizierten Zustand erwerben, in manchen Fällen direkt vom Kamerahersteller, ansonsten von spezialisierten Unternehmen. Die Modifikation besteht darin, dass ein Infrarot-Sperrfilter vor dem Kamerachip durch einen anderen Filter ersetzt wird, der größere Wellenlängen passieren lässt und damit die Empfindlichkeit der Kamera gerade im fernen Rot und nahen Infrarot erhöht.

Dies ist für Sonnenbeobachtungen, aber auch für Deep-Sky-Aufnahmen von Interesse. Emissionsnebel und Sternentstehungsgebiete strahlen bei der Alpha-Spektrallinie des angeregten Wasserstoffs (H-alpha: 656 nm) und der Spektrallinie des einfach ionierten Schwefels (S-II: 672 nm). Den Filteraustausch sollte man zwar einem Fachmann überlassen, er ist aber noch eher moderat.

In letzter Zeit lese ich jedoch von viel tieferen Eingriffen in die Hardware, die darauf abzielen, aus einer handelsüblichen Kamera, die ja Farbbilder produzieren soll, eine monochrome Kamera zu machen.

Bei digitalen Consumer-Kameras ist direkt auf dem CMOS-Sensor üblicherweise ein so genannter Bayer-Filter aufgebracht. Der Sensor ist dabei in eine Matrix aus 2×2 Pixel großen Elementen unterteilt. In jedem Element bedeckt ein Grün-Filter zwei der vier Pixel, ein Rot- und ein Blau-Filter die anderen Pixel. Ein Grün-Filter lässt grünes Licht passieren, ein Rot-Filter rotes und Blau-Filter blaues. Grün ist im Bayer-Filter übergewichtet, weil das menschliche Auge für grünes Licht besonders empfindlich ist. In der Kamera wird aus den Intensitäten der einzelnen Pixel des Elements die Farbe dieser kleinen Bildregion berechnet. Dies nennt man “Demosaic(k)ing“. Direkt über dem Bayer-Filter befindet sich eine Matrix kleiner Linsen (Mikrolinsen), die das Licht auf die Filter konzentrieren und somit die Empfindlichkeit erhöhen.

Wenn man nun Bayer-Filter und damit zwangsläufig auch das Mikrolinsenfeld entfernt, ist jedes Element des Sensors dem ungefilterten Licht, das auf den Sensor auftrifft, ausgesetzt. So soll sich erstens die Empfindlichkeit erhöhen, was einleuchtet. Ohne Filter kommen zwangsläufig mehr Photonen durch als mit Farbfilter.

Soweit klar.

Es soll sich aber auch die Auflösung erhöhen, behaupten zumindest die Seiten, die sich mit solchen Modifikationen befassen und sie kommerziell anbieten. Da zumindest stutze ich erst einmal. Die Elektronik der Kamera wird doch nicht verändert, d.h., sie interpoliert trotz entfernten Filters munter weiter. Bei von vorneherein monochromen Kamera wie der Leica M Monochrom weiß die Elektronik, dass kein CFA vorhanden ist. So kann auf das Demosaicing verzichtet, der Luminanzwert jedes einzelnen Pixels direkt ausgelesen und in einen Grauwert umgewandelt werden. Aber wie soll das bei einer als Farbkamera ausgelegten DSLR gehen? Bei der wird ja nur der CFA entfernt. Die Firmware bleibt aber dieselbe.

Das Entfernen des CFA (Colour Filter Array) scheint ein ziemlich rabiater Vorgang zu sein, bei dem sehr schnell etwas irreparabel kaputt gehen kann. Davon sollte man bei einer teuren DSLR die Finger lassen. Aber es müsste doch probeweise auch bei einer alten Webcam funktionieren, oder?

Im Web habe ich verschiedene Anbieter gefunden:

  • Die Firma JTW Astronomy, die diverse modifizierte DSLR-Gehäuse zu Preisen ab 600 Euro anbietet und darauf ein Jahr Garantie gewährt
  • Die Firma LDP LLC, die offenbar professionelle Umbauten von Kundenkameras zu monochromen Systemen anbietet

Hier ein Web-Artikel von Lasse Beyer, der eine alte DSLR zu einer Monochrom-Kamera machte. Dies allerdings nicht durch mechanisches Entfernen des Bayer-Filters, sondern durch Austausch des kompetten Sensors gegen einen monochromen Sensor. Er konnte mit Glück einen solchen für sein schon etwas älteres Olympus-Gehäuse bekommen. Die Kameraelektronik wird allerdings nicht verändert. Im Prinzip ist das nichts anderes. Vorher ist ein Sensor mit CFA drin, nachher ein Sensor ohne CFA. Lasse Beyer registriert einen Zuwachs an Empfindlichkeit um eine Blendenstufe. Das ist nicht schlecht, aber auch nicht unerwartet. Ich sehe allerdings keinen nennenswerten Zuwachs an Schärfe. Bestimmt nichts so dramatisches wie das, was die oben verlinkten kommerziellen Anbieter erzielt haben wollen.

Mich würde mal interessieren, ob noch jemand, der hier mitliest, eigene Erfahrungen mit einer derart modifizierten DSLR gemacht hat und die gemachten Behauptungen einer deutlich gesteigerten Bildschärfe bestätigen kann.

 

Avatar-Foto

Ich bin Luft- und Raumfahrtingenieur und arbeite bei einer Raumfahrtagentur als Missionsanalytiker. Alle in meinen Artikeln geäußerten Meinungen sind aber meine eigenen und geben nicht notwendigerweise die Sichtweise meines Arbeitgebers wieder.

12 Kommentare

  1. Hallo,

    Du hast hier ein Thema hochgebracht, das mich auch schon einige Zeit juckt.

    Halbwissen, klingt aber plausibel: Wenn der IR-Sperrfilter entfernt wird, kann man ihn durch eine Glasscheibe ersetzen, damit der AF wieder korrekt arbeitet. Brauch man ihn nicht, oder kann man den AF in der Firmware nachjustieren, ist es egal.

    Eigene Ueberlegung: Wenn man den Bayer-Filter entfernt, hat man natuerlich 4x mehr Pixel zur Verfuegung, die wohl auf das gesamte Spektrum reagieren muessten. Man darf natuerlich von der Kamera keine JPG erstellen lassen, denn die wendet wieder demosaicing an. Also in RAW fotographieren und im Post-Processing das Demosaicing umgehen und rein monochrom arbeiten. Mir ist noch keine Software ueber den Weg gelaufen, die das macht. Aber wenn es bei mir soweit ist, schreib ich mir notfalls was selbst, kann nie schaden.
    Ich hab mal ein Video gesehen, wo der Filter mit einer Art Meissel aus besonders hartem Material abgekratzt wurde. Vorsicht walten zu lassen is obligat.

    • Das mit der Entfernung des IR-Sperrfilters ist ja ein anderes Thema. Autofokus ist einem Astrofotografen eh egal.

      Hier noch einmal die Frage, die ich schon im Artikel stellte: Könnte man das ganze nicht selbst mal mithilfe einer alten Webcam selbst ausprobieren? So als “Proof of Concept”. Da würde es ja nicht so viel ausmachen, wenn man beim Abraspeln des Bayer-Filters den Sensor beschädigt. Die Frage ist natürlich, wo das Demosaicing stattfindet, schon in der Webcam oder erst im Treiber, also auf dem Rechner?

      • Bei einer Webcam gehe ich davon aus, dass sie nur noch stark komprimierte Bilder sendet, und auf jedenfall demosaiced. Aber auch wenn dem so ist, kann man es dennoch bei einer billigst-Kamera probieren, dem Demosaiing zum Trotz. Man hat damit halt nichts gewonnen, da die Aufloesung trotzdem reduziert wird und man nicht and die RAW drankommt (worum es beim ganzen Verfahren ja geht). Ich gehe aber davon aus, dass es bei diesen billigen Kameras mit den mikrigen Sensoren umso schwierigen ist, an den Sensor heranzukommen, ihn zu modifizieren und wieder einzubauen. Das ist bei DSLR (vermute ich) deutlich einfacher.

        Ich warte schon eine Weile darauf, dass mir eine alte DSLR ueber den Weg laueft, mit der ich das probieren werde. Du hast mich nun wieder motiviert.

        Das Abkratzen erfolgte doch mit einem weichen Stift (in dem Fall ein Bleistift, mit einem Messer gespitzt) und nicht mit einem harten Gegenstand.

    • Das Entfernen des CFA ist so ‘ne Sache…
      Die meisten DSLR besitzen CMOS-Sensoren. Deren eigentliche lichtempfindliche Fläche pro Pixel beträgt nur rund 25%, der Rest fällt auf Transistoren. Deswegen setzen die Hersteller ja auch Mikrolinsen über die Pixel, um den Füllfaktor Richtung 1 anstelle der sonst vorherrschenden 0,25 zu bekommen. Wenn man jetzt den CFA entfernt, werden auch die Mikrolinsen entfernt. Das reduziert die Fähigkeit Photonen zu sammeln mal eben um den Faktor 4!
      Was die Änderung der Empfindlichkeit angeht, muss man genau auf die Applikation schauen. Betrachten wir einmal Fotografieren bei Tageslicht, den Nachthimmel und eine DeepSky-Bildaufnahme…
      Foto bei Tag: scheinbare Empfindlichkeit steigt, weil gigantische Photonenzahl vorhanden
      Nachthimmel: Sterne erscheinen heller, weil deren Gesamtsspektrum aufs Pixel trifft, nicht nur ein Spektralbereich (wieder viele Photonen)
      DeepSky: (scheinbare) Empfindlichkeit sinkt, weil von den paar Photonen, die sich ins Teleskop verirren nun nur noch 25% auf der lichtempfindlichen Fläche auftreffen und zum Photoelektrischen Effekt beitragen können. Mit CFA und Mikrolinsen sind es wenigstens noch 33%. Das resultiert in längeren Belichtungszeiten.

      Für CCD-Sensoren gilt das gleiche, wohingegen die lichtempfindliche Fläche pro Pixel bei rund 70% liegt. Da wäre das Entfernen des CFA sicherlich ein Mehrgewinn auch für DeepSky.

      Nächster Punkt: Auflösung.
      Die Auflösung des Sensors wird nicht verändert. Wenn’s vorher 14 MPixel waren, sind’s hinterher immer noch 14 MPixel. Die Kantenschärfe wird allerdings verbessert, weil Stukturen egal welcher Emmissionswellenlänge nicht mehr durch den Bayer-Filter zerhackt und anschließend noch durch Demosaicing-Software unscharf gerechnet werden. Bilder erscheinen nun also um einiges schärfer.

      • Danke. Das war wirklich hilfreich und informativ.

        Meine Schlussfolgerung wäre: Ideal für mich als Astrofotograf wäre eine DSLR, die keinen Bayerfilter besitzt, aber dafür eine Microlinsenschicht und bei der die Demosaicing-Funktionalität ausgeschaltet wurde. Dann vielleicht noch die Entfernung des IR-Sperrfilters und sein Ersetz durch einen mit mehr Durchlässigkeit im fernen Rot und nahen IR.

        • Hm… – ich glaube, da wäre es doch eine Überlegung wert, ob man anstelle des Umbaus nicht gleich eine entsprechende CCD Kamera, wie etwa diese oder diese kauft.
          Ein Punkt dabei ist natürlich, dass die Auflösung dieser Kameras kleiner ist. Wenn man höhere Auflösungen haben will, gelangt man aber auch schnell zu Preisen im unteren bis mittleren 4-stelligen Bereich, was dann möglicherweise auch wieder den Rahmen sprengt.

          • Ich habe solche Überlegungen schon länger angestellt. Die Schlussfolgerung – nur für mich selbst gültig! – ist immer, dass damit ein Schritt verbunden wäre, den ich nicht gehen möchte.

            Wer mit einer CCD-Kamera Astroaufnahmen macht, braucht jedes Mal den Computer, um die Kamera zu steuern und die Bilder zu speichern. Der Computer muss auf einen Tisch und dann hat man auch gleich einen Stuhl dabei. Na, und wenn man das Zeug eh mitschleppt, dann steigen die Anforderungen, die man an die eigenen Bilder stellt. Dann reicht ein 5-Zöller nicht mehr aus. Also investiert man in ein dickes Teleskop. Aber dann muss es auch eine viel solidere Montierung sein. So kommt eins zum anderen, und ruckzuck hat man sich zwei Zentner aufgehalst. OK, aber dann reicht es auch nicht mehr, die Bilder nachher leicht nachzubearbeiten. Nein, dann muss gestackt werden und alles alles aufgefahren werden, was die Astrosoftware leistet. Und so weiter.

            Mein Ansatz ist eher “Grab & go”, also alles schnell geschnappt, schnell aufgebaut und schussbereit. Manchmal, nein, oft, gar nicht mit Teleskop, sondern nur mit der DSLR und einem Kameraobjektiv.

            Klar juckt es mich auch mal in den Fingern, wenn ich so eine fette Ausrüstung sehe. Aber wenn ich sehe, was die Kollegen mit der zu schleppen haben, lässt das Jucken auch schnell wieder nach. Wenn ich jetzt ein kleines privates Observatorium im Park hinter meiner Villa mein eigen nennen würde, dann allerdings würde sich das alles ganz anders darstellen. Dann wäre die Hardware da fest montiert, ich würde mich bei klarem Himmel dorthin begeben, die Kuppel aufschieben und loslegen.

  2. Na, wenn dir mal eine alte DSLR über den Weg läuft, dann bin ich auf den Bericht zum Umbau gespannt. Den verlinkten Artikel von Lasse Beyer finde ich in diesem Zusammenhang auch relevant (und aufschlussreich), obwohl er einen etwas anderen Weg beschritten hat (Sensortausch statt Filterentfernung).

  3. Habe noch auch noch ein bisschen weiter gelesen.

    Anscheinend kann man die Mikrolinsen auch mit einem harten Gegenstand abkratzen, da gibts mehrere Varianten, mit unterschiedlichen Schwierigkeitsstufen. Und wenn ein Foto im postprocessing demsaiced wird, bleibt das Foto anscheinend monochrom. Nur hat man ohne Modifikationen eben keine hoehere Aufloesung, denn die geht sicherlich verloren.

    • Ich habe das immer so verstanden, dass die Mikrolinsen-Schicht grundsätzlich und zwangsläufig zusammen mit dem Bayer-Filter abgetragen wird.

      Auf der Webseite von JTW Astronomy habe ich ein Tutorial zum Debayering (gibt’s das Wort wirklich?) gefunden. Demnach soll bei manchen älteren Kameras das Ablösen des CFA schon durch Auftragen bestimmter Lösungsmittel möglich sein, bei neueren Modellen geht das nicht mehr – da bleibt nur die mechanische Lösung.

  4. Hallo zusammen,

    scheinbar bin ich nicht der Einzige, der sich mit dem Thema beschäftigt…
    Ich komme weniger aus dem Lager der Astro- als vielmehr dem der klassischen Schwarzweiß-Fotografie doch ist genau diese Geschichte des Sensorumbauens ein Thema, das ich schon lange mit mir herumschleppe – eigentlich seit Leica seinerzeit die Monochrom vorgestellt hat. Nun bin ich leider nicht bereit, Haus und Hof zu verpfänden um in den Genuss einer Leica zu kommen, sodass ich “gezwungen” bin, alternative Lösungsansätze zu finden. Ich besitze inzwischen 3 Fuji X-E1-Gehäuse, wovon mittlerweile eine von Sven Lamprecht erfolgreich zur Infrarot-Kamera modifiziert wurde. Die Ergebnisse sind hervorragend und der IR-Umbau ist ja quasi schon der erste Schritt zur Monochrom-Modifizierung. Außerdem ist die hervorragende X-E1 mittlerweile auf dem Markt so spotgünstig zu bekommen, dass das finanzielle Risiko doch recht überschaubar bleibt. Eigentlich bin ich von der tatsächlichen Umsetzung nur noch einen Wimpernschlag entfernt, doch zwei grundlegende Aspekte, einmal software-, einmal hardwareseitig bremsen mich momentan noch aus:
    zum einen ist da die Interpolation der RAW-Dateien. Ich glaube da mit DCRaw einen geeigneten Konverter gefunden zu haben, da sich mit ihm auf Kommandozeilenebene verschiede Interpolationsalgorithmen anwenden bzw. auch komplett abschalten lassen, was in diesem Fall wahrscheinlich das Mittel der Wahl wäre?!
    Zum zweiten ist da das nicht zu unterschätzende Problem der “handwerklichen” Umsetzung. Lässt sich der IR-Sperrfilter auf der Sensoreinheit noch recht banal entfernen, ist das darunterliegende Schutzglas doch mit Sicherheit vergossen, verklebt oder sonstwie innig mit der Sensoreinheit verbunden? Hier liegt wohl technisch gesehen der erste massive Stolperstein, der über Scheitern oder Gelingen des Projektes entscheidet. Glaubt man diversen Youtube-Tutorials ist das “Abkratzen” des darunterliegenden Farbfilter-Arrays dann wieder geradezu ein Kinderspiel, ein Mindestmaß an handwerklichem Geschick vorausgesetzt. Frei nach Rockwell gilt hier wohl der Grundsatz: alles ist erlaubt, was den Kunststoff der Mikrolinsen zusetzt aber die härtere Siliziumschicht darunter nicht ruiniert.
    Der finale Schritt wäre dann die Wiederverklebung des hoffentlich unversehrt gebliebenen Schutzglases, bevorzugt in Reinstraum-Umgebung unter Schutzgas (Argon?), und die Rückmontage in das Kameragehäuse, ggbfls. eine Nachjustierung des Autofokus.
    Das klingt zwar alles recht komplex (besonders für mich als Nicht-Elektroniker), aber wenn eine Erfolgschance besteht und die Bildqualität einen spürbaren Schritt nach vorne machen würde, wäre ich durchaus bereit, das Abenteuer einzugehen.
    Wie seht Ihr das, mache ich hier im Vorfeld schon kapitale Gedankenfehler?
    Wäre dankbar für jeden Tip und würde mich natürlich mit einem Erfolgsbericht und entsprechenden Vergleichsaufnahmen revanchieren.

  5. Ein BEkannter von mir hat bei JTW Astronomy eine kamera zum Umbau bestellt – bayer-Filter und Sperrfilter entfernen. orkasse bezahlt. Seit 7 Monaten wartet er und wird nur durch hohle Versprechungen vertröstet.
    Hat jemand ähnliche Erfahrungen mit dieser Firma, warum diese so lange auf sich warten lässt?
    wäre nett zu hören.

Schreibe einen Kommentar