28.11.2013

3D-Bilder mit Erstphotonen

Neues Bildsyntheseverfahren arbeitet bei extrem schwacher Beleuchtung.

Aus den Laufzeiten von Laserpulsen, die von einem Objekt reflektiert wurden, kann man dessen dreidimensionale Form rekonstruieren. Das klappt selbst dann, wenn das Objekt einige hundert Meter entfernt oder sogar hinter einem Schirm verborgen ist. Bisher benötigte man dazu intensive Laserstrahlung. Doch jetzt haben MIT-Forscher detailreiche 3D-Bilder von Gegenständen mit Hilfe von extrem schwachen Laserpulsen gewonnen, indem sie für jedes Pixel die Ankunft des jeweils ersten Photons registrierten.

Abb.: Der experimentelle Aufbau für die Erstphotonenbildsynthese (Bild: A. Kirmani et al.)

Das von den Forschern um Ahmed Kirmani und Vivek Goyal vorgestellte Verfahren der Erstphotonenbildsynthese ist eine clevere Weiterentwicklung des Lidars (Light Detecting and Ranging), der optischen Variante des Radars. Mit Lidar werden hauptsächlich Abstände und Geschwindigkeiten gemessen. Dabei wird aus der Laufzeit von Laserpulsen, die von einem Objekt zurückgeworfen werden, dessen Abstand ermittelt.

Rastert man eine Objektoberfläche mit gepulstem Laserlicht ab und registriert die von ihr zurückgeworfene Photonen zeitaufgelöst mit einer Lawinenphotodiode, so lässt sich anhand der Zählstatistik pixelweise ein dreidimensionales Bild des Objektes erstellen. Dieses 3D-Lidar benötigt intensives Laserlicht, insbesondere für 3D-Bilder von weit entfernten Objekten. Bei vernachlässigbarer Hintergrundstrahlung braucht man pro Pixel für die 3D-Rekonstruktion einige zehn Photonen, für die Bestimmung der Reflektivität sogar einige hundert.

Angesichts dieser Verhältnisse erstaunt es, dass die Erstphotonenbildsynthese pro Pixel nur einzelne Photonen benötigt, um selbst bei merklichem Hintergrundlicht detailreiche 3D-Bilder zu liefern. Das neue Verfahren erreicht dies in mehreren Schritten, durch die sich das gewonnene Bild stetig verbessert. Die Forscher demonstrieren dies u. a. anhand einer lebensgroßen Schaufensterpuppe, bekleidet mit einem schwarzen T-Shirt mit weißer Aufschrift. Die Puppe, die mit einem gepulsten Laserstrahl von 226 Picosekunden Pulsdauer und 10 Megahertz Pulsfrequenz abgerastert und von einer Glühlampe beleuchtet wurde, war 1,5 Meter vom Aufnahmegerät entfernt.

Für jedes Pixel zeichneten die Forscher auf, wann das erste Photon auf die Photodiode traf. Die Beleuchtung war so eingestellt, dass dieses Photon mit gleicher Wahrscheinlichkeit vom Objekt reflektiert worden war oder von der Glühlampe kam. Außerdem zählten sie, wie viele Laserpulse auf das Objekt treffen mussten, bevor das erste Photon registriert wurde. Daraus ermittelten sie die Reflektivität des Pixels, während sie aus der Zeitspanne zwischen dem Eintreffen des ersten Photons und dem unmittelbar davor abgegebenen Puls die Entfernung des Pixels berechneten.

Das so gewonnene dreidimensionale Bild war durch die Hintergrundbeleuchtung noch stark verrauscht (s. Abb. 2, A-C). Zur Verbesserung des Bildes nutzten die Forscher aus, dass die Reflektivitäten und die Distanzen für benachbarte Pixel normalerweise sehr ähnlich sind, es sei denn, dass zwischen den Pixeln scharfe Grenzlinien liegen. Ein Optimierungsprogramm zur Abschätzung der Reflektivitäten lieferte ein deutlich verbessertes 3D-Bild (s. Abb. 2, D-F).

Abb. 2: Das gewonnene 3D-Bild wird schrittweise verbessert (s. Text). (Bild: A. Kirmani et al.)

Im nächsten Schritt unterdrückten die Forscher das störende Hintergrundlicht. Dabei nutzten sie aus, dass die Ankunftszeiten der jeweils ersten Photonen für benachbarte Pixel wesentlich stärker streuten, wenn sie vom Hintergrundlicht statt vom reflektierten Licht stammten. Wurden statt der Hintergrundphotonen nur reflektierte Photonen verwendet, so verbesserte sich das Bild ein weiteres Mal (s. Abb. 2, G-I). Schließlich wurden auch die schon erwähnten Korrelationen zwischen den Entfernungen benachbarter Pixel von einem Optimierungsprogramm berücksichtigt, wodurch das endgültige 3D-Bild zustande kam (s. Abb. 2, J-L). Auf ihm lassen sich Details im Gesicht der Puppe und die Schrift auf dem T-Shirt deutlich erkennen.

Für eine Million Pixel brauchte die Datenaufnahme für die Reflektivität und die 3D-Rekonstruktionzirka zwanzig Minuten, während die anschließende Berechnung auf einem PC etwa drei Minuten benötigte. Wie gut die 3D-Rekonstruktion durch Erstphotonenbildsynthese war, zeigte ein direkter Vergleich mit den Resultaten des 3D-Lidar, für das das Hintergrundlicht ausgeschaltet und eine hundertmal größere Laserphotonenzahl benutzt wurde. Die Abweichung der 3D-Rekonstruktion betrug im Mittel vier Millimeter und war erwartungsgemäß dort am größten, wo das Laserlicht streifend auf die Objektoberfläche auftraf.

Die Forscher sehen für die Erstphotonenbildsynthese vielversprechende Anwendungsmöglichkeiten überall dort, wo gute 3D-Bilder mit einer möglichst geringen Laserintensität gewonnen werden sollen, wie etwa bei Anwendungen in der Biologie. Zudem lassen sich mit dem neuen Verfahren bei gegebener Laserleistung größere Entfernungen überbrücken als mit dem herkömmlichen 3D-Lidar.

Rainer Scharf

DE

EnergyViews

EnergyViews
Dossier

EnergyViews

Die neuesten Meldungen zu Energieforschung und -technologie von pro-physik.de und Physik in unserer Zeit.

Virtuelle Jobbörse

Virtuelle Jobbörse
Eine Kooperation von Wiley-VCH und der DPG

Virtuelle Jobbörse

Innovative Unternehmen präsentieren hier Karriere- und Beschäftigungsmöglichkeiten in ihren Berufsfeldern.

Die Teilnahme ist kostenfrei – erforderlich ist lediglich eine kurze Vorab-Registrierung.

Meist gelesen

Themen