20.10.2017

Räume per Radar dreidimensional erfassen

Neues Verfahren soll Objekte lokali­sieren und ihre Zu­sam­men­setzung be­stimmen.

Neue Signalverarbeitungsverfahren für die Bildgebung und Material­charak­teri­sierung mittels Radar haben Forscher der Univer­sitäts­allianz Ruhr ent­wickelt. Lang­fristiges Ziel ist es, diese Tech­niken mit der radar­basierten Ortung von Gegen­ständen zu kombi­nieren. Die Vision: eine fliegende Platt­form, die selbst­ständig eine drei­dimen­sionale Reprä­sen­tation des um­gebenden Raums erzeugen kann. Nütz­lich könnte die Technik zum Beispiel sein, um bei einem Brand heraus­zu­finden, was die Feuer­wehr­leute hinter den Rauch­wolken im Gebäude erwartet.

Abb.: In diesem abgeschirmten Raum können die Forscher ihre Systeme unter kon­trol­lier­ten Be­din­gungen testen. (Bild: R. Schirde­wahn)

Prinzipiell taugt das gleiche Messverfahren für die Material­charak­teri­sierung und die Ortung. Nur wird es der­zeit noch nicht gleich­zeitig für beides ein­ge­setzt. Das Prinzip: Ein Radar strahlt elektro­magne­tische Wellen ab, die an Objekten reflek­tiert werden. Grob gesagt lässt sich aus der Lauf­zeit der ein­ge­strahlten und zurück­ge­worfenen Signale berechnen, wie weit ein Gegen­stand ent­fernt ist.

In den zurückkommenden Wellen steckt aber noch mehr Information. Denn die Stärke des reflek­tierten Signals hängt davon ab, wie groß ein Objekt ist, wie es geformt ist und aus welchem Material es besteht. Eine Material­konstante, die rela­tive Permit­ti­vität, beschreibt, wie durch­lässig eine Substanz für elektro­magne­tische Wellen ist. Aus der Permit­ti­vität können die Forscher also Rück­schlüsse darauf ziehen, um welches Material es sich handelt.

Ein Radarsignal in ein aussagekräftiges Bild umzuwandeln erfordert hohen Rechen­auf­wand. Die auf­ge­zeich­neten Daten sind etwa so wie von einer Kamera, der die Linse zum Fokus­sieren fehlt. Die Fokus­sie­rung erfolgt nach­träg­lich im Computer. Algo­rithmen für diesen Prozess ent­wickelte Jan Barowski an der Uni Bochum. „Als ich ange­fangen habe, hat eine solche Korrektur noch zehn Stunden gedauert“, sagt er. Heute läuft die Aus­wertung über eine Laptop-Grafik­karte in Echt­zeit. Barowskis Algo­rithmen erledigen dabei nicht nur die Fokus­sierung, sondern elimi­nieren auch system­bedingte Mess­fehler aus den Daten.

Das aktuell vorliegende System kann in einer kontrol­lierten Labor­umge­bung bereits erkennen, wo ein Objekt ist und dass es aus einem anderen Material bestehen muss als zum Beispiel der Unter­grund, auf dem es liegt. Im nächsten Schritt wollen die Forscher das System befähigen zu erkennen, was das Objekt ist. Die Permit­ti­vität von Kunst­stoffen können sie bereits gut bestimmen, aber zum Beispiel noch nicht zwischen ver­schie­denen Kunst­stoffen unter­scheiden. Schritt für Schritt wollen die Projekt­partner das System nun für den Ein­satz unter realis­tischen Bedin­gungen opti­mieren.

RUB / RK

Sonderhefte

Physics' Best und Best of
Sonderausgaben

Physics' Best und Best of

Die Sonder­ausgaben präsentieren kompakt und übersichtlich neue Produkt­informationen und ihre Anwendungen und bieten für Nutzer wie Unternehmen ein zusätzliches Forum.

Veranstaltung

Vier Kongress-Fokusthemen beleuchten Kernaspekte der Quantenphotonik zur Quantum Photonics 2026

Vier Kongress-Fokusthemen beleuchten Kernaspekte der Quantenphotonik zur Quantum Photonics 2026

Der Fachkongress mit begleitender Ausstellung „Quantum Photonics“ findet vom 5. bis 6. Mai 2026 zum zweiten Mal in der Messe Erfurt statt. Mit dem neuen One-Ticket-Konzept wird die Teilnahme am Event noch einfacher und effektiver.

Meist gelesen

Themen