Elektronik

LiDAR-Sensoren: Das autonome Auge

LiDAR-Sensoren spielen eine wichtige Rolle in Prozessautomatisierung und autonomen Maschinen. Wir haben uns die Technik angesehen.

Viele autonome Fahrzeuge nutzen LiDAR für die Umfeldüberwachung. (Bildquelle: Berning, Böhrnsen )

LiDAR ist die Abkürzung der englischen Begriffe „Light detection and ranging“. Ein LiDAR-Sensor sendet einen Laserstrahl aus. Die Reflexionen lassen Rückschlüsse auf die Umgebung zu. So sind sehr genaue Abstandsmessungen möglich und die Ausdehnung von umliegenden Objekten kann bestimmt werden.
In autonomen Fahrzeugen kommt die Technik zum Beispiel zum Einsatz, um Hindernisse im Umfeld zu erkennen. Mittlerweile hat die Technik auch in Smartphones Einzug gehalten. Dort dient der Sensor zur Verbesserung der Bildqualität.
Für Fragen rund um landwirtschaftliche Anwendungen der LiDAR-Technologie standen uns Experten der Sick AG, eines weltweit führenden Herstellers von Sensortechnik für Automationsanwendungen, Rede und Antwort.

So funktioniert es

In der einfachsten Ausführung arbeiten LiDAR-Sensoren als eindimensionale Distanzmesssysteme zur punktförmigen Abstandsmessung. LiDAR-Sensoren für den automotiven Einsatz arbeiten zwei- oder dreidimensional. In der 2-D-Variante scannt der Laser in einer Ebene. Wird er z. B. auf 1,5 m Höhe waagerecht montiert, liefert er ein auf Abstandswerten basierendes Abbild der Umgebung in dieser Ebene.
2-D Sensoren werden technisch realisiert, in dem der Laser von unten auf einen rotierenden Spiegel trifft, der zur Senkrechten um 45° geneigt ist. Auch die Reflexionen treffen wieder auf den Spiegel und werden nach unten durch eine Sammellinse zur Empfängereinheit abgelenkt. Der Laserstrahl wird in Impulsen abgegeben, diese sind auf die Rotationsgeschwindigkeit des Spiegels abgestimmt. Messfrequenzen bis etwa 50 Hz sind mit einem Sender und Empfänger möglich. Erhöht man deren Anzahl in der Sensoreinheit, sind auch höhere Frequenzen bis 600 Hz machbar. Die Auflösung des Bildes hängt von der Rotationsgeschwindigkeit des Spiegels im Verhältnis zu den ausgegebenen Laser­impulsen ab. Mit zunehmendem Abstand vom Sensor liegen die Messpunkte weiter auseinander. Das Bild wird unschärfer.
3-D-Sensoren senden fächerförmig Laserstrahlen in mehreren Lagen aus. Anhand der Reflexionen entsteht ein dreidimensionales Bild. Da die Lagen mit zunehmendem Abstand vom Sensor auch zueinander einen immer größeren Abstand haben, liegen auch die Messpunkte zur Senkrechten immer weiter auseinander. Je mehr Lagen, desto schärfer „sieht“ der Sensor also auch noch in größerer Entfernung. Neben dem Einsatz von mehreren Lagen gibt es auch optische Möglichkeiten, den Laserstrahl zwischen den Lagen aufzuteilen, um die Messgenauigkeit zu erhöhen.

Keine Kamera

Anders als der Sensor einer Digitalkamera sammelt LiDAR nur indirekt Informationen über die Farbe eines Objekts. Bewegung lässt sich dagegen erfassen und auswerten. Die Messfrequenz liegt auf einem vergleichbaren Niveau zur Bildwiederhol­rate von Kameras. Da LiDAR mit einer eigenen Lichtquelle arbeitet, „sieht“ es auch im Dunkeln. Genau wie die Kameratechnik unterliegt aber auch LiDAR dem Einfluss des Umgebungslichts. Je weniger Reflexionen ein Objekt verursacht und je heller das Umgebungslicht, desto eher kommt LiDAR an seine Grenzen. Die Reflexion hängt von der Farbe des Objekts ab, grob gesagt: Je dunkler, desto weniger Reflexion.
LiDAR kann Objekte erfassen, die im direkten Sichtbereich liegen — eine Gemeinsamkeit mit der Kameratechnik. Umwelteinflüsse wie Regen, Schnee, Nebel oder Staub haben deshalb auch auf die Messung einen Einfluss. Moderne Sensoren sind aber in der Lage, diese bis zu einem gewissen Grad herauszufiltern. Da der Laserstrahl bei kleinen Objekten wie Wassertropfen oder Staubpartikeln selten ganz auftrifft, kommt es zu schwachen Reflexionen. Über eine Mehrechoauswertung lassen sich diese kleinen Objekte herausfiltern, nur die wirklich relevanten werden erfasst. Es gilt aber: Wo das Auge nichts mehr sieht, zum Beispiel bei extremem Regen oder dichtem Staub, hat auch der Sensor seine Grenzen. Ein Nebeneffekt der intelligenten Bildauswertung: Auch der Verschmutzungsgrad der Sensorscheibe kann gemessen werden. Der Sensor meldet sich zur Reinigung, bevor es zu einem Ausfall kommt.
Sind die Bedingungen dauerhaft „undurchsichtig“ für LiDAR und Kamera, ist ein Radarsensor die bessere Wahl. Radar (Radio detection and ranging) arbeitet nach einem vergleichbaren Prinzip wie LiDAR, es werden allerdings elek­tromagnetische Wellen ausgesendet und deren Reflexion gemessen. Die Reichweite ist größer, allerdings ist Radar weniger genau.

Einfache Auswertung

Ein Kamerabild liefert komplexe, detaillierte Informationen, die schwierig auszuwerten sind. Bei LiDAR-Sensoren kann die Auswertung je nach Ausstattung dagegen schon im Sensor erfolgen. Heraus kommt kein großes Datenpaket zur Weiterverarbeitung, sondern ein einfaches binäres Ausgangssignal. Der Anwender konfiguriert im Sensor über einen Webserver mit grafischer Oberfläche einen Bereich, in dem bei Detektion eines Objekts eine Aktion erfolgen soll. Wird etwas erfasst, schalten ein oder mehrere binäre Ausgänge. So kann zum Beispiel im Rahmen eines Sicherheitskonzeptes relativ einfach ein Bereich um eine Maschine herum überwacht werden.

Mehr zu dem Thema

Immer bestens informiert mit dem profi Landtechnik-Newsletter!

Erhalten Sie jeden Dienstag die wichtigsten Meldungen kostenlos per E-Mail direkt von der profi-Redaktion. Abmeldung jederzeit möglich. Ihre Daten geben wir selbstverständlich nicht weiter.