360° Time-of-Flight Sensor mit großem Sichtfeld für die Robotik

Der kostengünstige und omnidirektionale 360° Time-of-Flight (ToF) Sensor von Jabil Optics bietet mit seinem weiten Sichtfeld einen Vorteil gegenüber bereits auf dem Markt existierenden Lösungen.

 Das große Sichtfeld des omnidirektionalen ToF-Sensors von Jabil ermöglicht eine nahtlose Erkennung, Klassifizierung und Verfolgung von Objekten im Fahrweg eines Roboters. Die 360° ToF-Optik eliminiert nahezu sämtliches Streulicht. (Bild: Jabil Optics Germany GmbH)
Das große Sichtfeld des omnidirektionalen ToF-Sensors von Jabil ermöglicht eine nahtlose Erkennung, Klassifizierung und Verfolgung von Objekten im Fahrweg eines Roboters. Die 360°-ToF-Optik eliminiert nahezu sämtliches Streulicht. (Bild: Jabil Optics Germany GmbH)


Auf dem Markt befindliche ToF-Systeme müssen bisher immer einen Kompromiss aus Reichweite, großem, aber planarem Sichtfeld oder Rundumblick mit einer sehr eingeschränkter, vertikaler Auflösung eingehen. Jabil Optics hat dieses Problem erkannt und einen neuen kostengünstigen Sensor entwickelt, der zugleich ein großes horizontales als auch vertikales Sichtfeld besitzt. Aus der Kombination neu entwickelter optischer Komponenten und einem innovativen aktiven Beleuchtungsansatz ist so ein völlig neuer 3D ToF Sensor entstanden. Im Gegensatz zu herkömmlichen ToF-Kameras ermöglicht das Sichtfeld des omnidirektionalen Sensors eine nahtlose Erkennung, Klassifizierung und Verfolgung von Objekten im Fahrweg eines Roboters. Die 360° ToF-Optik eliminiert nahezu sämtliches Streulicht. Die Nutzung von Szeneninformationen zur dynamischen Beleuchtung vermindern zudem Sensorrauschen sowie Interferenzen und verbessern gleichzeitig sowohl Datenqualität als auch Energiemanagement. Besonders herausfordernd bei der Entwicklung, waren die komplexen Kalibrierungsalgorithmen, um eine konstant hohe Genauigkeit im gesamten Sichtfeld des Sensors zu erreichen.

 Spezifikationen des omnidirektionalen 
ToF-Sensors (Bild: Jabil Optics Germany GmbH)
Spezifikationen des omnidirektionalen
ToF-Sensors (Bild: Jabil Optics Germany GmbH)

ToF-Grenzen der Bildgebung erweitern

Der Sensor liefert in der aktuellen Ausbaustufe in einem horizontalen Sichtfeld von 270° Intensitäts- und 3D-Informationen. Eine Erweiterung des Sichtfelds auf 360° ist möglich und wurde in einem Prototyp bereits getestet. Anstatt wie bisher üblich drei bis vier ToF-Sensoren zu verbauen und deren Bilder zusammenzusetzen, reicht nun ein einzelner Sensor für einen Rundumblick. Die 360° Optik wurde für die Sensorauflösung von 640×480 Pixel entsprechend optimiert. In der vertikalen Richtung sind 60° darstellbar, so dass auch Überhänge, Durchfahrten und die Navigation unter Regalen möglich sind. Dank der hohen Reichweite von mehr als 5m und 30fps werden relevante Hindernisse frühzeitig in die Betrachtungen des Roboters mit einbezogen, was auch bei hohen Geschwindigkeiten eine sichere Navigation ermöglicht.

Als weiteres Alleinstellungsmerkmal wird eine API angeboten, mit dem Anwender ihre eigene Software, Programme und Algorithmen direkt im Sensor ausführen und damit die Daten-Vorverarbeitung erheblich beschleunigen können. Ein entsprechend performanter i.MX8M Quad ARM Cortex-A53 inklusive GPU ist dafür vorhanden. Für die externe Kommunikation stehen 1G Ethernet, USB, WiFi und Bluetooth zur Verfügung. Zur einfachen Sensorintegration wird eine entsprechende ROS-Schnittstelle angeboten, so dass u.a. Rohbilddaten, vorverarbeitete 3D-Tiefeninformationen, Point-Cloud-, oder SLAM-Daten einfach übertragen und ausgewertet werden können. Zum Ausrichten und Testen des Sensors reicht ein Smartphone, Tablet oder Laptop mit WiFi-Schnittstelle aus, um die 3D-Bilddaten binnen Sekunden ohne weitere Software darzustellen.

Die omnidirektionale Sensor-Architektur wurde unter Berücksichtigung der zugrunde liegenden Technologien modular aufgebaut, so dass eine einfache Adaptierung von Innovationen der bildgebenden Sensoren (iToF, dTOF und SPAD) und der Beleuchtung (LED, VCSEL und kantenemittierender Laser) möglich ist. Darüber hinaus ist die Verwendung der Plattform für NIR und SWIR möglich. Der omnidirektionale Sensor in seiner aktuellen Ausbaustufe stellt somit lediglich eine von vielen Möglichkeiten bei der Implementierung dieser neuartigen Technologien dar.

Stetige Optimierung durch Kunden-Feedback

Um den Robotik-Anforderungen gerecht zu werden, entwickelt Jabil Optics den Sensor stetig weiter. „Unser Entwicklungsziel ist es, den Kunden eine optimale Sensorleistung in einer möglichst kleinen, kostengünstigen und stromsparenden Lösung zu bieten“, erklärt Ian Blasch, Senior Director of Business Development bei Jabil Optics. „Anforderungen an Datenformate, On-Sensor-Verarbeitung und Konnektivität ändern sich ständig in der Robotikbranche. Unser Beta-Testprogramm für den omnidirektionalen Sensor wird es uns ermöglichen, gezieltes Feedback von Kunden und Partnern im Robotik-Ökosystem zu sammeln.“ Das Entwicklungskit als modulares System kann jederzeit an kundenspezifische Anforderungen (u.a. mechanische Abmessungen, Sichtfeld, Reichweite, Wellenlänge, Energieverbrauch) angepasst und optimiert werden. Das Beta-Entwicklungskit kann über den QR-Code angefordert werden.



  • Mind the Gap

    Conventional line-scan hyperspectral imagers are fundamentally constrained so they cannot simultaneously provide good imaging and high throughput needed for large SNR. To…


  • Gelungene Premiere

    Das von HD Vision Systems und Partnern (AT Sensors, Balluff, Lucid Vision, Pepperl+Fuchs, …) erstmalig organisierte Intelligent Automation & Inspection Forum im…


  • Licht vermessen

    Für die Vermessung der Wirkungen von Licht gibt es zwei Möglichkeiten: eine neutrale und eine menschenbezogene. Jede der beiden besitzt ein eigenes…


  • Welcome back

    Vom 20. bis 21 Mai findet das Comeback der CHII (Conference on Hyperspectral Imaging in Industry) in Graz statt. An den zwei…


  • Premiere!

    Da die Messe Control auf einen Zwei-Jahres-Rhythmus gewechselt ist und erst 2027 wieder stattfindet, veranstaltet die P. E. Schall in diesem Jahr…


  • Vision Weighing

    Modern egg grading increasingly relies on vision-based systems to support consistent quality assessment and efficient grading at high capacity. In Sanovo grading…


  • CRA & Machine Vision

    Für IDS beeinflusst der CRA vor allem, wie wir sicherheitsrelevante Rückmeldungen aus dem Feld verarbeiten: Hinweise müssen schnell bewertet und in Korrekturen…


  • Thomas Hopfner

    Machine-Vision-Software ist eine wesentliche Komponente von modernen Produktionssystemen.


  • Anne Wendel

    Beim Cyber Resilience Act (CRA) handelt es sich um eine neue europäische CE-Kennzeichnungsverordnung, die in Gänze ab Dezember 2027 Anwendung findet.


  • I’m (not) on fire

    Industrial lumber manufacturing is a high-speed, high-volume industry that operates machinery with intense friction at all most stages of a production. Common…