Stapelweise Stabilität
3D-Snapshotkamera für automatisiertes Stapeln von Gütern
Das automatisierte Stapeln von Gütern in einem Blocklager ist nach wie vor eine technische Herausforderung. Umso schwieriger ist es, wenn es sich dabei um Güter handelt, die nicht formstabil sind. EK Robotics hat zusammen mit Sick hierfür 3D-ToF-Kameras mit einer Software zur Bildauswertung eingesetzt und in einem Pilotprojekt bei einem Kunden erfolgreich getestet.
 Der 3D-Sensor Visionary-T von Sick arbeitet nach dem Time-of-flight Prinzip und  erfasst den kompletten Raum vor den Gabelzinken in 3D.
Der 3D-Sensor Visionary-T von Sick arbeitet nach dem Time-of-flight Prinzip und erfasst den kompletten Raum vor den Gabelzinken in 3D.Bild: SICK IVP AB

Die automatisierte Ein- und Auslagerung von Paletten stellt für fahrerlose Transportfahrzeuge oft noch eine Einschränkung dar, wenn das Ladegut in sich nicht stabil ist und beim Transportieren verrutschen kann. Besonders wenn Paletten gestapelt werden müssen, ist ein akkurater Prozess zwingende Voraussetzung. Seit neustem kann dieser Prozess mit industrietauglichen 3D-Kameras umgesetzt werden. Deren Aufgabe besteht darin, 3D-Daten über Größe, Lage, Zustand sowie wichtige Information zur Umgebungsbeschaffenheit der Ladung zu erfassen. Der 3D-Sensor Visionary-T von Sick arbeitet nach dem Time-of-flight Prinzip. Durch die Montage unterhalb der Gabelzinken des autonomen Transportroboters (ATR), erfasst der Sensor den kompletten Raum vor den Gabelzinken in 3D. Eine leistungsstarke Beleuchtungseinheit, ein ausgeklügeltes Thermomanagement sowie eine intelligente Vorverarbeitung der aufgenommenen 3D-Rohdaten sorgen u.a. dafür, dass die Kamera 24/7 eingesetzt werden kann und auch bei schwierigen Lichtverhältnissen und schwankenden Temperaturen, präzise und zuverlässig 3D-Daten liefert. In Zusammenarbeit mit dem FTS-Hersteller EK Robotics, ist mit dem Einsatz des 3D-Sensors eine Lösung für den automatischen Be- und Entladeprozess mit intelligenten, fahrerlosen Transportfahrzeugen entstanden. Die von der Kamera erfassten Daten werden mithilfe einer von EK Robotics entwickelten Software in Echtzeit ausgewertet. Karsten Bohlmann, Head of Research & Development bei EK Robotics, beschreibt das so: „Wir haben den Staplern das Sehen beigebracht. So ist das Fahrzeug in der Lage, die genaue Art und Position der Beförderungsgüter und der Paletten zu erkennen. Das geht so weit, dass das FTF unterscheiden kann, ob es sich bei der identifizierten Oberkante der Last beispielsweise um Packfolie oder aber die Last selbst handelt. Auf diese Weise ist der eingesetzte Transportroboter in der Lage, auch instabile Güter von uneinheitlicher Höhe sicher aufzunehmen und sicher zu transportieren.“ Bei der Erprobung der prozesssicheren Beförderung leerer PET-Behälter, zeigte sich, dass die Lösung zu einer deutlichgeringeren Fehlerquote – verglichen mit der manuellen Steuerung – führt. Sowohl das Stapeln als auch Entstapeln, konnte mit höherer Präzision und gleichzeitig weniger Transportschäden durchgeführt werden.

Das könnte Sie auch Interessieren

Anzeige

Anzeige

Anzeige

Anzeige

Anzeige

Anzeige

Anzeige