Kran-AI

Autonome Steuerung von Kranen mit KI-Vision

Im Holzverladebereich von Zellstoffwerken werden Krane noch weitestgehend manuell gesteuert. In diese Automatisierungslücke stößt die Kran-AI (KAI) von Psiori, welche die autonome Steuerung von Kranen mittels KI-Vision ermöglicht.
Bild: Psiori GmbH

Die größte Herausforderung bei der Automatisierung der Holzverladevorgänge sind die sensorischen Unsicherheiten, die sich aus dem unförmigen Gutholzstämmen, den stark variierenden anliefernden LKWs, den schwankenden Licht- und Wetterverhältnisse unter freiem Himmel und ganz allgemein den noch wenig strukturierten und standardisierten Umgebung und manuellen Prozesse ergeben. Erst der Siegeszug von Deep Learning im Bereich Maschinelles Sehen macht heute eine robuste Lösung unter den beschriebenen Umgebungsbedingungen überhaupt möglich.

Systemarchitektur

Die künstliche Intelligenz KAI ist in der proprietären Kognitiven Architektur PACT implementiert und wird auf einer Hard- und Softwareplattform ausgeliefert, die an bestehende Krane nachgerüstet und in neue Krane integriert werden kann. KAI kommuniziert über den Industriebus mit der Kransteuerung (PLC), erhält von dort Informationen und sendet an sie Befehle. Zusätzlich zu den vorhandenen Informationen über Gelenkpositionen und -bewegungen setzt KAI optische Sensoren ein, um den eigenen Greifer, Ladung und Umgebung zu erfassen. Die Sensoren sind über ein eigenes Gigabit-Netzwerk mit den Computern verbunden, die eine parallele Verarbeitung der eingehenden Daten (ca. 2GBit/s) in Echtzeit ermöglichen. Je bildgebendem Sensor wird ein dedizierter Computer (‚Sensor Node‘) eingesetzt, der die eingehenden Rohdaten verarbeitet und relevante Informationen extrahiert. Nur die Ergebnisse werden dann mit deutlich niedrigerer Bandbreite an die zentrale Recheneinheit (‚Core‘) gesendet und dort in einem kohärenten, prädiktiven Weltmodell integriert und kontinuierlich fortgeschrieben. Auf Basis dieser Information trifft KAI in einer geschlossenen Regelschleife mit 20Hz Handlungsentscheidungen und bricht diese bis auf konkrete Ansteuerungssignale (meist Zielgeschwindigkeiten) an alle Achsen des Krans herunter.

Bild: Psiori GmbH

Perzeption

Jeweils im ersten Schritt der in den Sensor Nodes implementierten mehrschichtigen Bildverarbeitungsketten kommen künstliche Neuronale Netze zum Einsatz, die von den in Freiburg entwickelten U-Net und All-Conv-Net abgeleitet wurden. Im Falle des zentralen Sensors, einer an der Laufkatze montierten Industriekamera, ist dies das proprietäre ‚CraneNet‘ von Psiori. Dieses erkennt und segmentiert die Greiferaufhängung und den Greifer sowie am Prozess beteiligte Objekte (Ladung, Holzlager, LKW, Förderband) robust im Kamerabild. Durch den Einsatz eines Tiefen Neuronalen Netzes in der ersten Schicht der Bildverarbeitungskette und den Verzicht auf jegliche klassische Bildvorverarbeitung und Normalisierung zugunsten des Trainings und Deep Learnings wird eine Genauigkeit und Robustheit gegenüber Verdeckungen, Überlagerungen, Beleuchtungs- und Wetterschwankungen erreicht, die mit klassischen Bilderkennungsverfahren bisher so nicht möglich war.

Klassische, symbolische Verfahren des maschinellen Bildverstehens und der probabilistischen Robotik schließen sich an, um im Segmentierungsbild Objekte zu finden, zu verfolgen und geometrische Eigenschaften, wichtige Merkmale und Posen zu extrahieren. Hier kommen Verfahren wie Template-Matching, Partikel- und Kalmanfilter, Mutliple-Hypothesis-Tracking und Hypothesis Rejection zum Einsatz, die alle von der robusten Vorverarbeitung und Segmentierung durch das Neuronale Netz profitieren. Eine weitere Kamera am Fuß des Krans dient der Regelung der Greiferposition während des LKW-Entladevorgangs. Hier kommt das ‚TruckNet‘ in einer ähnlichen Verarbeitungskette zum Einsatz. Die berechneten Informationen beider Perspektiven werden an den Core gesendet, wo sie dank der kalibrierten Kameras fusioniert und ins Weltmodell integriert werden können.

Data Loop & Training

Zum Training der Neuronalen Netze werden Trainingsdaten – tausende Beispielbilder mit der gewünschten Netzausgabe – benötigt, die zunächst gesammelt, kuratiert und händisch annotiert werden müssen. Psiori realisiert dies mit der Cloud-Komponente CRID und dem semi-automatischen Datenmanagement in einem proprietären Data Loop-Prozess. Die an CRID übermittelten Sensordaten werden dabei in Beziehung zu wichtigen Maschinendaten (Kranzustand, Ansteuerungsbefehle, Fehlfunktionen) und den Logdateien von KAI gesetzt und vollautomatisch indiziert, so dass bestimmte Situationen auch in einer Sammlung von Millionen von Kamerabildern innerhalb von Sekunden händisch oder programmatisch gefunden werden können.

Bild: Psiori GmbH

Fazit und Ausblick

Das System ist mit neuen Kranen der Andritz AG sowie als Nachrüstkit für bestehende Krane auch anderer Hersteller in Gänze oder in Modulen (z.B. Anti-Sway System, Kollisionsvermeidung, Zugriffsüberwachung) bereits erhältlich. Psiori arbeitet daran, die Teillösungen auch in anderen Branchen verfügbar zu machen und das Autonomielevel von der stetigen Überwachung durch einen Menschen hin zu höheren Leveln zu steigern.

Das könnte Sie auch Interessieren

Bild: LMI Technologies GmbH
Bild: LMI Technologies GmbH
Smart 3D Coaxial Line Confocal Sensors

Smart 3D Coaxial Line Confocal Sensors

LMI Technologies new Gocator 4000 series introduces coaxial line confocal sensor technology to provide high-speed, high-resolution, and versatile 3D inline inspection performance with angular range (Max. slope angle up to +/-85°). The sensors have 1,920 points/profile for shadow-free 3D measurement and inspection, resolutions up to 1.9µm, a FoV up to 5.0mm and speeds up to 16kHz.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Qualitativ gut

Qualitativ gut

Viel war im Vorfeld der Messe darüber gerätselt worden, wie die Control dieses Jahr ohne zahlreiche große Aussteller laufen würde. Mit 475 Aussteller in zwei Hallen – davon 38% aus dem Ausland – und 13.149 Fachbesuchern überraschend gut. Anbei einige der Messe-Highlight im Überblick.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Robot Vision Webinar

Robot Vision Webinar

Am Dienstag den 28. Mai findet ab 14 Uhr das inVISION TechTalks Webinar ‚Robot Vision‘ statt. Dort stellen IDS (Machine Vision for Robotics – Technologies & Applications) und Roboception (Intelligent 3D robot vision plattform for end-users and distributors).

Bild: EMVA
Bild: EMVA
EMVA 1288 Standard Online Training

EMVA 1288 Standard Online Training

Am 18. Juni sowie am 3. Dezember findet ein dreitägiger Online-Kurs zur Norm 1288 der European Machine Vision Association (EMVA) statt. Ziel des Trainingskurses ist u.a. die vertiefte Kenntnis über die Grundlagen der neuen Version 4.0 sowie das Sammeln von praktischen Erfahrungen.

Bild: Mahr GmbH
Bild: Mahr GmbH
Mahr Innovation Days 2024

Mahr Innovation Days 2024

Am 12. bis 13. Juni findet in Göttingen bei Mahr die Innovation Days 2024 statt. Dabei stellt die Firma zahlreiche Neuheiten zur Oberflächenmessung und Messtechnik vor und gibt an beiden Tagen in zahlreichen Vorträgen einen Überblick über aktuelle Trends und Produkte.