Stereo-3D-Kamera unterstützt Roboter

Stereo-3D-Kamera unterstützt Roboter

Eine exakte Positionsbestimmung ungeordneter Teile ist Voraussetzung für einen sicheren Griff des Roboters. Die Stereo-3D-Kamera Ensenso bietet eine Lösung für die 3D-Bilderfassung an, die nicht nur in Sachen Präzision überzeugt, sondern auch in punkto Wirtschaftlichkeit und Schnelligkeit. Die bsAutomatisierung GmbH nutzt die Möglichkeiten der Kamera für ein überaus flinkes Bin-Picking Projekt.
Nach wie vor zählt der ‚Griff in die Kiste‘ zu den am schwierigsten zu lösenden Aufgaben in der robotergestützten Fertigung. Um unsortierte Teile aus einer Gitterbox oder einer Schäferkiste heraus zu greifen, müssen zuerst Form, Größe, Position und Orientierung der Objekte zuverlässig erkannt werden. Erst mit diesen Informationen lässt sich dann ad hoc eine kollisionsfreie Roboterbahn generieren. Doch bereits bei der Erfassung der 3D-Daten beginnt das Problem, denn neben einer hinreichenden Genauigkeit und Vollständigkeit sind auch hohe Taktraten und Prozessstabilität gefordert. Die wenigen bisher angebotenen Lösungen sind entweder zu langsam oder sie erreichen nicht die nötige Prozessstabilität, um auch in der Serienfertigung eingesetzt werden zu können; oder sie sind schlichtweg zu aufwändig. Mit der Stereo-3D-Kamera Ensenso N10 lassen sich jetzt die Ansprüche an Taktrate, Verfügbarkeit und Wirtschaftlichkeit von Robot Vision-Applikationen unter den sprichwörtlichen Hut bringen. Die industrietaugliche Kamera mit USB-Anschluss integriert nicht nur zwei Global Shutter CMOS-Sensoren mit WVGA-Auflösung und eine leistungsfähige Software in einem kompakten Gehäuse, sondern auch einen IR-Patternprojektor. Dieser wirft ein zufälliges Punktmuster auf das aufzunehmende Objekt, womit auf dessen Oberfläche nicht oder schwach vorhandene Strukturen ergänzt bzw. hervorgehoben werden. Denn für das Stereo-Matching werden prägnante Stellen im Bild benötigt. Das Objekt wird dann von den beiden Bildsensoren entsprechend des Stereo-Vision-Prinzips erfasst und mittels der geometrischen Zusammenhänge der Triangulation werden schließlich für jeden Bildpunkt die 3D-Koordinaten rekonstruiert bzw. berechnet. Selbst wenn relativ monotone Bauteile in der Kiste aufgenommen werden, lässt sich so ohne zusätzlichen technischen Aufwand ein praktisch lückenloses, vollflächiges und detailreiches 3D-Bild generieren. Das alles funktioniert in wenigen Millisekunden.

Taktzeiten unter 10s

Diese Schnelligkeit nutzt die bsAutomatisierung und setzt die Ensenso in ihren Bin-Picking-Roboterzellen ein. Das Unternehmen ist auf die Entwicklung und den Bau von Anlagen für das schnelle und präzise Be- und Entladen von Produktionsmaschinen und das Teile-Handling spezialisiert. Mit den Bin-Picking-Zellen der Schwaben lassen sich in Kisten ungeordnet bzw. chaotisch liegende Teile automatisiert vereinzeln und nachfolgenden Fertigungsprozessen zuführen. Sie erreichen Taktzeiten von unter 10s, was mit herkömmlichen Lösungsansätzen, wie z.B. dem Lichtschnittverfahren, nicht zu realisieren wäre. Je nach Anwendung und Kundenanforderung werden die Zellen mit klassischem Mehrachs-Industrieroboter oder einem Linearportalroboter angeboten. Sie sind modular aufgebaut, können an verschiedene Behältergrößen angepasst werden und sind für einen oder bis zu vier Kisten ausgelegt. Dabei wird jede Kiste von zwei stationär montierten Kameras beäugt. Im Gegensatz zu einer direkt am Roboterarm installierten Kamera hat dieser Aufbau zwei Vorteile. Zum einen kann eine höhere Taktrate des Systems realisiert werden. Während aus der einen Kiste gegriffen wird, kann in der anderen Kiste die Objekterkennung schon wieder gestartet werden. Selbst wenn in der Anlage nur aus einer Kiste gegriffen werden soll, kann der Suchprozess beginnen, während der Roboter das zuletzt gegriffene Teil an anderer Stelle ablegt. Zum zweiten lassen sich die Bilder verschiedener Kameras einfach zueinander kalibrieren, denn die Kamerasoftware ist von vorneherein für den Mehrkamerabetrieb ausgelegt. Durch den gleichzeitigen Einsatz von zwei oder mehr Kameras lässt sich eine Szene synchron von verschiedenen Seiten aufnehmen, wodurch Abschattungen reduziert und das Bildfeld erweitert werden. Im Mehrkamerabetrieb liefert die N10-Software ebenfalls eine einzige 3D-Punktewolke, in der die Daten aller eingesetzten Kameras enthalten sind. Die resultierende Genauigkeit kann durch die Anzahl der montierten Kameras nahezu beliebig skaliert werden. Außerdem ermöglicht die Software nicht nur die Kombination mehrerer Stereo-Kameras, sondern auch deren Einsatz in Verbindung mit herkömmlichen Industriekameras, z.B. um zusätzliche Farbinformationen oder Barcodes zu erfassen. Last, but not least übernimmt die Software die Steuerung der beiden CMOS-Sensoren und des Pattern-Projektors sowie die Erfassung und Vorverarbeitung der 3D-Daten. So wird ein Optimum aus Framerate und Bildqualität erreicht und der Auswerte-PC entlastet. Die Kamera ist für Arbeitsabstände von 260 bis 1400mm und für variable Bildfelder konzipiert. Mit den angebotenen Brennweiten von 3,6 bis 16mm lässt sich ein breites Entfernungs- und Größenspektrum abdecken. Im Gegensatz zu anderen 3D-Aufnahmeverfahren kann die Kamera sowohl stehende als auch bewegte Objekte mit einer Framerate von bis zu 30fps erfassen. Trotz der beiden Sensoren und des eingebauten Projektors misst sie nur ca.150x45x45mm und wiegt kaum 400g. Neben der Version mit USB 2.0-Schnittstelle wird demnächst auch ein Modell mit GigE-Anschluss und zwei 1,3MP CMOS-Sensoren von e2v erhältlich sein.

Sofort metrische 3D-Daten

Für OEMs und Systemintegratoren, wie die bsAutomatisierung, ist aber ein weiterer Vorteil der Kamera entscheidend. Sie liefert metrische 3D-Daten bereits ‚out of the box‘. Somit kann die Kamera sofort eingebaut werden. Lediglich der Roboter muss zur Kamera kalibriert werden, was mittels einer am Greifer montierten Kalibrierplatte erfolgt. Die Software errechnet daraus die Montageposition der Kamera und die 3D-Daten werden im Koordinatensystem des Roboters repräsentiert. Die erfassten Bilder werden mit Halcon 11 ausgewertet. Anschließend werden die Zielkoordinaten der gefundenen Teile sowie ein Abbild des restlichen Kisteninhalts als dynamisches Hindernis an ein Softwaremodul weitergeleitet, das daraus zusammen mit den CAD-Daten der Zelle, des Roboters und des Greifers eine kollisionsfreie Roboterbahn generiert. Diese wird in die Robotersteuerung übertragen und ausgeführt. Aufgrund von Ungenauigkeiten, Fehlerkennungen und verrutschenden Teilen kann es dazu kommen, dass der Greifversuch fehlschlägt. Über verschiedene Sensoren im Greifer und über eine Kollisionsüberwachung zwischen Greifer und Flansch erkennt der Roboter dies, fährt selbstständig aus der Kiste und versucht es an anderer Stelle erneut. Ein menschlicher Eingriff ist dabei nicht nötig. Der ganze Vorgang wird von einer SPS kontrolliert und gesteuert. Sie ist es auch, die dem Bildverarbeitungssystem sagt, wann in welcher Kiste nach welcher Art von Teilen gesucht werden soll.

IDS Imaging Development Systems GmbH

Das könnte Sie auch Interessieren