Vibrations- und Schwingungsanalyse mit Event-based Vision

Vibrations- und Schwingungsanalyse mit Event-based Vision

Ob prädiktive Wartung, Erkennung von Fehlverhalten oder Prozessanalyse: Aus Vibrationen und Schwingungen von Maschinenkomponenten lassen sich Informationen ableiten. Ein neuer Lösungsansatz besteht in der Nutzung von Event-based Sensoren, integriert in eine intelligente Multiprozessorkamera.

Bild eines Kompressormotors (l.) und ein daraus resultierendes Event Based Vision (r.), auf dem das Schwingungsverhalten des Kompressors zu erkennen ist. (Bild: Imago Technologies GmbH)

Bild eines Kompressormotors (l.) und ein daraus resultierendes Event Based Vision (r.), auf dem das Schwingungsverhalten des Kompressors zu erkennen ist. (Bild: Imago Technologies GmbH)

 

1b (Bild: Imago Technologies GmbH)

1b (Bild: Imago Technologies GmbH)

Ob Rohre in einer Prozessanlage, Maschinenbauteile oder ein Elektromotor, stets geht es darum, sehr schnelle Bewegungen zu erfassen. Nimmt man beispielsweise von einem Kompressormotors mehrere Bilder mit 100Hz auf und berechnet die Bilddifferenzen, so wird man daraus nicht die Vibration des Motors bestimmen können. Schnell stellt man fest, dass die Kamera mit einer Bildwiederholrate von mehr als 2.000Hz arbeiten müsste, um dies zu erreichen. Auch wenn die Auflösung klein ist, das heißt bei 2.000Hz und VGA monochrome Auflösung, ergibt sich dabei eine Datenrate von mehr als 600MByte/s. Der Rechner müsste also einiges an Leistung mitbringen. Algorithmisch sucht man dabei zwischen den Bildern Kanten und wertet diese aus. Allerdings erhält man auch bei 2.000Hz lediglich Informationen im zeitlichen Abstand von 0,5ms. Helfen kann hier Event-based Vision.

Was ist Event-based Vision?

Die Event-based Sensoren von Prophesee, demnächst auch in Kooperation mit Sony erhältlich, enthalten intelligente Pixel. Jeder Pixel ´entscheidet´ für sich, ob sich etwas bewegt hat. Ist dies der Fall, so sendet er keine Grauwertinformation, sondern das Event, das heißt war es ein Hell-Dunkel- oder Dunkel-Hell-Wechsel? Ergänzt wird die Information durch die Position des Pixels und ein Zeitstempel in Mikrosekunden. Da jedes Pixel dies autark entscheidet, folgt daraus, dass es keine Bildraten mehr gibt. ´Frames per Second´ gehören somit der Vergangenheit an. Der Sensor liefert stattdessen einen Datenstrom von Events. Man verliert neben den Bilddaten auch eine feste Abtastrate (im beschriebenen Fall von 500µs). Dafür gewinnt man aber Events mit Timestamp und kann auf einer wesentlich höheren Abstraktionsebene die Frequenzen von Vibrationen ausrechnen. Bei der in der VisionCam EB (Event-based) von Imago Technologies integrierten Dual-Core ARM CPU landet der Eventdatenstrom im Speicher des Computers. Auf der CPU läuft ein Linux Betriebssystem, das auch die Nutzung weiterer Schnittstellen erlaubt, z.B. Gigabit-Ethernet, Real-Time gesteuerte I/Os und serielle Schnittstellen.

Bild 2 | Blockschaltbild der Multiprozessor kamera VisionCam EB (Event-based) von Imago Technologies, welche die Event-based Technologie von Prophesee integriert hat. (Bild: Imago Technologies GmbH)

Bild 2 | Blockschaltbild der Multiprozessor kamera VisionCam EB (Event-based) von Imago Technologies, welche die Event-based Technologie von Prophesee integriert hat. (Bild: Imago Technologies GmbH)

Bibliothek mit fertigen Funktionen

Muss jetzt der Entwicklungsingenieur neue Mathematik erlernen? Für Anwendungen der Vibrationskontrolle ist es nicht erforderlich, denn Prophesee stellt mit seiner Metavision Library bereits fertige Funktionen zur Verfügung, die die Frequenzen ermitteln. Welche Informationen wichtig sind, hängt von der Anwendung ab. Frequenzbereiche können einzeln analysiert und Alarme individuell definiert werden. Die VisionCam EB wird als intelligente, frei unter Linux programmierbare Kamera geliefert. Sowohl Prophesee als auch Imago Technologies bieten optional Unterstützung bei der Applikationsentwicklung an, von den Algorithmen hin bis zum einschaltfertigen Gerät. Was man bisher mit Highspeed Kameras, Framegrabbern und IPCs umsetzen musste, kann jetzt im Formfaktor einer intelligenten Kamera realisiert werden. Damit eröffnen sich auch gänzlich neue Anwendungen.

 (Bild: Imago Technologies GmbH)

(Bild: Imago Technologies GmbH)

 

Integrierte Applikationsanalyse

Schleust man Partikel durch ein längeres Rohr und gibt es dabei Abweichungen, so erkennt man es im Schwingverhalten des Rohres. Auch für Hersteller von Fließbändern ergeben sich neue Möglichkeiten. Egal ob Zuckerrüben oder Steine, ohne das Produkt sehen zu müssen, stecken im Vibrationsverhalten Informationen über das transportierte Produkt. In großen Papierproduktionsmaschinen sieht man den Gut-Zustand an verschiedenen Stellen der Analge über die Analyse des Vibrations- oder Schwingverhaltens. Elektromotoren zeigen Fehlverhalten an den Stellen, an denen sie mit der Maschine oder dem Boden befestigt sind. Hat man eine Anwendung und möchte diese analysieren, ist dies recht einfach: Im Starterkit der VisionCam EB befindet sich eine Anwendung, mit der Events aufgenommen und dargestellt werden können. Zudem gibt es den XYT-Viewer. Dessen Funktion ist es, die XY-Koordinaten jedes Events über die Zeit quasi als Film abzuspielen. Damit können Informationen sichtbar gemacht werden, die bisher in Prozessen nicht sichtbar waren. Zudem – mit etwas Abstraktionsvermögen – lassen sich mit dem XYT-Viewer auch Algorithmen ´erahnen´, mit denen die Daten anschließend ausgewertet werden können. Dies ist eine völlig neue Herangehensweise, die aber für Bildverarbeiter nicht unbekannt ist. Ein Bildverarbeitungsexperte sieht Bilder und darin auch die Mathematik, mit der er seine Aufgabe lösen wird.

Das könnte Sie auch Interessieren