Längenbegrenzung überwinden

Längenbegrenzung überwinden

Gigabit-Bus mit 15m Kabel für Embedded-Vision-Systeme

Embedded-Vision-Systeme haben den Vorteil, dass sie keine High-Level-Schnittstelle (USB oder GigE) benötigen. Dies spart Kosten und vermeidet durch Interfaces entstehende Effekte wie Latenzen in der Übertragung. Typischerweise kommen Sensor-Interfaces wie MIPI CSI2 oder parallele Datenübertragung zwischen CMOS-Kamerasensor und der Kameraschnittstelle der CPU zum Einsatz. Nachteilig ist, dass die Verbindung zwischen Kamerasensor und Embedded Controller auf einige Zentimeter beschränkt ist.
Als Faustregel sollten bei Verwendung eines parallelen Sensorinterfaces 30cm Leitungslänge nicht überschritten werden. Oft besteht in größeren Geräten die Anforderung, Kamerasensoren genau an bestimmten Positionen zu platzieren, die von der CPU-Platine weiter entfernt sind. Andere Anwendungen erfordern einen vom Hauptgerät abgesetzten Kamerakopf. Eine kosteneffiziente Verbindungslösung auch für längere Übertragungsstrecken stellt der Einsatz von LVDS-Schnittstellenkonvertern dar. Das phycam-G Konzept ergänzt durch eine kompakte Backplane die industrietauglichen phycam-Kameramodule um eine leistungsfähige LVDS-Signalübertragung. Mit einem nur sechsadrigen Twisted Pair Kabel sind Leitungen bis 15m möglich. Die maximale Datenrate beträgt 1GBit/s, wobei das Kabel bereits Spannungs- und Taktversorgung sowie einen Rückkanal beinhaltet. Gegenüber dem vorherigen System, das ebenfalls auf LVDS-Übertragung basiert, bietet die neue Variante nicht nur höhere Geschwindigkeit und Leitungslänge, sondern auch eine auf 12Bit/Pixel erhöhte Helligkeitsauflösung. Auf der Backplane wurden weitere Funktionen integriert, die häufig bei abgesetzten Kameraköpfen benötigt werden. So sind wahlweise ein Eingabetaster mit Signal-LED vorhanden, optoentkoppelte I/O-Leitungen oder ein EEPROM, das als Parameterspeicher benutzt werden kann. Optional kann die Backplane auch Flüssiglinsen von Varioptic ansteuern. Wird das Kameramodul mit einem entsprechenden Objektiv ausgestattet, kann die Anwendungssoftware über den phycam-G-Bus blitzschnell den Fokus der Kamera einstellen. Zum Einsatz ist neben der kameraseitigen Backplane lediglich ein zusätzlicher Chip auf den CPU-Board nötig, für den ein Design Guide zur Integration lieferbar ist. Für die Erprobung ist ein Entwicklungskit verfügbar, das eine Kamerabackplane und eine Receiverplatine enthält. Der Receiver kann direkt an alle Embedded Imaging Plattformen von Phytec angeschlossen werden.

Das könnte Sie auch Interessieren

Bild: ©Ryan/stock.adobe.com
Bild: ©Ryan/stock.adobe.com
Potenziale des Quantencomputings für die Bildverarbeitung

Potenziale des Quantencomputings für die Bildverarbeitung

Das Versprechen des Quantencomputings, komplexe Probleme mit bisher unerreichter Geschwindigkeit zu lösen, eröffnet neue Horizonte in zahlreichen Bereichen. Auch in der Bildverarbeitung könnten die Prinzipien der Quantenmechanik und deren Anwendung in Quantenalgorithmen zu signifikanten Fortschritten führen. Doch während die theoretischen Grundlagen vielversprechend sind, steht die praktische Umsetzung noch vor einigen Herausforderungen.

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Highspeed Vision Webinar

Highspeed Vision Webinar

Am Dienstag den 18. Juni findet ab 14 Uhr (CET) das inVISION TechTalks Webinar ‚High-Speed Vision‘ statt. Dabei stellen Emergent Vision, Baumer und Euresys verschiedene Themen in den Fokus wie Highspeed-Übertragungen mit RMDA: Pro & Contra, 100GigE Vision und kein Ende; 100G Highspeed Streaming über CoaXPress over Fiber FPGA IP Core, Ausblick auf GigE Vision 3.0 mit RDMA (ROCEV2)-Unterstützung …