Ultraflacher Kamerasensor mit 110°x30° Gesichtsfeld

Alles im Blick

Ultraflacher Kamerasensor mit 110°x30° Gesichtsfeld

Im Forschungsprojekt Sitara wurde ein ultraflacher Kamerasensor entwickelt, der Bilder mit einem Aspektverhältnis 4:1 vom Fahrzeugumfeld oder Innenraum mit hoher Dynamik liefert.

Vergleich des bereichs für Sensoren mit verschiedenen Aspektverhältnissen und der resultierenden Auflösung. (Bild: Bild SPIE)

Vergleich des bereichs für Sensoren mit verschiedenen Aspektverhältnissen und der resultierenden Auflösung. (Bild: Bild SPIE)

Autonome Fahrzeuge sind im Kommen Nur wie werden sie sich orientieren? Verschiedenste Radar-, Lidar- und Kameralösungen sind in der Erprobung. Dazu kommen Daten aus GPS- und Ultraschallsensoren. Mit zunehmender Rechnerleistung wird die Verarbeitung und Kombination der Datenströme zwar immer besser, aber gerade bei der Frage der optimalen Sensorik hat sich noch kein Verfahren wirklich durchgesetzt. Eine Kombination verschiedener Sensoren erscheint wahrscheinlich, einige Grundforderungen stehen dabei für alle Verfahren gleichermaßen: Die Sensoren müssen klein und preiswert sein. Sperrige Aufbauten auf dem Dach und Sensorik für fünfstellige Eurobeträge mögen in der Entwicklungsphase noch durchgehen, für die Serienfertigung sind sie ungeeignet. Bereits 2013 hat sich daher ein deutsches Konsortium die Entwicklung „kostengünstiger, intelligenter und lichtstarker Kameras mit großem Dynamikumfang sowie kurzen Baulängen von weniger als 5mm“ vorgenommen.

Sitara Projekt

Gefördert vom BMBF haben sich im Projekt ´Selbstadaptierende intelligente Multiaperturkamera-Module´ (Sitara) acht Firmen und Institute zusammengetan und vier Jahre lang unter anderem an passender Kameratechnik für autonome Fahrzeuge gearbeitet. Mit dabei waren Daimler, DResearch, Fraunhofer IOF, das Institut für angewandte Physik der Friedrich-Schiller-Universität Jena, IHP, Sick, First Sensor Microelectronic Packaging und Jabil Optics Germany. Die Anforderungen waren durchaus komplex: Einerseits sollten die Fertigungskosten minimiert werden. Dafür wurde die Fertigung der mikrooptischen Objektive auf Wafer-Level sowie eine automatisiert Chip-zu-Chip Objektiv-Montage vorgeschlagen. Andererseits sollte eine möglichst hohe Dynamik (bis 120dB) und gleichzeitig eine hohe Empfindlichkeit erreicht werden. Neben der Integration mikroelektronischer Schaltungen war vor allem der Einsatz von Multiapertur-Optiken vorgesehen. Derren Verwendung zusammen mit den integrierten Halbleiterstrukturen sollte eine Reduzierung der Bauhöhe unter 5mm ermöglichen.

Breites Bildfeld

Die Anforderungen an das Sichtfeld der Kamera waren horizontal 120 bis 160° und in vertikaler Richtung 30 bis 40°. Das entspricht einem Aspektverhältnis von 4:1, wofür bislang keine Sensoren im Automobilbereich verfügbar sind. Bei autonomen Fahrzeugen sollen die Kameras Schilder ab einer Entfernung von 300m wahrnehmen, daher wird eine Auflösung von mindestens 25 Pixeln pro Grad gefordert. Im Vergleich zu Sensoren aus dem Consumerbereich müssen die Kameras einen Global Shutter ermöglichen und wesentlich höhere Anforderungen erfüllen. Inzwischen sind Sensoren mit >7MP für PkWs verfügbar, dort wäre die dazugehörige Optik aber immer noch zu dick. Daraus ergab sich der Ansatz, mehrere Kamerasensoren für dieses Verfahren zusammenzusetzen.

Vier Augen sehen mehr

Das Systemdesign wurde mit zwei Sensoren vom Typ OnSemi AR0231 mit 1.928×1.208 Pixeln begonnen. Damit war die Auflösung über einen Winkel von knapp 160° mit der nötigen Auflösung gegeben. Bei der Entwicklung einer passenden Optik am Fraunhofer IOF konnte man auf Erfahrungen mit Minikameras zurückgreifen, die ähnlich wie ein Insekten- bzw. Facettenauge funktionieren. Während dort allerdings über 100 optische Kanäle ausgewertet werden, reichte für das Projekt eine Lösung mit vier optischen Kanälen mit jeweils 30×30° Sichtbereich. Für die Tests wurden Facettenspiegel mit 90° Umlenkung benutzt. Für eine Montage an der Frontscheibe mit 60° Neigung könnten die Spiegel natürlich durch solche mit 30° Umlenkung ersetzt werden. Die genaue Ausrichtung der Spiegel in allen Dimensionen hat großen Einfluss auf das spätere Stitching und wurde für ein bestmögliches Abbildungsergebnis optimiert. Für eine perfekte Erkennung der verschiedensten Verkehrszeichen muss die optische Abbildung über das ganze sichtbare Spektrum optimal sein. Deshalb haben die Designer für die Abbildung zuerst einen Achromat aus Glas gewählt. Vor allem für die Korrektur der räumlichen Verzeichnungen wurde eine Asphäre aus Kunststoff genommen, die mit dem Polymer-auf-Glas-Verfahren als Chip hergestellt wird. Zudem wurde ein NIR-Sperrfilter direkt vor dem Sensor hinzugefügt, wie er auch in Mobiltelefonkameras üblich ist. Die verbleibende nichtlineare Verzeichnung liegt bei unter 1%. Als thermische Stabilität ist im Automobilbereich ein Temperaturbereich von -40 bis 105°C angesetzt. Im Unterschied zu Kunststofflinsen bleibt die UV-gehärtete Polymer-auf-Glas-Linse bis 250°C stabil. Die thermisch induzierte Fokusverschiebung wird im Wesentlichen über die Fassung ausgeglichen.

Anwendungen im Innenraum

Der Kameraprototyp mit einer Bauhöhe von 4,5mm wurde im Rahmen des Projektes getestet. Die Fertigungstechnik wurde dabei von Anfang an auf größere Stückzahlen konzipiert. In einer ersten Testreihe wurden vor allem die optischen Kenngrößen wie Auflösung und Gesichtsfeld verifiziert. Neben der Bilderfassung im Fahrzeugumfeld haben sich inzwischen weitere Anwendungsmöglichkeiten im Innenraum ergeben: So kann der Sensor Segmente oder den ganzen Innenraum aufnehmen. Dank seiner speziellen Geometrie könnte der Sensor auch eine komplette 3D-Aufnahme liefern. Neben der Gesichtserkennung von Fahrer oder Beifahrer spielt die Gestenerkennung und -steuerung dabei eine große Rolle. Die Erfassung von Bildern aus dem Fahrzeuginnenraum ist auch ein Ziel eines Nachfolgeprojektes, das kürzlich mit einem Tier-1-Zulieferer begonnen wurde.

Fraunhofer IOSB

Das könnte Sie auch Interessieren

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Robot Vision Webinar

Robot Vision Webinar

Am Dienstag den 28. Mai findet ab 14 Uhr das inVISION TechTalks Webinar ‚Robot Vision‘ statt. Dort stellen IDS (Machine Vision for Robotics – Technologies & Applications) und Roboception (Intelligent 3D robot vision plattform for end-users and distributors).

Bild: EMVA
Bild: EMVA
EMVA 1288 Standard Online Training

EMVA 1288 Standard Online Training

Am 18. Juni sowie am 3. Dezember findet ein dreitägiger Online-Kurs zur Norm 1288 der European Machine Vision Association (EMVA) statt. Ziel des Trainingskurses ist u.a. die vertiefte Kenntnis über die Grundlagen der neuen Version 4.0 sowie das Sammeln von praktischen Erfahrungen.

Bild: Mahr GmbH
Bild: Mahr GmbH
Mahr Innovation Days 2024

Mahr Innovation Days 2024

Am 12. bis 13. Juni findet in Göttingen bei Mahr die Innovation Days 2024 statt. Dabei stellt die Firma zahlreiche Neuheiten zur Oberflächenmessung und Messtechnik vor und gibt an beiden Tagen in zahlreichen Vorträgen einen Überblick über aktuelle Trends und Produkte.

Bild: Ing. Büro Roth GmbH
Bild: Ing. Büro Roth GmbH
KI und Siemens Industial Edge bei Krombacher

KI und Siemens Industial Edge bei Krombacher

Die Einsatzmöglichkeiten von KI sind enorm und betreffen viele Bereiche unseres Lebens. Entsprechend sind die Erwartungen im industriellen Sektor ebenfalls sehr hoch. Gleichzeitig steigen nicht nur die Einsatzmöglichkeiten, sondern auch die Anzahl der umgesetzten Projekte. Das solche Lösungen sehr zuverlässig und flexibel eingesetzt werden können, zeigt eine Anwendung aus der Abfüllung der Krombacher Brauerei.