Ultraflacher Kamerasensor mit 110°x30° Gesichtsfeld

Alles im Blick

Ultraflacher Kamerasensor mit 110°x30° Gesichtsfeld

Im Forschungsprojekt Sitara wurde ein ultraflacher Kamerasensor entwickelt, der Bilder mit einem Aspektverhältnis 4:1 vom Fahrzeugumfeld oder Innenraum mit hoher Dynamik liefert.

Vergleich des bereichs für Sensoren mit verschiedenen Aspektverhältnissen und der resultierenden Auflösung. (Bild: Bild SPIE)

Vergleich des bereichs für Sensoren mit verschiedenen Aspektverhältnissen und der resultierenden Auflösung. (Bild: Bild SPIE)

Autonome Fahrzeuge sind im Kommen Nur wie werden sie sich orientieren? Verschiedenste Radar-, Lidar- und Kameralösungen sind in der Erprobung. Dazu kommen Daten aus GPS- und Ultraschallsensoren. Mit zunehmender Rechnerleistung wird die Verarbeitung und Kombination der Datenströme zwar immer besser, aber gerade bei der Frage der optimalen Sensorik hat sich noch kein Verfahren wirklich durchgesetzt. Eine Kombination verschiedener Sensoren erscheint wahrscheinlich, einige Grundforderungen stehen dabei für alle Verfahren gleichermaßen: Die Sensoren müssen klein und preiswert sein. Sperrige Aufbauten auf dem Dach und Sensorik für fünfstellige Eurobeträge mögen in der Entwicklungsphase noch durchgehen, für die Serienfertigung sind sie ungeeignet. Bereits 2013 hat sich daher ein deutsches Konsortium die Entwicklung „kostengünstiger, intelligenter und lichtstarker Kameras mit großem Dynamikumfang sowie kurzen Baulängen von weniger als 5mm“ vorgenommen.

Sitara Projekt

Gefördert vom BMBF haben sich im Projekt ´Selbstadaptierende intelligente Multiaperturkamera-Module´ (Sitara) acht Firmen und Institute zusammengetan und vier Jahre lang unter anderem an passender Kameratechnik für autonome Fahrzeuge gearbeitet. Mit dabei waren Daimler, DResearch, Fraunhofer IOF, das Institut für angewandte Physik der Friedrich-Schiller-Universität Jena, IHP, Sick, First Sensor Microelectronic Packaging und Jabil Optics Germany. Die Anforderungen waren durchaus komplex: Einerseits sollten die Fertigungskosten minimiert werden. Dafür wurde die Fertigung der mikrooptischen Objektive auf Wafer-Level sowie eine automatisiert Chip-zu-Chip Objektiv-Montage vorgeschlagen. Andererseits sollte eine möglichst hohe Dynamik (bis 120dB) und gleichzeitig eine hohe Empfindlichkeit erreicht werden. Neben der Integration mikroelektronischer Schaltungen war vor allem der Einsatz von Multiapertur-Optiken vorgesehen. Derren Verwendung zusammen mit den integrierten Halbleiterstrukturen sollte eine Reduzierung der Bauhöhe unter 5mm ermöglichen.

Breites Bildfeld

Die Anforderungen an das Sichtfeld der Kamera waren horizontal 120 bis 160° und in vertikaler Richtung 30 bis 40°. Das entspricht einem Aspektverhältnis von 4:1, wofür bislang keine Sensoren im Automobilbereich verfügbar sind. Bei autonomen Fahrzeugen sollen die Kameras Schilder ab einer Entfernung von 300m wahrnehmen, daher wird eine Auflösung von mindestens 25 Pixeln pro Grad gefordert. Im Vergleich zu Sensoren aus dem Consumerbereich müssen die Kameras einen Global Shutter ermöglichen und wesentlich höhere Anforderungen erfüllen. Inzwischen sind Sensoren mit >7MP für PkWs verfügbar, dort wäre die dazugehörige Optik aber immer noch zu dick. Daraus ergab sich der Ansatz, mehrere Kamerasensoren für dieses Verfahren zusammenzusetzen.

Vier Augen sehen mehr

Das Systemdesign wurde mit zwei Sensoren vom Typ OnSemi AR0231 mit 1.928×1.208 Pixeln begonnen. Damit war die Auflösung über einen Winkel von knapp 160° mit der nötigen Auflösung gegeben. Bei der Entwicklung einer passenden Optik am Fraunhofer IOF konnte man auf Erfahrungen mit Minikameras zurückgreifen, die ähnlich wie ein Insekten- bzw. Facettenauge funktionieren. Während dort allerdings über 100 optische Kanäle ausgewertet werden, reichte für das Projekt eine Lösung mit vier optischen Kanälen mit jeweils 30×30° Sichtbereich. Für die Tests wurden Facettenspiegel mit 90° Umlenkung benutzt. Für eine Montage an der Frontscheibe mit 60° Neigung könnten die Spiegel natürlich durch solche mit 30° Umlenkung ersetzt werden. Die genaue Ausrichtung der Spiegel in allen Dimensionen hat großen Einfluss auf das spätere Stitching und wurde für ein bestmögliches Abbildungsergebnis optimiert. Für eine perfekte Erkennung der verschiedensten Verkehrszeichen muss die optische Abbildung über das ganze sichtbare Spektrum optimal sein. Deshalb haben die Designer für die Abbildung zuerst einen Achromat aus Glas gewählt. Vor allem für die Korrektur der räumlichen Verzeichnungen wurde eine Asphäre aus Kunststoff genommen, die mit dem Polymer-auf-Glas-Verfahren als Chip hergestellt wird. Zudem wurde ein NIR-Sperrfilter direkt vor dem Sensor hinzugefügt, wie er auch in Mobiltelefonkameras üblich ist. Die verbleibende nichtlineare Verzeichnung liegt bei unter 1%. Als thermische Stabilität ist im Automobilbereich ein Temperaturbereich von -40 bis 105°C angesetzt. Im Unterschied zu Kunststofflinsen bleibt die UV-gehärtete Polymer-auf-Glas-Linse bis 250°C stabil. Die thermisch induzierte Fokusverschiebung wird im Wesentlichen über die Fassung ausgeglichen.

Anwendungen im Innenraum

Der Kameraprototyp mit einer Bauhöhe von 4,5mm wurde im Rahmen des Projektes getestet. Die Fertigungstechnik wurde dabei von Anfang an auf größere Stückzahlen konzipiert. In einer ersten Testreihe wurden vor allem die optischen Kenngrößen wie Auflösung und Gesichtsfeld verifiziert. Neben der Bilderfassung im Fahrzeugumfeld haben sich inzwischen weitere Anwendungsmöglichkeiten im Innenraum ergeben: So kann der Sensor Segmente oder den ganzen Innenraum aufnehmen. Dank seiner speziellen Geometrie könnte der Sensor auch eine komplette 3D-Aufnahme liefern. Neben der Gesichtserkennung von Fahrer oder Beifahrer spielt die Gestenerkennung und -steuerung dabei eine große Rolle. Die Erfassung von Bildern aus dem Fahrzeuginnenraum ist auch ein Ziel eines Nachfolgeprojektes, das kürzlich mit einem Tier-1-Zulieferer begonnen wurde.

Fraunhofer IOSB

Das könnte Sie auch Interessieren