Paradigmenwechsel

Bild 1 | Knapp 200 Fachleute kamen zur 20. Image Sensors Europe Konferenz nach London, um sich dort über aktuelle Entwicklungen bei Bildsensoren zu informieren.
Bild 1 | Knapp 200 Fachleute kamen zur 20. Image Sensors Europe Konferenz nach London, um sich dort über aktuelle Entwicklungen bei Bildsensoren zu informieren.- Bild: Smithers

In zwei dicht gepackten Konferenztagen spannten Keynotes, Fachvorträge und Panels den Bogen von hochauflösenden CMOS-Sensoren und neuen Pixelarchitekturen über Global-Shutter- und HDR-Konzepte bis zur KI-gestützten Signalverarbeitung, jeweils mit konkretem Bezug zu Anwendungen in Automotive, Industrie, Medizintechnik und Consumer Electronics.

Vom Bauteil zur Systemarchitektur

Bei den Präsentationen wurde deutlich, dass sich die Branche in einer Phase des Übergangs befindet. Klassische Leistungskennzahlen wie Quanteneffizienz, Rauschen, Pixelgröße und Dynamikumfang bleiben zwar relevant, doch sie allein definieren keinen Wettbewerbsvorteil mehr. Der Fokus verschiebt sich zunehmend auf das Zusammenspiel aus Sensor, Optik, Signalverarbeitung, Hardware-Integration und Software. Themen wie hybride Shutter-Architekturen, Single-Shot HDR und Sensor-AI Co-Design zeigten, dass sich die traditionelle Trennung zwischen Bildaufnahme und -verarbeitung auflöst. Neural ISP Ansätze sind heute in der Lage, ganze Abschnitte klassischer Bildpipelines zu ersetzen und Bilder direkt aus Rohdaten zu rekonstruieren. Die Differenzierung verlagert sich damit zunehmend von Hardwaremerkmalen hin zu Software- und Algorithmus-getriebenen Lösungen.

Pixel-Skalierung stößt an physikalische Grenzen

Ein Thema, das in London offen diskutiert wurde: Bringt die jahrzehntelange Miniaturisierung der Pixel überhaupt noch den erhofften Gewinn? Mehrere Referenten beantworteten das mit einem klaren Jein. Denn spätestens dort, wo die Pixelgröße in den Bereich der Beugungsgrenze der Optik rückt, liefert weiteres Shrinking kaum noch Auflösungsgewinn, dafür aber neue Probleme bei Empfindlichkeit und Rauschen. Entsprechend rücken Alternativen in den Vordergrund: Colour-Splitting-Konzepte, die das Licht effizienter und nach Farben aufgegliedert auf die Pixel verteilen, Metastrukturen zur gezielten Lichtlenkung, intelligentes Pixel-Binning und KI-gestützte Rekonstruktion aus unterabgetasteten Rohdaten. Pixel-Skalierung, so der Tenor, ist kein linearer Innovationspfad mehr, sondern ein Abwägen zwischen Physik, Optik, Systemkomplexität und Stückkosten.

Automotive & Industrie als Impulsgeber

Neben Smartphones erwiesen sich Automotive- und Industrieanwendungen erneut als Innovationstreiber. Im Automotive?Bereich steigt nicht nur die Anzahl der Kameras pro Fahrzeug deutlich, sondern auch die Anforderungen an Zuverlässigkeit unter allen Lichtverhältnissen, Validierung der Echtheit und Langzeitstabilität. Anders als im Consumer-Markt sind Ausfälle nicht akzeptabel, ein Umstand, der Design, Produktionsqualität und Qualifikationsprozesse nachhaltig prägt. Ähnliche Entwicklungen zeigen sich in der industriellen Bildverarbeitung. Zwar sind leistungsfähige Sensoren verfügbar, doch die Integration kompletter Vision?Systeme ist weiterhin zeit- und ressourcenintensiv. Digitale Zwillinge und kamerabasierte Simulationen, wie sie z.B. von Basler auf der Konferenz vorgestellt wurden, könnten hier einen entscheidenden Produktivitätsschub liefern, indem sie Design, Test und Inbetriebnahme signifikant beschleunigen.

Jenseits von RGB: Vision für KI-Systeme

Auffällig war, wie stark sich das Themenspektrum jenseits des sichtbaren Spektrums ausgeweitet hat. Multispektrale Sensoren, Tiefenbildgebung, Event-Based Vision und SWIR-Technologie waren in London keine Nischenthemen mehr, sondern standen gleichberechtigt neben den klassischen CMOS-Vorträgen. Am meisten Dynamik zeigte dabei der Defence- & Security-Bereich, wo diese Modalitäten bereits in konkrete Programme einfließen. Dahinter steht ein Wandel im Verwendungszweck: Immer seltener schaut ein Mensch auf das Bild. Stattdessen liefern Sensoren Rohdaten direkt an KI-Systeme, die autonom interpretieren und entscheiden, ob im Fahrzeug, der Fertigung oder medizinischen Diagnostik. Das verändert, wie Sensoren gebaut werden müssen, d.h. andere Schnittstellen, Datenformate, Optimierungsziele als in der klassischen Bildgebung für das menschliche Auge.

Bild 2 | Eine Diskussionsrunde unter der Leitung von Ronald Müller (Vision Markets, l.) beschäftigte sich auf der Konferenz mit den Themen Lieferketten & Packaging.
Bild 2 | Eine Diskussionsrunde unter der Leitung von Ronald Müller (Vision Markets, l.) beschäftigte sich auf der Konferenz mit den Themen Lieferketten & Packaging.Bild: Smithers

Supply Chain, Packaging & Resilienz

Dass eine Sensorkonferenz den Themen Lieferketten & Packaging eine eigene Diskussionsrunde widmet, wäre vor fünf Jahren kaum denkbar gewesen. Ronald Müller (Vision Markets) moderierte eine Runde, die zeigte, wie tief sich die Chipkrise und die geopolitischen Verwerfungen der letzten Jahre ins Bewusstsein der Branche eingebrannt haben. Die gute Nachricht: Die Versorgungslage hat sich spürbar entspannt. Wafer-Fabs und Back-End-Kapazitäten verteilen sich heute breiter, z.B. auf Japan, Europa und mit dem Chips Act auch verstärkt auf die USA. Die weniger gute: Von China als Zulieferer und Absatzmarkt ist die Branche nach wie vor noch nicht entkoppelt. Was bleibt, ist ein strategischer Kurswechsel. Regionalisierung und Dual-Sourcing sind nicht mehr Effizienzthemen, sondern Risikomanagement und dieser Schwenk dürfte langfristig bestehen bleiben.

Wissenschaft als Innovationsmotor

Dass die extremsten Anforderungen an Bildsensoren nicht aus der Industrie kommen, sondern aus der Wissenschaft, machte ein Vortrag der ESO (European Southern Observatory) deutlich. Es ging um das Extremely Large Telescope, derzeit im Bau in der chilenischen Atacama-Wüste: ein Instrument mit einem 39m-Primärspiegel, in dessen Fokalebene mehr als 750 Scientific-CMOS-Sensoren arbeiten sollen. Die Spezifikationen lesen sich wie eine Wunschliste am physikalischen Limit: 90×90mm Sensorfläche, 15µm Pixelgröße und ein Dunkelstrom von einem Elektron pro Stunde (!) bei -70°C (Zum Vergleich: Industrielle CMOS-Sensoren spezifizieren Dunkelstrom typischerweise pro Sekunde).

Besonders spannend war auch der Ausblick auf gekrümmte Bildsensoren. Ein Ansatz, der optisch naheliegend ist, fertigungstechnisch aber extrem anspruchsvoll bleibt. Wer ein Teleskop mit gekrümmter Fokalebene baut, kann sich Feldkorrektoren sowie zusätzliche Linsenelemente sparen und gewinnt Lichtstärke, wo jedes Photon zählt. Die ESO bezifferte die aktuelle theoretische Grenze für die Krümmung mit dem Verhältnis x4 (Krümmungsradius/Sensordiagonale). Entscheidend dabei ist, dass die optimale Siliziumdicke im Stack nicht so dünn wie möglich ist, sondern ein Kompromiss aus mechanischer Stabilität und optischer Performance, ein Detail, das in der Industrie oft vereinfacht wird. Solche Projekte treiben Fertigungsprozesse, Materialforschung und Sensordesign in Bereiche, von denen die Volumenanwendungen fünf bis zehn Jahre später profitieren.

Fazit

Die Image Sensors Europe 2026 bestätigt einen fundamentalen Paradigmenwechsel: Die Bildsensorik transformiert sich von einer komponentenzentrierten Disziplin zu einer systemarchitektonischen Schlüsseltechnologie. Inkrementelle Verbesserungen auf Pixelebene, sei es durch optimierte Quanteneffizienz, reduziertes Dunkelstromrauschen oder höhere Dynamik, bleiben notwendige Voraussetzungen für leistungsfähige Bilderfassung. Die eigentliche Wertschöpfung verlagert sich aber zunehmend auf die Systemebene, d.h. auf die Integration von On-Chip-Signalverarbeitung, sensornaher KI-Integration, adaptiven Steuerungsalgorithmen und durchgängigen Daten-Pipelines vom Photon bis zur applikationsspezifischen Entscheidungslogik. Kurz: Bessere Pixel bleiben relevant, doch smartere Systeme definieren die nächste Evolutionsstufe der Machine Vision.