Künstliche Intelligenz am Edge und Deep Learning

 

Höhere Auflösungen treiben Innovationen voran

 

Ereignisgesteuerte Kameratechnologie

 

Kostengünstige SWIR-Bildgebung

Die rasanten Fortschritte in der Sensor- und Automatisierungstechnik bringen erhebliche Veränderungen in der industriellen Bildverarbeitung mit sich. Durch künstliche Intelligenz (KI), Bildverarbeitungssoftware und neuartige Hardwarearchitekturen werden Branchen wie Fertigung, Gesundheitswesen, autonome Fahrzeuge und Robotik optimiert. Diese Änderungen führen bei einer Vielzahl von Anwendungen in allen Branchen zu Produktivitätssteigerungen, Kosteneinsparungen und besseren Entscheidungsgrundlagen.

Künstliche Intelligenz am Edge für die industrielle Bildverarbeitung

Edge-KI oder Edge Learning ist eine besondere Form der künstlichen Intelligenz, bei der Algorithmen und neuronale Netze für Deep Learning direkt mit Computergeräten am Rande eines Netzwerks verwendet werden. Die Datenverarbeitung erfolgt in erster Linie auf der Kamera, und die Informationen werden direkt in die verbundene Cloud exportiert. Diese Systeme haben den Vorteil, dass sie sich wiederholende Prozesse und Abläufe automatisieren und so den Stromverbrauch, die Netzwerklatenz und die Gesamteffizienz von Anwendungen optimieren.

Eine intelligente LUCID Vision Labs™ SENSAiZ CMOS-Kamera überwacht die Lagerbestände in einem Lebensmittelgeschäft und alarmiert das Personal, wenn die Vorräte unter eine bestimmte Menge fallen.
Abbildung 1: Eine LUCID Vision Labs™ SENSAiZ intelligente CMOS-Kamera überwacht die Lagerbestände in einem Lebensmittelgeschäft und alarmiert das Personal, wenn die Vorräte unter eine bestimmte Menge fallen.

Künstliche Intelligenz und hohe Auflösung für die industrielle Bildverarbeitung

Künstliche Intelligenz ist an und für sich kein brandneuer Trend. Deep-Learning-Modelle für neuronale Netze werden in immer kürzeren Abständen auf Anwendungen angewandt, wobei unglaubliche Ergebnisse erzielt werden. Was die LUCID Vision Labs™ SENSAiZ intelligente CMOS-Kamera auszeichnet, ist die einzigartige Kombination aus hoher Auflösung und KI. Frühere Versionen der KI für die industrielle Bildverarbeitung nutzten Sensoren mit etwas geringerer Auflösung, die das Bild mit VGA-Auflösung abtasteten.

Die AITRIOS-Umgebung ist eine B2B-Plattform aus einer Hand, die Werkzeuge und eine Umgebung für die Anwendungsentwicklung und Systemintegration bereitstellt. Bild mit freundlicher Genehmigung von Sony AITRIOS
Abbildung 2: Die AITRIOS-Umgebung ist eine B2B-Plattform aus einer Hand, die Werkzeuge und eine Umgebung für die Anwendungsentwicklung und Systemintegration bereitstellt. Bild mit freundlicher Genehmigung von Sony AITRIOS

Lucid Vision Labs hat sich mit Sony zusammengetan, um den 12,33-Megapixel-IMX500-Kamerasensor mit der AITRIOS-Plattform für Deep Learning zu kombinieren. Zusammen ermöglichen diese Technologien den Endnutzern die Entwicklung von KI-Tools zur Steigerung der Anwendungseffizienz, zur Einsparung von Ressourcen wie Strom und Bandbreite und zur Erforschung neuer Anwendungsbereiche. Darüber hinaus gibt es andere Kamerahersteller und Softwarepakete, die ähnliche Ziele erreichen, darunter einige Kameramodelle von Cognex in Kombination mit dem Vidi AI-Paket.

Ereignisbasierte industrielle Bildverarbeitung

Die ereignisbasierte industrielle Bildverarbeitung, auch bekannt als neuromorphes Sehen, ist eine Bildgebungsmethode, bei der der Kamerasensor, manchmal auch als dynamischer Bildsensor (DVS) bezeichnet, eine kontinuierliche Aufzeichnung der Belichtungsintensität vornimmt, die nicht durch einen Shutter behindert wird. Auf der Ebene der einzelnen Pixel werden Intensitätsänderungen asynchron und parallel aufgezeichnet, ähnlich wie bei neuronalen Netzen, um die begrenzten Rechenressourcen an Bord zu schonen.

Herkömmliche Sensoren (links) zeichnen Bilder mit einer festen Rate auf, unabhängig von Änderungen am Objekt im Bildfeld, während ereignisbasierte Sensoren (rechts) Änderungen an einzelnen Pixeln in Abhängigkeit von der Erkennung einer Intensitätsänderung des Bildfeldes erfassen.
Abbildung 3: Herkömmliche Sensoren (links) zeichnen Bilder mit einer festen Rate auf, unabhängig von Änderungen am Objekt im Bildfeld, während ereignisbasierte Sensoren (rechts) Änderungen an einzelnen Pixeln in Abhängigkeit von der Erkennung einer Intensitätsänderung des Bildfeldes erfassen.

Die ereignisbasierte Bildverarbeitung zeichnet sich durch eine geringe Latenz (in der Größenordnung von Mikrosekunden) und eine hohe zeitliche Auflösung aus, so dass die Bildrate vollständig entfällt, da nur die wesentlichen Bewegungsinformationen erfasst werden. Durch die Eliminierung der Bildrate haben die Bilder zudem eine hohe dynamische Auflösung und geringe Bewegungsunschärfe bei geringem Stromverbrauch der Kamera. Diese Art der Bildverarbeitung hat Potenzial für die Robotik, autonome Fahrzeuge und viele andere Industriebereiche.

Fortschritte in der SWIR-Bildgebung machen diese Technik erschwinglich

Bei der Bildgebung im kurzwelligen Infrarot (SWIR) wird typischerweise Licht im Wellenbereich zwischen 0,9 und 1,7 µm verwendet, es kann aber auch Licht von 0,7 bis 2,5 µm zum Einsatz kommen. Da die SWIR-Wellenlängen außerhalb des sichtbaren Spektrums liegen und typische Siliziumsensoren für sichtbares Licht nur bis etwa zum nahen Infrarotspektrum (zwischen 650 nm und 1 µm) empfindlich sind, werden SWIR-Sensoren aus anderen Materialien wie Indiumgalliumarsenid (InGaAs) und Indiumphosphid (InP) hergestellt. Bislang waren diese Sensoren sehr schwierig herzustellen, was zu hohen Preisen führte. Die Fortschritte bei der Herstellung von SWIR-Sensoren in den letzten Jahren haben jedoch die Herstellungseffizienz und damit die Erschwinglichkeit erheblich verbessert.

Die Quanteneffizienz (QE) herkömmlicher Silizium-Sensoren ist nur in einem Bereich von 900 nm bis 1 µm empfindlich, während InGaAs-Sensoren in einem viel größeren Bereich empfindlich sind, wie in diesem visuellen SWIR-InGaAs-Hybrid-Sensor zu sehen ist.
Die Quanteneffizienz (QE) herkömmlicher Silizium-Sensoren ist nur in einem Bereich von 900 nm bis 1 µm empfindlich, während InGaAs-Sensoren in einem viel größeren Bereich empfindlich sind, wie in diesem visuellen SWIR-InGaAs-Hybrid-Sensor zu sehen ist.
Abbildung 4: Die Quanteneffizienz (QE) herkömmlicher Silizium-Sensoren (links) ist nur in einem Bereich von 900 nm bis 1 µm empfindlich, während InGaAs-Sensoren in einem viel größeren Bereich empfindlich sind, wie in diesem visuellen SWIR-InGaAs-Hybrid-Sensor (rechts) zu sehen ist.

Die bisher hohen Preise für SWIR-Kameras stellten eine Zugangsbarriere für neue Anwender dar. Daher beschränken sich die derzeitigen Anwendungen dieser Technologie auf die Überwachung von Landwirtschaft und Umwelt, die Qualitätskontrolle für industrielle Anwendungen wie der Pharmazie und die Astronomie. Dank des günstigeren Preisniveaus kommen Endnutzer in die Lage, neue Anwendungsbereiche zu erkunden, zum Beispiel die Restaurierung von Kunstwerken und vieles mehr (Abbildung 5).

Rollen Sie über die Graphik, um das SWIR-Bild zu sehen

Visible The Last Judgment
SWIR The Last Judgment
Abbildung 5: Das Jüngste Gericht von Jan Provost, das vom Detroit Institute of Arts im SWIR-Wellenlängenbereich abgebildet wurde, zeigt die ursprüngliche Absicht des Künstlers, indem es die unter der Farbschicht liegende Zeichnung sorgfältig untersucht. Bildrechte: Detroit Institute of Arts. Verwendung mit Genehmigung.

Häufig gestellte Fragen

FAQ  
Ja, Edmund Optics verkauft die LUCID Vision LabsTM SENSAiZ intelligente CMOS-Kamera, die die AITRIOS-Software von Sony verwendet.
FAQ  
Nein, Edmund Optics bietet derzeit keine ereignisgesteuerten Kameras an.
FAQ  
FAQ  
Ja, Edmund Optics bietet die Objektive mit Festbrennweite der SWIR-Serie für bis zu 4/3” Sensoren mit C-Mount, M42 und F-Mount an. Ebenfalls verfügbar sind die SWIR-Objektive mit Festbrennweite der C-Serie und die telezentrischen SilverTL™ SWIR-Objektive.

Technische Informationen

  •  
    Anwendungshinweise
     
  •  
    Videos
     
  •  
    Webinare
     
  •  
    Veröffentlichte Artikel
     

Anwendungshinweise

Technische Informationen und Anwendungsbeispiele, darunter theoretische Grundlagen, Gleichungen, grafische Darstellungen und vieles mehr.

Bildgebungselektronik 101: Kamerasensoren für industrielle Bildverarbeitung
Lesen  

Bildgebungselektronik 101: Kameraauflösung und ihr Einfluss auf die Bildqualität
Lesen  

Bildgebungselektronik 101: Bessere Bilder durch richtige Digitalkamera-Einstellungen
Lesen  

Kameras
Lesen  

Sensoren und Objektive
Lesen  

Objektivanschlüsse
Lesen  

Videos

Die informativen Unternehmens- oder Schulungsvideos enthalten sowohl einfache Tipps als auch Demonstrationen von Anwendungen zur Verdeutlichung der Produktvorteile.

Imaging Lab 1.5: Sensor Size
Anschauen  

Webinare

Hier finden Sie aufgezeichnete Webinare von Experten bei Edmund Optics® über einen großen Bereich an Themen aus Optik und Bildverarbeitung.

Ushering In A New Era Of Edge AI With Sony Aitrios™ and IMX500
Anschauen  

Veröffentlichte Artikel

Links zu Artikeln aus Fachzeitschriften, verfasst von unseren Ingenieuren und dem Management.

Lens Considerations Change for Large-format Cameras
Lesen  

Smaller sensor pixels challenge lens design
Lesen  

Sensor Standards Require Superior Optics
Lesen  

A Closer Look at Resolution Testing
Lesen  

Design Considerations for New High Resolution and Frame Rate CMOS Sensors
Lesen  

Next generation image sensors: Are suppliers ready to meet growing customer expectations?
Lesen  

Matching Lenses and Sensors
Lesen  

War dieser Inhalt nützlich für Sie?
 
Vertrieb & Beratung
 
weitere regionale Telefonnummern
Einfaches
ANGEBOTSTOOL
Geben Sie zum Starten die Produktnummer ein.