29.05.2017
News

Trends & Visions vom Embedded Vision Summit

Vom 1. bis 3. Mai trafen sich Experten, Anbieter, Anwender und Investoren im Santa Clara Convention Center

  • Jeff Bier, Gründer der Embedded Vision Alliance
  • inspect, offizieller Partner des Embedded Vision Summit

 „What´s hot?“, brachte es Rudy Burger von Woodside Capital Partners auf den Punkt. Die Branche ist elektrisiert von Mega-Deals, wie der 15 Mrd. US-$ Übernahme des israelischen Automotive-Spezialisten Mobileye durch Intel. Einig waren sich alle, dass Computer Vision an einem entscheidenden Wendepunkt steht, weg von einer Nischen-Technologie, hin zum Massenprodukt: „Vision for all!“ Jeff Bier, Gründer der Embedded Vision Alliance, Veranstalter des Embedded Vision Summits, hat dabei fünf aktuelle Vision-Trends identifiziert, die nach seiner Ansicht in den nächsten Jahren einen erheblichen Einfluss auf Industrie und Gesellschaft haben werden.

Trend 1: Die Datenflut

Digitalkameras werden immer billiger, immer besser und sind inzwischen allgegenwärtig – jedes Smartphone alleine besitzt schon mindestens zwei davon. Multipliziert man die Datenmenge pro Bild mit der riesigen Zahl täglich aufgenommener Bilder und Videos und mit der ständig wachsenden Zahl von Kameras so wird klar, dass Image-Sensoren bei weitem mehr Daten produzieren werden als alle anderen Sensortypen zusammen.
Ein Trend, den Michael Tusch, CEO von Apical, verdeutlicht: 2016 wurden geschätzt weltweit etwa 120 Mio. IP-fähige Kameras (z.B. Überwachungskameras) neu installiert. Sollten nur diese Kameras ihre HD-Videodaten alle online mit einer Datenrate von jeweils 10 Mbit/s streamen, so würde dies einen Daten-Tsunami von ca. 400 Exabyte pro Monat auslösen (1 Exabyte = 1 Mrd. Gigabyte). Zum Vergleich: Der gesamte globale IP Datenverkehr beträgt aktuell „nur“ ca. 100 Exabyte pro Monat. Tusch ist deshalb überzeugt, dass zukünftig nur noch die wenigsten IP-Kameras ihre Daten streamen werden. Stattdessen sind intelligente Strategien zur Daten-Kondensation gefragt.

Trend 2: Deep Learning

Schon oft totgesagt, aber Deep Learning Algorithmen wie z.B. CNNs (Convolutional Neural Networks) können nicht nur Personen und Objekten auf Bildern mit bisher unerreichter Genauigkeit identifizieren, sondern auch die Beziehungen und Interaktionen zwischen ihnen verstehen. Kombiniert man dies mit der Fülle an Kameradaten aus Trend 1, so ergeben sich ungeahnte Möglichkeiten.

Trend 3: 3D Sensing

Kamera-Technologien wie Time-of-flight, Structured Light oder Stereo Vision ermöglichen es Computern die Welt um sie herum nicht nur zu sehen, sondern auch Strukturen und Maßstäbe zu erkennen – z.B.: Wie weit ist etwas entfernt?

Wie groß ist es? Schon in naher Zukunft sollen Smartphones über solche 3D-Kameras verfügen und so zu potentiellen 3D-Scannern werden. Das führt unmittelbar zu Trend Nr. 4.

Trend 4: SLAM

SLAM (Simultaneous Location and Mapping) bezeichnet, vereinfacht gesagt, Algorithmen, mit deren Hilfe ein intelligentes Gerät eine 3D-Karte seiner Umwelt konstruieren und gleichzeitig seine eigene Position darin bestimmen kann. Diese Technologie ist z.B. essentiell für Roboter oder selbstfahrende Autos, um in ihrem Umfeld sicher zu navigieren und zu agieren. Jeff Bier ist überzeugt: „SLAM wird das nächste GPS.“

Trend 5: Die Edge-Revolution

Erstaunlich genug, dass uns die beschriebenen Technologien bereits heute zur Verfügung stehen - jedenfalls in Großrechnern und in der Cloud. Aber noch viel faszinierender ist die Aussicht, dass all dies schon in naher Zukunft auch „on the edge“ möglich sein soll, d.h. in intelligenten Geräten an den Enden des Datennetzes, z.B. in Smartphones, Wearables oder in Embedded-Prozessoren im Fahrzeug.
Jeff Bier prophezeit in diesem Zusammenhang, dass sich die Kosten und der Stromverbrauch von Computer Vision Anwendungen innerhalb von nur drei Jahren um den Faktor 1000 verringern werden und teilt diesen Fortschritt grob auf – in 10-mal effektivere Algorithmen, 10-mal speziellere Prozessoren sowie 10-mal leistungsfähigere Frameworks und Tools (z.B. Compiler): 10 x 10 x 10 = 1000. Dies wird ganz neue Geräte und Anwendungen hervorbringen, die sicherer, autonomer, leichter zu bedienen und intelligenter sein werden als wir uns das heute vorstellen können.
Die Präsentationen vom Embedded Vision Summit stehen jetzt unter dem untenstehenden Link gegen Registrierung zum kostenfreien Download bereit. Der nächste Summit in Santa Clara findet statt vom 22. bis 24. Mai 2018.

Weitere Informationen finden Sie hier.

Kontaktieren

Embedded Vision Alliance
1646 North California Blvd., Suite 220
CA 94596 Walnut Creek
Telefon: +1 925 954 1411
Telefax: +1 925 954 1423

Jetzt registrieren!

Die neusten Informationen direkt per Newsletter.

To prevent automated spam submissions leave this field empty.