Technologie auf Grundlage einer 3D-Kamera MotionCam-3D gibt Robotern Augen und Intelligenz

Parallel Structured Light-Technologie übertrifft 3D

Die wachsende Bedeutung einer hochwertigen Bildaufnahme von 3D-Szenen ist eng mit dem Aufkommen der industriellen Automatisierung und Robotisierung verbunden. Gewöhnliche Roboter müssen für die genaue Bewegung von Ort A nach B programmiert werden und können nicht auf die Umgebung reagieren. Tomáš Kovačovský, Mitbegründer und CTO von Photoneo, erklärt, dass Industrieroboter nicht sehen und denken und daher nicht reagieren können. Photoneo entschied sich daher, den Robotern „Augen und Intelligenz" zu geben, um nicht nur sehen, sondern auch verstehen und so auf verschiedene Situationen reagieren zu können. Kovačovský, Ján Žižka und Michal Malý gründeten Photoneo und entwickelten eine revolutionäre Technologie, die die Grundlage für ihre einzigartige 3D-Kamera MotionCam-3D bildet.

3D-Sensorik - wie funktioniert das alles?

Der Markt bietet eine breite Palette von Produkten, die es ermöglichen, 3D-Informationen zu erfassen. Die meisten sind jedoch nur in der Lage, statische Szenenaufzunehmen (3D-Scanner). 3D-Kameras, die eine 3D-Darstellung von Objekten in Bewegung ermöglichen, liefern eine Ausgabe von deutlich geringerer Qualität. Dies kann sich sowohl auf die Genauigkeit als auch auf die Auflösung beziehen. Während diese Kameras für die Spiele-Industrie völlig ausreichend sind (z. B. wenn man den XBox Kinect Sensor betrachtet, der ziemlich genau, intuitiv und schnell ist), haben sie Einschränkungen, die in industriellen Anwendungen zu einem Problem werden.

Alle auf dem Markt erhältlichen 3D-Kameras und 3D-Scanner basieren auf Technologien, die sich in drei Hauptkategorien unterteilen lassen: Time-of-Flight, Stereosehen und Technologien, die auf der Ausgabe eines strukturierten Lichtmusters basieren. Wie unterscheiden sich diese und welche ist am effektivsten?

Die Time-of-Flight-Technologie basiert auf der Messung der Zeit, in der ein von der Lichtquelle abgegebenes Lichtsignal auf das gescannte Objekt trifft und zum Sensor zurückkehrt. Während die Abtastgeschwindigkeit relativ hoch ist, ist die Begrenzung die Lichtgeschwindigkeit selbst. Schon ein kleiner Fehler bei der Berechnung des Lichteinfallsmoments kann zu einem Messfehler von Millimetern bis Zentimetern führen.

Eine weitere Einschränkung ist, dass diese Sensoren eine relativ geringe Auflösung aufweisen. Die Time-of-Flight-Technologie wird von Unternehmen wie Sony, Microsoft, Panasonic oder Espros eingesetzt.

Im Gegensatz dazu basiert die Technologie der aktiven Stereoabbildung (die in die Kategorie der Triangulationssysteme fällt) auf der Berechnung des Dreiecks: Kamera - gescanntes Objekt - Kamera. Die Standard-Stereoanlage sucht nach Korrelationen zwischen zwei Bildern (sie müssen eine Textur/ identische Details haben) und identifiziert aufgrund der Disparität den Abstand (die Tiefe) vom Objekt. Dieser Ansatz funktioniert jedoch nicht bei weißen Wänden, bei denen es grundsätzlich unmöglich ist, gemeinsame Details zu identifizieren. Um dieses Problem zu vermeiden, wurde ein Verfahren entwickelt, bei dem ein Lichtmuster auf die Oberfläche projiziert wird, das Korrespondenzen in der Szene erzeugt. Aber auch diese Technik hat ihre Grenzen. Die Identifizierung von Entsprechungen und die Messung eines einzelnen Tiefenpunktes erfordert mehrere Pixel, was zu einer geringen Anzahl von Messpunkten bei allgemein geringerer Robustheit führt. Diese Technologie bildet die Grundlage für 3D-Kameras von Intel, ZED oder Ensenso.

Ein weiteres Verfahren, das ebenfalls zu Triangulationssystemen gehört, ist die Beleuchtung des gescannten Objekts durch ein sogenanntes strukturiertes Licht. Die Technologie basiert auf der Projektion eines Lichtmusters von einem Projektor, wobei die Verformung des Musters von einer 2D-Kamera aufgezeichnet wird. In diesem Fall besteht das Dreieck aus einem Projektor - gescanntes Objekt - Kamera. Der große Vorteil gegenüber der aktiven Stereoanlage liegt in der einfacheren Berechnung. Andererseits ist das Lichtmuster eher spärlich, was einen Kompromiss zwischen der Qualität der Rekonstruktion (Genauigkeit) und der Anzahl der Messpunkte erfordert. Diese Technologie wird häufig von Unternehmen wie Apple oder Orbbec eingesetzt.

Interessanterweise ermöglicht keines der oben genannten Verfahren, bewegte Objekte in hoher Auflösung und gleichzeitig mit Submillimetergenauigkeit zu scannen. Photoneo stellte ein neuartiges, revolutionäres Verfahren zur 3D-Bildgebung von Objekten in Bewegung vor. Die patentierte Parallel Structured Light Technologie basiert auf einem speziell entwickelten CMOS-Bildsensor mit Mosaikverschluss. Die Ausgabe des Sensors wird direkt in der Kamera berechnet und die Daten werden anschließend an eine spezielle Software zur Darstellung einer Punktwolke gesendet. Diese Technologie ermöglicht der MotionCam-3D von Photoneo, eine 10-fach höhere Auflösung als andere 3D-Kameras zu liefern und Objekte mit einer Geschwindigkeit von bis zu 40 m/s aufzunehmen.

Den Robotern "Augen und Gehirn" geben

Dank der Fortschritte im Bereich Roboter-Vision ist die Automatisierung von Fertigungsprozessen in eine völlig neue Dimension vorgedrungen. Die Idee und wichtigste Vision ist es, Menschen effektiver arbeiten zu lassen und die Mitarbeiter von monotonen und gefährlichen Aufgaben zu entlasten, die von Robotern ausgeführt werden können.

Diese Systeme finden sich in Anwendungen mit Bin Picking-Lösungen, wie z. B. der robotergestützten Kommissionierung von zufällig platzierten Objekten aus einem Behälter und deren anschließender Platzierung an einem gewünschten Ort. Die Kamera erfasst die Szene, die Software lokalisiert das gescannte Objekt anhand eines CAD-Modells und sendet die Informationen an den Roboter. 3D-Sensorik in Bewegung wird häufig in bewegenden Produktionslinien eingesetzt, wo sich verschiedene Arten von Objekten auf einem Förderband bewegen und der Roboter mit ihnen mit Hilfe eines 3D-Visionssystems manipuliert. Photoneo hat auch eine KI-basierte Anwendung entwickelt, die es Robotern ermöglicht, Objekte verschiedener Formen und Größen zu lokalisieren und zu greifen. Die Anwendung benötigt keine CAD-Modelle, da sie auf maschinellem Lernen basiert.

Auf den ersten Blick kann das Konzept eines Roboterarms, der Objekte von einem Behälter zum anderen platziert, recht einfach klingen. Für einen Roboter bedeutet die Fähigkeit zu sehen jedoch eine immense Anzahl von Ziffern, die die Entfernung zu den einzelnen Punkten in der Szene darstellen. Die Verarbeitung dieser Zahlen, um die Position von Objekten im Raum zu verstehen, erfordert sehr fortschrittliche Algorithmen. Die Fähigkeit, Objekte zu erkennen, die teilweise von anderen Objekten verdeckt oder zufällig gedreht sind, ist eine absolute Notwendigkeit. Der Roboter muss auch zum richtigen Greifpunkt navigiert werden, wobei der Schwerpunkt des Objekts und die umgebenden Objekte berücksichtigt werden, um Kollisionen zu vermeiden. Jede Bewegung ist einzigartig und reagiert auf die auftretenden Situationen.

Neben der industriellen Produktion, der Palettierung, der Depalettierung und der Robotermanipulation hat die 3D-Maschinelles Sehen auch in der Qualitätskontrolle und Messtechnik einen Quantensprung bewirkt. Allmählich überschreitet die 3D-Bildverarbeitung die Grenzen der industriellen Produktion und dringt in Bereiche wie Medizin oder Lebensmittelindustrie vor. Die Anwendung in Drohnen ist auch eine Frage der relativ nahen Zukunft.

Die Zukunft leben

Trotz der beeindruckenden Fortschritte, die wir in den letzten Jahren gemacht haben, steht die Entwicklung von 3D-Bildgebungstechniken noch am Anfang. Das Anwendungsspektrum, in dem 3D-Kameras und 3D-Scanner eingesetzt werden können oder sogar notwendig sind, wächst immer weiter. Die Bedeutung der 3D-Bildaufnahme in der Industrie nimmt rasant zu, aber auch in der "normalen" Konsumwelt. Es gibt viel, worauf man sich freuen kann.

Autor(en)

Kontaktieren

Jetzt registrieren!

Die neusten Informationen direkt per Newsletter.

To prevent automated spam submissions leave this field empty.