Dieses neuartige Robotersystem, das Forscher der National University of Singapore entwickelt haben, ist mit künstlichen Haut- und Sehsensoren ausgestattet sowie einem künstlichem Gehirn, das biologische neuronale Netzwerke nachahmt. Das Robotersystem wird mittels eines energieeffizienten neuromorphen Prozessors betrieben, dem Loihi-Chip von Intel.

(Bild: Intel / NUS National University of Singapore)

Das Forschungsteam der National University of Singapore, das hinter dem neuartigen Robotersystem mit ereignisgesteuerten künstlichen Haut- und Sehsensoren steht, wird von den beiden Assistenzprofessoren Harold Soh (li.) und Benjamin Tee (re.) geleitet. Weitere Teammitglieder sind Sng Weicong, Tasbolat Taunyazov und See Hian Hian.

Das Forschungsteam der National University of Singapore, das hinter dem neuartigen Robotersystem mit ereignisgesteuerten künstlichen Haut- und Sehsensoren steht, wird von den beiden Assistenzprofessoren Harold Soh (li.) und Benjamin Tee (re.) geleitet. Weitere Teammitglieder sind Sng Weicong, Tasbolat Taunyazov und See Hian Hian. Intel / NUS National University of Singapore

Die Forscher aus Singapur haben eine künstliche Haut entwickelt, die Berührungen mehr als 1.000 Mal schneller als das menschliche sensorische Nervensystem erkennen kann und Form, Beschaffenheit und Härte von Objekten zehnmal schneller identifiziert, als der Wimpernschlag eines Auges dauert (Er dauert etwa 300 bis 400 ms – Anm. d. Red). „Die Herstellung eines ultraschnellen künstlichen Hautsensors löst etwa die Hälfte des Puzzles, um Roboter intelligenter zu machen“, sagte der Assistenzprofessor Benjamin Tee, der die Forschungsgruppe gemeinsam mit seinem Kollegen Harold Soh leitet. Tee weiter: „Sie brauchen auch ein künstliches Gehirn, das letztlich Wahrnehmung und Lernen als ein weiteres entscheidendes Puzzlestück ermöglicht. Unsere einzigartige Demonstration eines KI-Hautsystems mit neuromorphen Chips wie dem Loihi von Intel stellt einen großen Schritt in Richtung Energieeffizienz und Skalierbarkeit dar“.

Blindenschrift lesen: Genauigkeit von über 92 %

In ihrem ersten Experiment verwendeten die Forscher eine Roboterhand mit dieser künstlichen Haut, um eine Braille-Schrift (Blindenschrift) zu lesen. Die taktilen Messdaten wurden via Cloud an die Loihi-Forschungsprozessoren weitergegeben, um die von der Roboterhand gefühlten Mikrobeulen in eine semantische Bedeutung umzuwandeln. Das System mit diesen Prozessoren erreichte dabei eine Genauigkeit von mehr als 92 % bei der Klassifizierung der Braille-Buchstaben und verbrauchte dabei 20 Mal weniger Energie als ein herkömmlicher Von-Neumann-Prozessor.

Aufbauend auf dieser Arbeit verbesserte das NUS-Team die Wahrnehmungsfähigkeiten von Robotern weiter, indem es sowohl Seh- als auch Berührungsdaten in einem neuronalen Netz mit Spitzenwerten kombinierte. Zu diesem Zweck beauftragten sie einen Roboter, verschiedene undurchsichtige Behälter mit unterschiedlichen Flüssigkeitsmengen zu klassifizieren, wobei sie sensorische Eingaben von der künstlichen Haut und einer ereignisbasierten Kamera verwendeten. Die Forscher verwendeten dieselben Tast- und Sehsensoren, um die Fähigkeit des Wahrnehmungssystems zu testen, Rotationsschlupf zu erkennen, was für ein stabiles Greifen wichtig ist.

„Wir sind von diesen Ergebnissen begeistert“

Flächige Tastsensoren für Roboter-Greifer

Ein Prototyp eines Tastsensors. Der dünnste bisher gebaute Sensor ist 1,7 cm dick und hat eine Messfläche von 5 x 5 cm.

Ein Prototyp eines Tastsensors. Der dünnste bisher gebaute Sensor ist 1,7 cm dick und hat eine Messfläche von 5 x 5 cm. ETH Zürich

Forscher an der ETH Zürich haben einen flächigen Tastsensor für Roboter entwickelt, der die einwirkenden Kräfte beim Greifen – Druck- und Scherkräfte – hochauflösend und präzise messen kann.

Sobald diese sensorischen Daten erfasst waren, schickte das Team sie sowohl an eine GPU als auch an den neuromorphen Intel-Forschungschip, um die Verarbeitungsfähigkeiten zu vergleichen. Die Ergebnisse, die auf der Robotics vorgestellt wurden, zeigen, dass die Kombination von ereignisbasiertem Sehen und Berühren unter Verwendung eines neuronalen Spitzennetzwerks eine 10 % höhere Genauigkeit bei der Objektklassifizierung im Vergleich zu einem reinen Sehsystem ermöglichte. Darüber hinaus zeigten sie, dass die neuromorphe Technologie vielversprechend ist, um solche Roboter mit Strom versorgen zu können. Die Loihi-Prozessoren verbrauchten 45 Mal weniger Strom als eine Hochleistungs-GPU und waren bei der Datenverarbeitung um 21 % schneller.

„Wir sind von diesen Ergebnissen begeistert“, sagte Soh. „Sie zeigen, dass ein neuromorphes System ein vielversprechendes Teil des Puzzles für die Kombination mehrerer Sensoren zur Verbesserung der Roboterwahrnehmung ist. Es ist ein Schritt in Richtung des Baus von energieeffizienten und vertrauenswürdigen Robotern, die in unerwarteten Situationen schnell und angemessen reagieren können.“ Soh und Tee wirken auch in der Neuromorphen Forschungsgemeinschaft von Intel (Intel Neuromorphic Research Community, INRC) mit.

(dw)

Sie möchten gerne weiterlesen?

Unternehmen

Intel GmbH

Dornacher Straße 1
85622 Feldkirchen
Germany