MIT-Forscher
22.06.2019, 18:30 Uhr
KI gibt Roboter «Vorstellung» von Berührung
Roboter sollen beim Anblick von Objekten erkennen können, wie diese sich anfühlen.
Forscher am Massachusetts Institute of Technology (MIT) haben eine Künstliche Intelligenz (KI) entwickelt, die Robotern beibringt, sich durch visuelle Eindrücke von Objekten «vorzustellen», wie sich diese anfühlen. Dadurch kann ein Roboterarm vorhersagen, welches Objekt und welchen Teil davon er anfassen wird.
«Indem sich der Roboter ein Objekt ansieht, kann er sich vorstellen, wie sich die Berührung mit einer scharfen Kante oder einer glatten Oberfläche anfühlt», so Forschungsleiter Yunzhu Li. Die KI wurde auch darauf programmiert, Berührungen in visuelle Bilder umzuwandeln.
Durch Sehen Berührung lernen
«Das Greifen von Objekten ist ein grosses Thema in der Robotik. Alleine, wo ein Roboterarm hingreift, ist wichtig, aber auch, wie stark er zudrücken kann, ohne ein Objekt zu beschädigen. Prinzipiell ist es relativ schwierig, nur anhand eines Bildes von der Oberfläche des Objektes diese Informationen zu kennen. Das Ziel wäre ein völlig unbekanntes Objekte gleich beim ersten Mal richtig anzugreifen und zu transportieren», so Hubert Gattringer, stellvertretender Leiter des Instituts für Robotik an der Johannes Kepler Universität.
Um die KI zu entwickeln, hat das Team eine gewöhnliche Web-Kamera genutzt. Diese hat fast 200 Objekte, wie Werkzeuge, Haushaltsgegenstände und Stoffe, gefilmt, wie sie mehr als 12'000 Mal angefasst wurden. Diese Videos wurden in statische Bilder konvertiert und in einer Datenbank aus drei Millionen Fotos namens «VisGel» organisiert. Die Infos wurden einem Roboterarm gegeben, der mit einer Kamera und einem Berührungssensor ausgestattet ist. Der Arm wusste nur anhand der Bilder, an welcher Stelle er ein Objekt greifen konnte, ohne vorher mit ihm interagiert zu haben.
Autor(in)
Georg
Haas, pte