Die Bremer Forschungsbereiche des DFKI arbeiten an einer Methode, um die Vorteile von schnellem, eigenständigen Lernen und verlässlicher Verifikation zu kombinieren. Die Wissenschaftler wollen das Funktionieren der Methodik an einem Roboter demonstrieren, der damit das sichere Laufen erlernen soll.

Die Bremer Forschungsbereiche des DFKI arbeiten an einer Methode, um die Vorteile von schnellem, eigenständigen Lernen und verlässlicher Verifikation zu kombinieren. Die Wissenschaftler wollen das Funktionieren der Methodik an einem Roboter demonstrieren, der damit das sichere Laufen erlernen soll. (Bild: Deutsches Forschungszentrum für Künstliche Intelligenz)

Aus Erfahrung: Selbstlernende Systeme haben sich als effektiv, schnell und vielversprechend für die Entwicklung von künstlicher Intelligenz (KI) erwiesen. Allerdings kann eine KI-Anwendung dort, wo Risiken existieren und Verlässlichkeit wichtig ist – beispielsweise beim sicheren Laufen eines humanoiden Roboters – nicht ausschließlich geschätzte Werte einsetzen, die durch subsymbolische Verfahren aus dem Training in der Simulation gezogen wurden. Die KI-Anwendung muss mathematische, physikalische und statistische Modelle anwenden, um Korrektheit sicherzustellen.

Die Kombination von subsymbolischen, selbstlernenden Algorithmen und solchen, die auf mathematischen Regeln und Abstraktionen basieren, hat sich als schwierig erwiesen. Die Entscheidungen, die von einem Programm getroffen werden, das Deep Learning einsetzt, basieren nicht auf symbolischen Berechnungen und lassen sich deshalb nicht durch logische Regeln erklären. Das Problem sollen nun zwei Forschungsbereiche des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Bremen lösen: Sie entwickeln eine neue Methode für einen sicheren, selbstlernenden Kontrollmechanismus. Er soll die Vorteile von schnellem, eigenständigen Lernen und verlässlicher Verifikation kombinieren. Zur Demonstration der Methode soll ein humanoider Roboter das Laufen lernen.

Herausforderungen bei risikobehafteten KI-Anwendungen

Drei Herausforderungen stellen sich, wenn es um diese Art von KI-Anwendung geht: Erstens gibt es keine standardisierten physikalischen Modelle für die mechanischen und kinematischen Eigenschaften eines humanoiden Systems, das sich – aufgrund ebenjener physikalischen Eigenschaften – nicht nur auf Trainingsdaten verlassen kann. Zweitens sind die Ergebnisse des Systems, sollte es sich nur auf sein Training und keine standardisierten Modelle verlassen, nicht verifizierbar – das System würde sich wie eine Black Box verhalten. Die dritte Herausforderung ist deshalb die mathematische Beschreibung des robotischen Systems – der Schlüssel zu seiner Verifikation und der erfolgreichen Anwendung von Reinforcement Learning, bei dem das System dafür belohnt wird, das mathematisch korrekte Ergebnis zu erlangen.

Fortlaufende Systemverbesserung durch symbolische Modelle

Das Ziel des Projekts VeryHuman ist deshalb die Abstraktion kinematischer Modelle vom robotischen System, die symbolisch validiert werden können. Diese Abstraktion ermöglicht die Definierung von Belohnungsfunktionen für das Reinforcement Learning und die mathematische Verifikation der Entscheidungen auf Basis der abstrahierten Modelle. Durch Simulationen und Optimal-Control-Algorithmen (Berechnungen, die nach dem optimalen Weg für das Erreichen eines bestimmten Ziels suchen) kann das System – in diesem Fall der humanoide Roboter – fortlaufend durch das Wissen über die symbolischen Modelle verbessert werden; so kann es den aufrechten Gang oder sogar Rennen und Springen erlernen. Vergleichsweise kann auch ein autonom fahrendes Auto in der Simulation lernen, wie es am besten die Bremse handhabt, während es weiß, wann es physisch zum Halten kommen muss, um in jedem Fall einen Unfall zu verhindern.

(dw)

Sie möchten gerne weiterlesen?