Der Leiter des Fraunhofer IOSB, Prof. Dr.-Ing. habil. Jürgen Beyerer, bei seiner Ansprache anlässlich der Jubiläumsfeier 10 Jahre Fraunhofer IOSB.

Der Leiter des Fraunhofer IOSB, Prof. Dr.-Ing. habil. Jürgen Beyerer, bei seiner Ansprache anlässlich der Jubiläumsfeier 10 Jahre Fraunhofer IOSB. (Bild: Maximilian Schwarz/Sevencity © Fraunhofer IOSB)

Zu seinem zehnjährigen Gründungstag Anfang März hat das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) in Karlsruhe aktuelle und künftige Herausforderungen ins Visier genommen. Ein Blick galt dabei der Künstlichen Intelligenz (KI) und dem Maschinellen Lernen. Sie sind zentrale Werkzeuge in der Forschungs- und Entwicklungsarbeit des Instituts. Das wurde auch im Rahmen der Festveranstaltung deutlich, bei der Experten aus Wirtschaft und Wissenschaft über das Thema ‚Digitalisierung: Was bleibt? Was wird?‘ diskutierten. „Jeder versucht heute mehr oder weniger jedes Problem mit ML-Verfahren und KI zu lösen“, konstatierte Institutsleiter Jürgen Beyerer. „Die Ergebnisse sind allerdings oft unberechenbar.“

KI-Engineering: Künstliche Intelligenz planbar machen

Daraus ergibt sich für das Fraunhofer IOSB ein wichtiger Forschungsfokus für die kommenden Jahre, nämlich ‚KI-Engineering‘, also die Herausforderung, aus dem Einsatz von KI und ML eine Engineering-Disziplin zu machen. Beyerer: „Das heißt, wie kommen wir bei rein datengestützten Verfahren zu einem methodischen Vorgehensmodell, wie man das auch sonst in den Ingenieurwissenschaften hat?“ Daran arbeiten die Forscher des Fraunhofer-Instituts laut Beyerer in verschiedenen Anwendungskontexten, die von der Steuerung des Energiesystems über mobile Roboter bis zur industriellen Automatisierung reichen.

Ziel sei, so Beyerer, alle diese Systeme auch bei Verwendung von KI-Algorithmen beherrschbar zu machen, ihre Entscheidungen nachvollziehen zu können und ihre Leistungsfähigkeit im Vorhinein planen zu können: „Ingenieure gehen normalerweise so vor, dass sie schon zur Entwurfszeit sicher sein können, dass ein System zur Laufzeit macht was es soll. Dahin wollen wir auch beim Einsatz von KI und ML kommen – und daran arbeiten wir mit Hochdruck.“

In die gleiche Kerbe schlägt der US-amerikanische KI-Experte Gary Marcus. „Wenn wir uns nicht darauf verlassen können, dass sich unsere KI zuverlässig verhält, sollten wir ihr nicht vertrauen“, schrieb er in einer aktuellen Veröffentlichung vom 17. Februar 2020 (The Next Decade in AI: Four Steps Towards Robust Artificial Intelligence). Und legte mit einem Zitat des Kollegen Francois Chollet nach: „Die Techniken des Deep Learning haben sich bisher als datenhungrig, oberflächlich, brüchig und begrenzt in ihrer Fähigkeit zur Verallgemeinerung erwiesen.“

(dw)

Sie möchten gerne weiterlesen?