„Unser Leitfaden dient Entwicklerinnen und Entwicklern sowie Anbietern von KI als Orientierung“, erklärt Jessica Heesen, Leiterin der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme.

„Unser Leitfaden dient Entwicklerinnen und Entwicklern sowie Anbietern von KI als Orientierung“, erklärt Jessica Heesen, Leiterin der Arbeits-gruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. (Bild: Plattform Lernende Systeme)

Die Autoren nennen in ihrem Whitepaper ‚Ethik-Briefing‘ konkrete Anforderungen und geben Praxisbeispiele für eine verantwortungsvolle KI-Entwicklung und -Anwendung in Unternehmen. Abstrakte ethische Werte und Prinzipien wie die Diskriminierungsfreiheit oder Transparenz der KI-Systeme gilt es, in die Praxis umzusetzen.

Der Leitfaden greift dabei den ‚Ethics by, in and for Design‘-Ansatz auf, den die Bundesregierung in ihrer KI-Strategie verfolgt. „Als Faustregel gilt: Je höher die Risiken durch den Einsatz eines KI-Systems sind, desto mehr Gewicht soll bereits im Entwicklungsprozess die Einhaltung ethischer Prinzipien haben“, erklärt Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen und Leiterin der Arbeitsgruppe IT-Sicherheit, Privacy, Recht und Ethik der Plattform Lernende Systeme. Selbstbestimmung, Gerechtigkeit und der Schutz der Privatsphäre sind – so steht es in dem Leitfaden – übergeordnete Werte für eine verantwortungsvolle KI-Entwicklung.

„KI-Systeme sollten immer mit dem Ziel entwickelt und eingesetzt werden, zu ethisch legitimen Anwendungen beizutragen, idealerweise zur Förderung des Gemeinwohls“, so der Mitautor Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie (KIT) und Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag. „Beim Einsatz von KI muss Schaden für Einzelpersonen, Gemeinschaften und Umwelt vermieden werden. Die Systeme müssen rechtskonform und technisch robust sein. Sie dürfen zu keinem Zeitpunkt ein unannehmbares Sicherheitsrisiko darstellen.“

Um die Selbstbestimmung der Nutzer zu gewährleisten, sollten Technologieunternehmen erklärbare KI-Systeme konzipieren, die Ergebnisse und Entscheidungen für den Nutzer nachvollziehbar machen. Die Autoren empfehlen außerdem ein zentrales KI-Register, das in Kooperation zwischen Wirtschaft und öffentlicher Hand betrieben wird. Zudem sollten die Unternehmen bei der Entwicklung offene Schnittstellen in ihre Systeme integrieren und sie interoperabel konzipieren, um die Vielfalt des Marktangebots zu erhalten.

(dw)

Sie möchten gerne weiterlesen?