Schwachstellen offenbart

970 Schwachstellen: Welche Gefahren der Einsatz von KI birgt

Veröffentlicht Geändert
Cybersecurity Digital Lock Data Protection
Digitale Infrastruktur unter Beschuss: Die zunehmende Integration von Künstlicher Intelligenz in Unternehmensprozesse schafft neue Angriffsflächen für Cyberbedrohungen – ein zentrales Risiko für Konzerne im S&P 500.

Eine aktuelle Analyse deckt auf: Der wachsende KI-Einsatz bei Tech- und Halbleiterunternehmen geht mit erheblichen Sicherheitsrisiken einher. 970 Schwachstellen zeigen, dass Effizienzgewinne zunehmend von neuen Bedrohungspotenzialen begleitet werden.

Künstliche Intelligenz ist in der Wirtschaft angekommen. Laut einer Untersuchung von Cybernews setzen mittlerweile 65 % der S&P-500-Unternehmen KI-Technologien in ihren Geschäftsprozessen ein – vom Kundenservice über Forschung und Entwicklung bis hin zu Anwendungen in der kritischen Infrastruktur. Dabei werden sowohl eigene Modelle als auch Drittanbieterlösungen verwendet, etwa für Sprachverarbeitung, Datenanalyse oder Automatisierung. Doch die wachsende Durchdringung mit KI führt nicht nur zu Effizienzgewinnen, sondern auch zu einer erheblichen Vergrößerung der Angriffsfläche. Insgesamt identifizierte das Forschungsteam 970 sicherheitsrelevante Schwachstellen in 327 Unternehmen.

Drei Hauptkategorien: Insecure Output, Datenlecks, IP-Diebstahl

Die am häufigsten beobachtete Risikokategorie betrifft unsicheren KI-Output (205 Fälle). Systeme liefern fehlerhafte, veraltete oder gefährliche Informationen – ein Risiko insbesondere in regulierten Branchen wie Medizin, Finanzen und Energieversorgung. Ursachen sind oft mangelhafte Trainingsdaten, veraltete Informationsquellen oder gezielte Datenmanipulation durch externe Angreifer. Ein medizinisches System, das auf Basis falscher Daten eine riskante Behandlung vorschlägt, oder ein Finanzbot, der fehlerhafte Anlageentscheidungen ausgibt, stellt in solchen Fällen eine direkte Gefahr für Leib und Leben dar.

An zweiter Stelle stehen Datenlecks (146 dokumentierte Fälle), bei denen KI-Systeme unbeabsichtigt sensible Informationen wie personenbezogene Daten, Unternehmenskennzahlen oder Quellcode preisgeben. Häufig passiert dies über sogenannte Prompt-Injection-Angriffe, bei denen Angreifer durch gezielte Eingaben versuchen, vergangene Chatverläufe oder Trainingsdaten offenzulegen. Aber auch Konfigurationsfehler und unzureichend kontrollierte Schnittstellen erhöhen das Risiko, dass vertrauliche Daten in die falschen Hände geraten.

Ebenfalls gravierend sind die 119 dokumentierten Fälle potenziellen geistigen Eigentumsdiebstahls. Dabei wird entweder direkt auf Trainingsdaten mit geschützten Inhalten zugegriffen oder das Modell selbst durch systematisches Abfragen rekonstruiert – eine Technik, die als Model Extraction bekannt ist. Über kompromittierte APIs oder durch Insiderwissen können Angreifer proprietäre Modelle nachbauen und wirtschaftlich verwerten.

Die Auswertung von Cybernews dokumentiert 970 potenzielle KI-Sicherheitsrisiken bei S&P-500-Unternehmen. Spitzenreiter sind unsichere KI-Ausgaben (205 Fälle), gefolgt von Datenlecks (146) und dem Diebstahl geistigen Eigentums (119) – besonders kritisch für Branchen mit sensiblen oder regulierten Daten wie Finanzen, Gesundheit oder Energieversorgung.
Die Auswertung von Cybernews dokumentiert 970 potenzielle KI-Sicherheitsrisiken bei S&P-500-Unternehmen. Spitzenreiter sind unsichere KI-Ausgaben (205 Fälle), gefolgt von Datenlecks (146) und dem Diebstahl geistigen Eigentums (119) – besonders kritisch für Branchen mit sensiblen oder regulierten Daten wie Finanzen, Gesundheit oder Energieversorgung.

Technologie, Finanzen, Gesundheitswesen besonders betroffen

Am stärksten betroffen ist die Technologiebranche, insbesondere Software- und Halbleiterunternehmen. Hier wurden 202 sicherheitsrelevante Vorfälle bei 61 Firmen identifiziert, darunter 40 Fälle potenziellen IP-Diebstahls, 34 unsichere Ausgaben und 32 Datenlecks. Die hohe Konzentration an sensiblen Algorithmen und firmeneigenem Code macht diese Unternehmen besonders angreifbar.

Im Finanzsektor wurden 158 Fälle bei 56 Unternehmen registriert. Neben 35 Datenlecks fallen hier 22 Fälle algorithmischer Voreingenommenheit ins Gewicht. In Kreditvergabe oder Risikoprüfung können historische Verzerrungen im Trainingsdatensatz zu diskriminierenden Entscheidungen führen. Hinzu kommen 32 Fälle potenziell unsicherer Ausgaben sowie 18 Versuche, KI-basierte Kontrollmechanismen zu umgehen.

Auch das Gesundheitswesen ist stark exponiert. Bei 44 analysierten Unternehmen wurden 149 potenzielle Risiken festgestellt. Besonders kritisch sind hier die 19 dokumentierten Gefährdungen der Patientensicherheit – etwa durch fehlerhafte Diagnosen oder Therapieempfehlungen. Zusätzlich gab es 24 Datenlecks und 28 Fälle unsicherer Ausgaben.

Die Cybernews-Analyse zeigt: In Technologie-, Finanz- und Gesundheitsunternehmen häufen sich KI-Sicherheitsvorfälle deutlich. Allein im Technologiesektor wurden 202 Fälle erfasst, darunter 40 IP-Diebstähle. Auch im Finanzwesen dominieren Datenlecks, unsichere Ausgaben und algorithmische Verzerrungen. Besonders kritisch ist die Lage zudem in Bereichen mit hohem Risiko für Patientensicherheit und kritischer Infrastruktur, wo manipulierte KI-Ausgaben oder Angriffe auf Versorgungsnetze weitreichende Folgen haben können.
Die Cybernews-Analyse zeigt: In Technologie-, Finanz- und Gesundheitsunternehmen häufen sich KI-Sicherheitsvorfälle deutlich. Allein im Technologiesektor wurden 202 Fälle erfasst, darunter 40 IP-Diebstähle. Auch im Finanzwesen dominieren Datenlecks, unsichere Ausgaben und algorithmische Verzerrungen. Besonders kritisch ist die Lage zudem in Bereichen mit hohem Risiko für Patientensicherheit und kritischer Infrastruktur, wo manipulierte KI-Ausgaben oder Angriffe auf Versorgungsnetze weitreichende Folgen haben können.

Kritische Infrastruktur und Industrie: Angriffsvektor für physische Systeme

In der Energie- und Versorgungsbranche sowie in der industriellen Fertigung wurden zusammen 217 Fälle gefunden und analysiert, darunter 38 dokumentierte Angriffsmöglichkeiten auf kritische Infrastrukturen. Besonders relevant ist dies für Sektoren wie Stromnetze, Wasseraufbereitung oder chemische Anlagen. Manipulierte Sensordaten könnten hier dazu führen, dass automatisierte Kontrollsysteme falsche Reaktionen auslösen – mit potenziell katastrophalen Folgen. Allein im Energiesektor wurden 35 solcher Schwachstellen festgestellt.

In der Industrie zeigt sich zudem eine hohe Verwundbarkeit durch Lieferkettenrisiken (12 Fälle), etwa durch kompromittierte Drittanbieter-Tools oder unsichere Updates. Die zunehmende Automatisierung durch KI in der Produktion erhöht hier die potenziellen Folgekosten bei einem Angriff erheblich.

Bias, Supply-Chain-Angriffe und Datenvergiftung

Neben den drei Hauptkategorien treten zunehmend weitere Risikotypen auf. Dazu gehören algorithmische Verzerrungen, bei denen durch einseitige Trainingsdaten gesellschaftlich unerwünschte Verhaltensmuster repliziert werden. Insgesamt wurden 37 solche Fälle dokumentiert, besonders im Finanzwesen. Auch gezielte Angriffe auf die Lieferkette von KI-Systemen nehmen zu – 54 entsprechende Vorfälle wurden identifiziert. Diese können sowohl während der Entwicklung als auch beim Rollout von KI-Komponenten erfolgen.

Ein wachsendes Problem stellt zudem die sogenannte Datenvergiftung (24 Fälle) dar, bei der Angreifer versuchen, Trainingsdaten zu manipulierern, um das Verhalten des Modells gezielt zu sabotieren. Hinzu kommt Model Evasion (38 Fälle). Hierbei umgehen Angreifer gezielt die Erkennung durch KI-gestützte Schutzsysteme.

Wenn KI zum Risiko wird

Die dokumentierten Risiken sind keine abstrakte Bedrohung. Bereits in der Vergangenheit kam es laut Cybernews zu Vorfällen mit realen Folgen. So offenbarte IBM Watson fehlerhafte medizinische Empfehlungen, die auf fragwürdigen Datenquellen basierten. Apples Kreditkarten-KI geriet 2019 wegen geschlechtsspezifischer Benachteiligung von Frauen in die Kritik. Zillow erlitt durch fehlerhafte Immobilienbewertungen auf KI-Basis Verluste von rund 500 Mio. USD. Samsung wiederum untersagte intern die Nutzung von ChatGPT, nachdem Quellcode durch Mitarbeitereingaben ungewollt offengelegt wurde.

KI darf kein Black Box bleiben

Um diesen Risiken zu begegnen, betonen Experten die Notwendigkeit robuster Sicherheitskonzepte. Dazu zählen Zero-Trust-Prinzipien für alle KI-Ausgaben, eine konsequente Datenklassifizierung, Zugriffskontrollen und automatisierte Ausgabefilter. Für Modelle und Trainingsdaten werden Verschlüsselung, Zugriffsbeschränkung und Monitoring empfohlen. Schutzmaßnahmen gegen Datenvergiftung und Modellumgehung sollten bereits in der Entwicklungsphase integriert werden – etwa durch adversariales Training und kontinuierliche Verhaltensanalyse. Auch Drittsysteme müssen systematisch geprüft werden, da jede Komponente ein potenzieller Angriffsvektor sein kann.

Der Autor: Martin Probst

Martin Probst

Zunächst mit einer Ausbildung zum Bankkaufmann in eine ganz andere Richtung gestartet, fand Martin Probst aber doch noch zum Fachjournalismus. Aus dem Motto „Irgendwas mit Medien“ entwickelte sich nach ein wenig Praxiserfahrungen während des Medienmanagement-Studiums schnell das Ziel in den Journalismus einzusteigen. Gepaart mit einer Affinität zu Internet und Internetkultur sowie einem Faible für Technik und Elektronik war der Schritt in den Fachjournalismus – sowohl Online als auch Print – ein leichter. Neben der Elektronik auch an Wirtschafts- und Finanzthemen sowie dem Zusammenspiel derer interessiert – manche Sachen wird man glücklicherweise nicht so einfach los. Ansonsten ist an ihn noch ein kleiner Geek verloren gegangen, denn alles was irgendwie mit Gaming, PCs, eSports, Comics, (Science)-Fiction etc. zu tun hat, ist bei ihm gut aufgehoben.

Weitere Artikel von Martin Probst.