Kampf gegen gefälschte KI-Bilder und -Videos

Neue Sensorchips machen Deepfakes überprüfbar

Deepfakes eskalieren zur systemischen Gefahr für Vertrauen und Demokratie. Neue Sensorchips setzen direkt bei der Entstehung von Daten an: Sie signieren Bilder und Videos fälschungssicher und machen Manipulationen nachweisbar.  Dies ist ein technologischer Gegenangriff auf KI-Fälschungen.

2 min
Wie machen neue Chips Deepfakes überprüfbar und sichern die Authentizität digitaler Inhalte?
Wie machen neue Chips Deepfakes überprüfbar und sichern die Authentizität digitaler Inhalte?

Künstliche Intelligenz (KI) macht es heute erschreckend einfach, Fotos, Videos und Tonaufnahmen zu manipulieren. Ob gefälschte Statements von Politiker:innen oder irreführende Bilder aus Krisengebieten – soziale Medien und Online-Plattformen sind bereits voll von sogenannten Deepfakes. Die Folgen für Gesellschaft und Demokratie sind gravierend: Immer mehr Menschen lassen sich von solchen Fälschungen täuschen oder beginnen, selbst glaubwürdigen Quellen zu misstrauen. 

Forschende der ETH Zürich haben deshalb eine neue Sensortechnologie entwickelt, die genau hier ansetzt. Die Idee: Daten, Bilder oder Audiosignale werden direkt bei der Entstehung in einem Sensorchip kryptografisch signiert. Dank dieser Signatur lässt sich nachweisen, dass die Daten tatsächlich von einer Kamera oder einem Aufnahmegerät stammen, wann sie aufgenommen wurden und dass keine Manipulationen vorgenommen wurden. «Wenn Daten bereits bei ihrer Erstellung signiert werden, hinterlässt jede spätere Manipulation Spuren», erklärt Fernando Cardes. Er ist wissenschaftlicher Mitarbeiter an der Professur für Biosystems Engineering von Andreas Hierlemann im Department für Biosysteme (BSSE) in Basel und hat die Technologie mitentwickelt. «Um Daten zu manipulieren, müsste der Chip physisch angegriffen werden – ein technischer Aufwand, der so hoch wäre, dass die massenhafte Herstellung manipulierter Inhalte für Social-Media-Plattformen praktisch verunmöglicht wird.» 

Einfache Verifikation dank öffentlichem Register 

Die im Sensor erzeugten Signaturen könnten von den Kameraherstellern in einem für alle zugänglichen, unveränderbaren Register (z.B. einer Blockchain) gespeichert werden. So liesse sich jederzeit unabhängig prüfen, ob die vorliegenden Daten echt sind: Jede Person kann die Signatur des Chips im Register mit den Originaldaten abgleichen und so deren Herkunft bestätigen. «Damit spielt es kaum noch eine Rolle, ob eine an der Verarbeitung und Übertragung der Daten beteiligte Person oder Technologie vertrauenswürdig ist», erklärt Felix Franke, der den Chip an der ETH Zürich mitentwickelt hat und inzwischen Professor an der Universität Basel ist. «Das Vertrauen in digitale Inhalte schwindet. Wir wollten eine Technologie entwickeln, mit der die Menschen überprüfen können, ob etwas echt ist», fügt er an. 

So funktioniert die Technologie: Ein reales Ereignis (1) wird von einer Kamera aufgezeichnet, deren Sensorchip im Moment der Aufnahme sowohl die Bilddaten als auch eine kryptografische Signatur erzeugt (2). Nach der Speicherung in einem öffentlichen Register (3) kann diese Signatur später verwendet werden, um zu überprüfen, dass die Aufnahme authentisch ist und nicht verändert wurde (4).
So funktioniert die Technologie: Ein reales Ereignis (1) wird von einer Kamera aufgezeichnet, deren Sensorchip im Moment der Aufnahme sowohl die Bilddaten als auch eine kryptografische Signatur erzeugt (2). Nach der Speicherung in einem öffentlichen Register (3) kann diese Signatur später verwendet werden, um zu überprüfen, dass die Aufnahme authentisch ist und nicht verändert wurde (4).

Die Technologie lässt sich grundsätzlich in jede Art von Sensor oder Kamera integrieren. Social-Media-Plattformen könnten künftig bereits beim Hochladen automatisch prüfen, ob Inhalte echt sind. Und wo dies nicht passiert, könnten Journalist:innen, Forschende oder Behörden die Echtheit mit einfachen Tools selbst verifizieren. 

Gefahr von Deepfakes frühzeitig erkannt 

Die Idee für die Sensorchips entstand als Nebenprojekt am Bio Engineering Laboratory der ETH Zürich. Dort beschäftigte man sich schon lange bevor KI-Systeme wie ChatGPT die öffentliche Diskussion dominierten mit der Entwicklung hochsensibler Sensoren zum Messen elektrischer Signale lebender Zellen. Die interdisziplinäre Gruppe verfügte auch über das nötige Know-how, um zusätzliche kryptografische Funktionen direkt in Sensorchips zu integrieren. «Die Gefahr durch Deepfakes war absehbar», erinnert sich Franke. Bereits 2017 sei daher der Plan entstanden, einen Sensor zu entwickeln, dessen Daten sich nicht unbemerkt manipulieren lassen. 

Der im publizierten Paper vorgestellte Chip ist ein funktionierender Prototyp und demonstriert die technische Machbarkeit. Für den kommerziellen Einsatz sind noch weitere Schritte nötig. Die Forschenden sind dennoch überzeugt, dass er sich mit heutigen technologischen Voraussetzungen und Verfahren zu einem funktionierenden und marktfähigen Produkt weiterentwickeln lässt. Entsprechend haben sie einen Patentantrag eingereicht. «Wir untersuchen derzeit, wie man den Aufwand für Kamera- und Sensorhersteller senken kann, wenn sie die neue Technologie in ihre Chips integrieren wollen», sagt Cardes. 

Die Arbeit wurde vom Schweizerischen Nationalfonds (SNF) und vom Staatssekretariat für Bildung, Forschung und Innovation (SBFI) im Rahmen der SwissChips-Initiative finanziell unterstützt.