Da Kleidungsstile oder Tattoos Rückschlüsse auf Personen zulassen, ist die Person als Ganzes unkenntlich zuu machen.

Da Kleidungsstile oder Tattoos Rückschlüsse auf Personen zulassen, ist die Person als Ganzes unkenntlich zu machen. (Bild: B-Plus)

Zukünftige Anforderungen bei der Entwicklung und Validierung von Sensoren für das autonome Fahren steigen aufgrund der steigenden Sensoranzahl im Fahrzeug weiter an. Diese Fahrzeug-Sensoren verarbeiten Daten, die für die funktionale Sicherheit eines hochautomatisierten oder sogar autonomen Fahrzeugs erforderlich sind und beim Fahren unterstützen. Besonders die Aufnahme und Speicherung der hochauflösenden Rohdaten im Testfahrzeug sind maßgebend für die verschiedenen Entwicklungs- und Testaufgaben, sowohl direkt im Testfahrzeug als auch im Labor.

Testverfahren für Sensorsysteme

Um jede mögliche Fehlentscheidung eines Sensors auszuschließen, sind neue Sensorsysteme sowohl in realen als auch in simulierten Situationen zu testen. Dies wird mithilfe verschiedener Testverfahren adressiert. Die simulierte Datengenerierung klingt zwar angesichts der neuen datenschutzrechtlichen Regelungen vorteilhaft, da Spezialfälle mit synthetisch generierten Situationen, wie zum Beispiel Geisterfahrer, leichter zu generieren sind. Allerdings vermag keine noch so gute Simulation die komplette Unvorhersehbarkeit der Realität komplett abzubilden. Aus diesem Grund bleiben reale Testfahrten zur Verifikation stets unverzichtbar.

Reale Testfahrten sind jedoch sehr kostenintensiv und auftretende Fehler- oder Sondersituationen können bei Wiederholungsbedarf nicht genau nachgefahren werden. Also müssen diese Situationen mithilfe von Recordingsystemen aufgenommen werden. Die aufgenommenen Daten, eine Kombination aus sehr großen Bild- und Busdaten, dienen in der Weiterentwicklung eines Sensors als Basis für weitere Sensor-Validierungsprozesse und Trainings künstlicher Intelligenz.

Kameranutzung im Kfz für Forschungszwecke

Das bayerische Landesamt für Datenschutzaufsicht sagt in einem Tätigkeitsbericht 2017/2018, dass personenbezogene Videoaufnahmen aus Kraftfahrzeugen heraus für Forschungs- und Entwicklungszwecke im Sinne von Art. 89 DSGVO und Nrn. 156 sowie 159 der ErwGr. für das automatisierte Fahren dann datenschutzrechtlich zulässig sind, wenn die Grundsätze von Art.5 Abs. 1 DSGVO eingehalten werden, und zwar konkret: Transparenz (Hinweis-Aufkleber), strenge Zweckbindung ausschließlich für die festgelegten Forschungszwecke und Datenminimierung auf das unbedingt notwendige Maß. Die sei besonders wichtig, wenn solche Fahrzeuge an Ampeln stehen, langsam fahren, halten oder parken und sich Passanten informieren beziehungsweise auf eventuelle Videoaufnahmen einstellen können.

Anonyme Visualisierung

Die Analyse der hochwertigen, zeitsynchronen Recordingdaten geschieht entweder live im Fahrzeug oder anschließend im Entwicklungslabor mithilfe von Visualisierungstools. Im nächsten Schritt dienen sie Simulationen und Weiterentwicklungen als Grundlage. Dabei wird es Entwicklern ermöglicht, neben Standardeinstellungen auch eigene Visualisierungsobjekte (unter anderem Kameravisualisierung, Datenübersichten und Oszi-Ansichten) zu erstellen und die ankommenden Rohdaten nach eigenen Anforderungen weiterzuverarbeiten.

Zu den Möglichkeiten gehört auch die Anbindung an Algorithmen, wie zum Beispiel die valide Erkennung von Fußgängern und deren Vorhaben, um darauf reagieren zu können. Aufgenommene Kamera-Rohdaten enthalten daher notwendigerweise stets auch personenbezogene Daten, die für eine Weiterverarbeitung notwendig sind.

Um beim Visualisieren dieser Videos datenschutzrechtliche Vorgaben einhalten zu können, sind besondere Maßnahmen zum Schutz personenbezogener Daten erforderlich. So lassen sich unter anderem Personen in Videos unkenntlich machen, was insbesondere im Wege einer Anonymisierung erfolgen kann.

B-Plus hat auf der Grundlage neuronaler Netze Algorithmen entwickelt, mit denen sich Personen valide erkennen und überblenden lassen. Somit geschieht die Verarbeitung personenbezogener Daten in einer Weise, dass die betroffene Person nicht beziehungsweise nicht mehr identifizierbar ist. Da beispielsweise auch besondere Kleidungsstile oder Tattoos teilweise Rückschlüsse auf Personen zulassen und somit als personenbezogene Daten gelten, sind die Algorithmen so anpassbar, dass nicht nur Gesichter, sondern Personen als Ganzes detektiert und komplett unkenntlich gemacht werden, indem deren Gesamtkontur verpixelt wird.

KI als Basis für die Optimierung von Validierungsketten

Die im Kofferraum verbauten Recordingsysteme nehmen über viele verschiedene Sensoren, wie Kamera und Radar, Unmengen an Daten auf. Diese sind dann zeitsynchron zu verarbeiten, um Situationen richtig zu interpretieren und Szenarien richtig zuordnen zu können.

Die im Kofferraum verbauten Recordingsysteme nehmen über viele verschiedene Sensoren wie Kamera und Radar Unmengen an Daten auf. Diese sind dann zeitsynchron zu verarbeiten, um Situationen richtig zu interpretieren und Szenarien richtig zuzuordnen. B-Plus

Künstliche Intelligenz kann dabei helfen, die Umweltwahrnehmung und -interpretation von Sensoren deutlich zu verbessern. Die im Kofferraum verbauten Recordingsysteme nehmen über viele verschiedene Sensoren wie Kamera und Radar Unmengen an Daten auf. Diese sind dann zeitsynchron zu verarbeiten, um Situationen richtig zu interpretieren und Szenarien richtig zuordnen zu können. Adaptive Lernalgorithmen, die parallel das Zusammenspiel der Sensorik und erkannte Objekte im Kamerabild überwachen, können zudem überprüfen, ob Testfahrzeuge beziehungsweise deren Sensoren korrekt auf die Umwelt reagieren. So lassen sich zum Beispiel Abweichungen von zuvor erlerntem Standardverhalten gesondert protokollieren oder Gesamtanforderungen wie beispielsweise eine stabile Lage des Fahrzeugs speziell überwachen.

Damit eine KI-basierende Software die vielen Bilder und Daten richtig interpretiert, muss vorab ein Training stattfinden. Dieses gliedert sich in abwechselnde Lern- und Testphasen. In der Lernphase geschieht die Adaption der Parameter derart, dass sie in der Testphase die gewünschten Objekte erkennen oder Situationen korrekt zuordnen können. Ähnlich wie bei einer Suchmaschine ist für die Realisierung des autonomen Fahrens eine große Menge realer Daten notwendig, die das breite Spektrum auftretender Situationen möglichst gut abdecken, um ein repräsentatives Training durchführen zu können.

Neuronale Netze, ein Zweig der künstlichen Intelligenz, können beispielsweise Merkmale aus Bildern extrahieren und anhand dieser klassifizieren. Hat die Software ein gewisses Trainingsniveau erreicht, beginnt die Testphase. In der Testphase werden dann für das System noch unbekannte Daten zur Überprüfung eingespielt. Dies passiert sowohl im Labor zur ersten Bewertung der Robustheit und Praxistauglichkeit, dann aber natürlich auch auf Testfahrten mit Livedaten. Die Testphase zeigt nun auf, wie gut die Software wirklich gelernt hat und auch neue Daten richtig interpretiert.

(na)

Sie möchten gerne weiterlesen?