Umwandlung von Big Data mit KI zu Smart Data

Mithilfe von KI-Algorithmen lässt sich Big Data in relevante Daten umwandeln – Smart Data. (Bild: Analog Devices)

| von Dr. Ing. Dzianis Lukashevich

In Industrie-4.0-Anwendungen entsteht eine riesige Menge an komplexen Daten – Big Data. Die immer größer werdende Anzahl an Sensoren und allgemein verfügbarer Datenquellen führt dazu, dass die virtuelle Sicht auf die Maschinen, Anlagen oder Prozesse immer detaillierter wird. Dadurch steigt das Potenzial Mehrwerte in der gesamten Wertschöpfungskette zu generieren. Gleichzeitig kommt aber immer mehr die Frage auf, wie genau sich dieses Potenzial nutzen lässt. Schließlich steigt die Komplexität der Systeme und Architekturen zur Datenverarbeitung und zusätzlich nimmt auch die Zahl der Sensoren und Aktoren immer weiter zu. Erst durch relevante, hochwertige und nutzbringende Daten – Smart Data – wird deren wirtschaftliches Potenzial entfaltet.

KI-Implementierung frühzeitig und gezielt planen

Eckdaten

Sensordaten gelten als Grundlage für automatisierte System in Industrie-4.0-Umgebungen, allerdings sammeln sie eine große Menge an Daten – Big Data. Mithilfe von KI-Algorithmen lassen sich diese Daten in relevante Daten umwandeln – Smart Data. Die KI-Algorithmen können dabei mit zwei unterschiedlichen Modellen arbeiten. Der datengetriebene Ansatz erkennt etwa Anomlien, während der modelbasierende Ansatz mit dynamischer Lageschätzung arbeitet. Der Entwickler muss hier abschätzen, welcher Ansatz sich für seine Anwendung eignet.

Alle möglichen Daten zu erfassen und in der Cloud abzuspeichern in der Hoffnung, sie in Zukunft auszuwerten, zu analysieren und zu strukturieren, ist immer noch ein sehr verbreiteter, aber kein sehr zielführender Ansatz. Das Potenzial, aus den Daten Mehrwert zu generieren, bleibt somit ungenutzt und eine Lösung zu einem späteren Zeitpunkt zu finden wird komplexer. Vielmehr sollten Systemdesigner zu einem möglichst frühen Zeitpunkt konzeptionell überlegen, welche Informationen für die Anwendung relevant sind und an welcher Stelle des Datenflusses sie sich extrahieren lassen (Bild 1). Bildlich gesprochen bedeutet dies eine Veredelung der Daten, das System also macht für die gesamte Verarbeitungskette aus Big Data Smart Data. Bereits auf Anwendungsebene kann entschieden werden, welche KI-Algorithmen für die einzelnen Verarbeitungsschritte eine hohe Erfolgswahrscheinlichkeit haben. Dies hängt von verschiedenen Randbedingungen ab wie Datenlage, Art der Anwendung, Sensormodalitäten oder Hintergrundwissen zu den unterlagerten physikalischen Prozessen.

Für die einzelnen Verarbeitungsschritte sind der richtige Umgang und Interpretation der Daten äußerst wichtig, um echten Mehrwert aus den Sensorsignalen zu generieren. Je nach Anwendung kann es schwierig sein, die einzelnen Sensordaten richtig zu interpretieren und die gewünschte Information zu extrahieren. Oft spielt das zeitliche Verhalten eine Rolle und hat direkten Einfluss auf die gewünschte Information. Aber auch die Abhängigkeiten mehrerer Sensoren untereinander müssen Entwickler häufig berücksichtigen. Für komplexe Aufgabenstellungen reichen einfache Schwellenwerte und manuell ermittelte Logik nicht mehr aus oder sie erlauben keine automatische Anpassung an sich ändernde Umgebungsbedingungen.

KI-Umsetzung in Embedded, Edge oder Cloud?

Bild 0: Blockdiagramm der iCOMOX-Plattform.

Bild 0: Blockdiagramm der iCOMOX-Plattform Analog Devices

Die gesamte Datenverarbeitungskette müssen Entwickler mit all den Algorithmen, die in jedem einzelnen Schritt notwendig sind, so umsetzen, dass sie einen möglichst hohen Mehrwert generieren kann. Die Umsetzung erfolgt in der Regel auf der gesamten Ebene, die vom kleinen Sensor mit eingeschränkten Rechenressourcen, über Gateways und Edge-Computern bis hin zu großen Cloud-Rechnern reicht.

Dabei ist klar, dass die Algorithmen nicht einzig auf einer Ebene implementiert sein sollten. Vielmehr ist es in den meisten Fällen vorteilhafter, die Algorithmen möglichst nahe am Sensor zu implementieren. Dadurch wird eine möglichst frühe Verdichtung und Veredlung der Daten erreicht und es reduziert die Kommunikations- und Speicherkosten. Durch die frühzeitige Extraktion der wesentlichen Information aus den Daten ist außerdem die Entwicklung von globalen Algorithmen auf den höheren Ebenen weniger komplex. Um die Daten nicht unnötig zu speichern und dadurch hohe Datentransfer- und Speicherkosten zu verursachen, bieten sich in den meisten Fällen auch Algorithmen aus dem Streaming-Analytics-Bereich an. Diese Algorithmen verwenden jeden Datenpunkt nur einmal, das heißt, sie extrahieren die gesamte Information direkt heraus und es ist somit nicht nötig, die Daten zu speichern.

Embedded-Plattform für zustandsbasierende Überwachung

Bild 1: Aufteilung der Algorithmen-Pipeline auf Embedded-, Edge- und Cloud-Plattformen. Hinweis: in diesem Artikel liegt der Fokus auf Embedded-Plattformen.

Bild 1: Aufteilung der Algorithmen-Pipeline auf Embedded-, Edge- und Cloud-Plattformen. Hinweis: in diesem Artikel liegt der Fokus auf Embedded-Plattformen. Analog Devices

Die auf dem Cortex-M4F-Prozessor von ARM basierende Open-Embedded-Plattform Icomox (Eigenschreibweise: iCOMOX) von Shiratech Solutions, Arrow und Analog Devices ist ein integriertes Mikrocontrollersystem mit integriertem Powermanagement, analogen und digitalen Sensoren und Peripheriegeräten zur Datenerfassung, -verarbeitung, -steuerung und -konnektivität. All dies macht sie zu einem guten Kandidaten für lokale Datenverarbeitung und die frühzeitige Veredelung von Daten mit intelligenten KI-Algorithmen.

Icomox steht für Intelligent Condition Monitoring Box. Sie lässt sich für den Einstieg in die Welt der Struktur- und Maschinenüberwachung auf der Grundlage von Schwingungs-, Magnetfeld-, Schall- und Temperaturanalysen verwenden und auf Wunsch um weitere sensorische Modalitäten erweitern wie etwa um Gyroskop-Sensoren von Analog Devices für die Messung von Drehraten in Umgebungen mit hohen Schock- und Vibrationsbelastungen (Bild 0). Die in der Icomox-Plattform implementierten KI-Methoden können durch die sogenannte Multi-Sensor-Datenfusion eine bessere Einschätzung der aktuellen Situation liefern. So lassen sich verschiedene Betriebs- und Fehlerzustände mit einer besseren Granularität und höherer Wahrscheinlichkeit klassifizieren. Eine intelligente Signalverarbeitung in der Icomox wandelt Big Data in Smart Data, sodass das System nur die für den Anwendungsfall relevanten Daten in die Edge oder die Cloud weiterleitet.

Bei der drahtlosen Kommunikation bietet die Icomox eine Lösung mit hoher Zuverlässigkeit und Robustheit sowie geringem Stromverbrauch. Das Smart-Mesh-IP-Netzwerk besteht aus einem hochskalierbaren, sich selbst formenden und optimierenden Multi-Hop-Mesh von drahtlosen Knoten, die Daten sammeln und weiterleiten. Ein Netzwerkmanager überwacht und verwaltet die Netzwerkleistung und -sicherheit und tauscht zudem Daten mit einer Hostanwendung aus. Das intelligente Routing des Smart-Mesh-IP-Netzwerkes ermittelt einen optimalen Pfad für jedes einzelne Paket unter Berücksichtigung der Verbindungsqualität, des Zeitplanes jeder Pakettransaktion und der Anzahl der Multi-Hops in der Kommunikationsverbindung.

ADI2

Bild 2: Datengetriebene Ansätze für Embedded-Plattformen Analog Devices

Insbesondere bei den drahtlosen batteriebetriebenen Zustandsüberwachungssystemen kann die Embedded-KI den vollen Mehrwert entfalten. Die lokale Umsetzung von Sensordaten zu Smart Data durch die in der Icomox eingebetteten KI-Algorithmen reduziert den Datenfluss und senkt dadurch den Stromverbrauch im Vergleich zur direkten Übertragung der Sensordaten in die Edge oder Cloud.

Im Video: Icomox macht aus großen Datenmengen Smart Data

Erfahren Sie auf der nächsten Seite, wie sich KI-Algorithmen zur Datenanalyse nutzen lassen.

KI-Algorithmen analysieren Sensordaten

Die Icomox-Plattform, inklusive der dafür entwickelten KI-Algorithmen, hat ein sehr breites Anwendungs­spektrum im Bereich der Überwachung von Maschinen, Anlagen und Prozessen. Durch die integrierten Mikrofone, Beschleunigungs-, Magnetfeld- und Temperatursensoren erlaubt die Plattform beispielsweise die Überwachung von Vibrationen und Geräuschen sowie anderen Betriebsbedingungen industrieller Maschinen und Anlagen. So kann KI auch Prozesszustände, Lager-, Rotor- oder Statorschäden, Ausfälle der Steuerungselektronik und auch unbekannte Veränderungen des Systemverhaltens erkennen. Ist ein Vorhersagemodell von bestimmten Schäden vorhanden, lassen sich diese sogar vorherbestimmen. Somit können Unternehmen frühzeitig mit Wartungsmaßnahmen reagieren und somit unnötige Ausfälle vermeiden.

Falls kein Vorhersagemodell existiert, kann die Embedded-Plattform auch helfen, das Verhalten von Maschinen sukzessive zu erlernen und im Laufe der Zeit ein umfangreiches Modell der Maschine für Predictive Maintenance herzuleiten. Des Weiteren kann die Plattform komplexe Herstellungsverfahren optimieren, um einen höheren Ertrag oder eine bessere Produktqualität zu erzielen.

Die Verarbeitung der Daten mithilfe von KI-Algorithmen erlaubt eine automatisierte Analyse auch komplexer Sensordaten. Das Gesamtsystem erhält so direkt die gewünschten Informationen und somit den Mehrwert von den Daten. Die Wahl eines Algorithmus ist oft vom vorhandenen Wissen über die Anwendung abhängig. Ist umfangreiches Fachwissen vorhanden, spielt die KI eher eine unterstützende Rolle und die eingesetzten Algorithmen sind eher rudimentär. Ist kein Expertenwissen vorhanden, können die Algorithmen wesentlich komplexere Formen annehmen. In vielen Fällen ist es die Applikation, welche die Hardware definiert und dadurch auch die Beschränkungen für die Algorithmen.

Die Modellbildung, die immer ein Teil der KI-Algorithmen ist, lässt sich in zwei Ansätze aufteilen: datengetriebene und modellbasierende Ansätze.

Anomalieerkennung durch datengetriebene Ansätze

Sind lediglich Daten vorhanden und kein Hintergrundwissen, das in Form von mathematischen Gleichungen beschreibbar wäre, so müssen Entwickler sogenannte datengetriebene Ansätze wählen. Diese Algorithmen extrahieren die gewünschte Information (Smart Data) direkt aus den gesamten Sensordaten (Big Data). Hierzu zählt das gesamte Spektrum an Methoden aus dem maschinellen Lernen wie beispielsweise Lineare Regression, Neuronale Netze (DNN), Random Forest oder Hidden-Markov-Modelle.

ADI3

Bild 3: Modellbasierende Ansätze für Embedded-Plattformen Analog Devices

Eine typische Algorithmen-Pipeline für datengetriebene Ansätze, die sich auf Embedded-Plattformen wie Icomox umsetzen lassen, besteht aus drei Komponenten (Bild 2): Datenvorverarbeitung, Merkmalsextrahierung und -reduktion sowie dem eigentlichen maschinellen Lernalgorithmus.

Bei der Datenvorverarbeitung werden die Daten so aufbereitet, dass die nachfolgenden Algorithmen, insbesondere die des maschinellen Lernens, in kürzester Berechnungszeit zu einer optimalen Lösung konvergieren. Hier müssen einfache Interpolationsverfahren fehlende Daten ersetzen – unter Berücksichtigung der zeitlichen Abhängigkeit als auch der Abhängigkeit unterschiedlicher Sensordaten untereinander. Weiterhin verändern Pre-Whitening-Algorithmen die Daten so, dass diese voneinander unabhängig erscheinen. Dadurch bestehen keine linearen Abhängigkeiten mehr im zeitlichen Verlauf und auch nicht mehr bei den Sensoren untereinander. Typische Algorithmen für das Pre-Whitening sind Principal Component Analysis (PCA), Independent Component Analysis (ICA) oder sogenannte Whitening-Filter.

Bei der Merkmalsextrahierung werden aus den vorverarbeiteten Daten Merkmale oder Features abgeleitet. Dieser Teil der Verarbeitungskette hängt sehr stark von der eigentlichen Anwendung ab. Aufgrund der begrenzten Rechenleistung von Embedded-Plattformen ist es an dieser Stelle noch nicht möglich, rechenintensive, voll automatische Algorithmen zu implementieren, die verschiedene Merkmale evaluieren und aufgrund von bestimmten Optimierungskriterien die besten Merkmale finden.

Vielmehr müssen Entwickler für Embedded-Plattformen mit geringer Leistungsaufnahme wie Icomox für jede einzelne Anwendung manuell vorgeben, wie die Plattform die Merkmale extrahieren soll. Möglich wäre es beispielsweise die Daten in den Frequenzraum zu transformieren (FFT), die rohen Sensordaten zu logarithmieren, Beschleunigungs- oder Gyroskopdaten zu normieren, den größten Eigenvektor bei der PCA zu bestimmen oder Berechnungen der rohen Sensordaten durchzuführen. Für die unterschiedlichen Sensoren können Entwickler auch unterschiedliche Algorithmen für die Merkmalsextrahierung wählen. Als Ergebnis erhalten sie einen großen Merkmalsvektor, der alle relevanten Merkmale aller Sensoren enthält.

Übersteigt die Dimensionalität dieses Vektors eine gewisse Größe, so müssen Dimensionsreduktions-Algorithmen diesen wieder reduzieren. Hier können in einem gewissen Fenster die minimalen und/oder maximalen Werte genommen werden oder aber auch komplexere Algorithmen wie die zuvor erwähnte PCA oder Self-Organizing Maps (SOM) Verwendung finden.

Bild 4: Vibrations-Überwachung von Motoren auf einer Embedded-Plattform.

Bild 4: Vibrationsüberwachung von Motoren auf einer Embedded-Plattform Analog Devices

Erst nach der gesamten Vorverarbeitung der Daten und der Extrahierung für die jeweilige Anwendung relevanter Merkmale lassen sich die maschinellen Lernalgorithmen optimal einsetzen. Ähnlich wie bei der Merkmalsextrahierung hängt die Wahl des maschinellen Lernalgorithmus sehr stark von der jeweiligen konkreten Anwendung ab. Auch kann durch die begrenzte Rechenleistung noch nicht eine vollautomatische Auswahl des optimalen Lernalgorithmus erfolgen. Allerdings können Entwickler durchaus komplexere neuronale Netze inklusive der Trainingsphase auf Embedded-Plattformen implementieren.

Der entscheidende Faktor hier ist der zur Verfügung stehende begrenzte Speicher. Deshalb müssen die maschinellen Lernalgorithmen, aber auch alle vorher erwähnten Algorithmen der gesamten Algorithmen-Pipeline so abgeändert werden, dass sie die Sensordaten direkt verarbeiten. Die Algorithmen verwenden jeden Datenpunkt nur einmal, extrahieren also die gesamte relevante Information direkt, wodurch das speicherintensive Sammeln großer Datenmengen und die damit verbundenen hohen Datentransfer- und Speicherkosten entfallen. Diese Art der Verarbeitung wird auch Streaming Analytics genannt.

Die oben genannte Algorithmen-Pipeline ist auf der Icomox-Plattform implementiert und für die Anomalieerkennung in zwei unterschiedlichen Anwendungen evaluiert: die Zustandsüberwachung eines Gleichstrommotors und die Trajektorien-Überwachung von Industrierobotern. Die Algorithmen für beide Anwendungen sind identisch, lediglich die Parametrierung ist unterschiedlich. Bei der Motorüberwachung ist also das berücksichtigte Zeitintervall kurz und bei der Trajektorien-Überwachung eher länger. Durch die Begrenzung der Hardware leiten sich dann auch für die restlichen Algorithmen-Parameter unterschiedliche Werte ab. Als Eingangsdaten dienen die Beschleunigungs- und Gyroskopdaten mit einer Abtastung von jeweils 1 kHz. Bei der Vibrationsüberwachung des Motors kommen noch zusätzlich die Mikrofondaten als Eingangsdaten hinzu, um auch akustische Auffälligkeiten zu berücksichtigen und durch diese Kombination die Detektionsgenauigkeit weiter zu erhöhen. Die Ergebnisse der lokalen Berechnung auf der Embedded-Plattform sind in Bild 4 und 5 beispielhaft dargestellt. In beiden Beispielen sind die Beschleunigungs- und Gyroskopdaten, die lokal abgeleiteten Merkmale und der lokal berechnete Anomalieindikator dargestellt. Es ist zu erkennen, dass dieser Indikator bei neuem Signalverhalten stark ansteigt und bei nochmaligem Auftreten sehr viel niedriger ist, das heißt also, das der Lernalgorithmus neu erkannte Signale berücksichtigt und in das Modell integriert und es zudem aktualisiert.

Dynamische Lageschätzung durch modellbasierende Ansätze

Ein weiterer, aber grundsätzlich anderer Ansatz ist die Modellierung anhand von Formeln und expliziten Zusammenhängen zwischen den Sensordaten und der gewünschten Information. Diese Ansätze gehen davon aus, dass physikalisches Hintergrundwissen und Systemverhalten in Form einer mathematischen Beschreibung vorhanden ist. Diese sogenannten modellbasierenden Ansätze kombinieren nun die Sensordaten mit diesem Hintergrundwissen, um dadurch ein genaueres Ergebnis der gewünschten Information zu bekommen. Als bekannteste Vertreter seien hier beispielhaft das Kalman-Filter (KF) für lineare Systeme und Unscented-Kalman-Filter (UKF), Extended-Kalman-Filter (EKF) oder Partikelfilter (PF) für nichtlineare Systeme genannt. Die Wahl des Filters hängt sehr stark von der jeweiligen Anwendung ab.

ADI5

Bild 5: Trajektorien-Überwachung von Industrierobotern auf einer Embedded-Plattform Analog Devices

Eine typische Algorithmen-Pipeline für modellbasierende Ansätze, die auf Embedded-Plattformen wie Icomox umgesetzt werden kann, besteht aus drei Komponenten: Ausreißererkennung, Prädiktionsschritt und Filterschritt (Bild 3).

Bei der Ausreißererkennung werden Sensordaten, die sehr weit von der aktuellen Schätzung des Systemzustands entfernt sind, entweder bei der weiteren Verarbeitung abgewichtet oder ganz heraus­genommen. Hierdurch wird eine robustere Verarbeitung der Daten erreicht.

Beim Prädiktionsschritt wird der aktuelle Systemzustand über die Zeit fortgeschrieben. Dies geschieht mithilfe eines probabilistischen Systemmodells, das eine Vorhersage über den zukünftigen Systemzustand beschreibt. Dieses probabilistische Systemmodell lässt sich aus einer deterministischen Systemgleichung herleiten, welche die Abhängigkeit des zukünftigen Systemzustands vom aktuellen Systemzustand sowie weiteren Eingangs- und Störgrößen beschreibt. In dem hier betrachteten Beispiel der Zustandsüberwachung eines Industrieroboters wären dies die dynamischen Bewegungsgleichungen der einzelnen Gelenkarme, die zu jedem Zeitpunkt nur bestimmte Bewegungsrichtungen zulassen.

Beim Filterschritt wird nun der prädizierte Systemzustand mit einer gegebenen Messung verarbeitet und dadurch die Zustandsschätzung aktualisiert. Äquivalent zur Systemgleichung existiert eine Messgleichung, die es ermöglicht den Zusammenhang zwischen dem Systemzustand und der Messung in einer Formel zu beschreiben. Bei der hier betrachteten Lageschätzung wäre dies der Zusammenhang zwischen Beschleunigungs- und Gyroskopdaten und der genauen Lage des Sensors im Raum.

Auch eine Kombination der datengetriebenen und modellbasierenden Ansätze ist denkbar und für bestimmte Anwendungen vorteilhaft. Die Parameter der unterlagerten Modelle bei den modellbasierenden Ansätzen lassen sich beispielsweise durch die datengetriebenen Ansätze bestimmen und auch dynamisch an die jeweilige Umgebungsbedingung anpassen. Darüber hinaus kann der Systemzustand des modellbasierenden Ansatzes Teil eines Merkmalsvektors für die datengetriebenen Ansätze sein. All dies hängt allerdings sehr stark von der jeweiligen Anwendung ab.

ADI6

Bild 6: Präzise, dynamische Winkelschätzung auf einer Embedded-Plattform Analog Devices

Die oben genannte Algorithmen-Pipeline wurde auf der Icomox implementiert und für die präzise, dynamische Lageschätzung des Endeffektors eines Industrieroboters evaluiert. Als Eingangsdaten dienten Beschleunigungs- und Gyroskopdaten mit einer Abtastung von jeweils 200 Hz. Die Plattform befestigten die Entwickler dann am Endeffektor des Industrieroboters, wo sie die Lage, bestehend aus Position und Orientierung, bestimmt. Die Ergebnisse sind in Bild 6 beispielhaft dargestellt. Es ist zu erkennen, dass die direkte Berechnung zwar zu sehr schnellen Reaktionen führt, allerdings auch zu sehr viel Rauschen mit vielen Ausreißern. Ein IIR-Filter (infinite impulse response filter; Filter mit unendlicher Impulsantwort), wie er in der Praxis üblich ist, führt zwar zu einem sehr glatten Signal, allerdings folgt dieser der wahren Lage sehr schlecht. Die hier vorgestellten Algorithmen führen hingegen zu einem sehr glatten Signal, wo die geschätzte Lage sehr präzise und dynamisch der Bewegung des Endeffektors des Industrieroboters folgt

Fazit

Im Idealfall sollen die KI-Algorithmen durch die entsprechende lokale Datenanalyse auch selbst entscheiden können, welche Sensoren für die jeweilige Applikation relevant sind und welcher Algorithmus gerade am besten dafür geeignet ist. Das bedeutet die intelligente Skalierbarkeit der Plattform. Momentan ist es immer noch der Fachexperte, der für die jeweilige Anwendung den besten Algorithmus finden muss, obwohl die hier eingesetzten KI-Algorithmen sich bereits mit einem geringen Implementationsaufwand für diverse Anwendungen der Maschinenüberwachung skalieren lassen.

Die eingebettete KI soll auch eine Entscheidung über die Qualität der Daten treffen und, falls diese unzureichend ist, die optimalen Einstellungen für die Sensoren sowie die gesamte Signalaufbereitung finden und setzen. Werden mehrere verschiedene Sensormodalitäten für die Fusion verwendet, können Schwächen und Nachteile bestimmter Sensoren und Verfahren durch die Anwendung eines KI-Algorithmus ausgeglichen werden. Dadurch erhöhen sich die Qualität der Daten und die Zuverlässigkeit des Systems. Wird ein Sensor für die jeweilige Applikation als nicht beziehungsweise weniger relevant durch den KI-Algorithmus eingestuft, kann dessen Datenfluss entsprechend gedrosselt werden.

Die Open-Embedded-Plattform Icomox von Shiratech Solutions, Arrow und Analog Devices wird durch Arrow vertrieben und enthält ein frei erhältliches Software Development Kit sowie viele Beispielprojekte für Hardware und Software, um das Erstellen eines Prototyps zu beschleunigen, die Entwicklung zu erleichtern und eigene Ideen zu verwirklichen. Durch die Multi-Sensor-Datenfusion und Embedded-KI kann ein robustes und zuverlässiges, drahtloses vermaschtes Netzwerk von intelligenten Sensoren für die Zustandsüberwachung erstellt werden. Dadurch werden Big Data lokal zu Smart Data.

Dr. Ing. Dzianis Lukashevich

(Bild: Analog Devices)
Director of Platforms and Solutions bei Analog Devices

(prm)

Kostenlose Registrierung

Der Eintrag "freemium_overlay_form_all" existiert leider nicht.

*) Pflichtfeld

Sie sind bereits registriert?