
Was passiert, wenn ich nicht für die Sichtbarkeit in der KI-Suche optimiere?
Entdecken Sie die schwerwiegenden Folgen, wenn Sie die KI-Suchoptimierung für Ihre Marke ignorieren. Erfahren Sie, wie das Fehlen in ChatGPT, Perplexity und KI-...

Erfahren Sie die wichtigsten Anforderungen an den Datenschutz für KI-Suchsysteme. Verstehen Sie die DSGVO-Compliance, Best Practices im Datenschutz und wie Sie Geschäftsdaten in KI-Systemen schützen.
Der Aufstieg von KI-Suchwerkzeugen wie ChatGPT, Perplexity und Google AI Overviews hat für moderne Unternehmen ein grundlegendes Paradoxon geschaffen: Diese Plattformen vereinen Daten aus unzähligen Quellen, um beispiellose Suchfunktionen zu bieten, führen aber gleichzeitig neue Datenschutzrisiken ein, denen traditionelle Suchmaschinen nie ausgesetzt waren. Anders als klassische Suchmaschinen, die hauptsächlich bestehende Webinhalte indizieren und abrufen, entstehen Datenschutzherausforderungen in der KI dadurch, dass diese Systeme aktiv große Mengen an persönlichen und unternehmenseigenen Informationen sammeln, verarbeiten und speichern, um ihre Modelle zu trainieren und zu optimieren. Die Datenschutzrisiken der KI-Suche unterscheiden sich grundlegend von denen herkömmlicher Suche, da es nicht nur um Indexierung geht, sondern um eine kontinuierliche Datenerhebung aus Nutzerinteraktionen, Gesprächen und hochgeladenen Dokumenten—wodurch dauerhafte Aufzeichnungen entstehen, die ohne explizite Zustimmung zu Trainingszwecken verwendet werden können. Unternehmen müssen verstehen, dass wenn Mitarbeitende oder Kunden mit KI-Suchwerkzeugen interagieren, sie nicht nur Informationen abrufen, sondern auch Datensätze beisteuern, die beeinflussen, wie diese Systeme sich weiterentwickeln und reagieren.

KI-Systeme erfassen eine sehr breite Palette an Datentypen, die weit über einfache Suchanfragen hinausgehen und jeweils unterschiedliche Auswirkungen auf Datenschutz und Compliance haben. Die folgende Tabelle zeigt die wichtigsten Datenkategorien und deren Nutzung durch KI-Systeme:
| Datentyp | Wie KI sie nutzt |
|---|---|
| Personenbezogene Informationen (PII) | Training von Modellen zur Mustererkennung in Namen, Adressen, E-Mail-Adressen; genutzt für Personalisierung und gezielte Antworten |
| Verhaltensdaten | Analyse von Nutzerinteraktionen, Klickraten und Engagement-Metriken zur Verbesserung von Empfehlungsalgorithmen |
| Biometrische Daten | Gesichtserkennung, Stimmprofile und Fingerabdrücke zur Authentifizierung und Identitätsüberprüfung in KI-Systemen |
| Standortdaten | Geografische Informationen für standortbezogene Antworten und zur Modellierung von Location-basierten Diensten |
| Kommunikationsmuster | E-Mail-Inhalte, Chatverläufe und Metadaten zur Verbesserung von Sprachmodellen und Konversations-KI |
| Finanzinformationen | Transaktionshistorien, Zahlungsmethoden und Finanzdaten zur Modellierung von Betrugserkennung und Finanzdienstleistungen |
| Gesundheitsdaten | Medizinische Akten, Fitnesstracker-Daten und gesundheitsbezogene Suchanfragen für KI-Systeme im Gesundheitswesen |
Praxisbeispiele verdeutlichen das Ausmaß dieser Datensammlung: Lädt ein Nutzer einen Lebenslauf in ein KI-Suchtool hoch, wird das Dokument Trainingsdaten; bespricht ein Patient Symptome mit einem KI-Chatbot im Gesundheitswesen, wird das Gespräch protokolliert; nutzt ein Mitarbeitender einen KI-Assistenten bei der Arbeit, werden Kommunikationsmuster analysiert. Diese umfassende Datenerhebung ermöglicht die Funktionalität von KI-Systemen, schafft aber zugleich ein erhebliches Risiko für sensible Informationen.
Unternehmen, die KI-Suchwerkzeuge betreiben, müssen sich in einem zunehmend komplexen regulatorischen Umfeld zurechtfinden, das den Schutz persönlicher Daten und einen verantwortungsvollen KI-Einsatz sicherstellen soll. Die DSGVO (Datenschutz-Grundverordnung) bleibt der Goldstandard im Datenschutz und verlangt die ausdrückliche Zustimmung zur Datenerhebung, die Einhaltung des Datenminimierungsprinzips und die Löschung nicht mehr benötigter Daten. HIPAA (Health Insurance Portability and Accountability Act) stellt strenge Anforderungen an Gesundheitseinrichtungen, die KI nutzen: Geschützte Gesundheitsdaten müssen verschlüsselt und zugriffsgeschützt sein. Die SOC 2 Typ 2-Zertifizierung belegt, dass Unternehmen über robuste Sicherheitskontrollen und Überwachungsprozesse verfügen und gibt Kunden Sicherheit bezüglich der Datenverarbeitung. Der EU AI Act, der 2024 in Kraft trat, führt einen risikobasierten Ansatz ein, stuft KI-Anwendungen und deren Risiken ein und macht strengere Vorgaben für Hochrisiko-Anwendungen, wie verpflichtende Daten-Governance und Transparenzmaßnahmen. CCPA/CPRA (California Consumer Privacy Act und California Privacy Rights Act) geben Verbrauchern das Recht zu wissen, welche Daten erhoben werden, diese zu löschen und dem Verkauf zu widersprechen, wobei der CPRA diese Rechte weiter ausbaut. Neue Gesetze in Bundesstaaten wie Utah, Colorado und Virginia bringen zusätzliche Compliance-Anforderungen. Für Unternehmen mit KI-Suche bedeuten diese Regelwerke die Notwendigkeit einer umfassenden Datenschutzstrategie, die Einwilligungsmanagement, Aufbewahrung, Zugriffskontrolle und Transparenz abdeckt.
Drei miteinander verbundene Herausforderungen prägen die Datenschutzlandschaft von KI-Suchsystemen, wobei jede spezifische Risiken birgt, die gezielte Gegenmaßnahmen erfordern. Die erste Herausforderung betrifft Datentraining und Modellnutzung: KI-Systeme benötigen enorme Datenmengen für ihre Wirksamkeit, doch deren Erhebung erfolgt oft ohne Wissen oder Zustimmung der Nutzer, und Anbieter behalten sich häufig Nutzungsrechte zur kontinuierlichen Modellverbesserung vor. Die zweite Herausforderung dreht sich um Zugriffskontrollen und Berechtigungsvererbung: Wenn KI-Systeme in Unternehmensplattformen wie Slack, Google Drive oder Microsoft 365 integriert werden, übernehmen sie deren Berechtigungsstrukturen—wodurch sensible Dokumente gefährdet sein könnten, sollte die Berechtigungsprüfung nicht in Echtzeit erfolgen. Apples Entscheidung, die ChatGPT-Integration in iOS einzuschränken, ist ein Beispiel—das Unternehmen nannte Datenschutzrisiken durch Datenübertragung an Dritte als Grund. Die dritte Herausforderung betrifft Aufbewahrung, Löschung und Einwilligungsmechanismen: Viele KI-Systeme speichern Daten auf unbestimmte Zeit, was es Unternehmen erschwert, das Speicherbegrenzungsprinzip der DSGVO einzuhalten oder Löschanfragen nachzukommen. LinkedIn sah sich erheblichem Widerstand ausgesetzt, als Nutzer erfuhren, dass ihre Daten automatisch zum Training generativer KI-Modelle verwendet wurden—ohne explizite Zustimmung. Diese drei Herausforderungen sind nicht isoliert, sondern verstärken sich gegenseitig und können zu regulatorischen Strafen, Reputationsschäden und Vertrauensverlust führen.
Die Nutzung von Kunden- und Nutzerdaten zum Training von KI-Modellen ist eines der größten Datenschutzthemen für Unternehmen, die KI-Suchwerkzeuge einsetzen. Laut aktuellen Umfragen sorgen sich 73 % der Organisationen um die unautorisierte Nutzung ihrer proprietären Daten zum Modelltraining, haben aber oft keine klare Transparenz über Anbieterpraktiken. Bei der Integration externer KI-Systeme müssen Unternehmen genau verstehen, wie ihre Daten verwendet werden: Werden sie unbegrenzt gespeichert? Werden sie für Modelle genutzt, auf die auch Wettbewerber zugreifen können? Werden sie mit anderen Anbietern geteilt? So gibt OpenAI z. B. an, Konversationsdaten standardmäßig 30 Tage aufzubewahren, aber für Sicherheits- und Missbrauchsprävention auch länger—was viele Unternehmen für sensible Informationen inakzeptabel finden. Um Risiken zu minimieren, sollten Unternehmen schriftliche Datenverarbeitungsvereinbarungen verlangen, die unerlaubtes Modelltraining explizit ausschließen, Datenlöschung auf Anfrage verlangen und Prüfungsrechte einräumen. Die Überprüfung von Anbieterrichtlinien umfasst das Einsehen von Datenschutzdokumentation, SOC 2 Typ 2-Berichte und Gespräche mit Sicherheitsteams. Unternehmen sollten auch erwägen, KI-Systeme vor Ort oder in privaten Cloud-Umgebungen einzusetzen, sodass Daten nie die eigene Infrastruktur verlassen und das Risiko unerlaubter Trainingsnutzung entfällt.
Berechtigungssysteme in Unternehmensumgebungen wurden für klassische Anwendungen entwickelt, bei denen die Zugriffskontrolle klar geregelt ist: Nutzer haben entweder Zugriff auf eine Datei oder nicht. KI-Suchwerkzeuge erschweren dieses Modell, da sie Berechtigungen von integrierten Plattformen übernehmen und so sensible Informationen versehentlich für unbefugte freigeben können. Ein KI-Assistent, der mit Slack integriert ist, erhält Zugriff auf alle Kanäle und Nachrichten, auf die der integrierende Nutzer Zugriff hat—doch das KI-System prüft Berechtigungen nicht immer in Echtzeit, sodass ein Nutzer potenziell Informationen aus Kanälen abrufen könnte, zu denen er eigentlich keinen Zugang mehr hat. Ebenso übernehmen KI-Tools bei der Anbindung an Google Drive oder Microsoft 365 deren Berechtigungsstruktur, jedoch sind die eigenen Zugriffskontrollen des KI-Systems oft weniger fein granuliert. Echtzeit-Berechtigungsprüfung ist essenziell: Jedes Mal, wenn ein KI-System Daten abruft oder verarbeitet, sollte überprüft werden, ob der anfragende Nutzer noch die entsprechenden Rechte besitzt. Technisch erfordert dies sofortige Prüfungen der Quellberechtigungen vor Ausgabe von Ergebnissen. Unternehmen sollten alle KI-Integrationen daraufhin überprüfen, welche Berechtigungen übernommen werden, und zusätzliche Zugriffskontrollen innerhalb des KI-Systems implementieren—z. B. rollenbasierte Zugriffskontrollen (RBAC), die festlegen, welche Nutzer auf welche Datenquellen zugreifen dürfen, oder attributbasierte Kontrollen (ABAC), die Richtlinien auf Grundlage von Nutzerattributen, Datensensibilität und Kontext durchsetzen.
Regeln zur Datenaufbewahrung bilden die Schnittstelle zwischen technischer Umsetzung und gesetzlichen Vorgaben, doch viele KI-Systeme sind standardmäßig auf unbegrenzte Speicherung ausgelegt. Das Speicherbegrenzungsprinzip der DSGVO verlangt, dass personenbezogene Daten nur so lange wie nötig für ihren Zweck gespeichert werden, doch oft fehlen automatisierte Löschmechanismen oder Backups bleiben nach Löschung der Primärdaten weiter bestehen. Die 30-Tage-Aufbewahrung von ChatGPT ist eine Best-Practice, reicht aber bei hochsensiblen Daten, die sofort nach Nutzung gelöscht werden sollten, oft nicht aus. Einwilligungsmechanismen müssen explizit und granular sein: Nutzer sollten der Verwendung zu bestimmten Zwecken (z. B. zur Suchverbesserung) zustimmen, andere Nutzungen (z. B. Training neuer Modelle) aber ablehnen können. Mehrparteieneinwilligungen in Staaten wie Kalifornien und Illinois erhöhen die Komplexität: Bei mehreren Beteiligten müssen alle der Aufzeichnung und Speicherung zustimmen, was viele KI-Systeme nicht umsetzen. Unternehmen müssen auch die Löschung aus Backups regeln: Selbst wenn Primärdaten gelöscht werden, können Kopien in Backups Wochen oder Monate fortbestehen und Compliance-Lücken schaffen. Best Practices umfassen automatisierte Lösch-Workflows nach definierten Fristen, detaillierte Verzeichnisse darüber, welche Daten wo existieren, und regelmäßige Audits zur Überprüfung, ob Löschanfragen überall, auch in Backups, vollständig umgesetzt wurden.
Privacy-Enhancing Technologies (PETs) bieten technische Lösungen zur Reduzierung von Datenschutzrisiken bei Erhalt der KI-Funktionalität—jedoch immer mit Kompromissen bei Performance und Komplexität. Föderiertes Lernen gilt als eine der vielversprechendsten PETs: Statt alle Daten zentral zu sammeln, bleiben sie verteilt, und Modelle werden lokal trainiert. Nur die Modellupdates, nicht die Rohdaten, werden zentral geteilt. Besonders im Gesundheitswesen ist dies vorteilhaft, da Patientendaten in den Kliniken verbleiben, aber zur Verbesserung von Diagnosemodellen beitragen. Anonymisierung entfernt oder verschleiert personenbezogene Informationen, reicht aber allein oft nicht aus, da durch Datenverknüpfung Re-Identifikation möglich ist. Pseudonymisierung ersetzt identifizierende Informationen durch Pseudonyme, sodass Daten verarbeitet werden können, aber bei Bedarf zugeordnet werden können. Verschlüsselung schützt Daten bei Übertragung und Speicherung—selbst bei unbefugtem Zugriff bleiben sie unlesbar. Differenzielle Privatsphäre fügt mathematisches Rauschen hinzu, um individuelle Datensätze zu schützen und trotzdem nützliche Statistiken für das Modelltraining zu erhalten. Die Kehrseite dieser Technologien: Föderiertes Lernen erhöht Rechenlast und Latenz; Anonymisierung verringert Datenqualität; Verschlüsselung benötigt Schlüsselmanagement. Aus der Praxis im Gesundheitswesen: Durch föderiertes Lernen können Kliniken gemeinsam Diagnosemodelle trainieren, ohne Patientendaten zu teilen—das steigert die Modellqualität und erhält HIPAA-Compliance.

Organisationen, die KI-Suchwerkzeuge einsetzen, sollten eine umfassende Datenschutzstrategie implementieren, die Erhebung, Verarbeitung, Speicherung und Löschung im gesamten KI-Ökosystem abdeckt. Die folgenden Best Practices bieten konkrete Handlungsempfehlungen:
Unternehmen sollten zudem sicherstellen, dass Anbieter relevante Zertifizierungen haben: SOC 2 Typ 2 belegt umgesetzte und überwachte Sicherheitskontrollen, ISO 27001 steht für ein umfassendes Informationssicherheitsmanagement und branchenspezifische Zertifizierungen wie HIPAA-Compliance bieten zusätzliche Sicherheit.
Privacy by Design ist ein Grundprinzip, das die Entwicklung und den Betrieb von KI-Systemen von Anfang an leiten sollte—nicht als nachträgliche Ergänzung. Dieser Ansatz verlangt, Datenschutzüberlegungen in jede Phase des KI-Lebenszyklus zu integrieren, beginnend mit Datenminimierung: Sammeln Sie nur die wirklich erforderlichen Daten, vermeiden Sie auf Vorratsspeicherung und prüfen Sie regelmäßig, welche Datenbestände gelöscht werden können. Dokumentationspflichten nach Artikel 35 DSGVO verlangen, dass Unternehmen bei risikoreichen Verarbeitungstätigkeiten Datenschutz-Folgenabschätzungen (DPIA) durchführen, in denen Zweck, Datenkategorien, Empfänger, Aufbewahrungsfristen und Sicherheitsmaßnahmen dokumentiert werden. Diese Assessments müssen bei Änderungen aktualisiert werden. Laufendes Monitoring und Compliance verlangen Governance-Strukturen, die Datenschutzrisiken kontinuierlich bewerten, regulatorische Änderungen verfolgen und Richtlinien anpassen. Unternehmen sollten einen Datenschutzbeauftragten (DPO) oder Privacy Lead benennen, der Compliance überwacht, regelmäßige Audits durchführt und als Kontaktperson für Behörden fungiert. Transparenzmechanismen sollten Nutzer klar informieren: Datenschutzhinweise müssen erläutern, welche Daten warum und wie lange gesammelt werden und welche Rechte Nutzer haben. Aus der Praxis im Gesundheitswesen zeigt sich: Wer Datenschutz von Anfang an integriert, hat weniger Verstöße, schnellere Genehmigungen und genießt größeres Nutzervertrauen als Unternehmen, die Datenschutzmaßnahmen nachträglich implementieren.
Mit der zunehmenden Verbreitung von KI-Suchwerkzeugen im Geschäftsalltag stehen Unternehmen vor einer neuen Herausforderung: Nachzuvollziehen, wie ihre Marke, Inhalte und proprietären Informationen von KI-Systemen referenziert und genutzt werden. AmICited.com schließt diese Lücke und bietet umfassendes Monitoring darüber, wie KI-Systeme—einschließlich GPTs, Perplexity, Google AI Overviews und anderer Such-KIs—Ihre Marke referenzieren, Ihre Inhalte zitieren und Ihre Daten nutzen. Diese Überwachungsmöglichkeit ist essenziell für Datenschutz und Markenschutz, da sie Sichtbarkeit darüber schafft, welche eigenen Informationen von KI-Systemen genutzt, wie häufig sie zitiert werden und ob eine korrekte Attribution erfolgt. Durch das Monitoring von KI-Referenzen auf Ihre Inhalte und Daten können Unternehmen unautorisierte Nutzung erkennen, prüfen, ob Datenverarbeitungsvereinbarungen eingehalten werden und sicherstellen, dass die eigenen Datenschutzpflichten erfüllt sind. AmICited.com ermöglicht es, zu überwachen, ob Daten ohne Zustimmung zum Training verwendet werden, wie Inhalte im Vergleich zu Wettbewerbern referenziert werden und ob durch KI-Systeme Datenlecks entstehen. Besonders wertvoll ist diese Transparenz für regulierte Branchen wie Gesundheitswesen und Finanzwesen, in denen Datenflüsse für die Compliance nachvollziehbar sein müssen. Die Plattform beantwortet entscheidende Fragen: Werden unsere Daten zum Training von KI-Modellen genutzt? Werden Kundendaten in KI-Antworten referenziert? Erhalten wir die gebührende Attribution bei Zitationen unserer Inhalte? Mit diesem Monitoring ermöglicht AmICited.com Unternehmen, die Kontrolle über ihre Daten im KI-Zeitalter zu behalten, Datenschutzvorgaben einzuhalten und die Markenreputation in einer zunehmend KI-gesteuerten Informationswelt zu schützen.
Die DSGVO (Datenschutz-Grundverordnung) gilt für Organisationen, die Daten von EU-Bürgern verarbeiten, und erfordert eine ausdrückliche Einwilligung, Datenminimierung und Löschrechte. Der CCPA (California Consumer Privacy Act) gilt für Einwohner Kaliforniens und gewährt Rechte darüber, welche Daten gesammelt werden, Daten zu löschen und sich vom Verkauf abzumelden. Die DSGVO ist im Allgemeinen strenger und sieht höhere Strafen vor (bis zu 20 Mio. € oder 4 % des Umsatzes) im Vergleich zu CCPA mit $7.500 pro Verstoß.
Fordern Sie schriftliche Datenverarbeitungsvereinbarungen (DVV), die unerlaubtes Modelltraining ausdrücklich untersagen, verlangen Sie von Anbietern eine SOC 2 Typ 2-Zertifizierung und führen Sie Due-Diligence-Gespräche mit den Sicherheitsteams der Anbieter. Erwägen Sie den Einsatz von KI-Systemen vor Ort oder in privaten Cloud-Umgebungen, in denen Daten Ihre Infrastruktur nie verlassen. Überprüfen Sie Anbieter-Richtlinien immer schriftlich und verlassen Sie sich nicht auf mündliche Zusicherungen.
Berechtigungs- oder Rechtevererbung tritt auf, wenn KI-Systeme automatisch Zugriff auf dieselben Daten und Systeme erhalten, auf die auch der integrierende Nutzer zugreifen kann. Dies ist relevant, weil ohne eine Echtzeit-Überprüfung der Berechtigungen Nutzer potenziell Informationen aus Systemen abrufen könnten, zu denen sie eigentlich keinen Zugang mehr haben. Dadurch entstehen erhebliche Sicherheits- und Datenschutzrisiken. Eine Echtzeit-Validierung der Berechtigungen stellt sicher, dass jeder Datenzugriff mit aktuellen Zugriffslisten abgeglichen wird.
Das Speicherbegrenzungsprinzip der DSGVO verlangt, dass Daten nur so lange wie nötig für ihren Zweck aufbewahrt werden. Best Practice ist die Implementierung automatisierter Lösch-Workflows, die nach festgelegten Aufbewahrungsfristen ausgelöst werden (in der Regel 30-90 Tage für die meisten Geschäftsdaten). Hochsensible Daten sollten sofort nach Gebrauch gelöscht werden. Unternehmen müssen außerdem sicherstellen, dass die Löschung nicht nur im Primärspeicher, sondern auch in Backups erfolgt.
Privacy-Enhancing Technologies (PETs) umfassen föderiertes Lernen (Modelltraining auf verteilten Daten ohne Zentralisierung), Anonymisierung (Entfernung identifizierender Informationen), Verschlüsselung (Schutz von Daten bei Übertragung und Speicherung) und Differenzielle Privatsphäre (mathematisches Rauschen zum Schutz individueller Privatsphäre). Diese Technologien verringern Datenschutzrisiken bei gleichbleibender KI-Funktionalität, bedeuten aber teils Kompromisse bei Performance und Komplexität.
AmICited.com überwacht, wie KI-Systeme wie ChatGPT, Perplexity und Google AI Overviews Ihre Marke referenzieren, Ihre Inhalte zitieren und Ihre Daten nutzen. Diese Transparenz hilft, unautorisierte Nutzung zu erkennen, zu überprüfen, ob Datenverarbeitungsvereinbarungen eingehalten werden, Datenschutzpflichten zu erfüllen und nachzuvollziehen, ob Ihre proprietären Daten ohne Zustimmung für Modelltraining verwendet werden.
Eine Datenverarbeitungsvereinbarung (DVV) ist ein Vertrag zwischen Verantwortlichem und Auftragsverarbeiter, der regelt, wie personenbezogene Daten verarbeitet werden, einschließlich Erhebungsmethoden, Aufbewahrungsfristen, Sicherheitsmaßnahmen und Löschvorgaben. Sie ist wichtig, da sie rechtlichen Schutz und Klarheit über die Datenverarbeitung schafft, für die Einhaltung der DSGVO und anderer Vorschriften sorgt und Prüfungsrechte sowie Haftung festlegt.
Eine DPIA dokumentiert den Zweck der KI-Verarbeitung, die beteiligten Datenkategorien, Empfänger, Aufbewahrungsfristen und Sicherheitsmaßnahmen. Risiken für Rechte und Freiheiten werden bewertet, Minderungsmaßnahmen identifiziert und die Ergebnisse dokumentiert. DPIAs sind nach Artikel 35 DSGVO für risikoreiche Verarbeitung, einschließlich KI- und Machine-Learning-Systemen, erforderlich. DPIAs sollten bei Änderungen der Verarbeitung aktualisiert werden.
Sichern Sie Ihre Datenschutz-Compliance und Markenpräsenz in KI-Suchmaschinen mit der umfassenden Monitoring-Plattform von AmICited.com.

Entdecken Sie die schwerwiegenden Folgen, wenn Sie die KI-Suchoptimierung für Ihre Marke ignorieren. Erfahren Sie, wie das Fehlen in ChatGPT, Perplexity und KI-...

Entdecken Sie die entscheidenden Fehler, die Ihrer KI-Sichtbarkeit schaden. Erfahren Sie, wie schlechte Content-Struktur, fehlendes Schema-Markup und andere GEO...

Entdecken Sie die versteckten Kosten der KI-Unsichtbarkeit für Marken. Erfahren Sie, warum ChatGPT-Erwähnungen wichtig sind, wie Sie Sichtbarkeitsverluste messe...
Cookie-Zustimmung
Wir verwenden Cookies, um Ihr Surferlebnis zu verbessern und unseren Datenverkehr zu analysieren. See our privacy policy.