
WAF-Regeln für KI-Crawler: Mehr als nur Robots.txt
Erfahren Sie, wie Web Application Firewalls fortschrittliche Kontrolle über KI-Crawler bieten – weit über robots.txt hinaus. Implementieren Sie WAF-Regeln, um I...

Erfahren Sie, wie Cloudflares Edge-basierte KI-Crawl Control Ihnen hilft, den Zugriff von KI-Crawlern auf Ihre Inhalte mit granularen Richtlinien und Echtzeit-Analysen zu überwachen, zu steuern und zu monetarisieren.
Die Verbreitung von KI-Trainingsmodellen hat eine beispiellose Nachfrage nach Webinhalten geschaffen, wobei ausgefeilte Crawler heute in großem Maßstab arbeiten, um maschinelle Lernpipelines zu versorgen. Diese Bots verbrauchen Bandbreite, verfälschen Analysen und extrahieren proprietäre Inhalte ohne Erlaubnis oder Vergütung, was die Wirtschaftlichkeit der Inhaltserstellung grundlegend stört. Herkömmliches Ratelimiting und IP-basierte Blockaden erweisen sich als wirkungslos gegen verteilte Crawler-Netzwerke, die Identitäten rotieren und sich an Erkennungsmethoden anpassen. Webseitenbetreiber stehen vor einer entscheidenden Wahl: uneingeschränkten Zugriff gewähren, was KI-Unternehmen auf ihre Kosten begünstigt, oder fortschrittliche Kontrollen implementieren, die legitimen Traffic von ausbeuterischen Bots unterscheiden.

Content Delivery Networks arbeiten, indem sie Server weltweit am „Edge“ des Internets verteilen, geografisch näher an den Endnutzern und in der Lage, Anfragen zu verarbeiten, bevor sie die Ursprungsserver erreichen. Edge Computing erweitert dieses Paradigma, indem es die Ausführung komplexer Logik an diesen verteilten Knoten ermöglicht und CDNs von einfachen Caching-Layern zu intelligenten Sicherheits- und Kontrollplattformen transformiert. Dieser architektonische Vorteil ist für das Management von KI-Bots von unschätzbarem Wert, da Entscheidungen innerhalb von Millisekunden am Eintrittspunkt der Anfrage getroffen werden können, bevor Bandbreite verbraucht oder Inhalte übertragen werden. Traditionelle, originbasierte Bot-Erkennung erfordert, dass der Traffic das Netzwerk durchquert, Ressourcen verbraucht und Latenz erzeugt. Edge-basierte Lösungen hingegen fangen Bedrohungen sofort ab. Die verteilte Edge-Infrastruktur bietet zudem eine natürliche Resilienz gegen ausgeklügelte Angriffe, die Erkennungssysteme durch Volumen oder geografische Verteilung überwältigen wollen.
| Ansatz | Erkennungsgeschwindigkeit | Skalierbarkeit | Kosten | Echtzeit-Kontrolle |
|---|---|---|---|---|
| Originbasierte Filterung | 200-500ms | Durch Origin-Kapazität begrenzt | Hohe Infrastrukturkosten | Reaktiv, nach Verbrauch |
| Traditionelle WAF | 50-150ms | Moderat, zentraler Engpass | Mittlere Lizenzgebühren | Halb-Echtzeit-Entscheidungen |
| Edge-basierte Erkennung | <10ms | Unbegrenzt, weltweit verteilt | Geringerer Overhead pro Anfrage | Sofort, vor Verbrauch |
| Maschinelles Lernen am Edge | <5ms | Skaliert mit CDN-Footprint | Minimale Zusatzkosten | Prädiktive, adaptive Blockierung |
Cloudflares KI-Crawl Control ist eine speziell entwickelte Lösung, die im globalen Edge-Netzwerk des Unternehmens bereitgestellt wird und Webseitenbetreibern beispiellose Sichtbarkeit und Kontrolle über KI-Crawler-Traffic verschafft. Das System identifiziert Anfragen von bekannten KI-Trainingsoperationen – darunter OpenAI, Google, Anthropic und Dutzende weiterer Organisationen – und ermöglicht granulare Richtlinien, die festlegen, ob ein Crawler Zugriff erhält, blockiert wird oder Monetarisierungsmechanismen ausgelöst werden. Im Gegensatz zum generischen Bot-Management, das allen nicht-menschlichen Traffic gleich behandelt, zielt KI-Crawl Control speziell auf das maschinelle Lernökosystem ab und erkennt, dass diese Crawler eigene Verhaltensmuster, Skalierungsanforderungen und geschäftliche Implikationen haben. Die Lösung integriert sich nahtlos mit bestehenden Cloudflare-Diensten, erfordert keine zusätzliche Infrastruktur oder komplexe Konfiguration und bietet sofortigen Schutz für alle geschützten Domains. Organisationen erhalten ein zentrales Dashboard, in dem sie Crawler-Aktivität überwachen, Richtlinien in Echtzeit anpassen und genau nachvollziehen können, welche KI-Unternehmen auf ihre Inhalte zugreifen.
Cloudflares Edge-Infrastruktur verarbeitet täglich Milliarden von Anfragen und generiert damit einen riesigen Datensatz, der Machine-Learning-Modelle speist, die KI-Crawler-Verhalten mit bemerkenswerter Präzision identifizieren. Das Erkennungssystem nutzt mehrere komplementäre Techniken: Verhaltensanalyse untersucht Anfrage-Muster wie Crawl-Geschwindigkeit, Ressourcenverbrauch und sequentiellen Seitenzugriff; Fingerprinting analysiert HTTP-Header, TLS-Signaturen und Netzwerkeigenschaften, um bekannte Crawler-Infrastrukturen zu identifizieren; und Bedrohungsinformationen werden mit Branchendatenbanken integriert, die KI-Trainingsoperationen samt zugehörigen IP-Ranges und User-Agents katalogisieren. Diese Signale werden durch Ensemble-Machine-Learning-Modelle kombiniert, die hohe Genauigkeit bei extrem niedrigen Fehlalarmraten erzielen – entscheidend, da die Blockierung legitimer Nutzer dem Ruf und Umsatz der Seite schaden würde. Das System lernt kontinuierlich von neuen Crawler-Varianten und Anpassungstechniken, wobei das Cloudflare-Sicherheitsteam neu entstehende KI-Trainingsinfrastrukturen aktiv überwacht, um die Erkennungswirksamkeit zu erhalten. Die Klassifizierung erfolgt in Echtzeit am Edge-Knoten, der dem Ursprungsort der Anfrage am nächsten liegt, sodass Entscheidungen innerhalb von Millisekunden getroffen werden, bevor nennenswerter Bandbreitenverbrauch entsteht.
Sobald KI-Crawler am Edge identifiziert wurden, können Webseitenbetreiber anspruchsvolle Richtlinien umsetzen, die weit über einfache Allow/Block-Entscheidungen hinausgehen und den Zugriff an Geschäftsanforderungen und Content-Strategie anpassen. Das Kontroll-Framework bietet mehrere Durchsetzungsoptionen:
Diese Richtlinien greifen für jeden Crawler unabhängig, sodass z. B. OpenAI vollen Zugriff erhält, während Anthropic Ratelimitierung erfährt und unbekannte Crawler vollständig blockiert werden. Die Granularität reicht bis auf Pfadebene, sodass unterschiedliche Richtlinien für öffentliche Inhalte, proprietäre Dokumentation oder Premiumressourcen möglich sind. Organisationen können außerdem zeitbasierte Richtlinien umsetzen, die den Crawler-Zugriff während Spitzenzeiten oder Wartungsfenstern anpassen und so sicherstellen, dass KI-Trainingsoperationen nicht das legitime Nutzererlebnis beeinträchtigen.
Publisher stehen vor existenziellen Bedrohungen durch KI-Systeme, die auf Basis ihrer journalistischen Inhalte ohne Vergütung trainieren – KI-Crawl Control wird daher essenziell zum Schutz von Geschäftsmodellen, die auf einzigartiger Inhaltserstellung basieren. E-Commerce-Plattformen nutzen die Lösung, um Wettbewerber vom Scrapen von Produktkatalogen, Preisdaten und Kundenbewertungen abzuhalten, die einen erheblichen Wettbewerbsvorteil und geistiges Eigentum darstellen. Dokumentationsseiten für Entwickler-Communities können nützliche Crawler wie Googlebot zulassen und gleichzeitig Wettbewerber blockieren, die versuchen, abgeleitete Wissensdatenbanken zu erstellen – so bleibt ihre Autorität als technische Ressource gewahrt. Content Creator und unabhängige Autoren verhindern mit KI-Crawl Control, dass ihre Arbeit ohne Genehmigung oder Attribution in Trainingsdatensätze einfließt und schützen damit sowohl ihr geistiges Eigentum als auch ihre Monetarisierungschancen. SaaS-Unternehmen nutzen die Lösung, um das Scrapen von API-Dokumentation für Modelle zu verhindern, die mit ihren Diensten konkurrieren könnten oder sicherheitsrelevante Informationen offenlegen. Nachrichtenorganisationen implementieren anspruchsvolle Richtlinien, die Suchmaschinen und legitime Aggregatoren zulassen, KI-Trainingsoperationen jedoch blockieren, um die Kontrolle über die Inhaltsverbreitung und die Beziehung zu Abonnenten zu behalten.
KI-Crawl Control fungiert als spezialisierte Komponente innerhalb der umfassenden Cloudflare-Sicherheitsarchitektur und ergänzt sowie verstärkt den bestehenden Schutz, statt isoliert zu arbeiten. Die Lösung integriert sich nahtlos mit Cloudflares Web Application Firewall (WAF), die zusätzliche Regeln auf Crawler-Traffic anwenden kann, basierend auf KI-Crawl-Control-Klassifizierungen. So können identifizierte Crawler spezifische Sicherheitsrichtlinien auslösen. Das Bot Management, Cloudflares allgemeineres Bot-Erkennungssystem, liefert die grundlegende Verhaltensanalyse, die in die KI-spezifische Erkennung einfließt, wodurch ein mehrschichtiger Ansatz entsteht, bei dem generische Bot-Bedrohungen vor der KI-spezifischen Klassifizierung gefiltert werden. DDoS-Schutzmechanismen profitieren von den Erkenntnissen der KI-Crawl Control, da das System verteilte Crawler-Netzwerke erkennen kann, die andernfalls wie legitime Traffic-Spitzen erscheinen würden – so werden Angriffe exakter erkannt und abgewehrt. Die Integration erstreckt sich auf Cloudflares Analyse- und Logging-Infrastruktur, sodass Crawler-Aktivitäten in einheitlichen Dashboards neben anderen Sicherheitsereignissen erscheinen und Sicherheitsteams einen umfassenden Überblick über alle Traffic-Muster und Bedrohungen erhalten.
Das Cloudflare-Dashboard bietet detaillierte Analysen zur Crawler-Aktivität, differenziert nach Crawler-Identität, Anfragevolumen, Bandbreitenverbrauch und geografischer Herkunft. So können Webseitenbetreiber genau nachvollziehen, wie sich KI-Trainingsoperationen auf ihre Infrastruktur auswirken. Die Monitoring-Oberfläche zeigt Echtzeit-Metriken, welche Crawler aktuell auf die eigene Seite zugreifen, wie viel Bandbreite sie verbrauchen und ob sie konfigurierte Richtlinien beachten oder versuchen, Kontrollen zu umgehen. Historische Analysen offenbaren Trends im Crawler-Verhalten, erkennen saisonale Muster, neue Crawler-Varianten und Veränderungen im Zugriffsverhalten, die auf neue Bedrohungen oder Geschäftschancen hindeuten können. Leistungsmetriken zeigen den Einfluss von Crawler-Traffic auf Origin-Last, Cache-Hitrate und Nutzerlatenz und quantifizieren so die Infrastrukturkosten bei unbeschränktem KI-Zugriff. Individuelle Alarme benachrichtigen Administratoren, wenn bestimmte Crawler Schwellenwerte überschreiten, neue Crawler erkannt werden oder Richtlinienverletzungen auftreten – so wird eine schnelle Reaktion auf neue Bedrohungen ermöglicht. Das Analysesystem lässt sich per API und Webhooks in bestehende Monitoring-Tools integrieren, sodass Organisationen Crawler-Metriken in umfassendere Observability-Plattformen und Incident-Response-Workflows einbinden können.

Die derzeit in der Beta befindliche Funktion Pay Per Crawl führt ein revolutionäres Monetarisierungsmodell ein, das KI-Crawler-Traffic von einem Kostenfaktor in eine Einnahmequelle verwandelt und die Ökonomie des Inhaltszugriffs grundlegend verändert. Bei Aktivierung gibt diese Funktion HTTP-402-Payment-Required-Statuscodes an Crawler zurück, die auf geschützte Inhalte zugreifen möchten, signalisiert, dass Zugriff nur gegen Bezahlung möglich ist, und löst die Zahlungsabwicklung über integrierte Billing-Systeme aus. Webseitenbetreiber können Preise pro Anfrage festlegen und so den Crawler-Zugriff zu Tarifen monetarisieren, die den Wert ihrer Inhalte widerspiegeln, während sie für KI-Unternehmen wirtschaftlich sinnvoll bleiben. Das System übernimmt die Zahlungsabwicklung transparent, wobei Crawler finanzstarker KI-Unternehmen Mengenrabatte oder Lizenzvereinbarungen aushandeln können, die planbaren Zugriff zu vereinbarten Konditionen bieten. Dieser Ansatz schafft eine Interessengleichheit zwischen Content Creators und KI-Unternehmen: Die Schöpfer erhalten Vergütung für ihr geistiges Eigentum, während KI-Unternehmen zuverlässigen, legalen Zugang zu Trainingsdaten erhalten – ohne Reputations- oder Rechtsrisiken durch unerlaubtes Scraping. Die Funktion ermöglicht differenzierte Preisstrategien, bei denen verschiedene Crawler je nach Inhalts-Sensitivität, Crawler-Identität oder Nutzungsmustern unterschiedliche Tarife zahlen – so maximieren Publisher ihren Umsatz und erhalten gleichzeitig Beziehungen zu nützlichen Partnern. Frühe Anwender berichten von erheblichen Einnahmen durch Pay Per Crawl, einige Publisher verdienen allein durch die Monetarisierung von Crawlern monatlich mehrere Tausend Dollar.
Während andere CDN-Anbieter grundlegende Bot-Management-Funktionen anbieten, bietet Cloudflares KI-Crawl Control eine spezialisierte Erkennung und Steuerung, die speziell für KI-Trainingsoperationen entwickelt wurde und im Vergleich zu generischem Bot-Filtering eine überlegene Genauigkeit und Granularität ermöglicht. Traditionelle WAF-Lösungen behandeln allen nicht-menschlichen Traffic gleich und fehlen die KI-spezifische Intelligenz, um zwischen verschiedenen Crawler-Typen und ihren geschäftlichen Auswirkungen zu unterscheiden – dies führt entweder zu Überblockierung und Schädigung legitimen Traffics oder zu Unterblockierung und mangelndem Schutz von Inhalten. Dedizierte Bot-Management-Plattformen wie Imperva oder Akamai bieten ausgefeilte Erkennung, arbeiten aber meist mit höherer Latenz und Kosten und erfordern zusätzliche Infrastruktur sowie Integrationsaufwand im Vergleich zum Edge-nativen Ansatz von Cloudflare. Open-Source-Lösungen wie ModSecurity bieten Flexibilität, verursachen jedoch erheblichen Betriebsaufwand und verfügen nicht über die nötigen Bedrohungsinformationen und Machine-Learning-Fähigkeiten für eine effektive KI-Crawler-Erkennung. Für Organisationen, die nachvollziehen möchten, wie ihre Inhalte von KI-Systemen genutzt werden und Zitate in Trainingsdatensätzen verfolgen, bietet AmICited.com ergänzende Monitoring-Funktionen, die aufzeigen, wo Ihre Marke und Inhalte in KI-Modellausgaben erscheinen und so Einblick in die Auswirkungen von Crawler-Zugriffen geben. Cloudflares integrierter Ansatz – der Erkennung, Kontrolle, Monetarisierung und Analyse auf einer Plattform vereint – bietet mehr Wert als Einzellösungen, die Integration und Koordination mehrerer Anbieter erfordern.
Für eine effektive Implementierung von KI-Crawl Control ist ein durchdachter Ansatz erforderlich, der Schutz mit Geschäftsziele in Einklang bringt – beginnend mit einem umfassenden Audit des aktuellen Crawler-Traffics, um zu verstehen, welche KI-Unternehmen auf Ihre Inhalte zugreifen und in welchem Umfang. Organisationen sollten mit einer reinen Monitoring-Konfiguration starten, die Crawler-Aktivität protokolliert, ohne Richtlinien durchzusetzen, um Traffic-Muster zu verstehen und wertschöpfende Crawler von reinen Kostenfaktoren zu unterscheiden. Anfangs sollten Richtlinien konservativ sein: bekannte nützliche Crawler wie Googlebot zulassen und nur klar böswilligen oder unerwünschten Traffic blockieren, mit schrittweiser Erweiterung der Restriktionen, sobald das Team Vertrauen in die Systemgenauigkeit und die geschäftlichen Auswirkungen gewinnt. Wer Pay Per Crawl nutzen möchte, sollte mit einem kleinen Inhaltsbereich oder einem Pilotprogramm mit ausgewählten Crawlern starten, um Preis- und Zahlungsmodelle zu testen, bevor die Funktion auf die gesamte Seite ausgerollt wird. Regelmäßige Überprüfung der Crawler-Aktivität und Richtlinienwirksamkeit stellt sicher, dass die Konfiguration mit den Geschäftszielen Schritt hält, während sich das KI-Umfeld weiterentwickelt und neue Crawler auftauchen. Für die Integration in bestehende Security Operations müssen Runbooks und Alarmierungen angepasst werden, damit Sicherheitsteams Crawler-spezifische Metriken verstehen und KI-Crawl Control in den gesamten Threat-Detection- und Response-Workflow einbinden können. Die Dokumentation von Richtlinienentscheidungen und Geschäftsbegründungen sorgt für konsistente Durchsetzung und erleichtert künftige Audits oder Anpassungen bei sich ändernden Prioritäten.
Die schnelle Entwicklung von KI-Systemen und das Aufkommen agentischer KI – autonomer Systeme, die Entscheidungen treffen und ohne menschliches Zutun handeln – werden zu immer ausgefeilteren Kontrollmechanismen am Edge führen. Zukünftige Entwicklungen werden wahrscheinlich noch granularere Verhaltensanalysen ermöglichen, die zwischen verschiedenen Arten von KI-Trainingsoperationen unterscheiden und so Richtlinien für spezifische Anwendungsfälle wie akademische Forschung versus kommerzielles Modelltraining erlauben. Programmatische Zugriffskontrolle wird sich weiterentwickeln und noch ausgefeiltere Verhandlungsprotokolle unterstützen, bei denen Crawler und Content-Eigentümer dynamische Vereinbarungen zu Preisen, Ratelimits und Zugriff schließen, die in Echtzeit angepasst werden können und beiderseitigen Nutzen schaffen. Die Integration mit aufkommenden Standards für KI-Transparenz und Attribution wird eine automatische Durchsetzung von Lizenz- und Zitationspflichten ermöglichen und technische Mechanismen schaffen, mit denen KI-Unternehmen geistige Eigentumsrechte respektieren. Das Edge-Computing-Paradigma wird sich weiter ausdehnen, wobei immer komplexere Machine-Learning-Modelle am Edge ausgeführt werden, um noch präzisere Erkennung und ausgefeiltere Richtliniendurchsetzung zu bieten. Während die KI-Branche reift und regulatorische Rahmenbedingungen für Datennutzung und Inhaltslizenzierung entstehen, werden Edge-basierte Kontrollsysteme zur unverzichtbaren Infrastruktur für die Durchsetzung von Compliance und den Schutz der Rechte von Content Creators. Organisationen, die heute umfassende KI-Kontrollstrategien implementieren, sind am besten auf künftige regulatorische Anforderungen und neue Bedrohungen vorbereitet und behalten gleichzeitig die Flexibilität, ihre Inhalte zu monetarisieren und ihr geistiges Eigentum in einer KI-getriebenen Wirtschaft zu schützen.
KI-Crawl Control ist Cloudflares Edge-basierte Lösung, die KI-Crawler-Traffic identifiziert und granulare Richtlinien ermöglicht, um Zugriff zu erlauben, zu blockieren oder zu berechnen. Sie arbeitet am Rand von Cloudflares globalem Netzwerk und trifft Entscheidungen in Echtzeit innerhalb von Millisekunden, indem maschinelles Lernen und Verhaltensanalysen eingesetzt werden, um KI-Trainingsoperationen von legitimen Zugriffen zu unterscheiden.
Cloudflare nutzt mehrere Erkennungstechniken, darunter Verhaltensanalysen von Anfrage-Mustern, Fingerprinting von HTTP-Headern und TLS-Signaturen sowie Bedrohungsinformationen aus Branchendatenbanken. Diese Signale werden durch Ensemble-Machine-Learning-Modelle kombiniert, die eine hohe Genauigkeit bei niedrigen Fehlalarmraten erzielen und kontinuierlich aus neuen Crawler-Varianten lernen.
Ja, KI-Crawl Control bietet granulare, crawler-spezifische Richtlinien. Sie können nützliche Crawler wie Googlebot kostenlos zulassen, unerwünschte Crawler komplett blockieren oder bestimmten Crawlern den Zugriff gegen Bezahlung erlauben. Die Richtlinien lassen sich für jeden Crawler unabhängig konfigurieren und ermöglichen so anspruchsvolle Zugriffsstrategien, die auf Ihre Geschäftsanforderungen zugeschnitten sind.
Pay Per Crawl ist eine Beta-Funktion, die es Content-Eigentümern ermöglicht, den Zugriff von KI-Crawlern zu monetarisieren, indem pro Anfrage eine Gebühr erhoben wird. Bei Aktivierung erhalten Crawler HTTP 402 Payment Required-Antworten und können Zahlungen über integrierte Abrechnungssysteme verhandeln. Website-Betreiber legen die Preise pro Anfrage fest und verwandeln so Crawler-Traffic von einem Kostenfaktor in eine Einnahmequelle.
Edge-basierte Erkennung trifft Entscheidungen in weniger als 10 Millisekunden direkt beim Eintritt der Anfrage, bevor Bandbreite verbraucht oder Inhalte übertragen werden. Das ist deutlich schneller als originbasierte Filterung, bei der der Traffic das Netzwerk durchqueren muss und Ressourcen sowie Latenz verursacht. Die verteilte Edge-Infrastruktur sorgt außerdem für natürliche Resilienz gegenüber ausgeklügelten Angriffen.
KI-Crawl Control ist in allen Cloudflare-Tarifen verfügbar, auch im kostenlosen Tarif. Die Qualität der Erkennung variiert jedoch je nach Tarif – kostenlose Tarife identifizieren Crawler anhand von User-Agent-Strings, während kostenpflichtige Tarife eine umfassendere Erkennung mit Cloudflares Bot-Management-Funktionen und höherer Genauigkeit ermöglichen.
KI-Crawl Control integriert sich nahtlos mit Cloudflares Web Application Firewall (WAF), Bot Management und DDoS-Schutz. Identifizierte Crawler können spezifische Sicherheitsrichtlinien auslösen, und die Crawler-Aktivität erscheint in einheitlichen Dashboards neben anderen Sicherheitsereignissen und verschafft so einen umfassenden Überblick über alle Traffic-Muster.
Edge-basierte Kontrolle ermöglicht sofortige Abwehr von Bedrohungen vor Bandbreitenverbrauch, Echtzeit-Richtliniendurchsetzung ohne Beteiligung des Origin-Servers, globale Skalierbarkeit ohne Infrastrukturkosten und umfassende Analysen zum Crawler-Verhalten. Darüber hinaus eröffnet sie Monetarisierungsmöglichkeiten und schützt geistiges Eigentum, während Beziehungen zu nützlichen Partnern gewahrt bleiben.
Erhalten Sie Einblick, welche KI-Dienste auf Ihre Inhalte zugreifen, und übernehmen Sie mit granularen Richtlinien die Kontrolle. Schützen Sie Ihre digitalen Vermögenswerte mit Cloudflares KI-Crawl Control.

Erfahren Sie, wie Web Application Firewalls fortschrittliche Kontrolle über KI-Crawler bieten – weit über robots.txt hinaus. Implementieren Sie WAF-Regeln, um I...

Erfahren Sie, wie Sie KI-Crawler selektiv je nach Geschäftszielen zulassen oder blockieren. Implementieren Sie differenziellen Crawler-Zugang, um Inhalte zu sch...

Erfahren Sie, wie Sie den Zugang von KI-Crawlern zu Ihrer Website prüfen. Entdecken Sie, welche Bots Ihre Inhalte sehen können, und beheben Sie Blocker, die die...
Cookie-Zustimmung
Wir verwenden Cookies, um Ihr Surferlebnis zu verbessern und unseren Datenverkehr zu analysieren. See our privacy policy.