Comment autoriser les bots IA à explorer votre site web : Guide complet robots.txt & llms.txt

Comment autoriser les bots IA à explorer votre site web : Guide complet robots.txt & llms.txt

Comment puis-je autoriser les bots IA à explorer mon site ?

Autorisez les bots IA à explorer votre site en configurant votre fichier robots.txt avec des directives Allow explicites pour des crawlers IA spécifiques comme GPTBot, PerplexityBot et ClaudeBot, et en créant éventuellement un fichier llms.txt pour fournir un contenu structuré aux systèmes d'IA.

Comprendre l’exploration des bots IA

Les bots IA sont des crawlers automatisés qui parcourent et indexent systématiquement le contenu web pour alimenter les grands modèles de langage et les moteurs de recherche IA comme ChatGPT, Perplexity et Claude. Contrairement aux crawlers de moteurs de recherche traditionnels qui se concentrent principalement sur l’indexation pour les résultats de recherche, les crawlers IA collectent des données pour l’entraînement des modèles, la récupération d’informations en temps réel et la génération de réponses alimentées par IA. Ces crawlers servent à différents usages : certains rassemblent des données pour l’entraînement initial du modèle, d’autres récupèrent des informations en temps réel pour les réponses IA, et certains construisent des ensembles de données spécialisés pour des applications IA. Chaque crawler s’identifie via une chaîne user-agent unique qui permet aux propriétaires de sites de contrôler l’accès via les fichiers robots.txt, ce qui rend essentiel de savoir comment configurer correctement votre site pour la visibilité IA.

Différences clés entre crawlers IA et bots de recherche traditionnels

Les crawlers IA fonctionnent fondamentalement différemment des bots de moteurs de recherche traditionnels comme Googlebot. La différence la plus importante est que la plupart des crawlers IA ne rendent pas le JavaScript, ce qui signifie qu’ils ne voient que le HTML brut servi par votre site web et ignorent tout contenu chargé ou modifié par JavaScript. Les moteurs de recherche traditionnels comme Google disposent de pipelines de rendu sophistiqués capables d’exécuter des scripts et d’attendre que les pages soient entièrement rendues, mais les crawlers IA privilégient l’efficacité et la rapidité, ce qui les rend incapables de traiter du contenu dynamique. De plus, les crawlers IA visitent les sites à des cadences différentes de celles des bots traditionnels, explorant souvent le contenu plus fréquemment que Google ou Bing. Cela signifie que si votre contenu critique est caché derrière un rendu côté client, des redirections infinies ou des scripts lourds, les crawlers IA risquent de ne jamais le capturer, rendant effectivement votre contenu invisible pour les moteurs de recherche IA.

Configuration du robots.txt pour les bots IA

Votre fichier robots.txt est le principal mécanisme de contrôle de l’accès des crawlers IA à votre site web. Ce fichier, situé à la racine de votre domaine (votresite.com/robots.txt), utilise des directives spécifiques pour indiquer aux crawlers quelles parties de votre site ils peuvent ou non explorer. Le point le plus important à comprendre est que les crawlers IA ne sont pas bloqués par défaut – ils exploreront votre site à moins que vous ne les interdisiez explicitement. C’est pourquoi une configuration explicite est cruciale pour garantir que votre contenu apparaisse dans les résultats de recherche IA.

Principaux user-agents de crawlers IA

Le tableau suivant liste les crawlers IA les plus importants et leurs usages :

Nom du crawlerSociétéObjectifChaîne User-Agent
GPTBotOpenAIEntraînement de modèle pour ChatGPT et modèles GPTMozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; GPTBot/1.0; +https://openai.com/gptbot)
ChatGPT-UserOpenAIRécupération à la demande de pages lorsque des utilisateurs demandent des informations dans ChatGPTMozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ChatGPT-User/1.0; +https://openai.com/chatgpt)
ClaudeBotAnthropicRécupération de citations en temps réel pour les réponses IA de ClaudeMozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; ClaudeBot/1.0; +https://www.anthropic.com/claude)
Claude-WebAnthropicCapacité de navigation web pour Claude lorsque les utilisateurs demandent des informations en temps réelMozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Claude-Web/1.0; +https://www.anthropic.com)
PerplexityBotPerplexityConstruction de l’index du moteur de recherche IA PerplexityMozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; PerplexityBot/1.0; +https://perplexity.ai/perplexitybot)
Perplexity-UserPerplexityRequêtes déclenchées par les utilisateurs lorsque ceux-ci posent des questions dans PerplexityMozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Perplexity-User/1.0; +https://perplexity.ai/perplexity-user)
Google-ExtendedGoogleIndexation Gemini et IA au-delà de la recherche traditionnelleMozilla/5.0 AppleWebKit/537.36 (KHTML, like Gecko; compatible; Google-Extended/1.0; +https://google.com/bot.html)

Configuration robots.txt de base pour autoriser les crawlers IA

Pour autoriser tous les principaux crawlers IA à accéder à votre site, ajoutez ce qui suit à votre fichier robots.txt :

User-agent: GPTBot
User-agent: ChatGPT-User
User-agent: ClaudeBot
User-agent: Claude-Web
User-agent: PerplexityBot
User-agent: Perplexity-User
User-agent: Google-Extended
Allow: /

Sitemap: https://votresite.com/sitemap.xml

Cette configuration autorise explicitement tous les principaux crawlers IA à accéder à l’ensemble de votre site. La directive Allow indique à ces crawlers qu’ils ont la permission d’explorer votre contenu, tandis que la directive Sitemap les aide à découvrir plus efficacement vos pages les plus importantes.

Contrôle d’accès sélectif

Si vous souhaitez autoriser certains crawlers IA tout en en restreignant d’autres, vous pouvez créer des règles plus granulaires. Par exemple, vous pourriez vouloir autoriser les crawlers axés sur la recherche comme PerplexityBot tout en bloquant les crawlers d’entraînement comme GPTBot :

User-agent: GPTBot
User-agent: Google-Extended
Disallow: /

User-agent: ChatGPT-User
User-agent: ClaudeBot
User-agent: Claude-Web
User-agent: PerplexityBot
User-agent: Perplexity-User
Allow: /

Sitemap: https://votresite.com/sitemap.xml

Cette approche bloque les crawlers d’entraînement tout en autorisant les crawlers de recherche et ceux déclenchés par l’utilisateur, ce qui vous permet de maintenir votre visibilité dans les moteurs de recherche IA tout en empêchant votre contenu d’être utilisé pour l’entraînement de modèles IA.

Comprendre le fichier llms.txt

Le fichier llms.txt est une nouvelle norme proposée en 2024 pour aider les systèmes d’IA à mieux comprendre et naviguer sur votre site web. Contrairement à robots.txt, qui contrôle l’accès, llms.txt fournit des informations structurées et adaptées à l’IA sur le contenu et l’organisation de votre site. Ce fichier agit comme une table des matières organisée spécifiquement pour les modèles de langage, les aidant à identifier rapidement vos pages les plus importantes et à comprendre la structure de votre site sans avoir à analyser du HTML complexe avec des menus de navigation, des publicités et du JavaScript.

Pourquoi llms.txt est important pour la visibilité IA

Les grands modèles de langage font face à une limite critique : leurs fenêtres de contexte sont trop petites pour traiter des sites entiers. Convertir des pages HTML complexes en texte brut adapté aux LLM est à la fois difficile et imprécis. Le fichier llms.txt résout ce problème en fournissant des informations concises et expertes à un endroit unique et accessible. Lorsque les systèmes d’IA visitent votre site, ils peuvent se référer à votre fichier llms.txt pour comprendre rapidement ce que propose votre site, quelles pages sont les plus importantes et où trouver des informations détaillées. Cela améliore considérablement les chances que votre contenu soit compris et cité correctement dans les réponses IA.

Créer votre fichier llms.txt

Votre fichier llms.txt doit être placé à la racine de votre domaine (votresite.com/llms.txt) et suivre cette structure de base :

Nom de votre entreprise

Brève description de votre entreprise et de ce que vous faites.

Pages principales

  • Accueil  : Présentation de l’entreprise et dernières actualités
  • À propos  : Informations sur l’entreprise et l’équipe
  • Produits  : Principaux produits et services
  • Tarifs  : Plans et options tarifaires

Ressources

  • Documentation  : Documentation complète des produits
  • Blog  : Dernières analyses et actualités
  • Études de cas  : Histoires de réussite clients
  • FAQ  : Foire aux questions

Support

  • Contact  : Prendre contact avec notre équipe
  • Support  : Centre d’aide et ressources de support

Optionnel

Le fichier utilise la mise en forme Markdown avec H1 pour le nom de l’entreprise, un bloc de citation pour un résumé bref, et des titres H2 pour différentes sections. Chaque section contient une liste à puces de liens avec des descriptions courtes. La section « Optionnel » à la fin indique le contenu qui peut être ignoré si un système IA a un contexte limité disponible.

Créer llms-full.txt pour un contenu complet

Pour les systèmes IA ayant besoin d’informations plus détaillées, vous pouvez créer un fichier optionnel llms-full.txt qui fournit un contenu complet sur votre entreprise, vos produits et services. Ce fichier concatène vos pages les plus importantes au format Markdown propre, permettant aux systèmes IA disposant de fenêtres de contexte plus larges d’accéder à l’ensemble des informations sans analyser le HTML. Le fichier llms-full.txt doit inclure des descriptions détaillées de vos produits, services, public cible, fonctionnalités clés, avantages concurrentiels et coordonnées.

Problèmes de rendu JavaScript avec les crawlers IA

L’un des défis majeurs pour l’explorabilité IA est la dépendance au JavaScript. Si votre site repose fortement sur JavaScript pour charger du contenu critique, vous devez vous assurer que la même information est accessible dans la réponse HTML initiale, sinon les crawlers IA ne la verront pas. Cela diffère fondamentalement du SEO traditionnel, où Google peut rendre le JavaScript après sa première visite. Les crawlers IA, privilégiant l’efficacité à grande échelle, récupèrent généralement uniquement la réponse HTML initiale et extraient tout texte immédiatement disponible.

Imaginez que vous êtes un site e-commerce utilisant JavaScript pour charger les informations produit, les avis clients, les tableaux de prix ou l’état des stocks. Pour un visiteur humain, ces détails apparaissent de façon transparente sur la page. Mais comme les crawlers IA ne traitent pas le JavaScript, aucun de ces éléments servis dynamiquement ne sera vu ni indexé par les moteurs de réponse. Cela impacte de façon significative la représentation de votre contenu dans les réponses IA, car des informations importantes peuvent être totalement invisibles pour ces systèmes. Pour corriger cela, vous devez servir le contenu critique dans la réponse HTML initiale, utiliser le rendu côté serveur (SSR) pour délivrer le contenu directement dans le HTML, ou mettre en œuvre la génération de site statique (SSG) afin de pré-construire vos pages HTML.

Balisage Schema et données structurées

Le balisage schema, aussi appelé données structurées, est l’un des facteurs les plus importants pour maximiser la visibilité IA. Utiliser le schema pour étiqueter explicitement les éléments de contenu comme les auteurs, sujets clés, dates de publication, informations produit et détails de l’organisation aide les systèmes IA à analyser et comprendre votre contenu plus efficacement. Sans balisage schema, il devient beaucoup plus difficile pour les moteurs de réponse d’extraire des informations précises pour générer des réponses exactes.

Les types de schema les plus importants pour la visibilité IA incluent Article Schema (pour les articles de blog et contenus d’actualité), Product Schema (pour les sites e-commerce), Organization Schema (pour les informations sur l’entreprise), Author Schema (pour établir l’expertise et l’autorité) et BreadcrumbList Schema (pour aider l’IA à comprendre la structure de votre site). En mettant en œuvre ces types de schema sur vos pages à fort impact, vous indiquez aux crawlers IA quelles informations sont les plus importantes et comment elles doivent être interprétées. Cela augmente la probabilité que votre contenu soit cité dans les réponses IA, car le système IA peut extraire et comprendre l’information sans ambiguïté.

Core Web Vitals et explorabilité IA

Même si les crawlers IA ne mesurent pas directement les Core Web Vitals (LCP, CLS, INP), ces métriques de performance impactent indirectement votre visibilité IA. De mauvais Core Web Vitals indiquent des problèmes techniques qui affectent la façon dont les crawlers peuvent accéder à votre contenu et l’extraire. Quand votre site met longtemps à charger (problèmes LCP), les crawlers mettent plus de temps à récupérer et rendre vos pages, réduisant le nombre d’URL qu’ils peuvent explorer à chaque session. Un chargement instable (problèmes CLS) perturbe l’extraction du contenu lorsque les éléments DOM se déplacent pendant l’exploration, ce qui peut aboutir à une extraction incomplète ou brouillée.

De plus, de mauvaises performances affectent votre classement dans la recherche traditionnelle, qui sert de prérequis pour l’inclusion IA. La plupart des systèmes IA s’appuient sur les meilleurs résultats pour décider quoi citer, donc si de mauvais Core Web Vitals font reculer votre site dans les résultats, vous perdrez aussi en visibilité IA. Par ailleurs, lorsque plusieurs sources contiennent des informations similaires, les métriques de performance servent souvent de critère de départage. Si votre contenu et celui d’un concurrent sont également pertinents et autoritaires mais que sa page se charge plus vite et s’affiche plus fiablement, le contenu du concurrent sera préféré par les systèmes IA. Avec le temps, cet inconvénient s’accumule et réduit votre part globale de citations IA.

Surveiller l’activité des crawlers IA

Comprendre si les crawlers IA visitent réellement votre site est essentiel pour optimiser votre stratégie de visibilité IA. Vous pouvez surveiller l’activité des crawlers IA via plusieurs méthodes :

  • Analyse des logs serveur : vérifiez vos logs serveur pour des chaînes user-agent comme “GPTBot”, “ClaudeBot”, “PerplexityBot” et “Google-Extended” pour voir quels crawlers visitent votre site et à quelle fréquence
  • Google Search Console : bien que GSC suive principalement les crawlers Google, il peut fournir des indications sur votre capacité d’exploration et votre statut d’indexation global
  • Plateformes de suivi en temps réel : des outils spécialisés peuvent suivre l’activité des crawlers IA sur l’ensemble de votre site, indiquant quelles pages sont explorées, à quelle fréquence et quand ont eu lieu les dernières visites
  • Plateformes d’analytique : configurez des paramètres UTM personnalisés ou des filtres dans vos analytics pour suivre le trafic référent provenant de plateformes IA comme Perplexity et ChatGPT
  • Outils spécialisés de surveillance IA : des plateformes dédiées à la visibilité IA peuvent suivre les mentions de votre marque sur ChatGPT, Claude, Gemini et Perplexity et vous montrer quelles pages sont citées et à quelle fréquence

En surveillant cette activité, vous pouvez identifier quelles pages sont fréquemment explorées (ce qui indique une bonne visibilité IA) et quelles pages sont ignorées (ce qui indique des problèmes techniques ou de contenu potentiels). Ces données vous permettent de prendre des décisions éclairées sur la priorisation de vos optimisations.

Bonnes pratiques pour l’explorabilité IA

Pour maximiser la visibilité de votre site auprès des crawlers IA, suivez ces bonnes pratiques éprouvées :

  • Servez le contenu critique en HTML : assurez-vous que votre contenu le plus important est disponible dans la réponse HTML initiale, pas caché derrière du JavaScript ou des chargements dynamiques
  • Ajoutez un balisage schema complet : implémentez les schémas Article, Produit, Organisation, Auteur et BreadcrumbList sur vos pages à fort impact pour aider les systèmes IA à comprendre votre contenu
  • Assurez l’auteur et l’actualité : incluez les informations d’auteur via le balisage schema, mettez en avant vos experts internes et mettez à jour régulièrement votre contenu
  • Optimisez les Core Web Vitals : surveillez et améliorez vos scores LCP, CLS et INP pour que votre site se charge rapidement et s’affiche de façon fiable
  • Créez un sitemap optimisé IA : en plus de votre sitemap classique, envisagez de créer un sitemap séparé qui met en avant votre contenu le plus important pour les systèmes IA
  • Mettez en place llms.txt et llms-full.txt : fournissez des versions structurées et adaptées à l’IA de votre contenu pour aider les modèles de langage à comprendre rapidement votre site
  • Testez votre configuration robots.txt : utilisez des outils de validation pour vérifier que votre fichier robots.txt est correctement formaté et que vos directives sont bien appliquées
  • Surveillez régulièrement l’activité des crawlers : utilisez des outils de monitoring en temps réel pour suivre quels crawlers IA visitent votre site et détecter d’éventuels blocages techniques
  • Mettez à jour votre configuration à mesure que de nouveaux crawlers apparaissent : le paysage des crawlers IA évolue rapidement, révisez donc régulièrement votre robots.txt pour inclure les nouveaux crawlers
  • Considérez la valeur business de chaque crawler : évaluez si autoriser des crawlers d’entraînement comme GPTBot est cohérent avec vos objectifs business, ou si vous préférez les bloquer tout en autorisant les crawlers de recherche

Différences entre autoriser les crawlers d’entraînement et de recherche

En configurant votre fichier robots.txt, vous devrez décider si vous autorisez les crawlers d’entraînement, de recherche, ou les deux. Les crawlers d’entraînement comme GPTBot et Google-Extended collectent des données pour l’entraînement initial du modèle, ce qui signifie que votre contenu pourrait être utilisé pour entraîner des modèles IA. Les crawlers de recherche comme PerplexityBot et ChatGPT-User récupèrent du contenu pour les réponses IA en temps réel, ce qui signifie que votre contenu sera cité dans les résultats de recherche IA. Les crawlers déclenchés par l’utilisateur comme Perplexity-User et Claude-Web récupèrent des pages spécifiques lorsque des utilisateurs demandent explicitement des informations.

Autoriser les crawlers d’entraînement signifie que votre contenu contribue au développement des modèles IA, ce qui peut être vu comme une opportunité (votre contenu aide à entraîner une meilleure IA) ou une inquiétude (votre contenu est utilisé sans compensation). Autoriser les crawlers de recherche garantit que votre marque apparaît dans les résultats IA et peut générer du trafic référent depuis les plateformes IA. La plupart des entreprises bénéficient de l’autorisation des crawlers de recherche tout en prenant une décision stratégique sur les crawlers d’entraînement selon leur philosophie de licence de contenu et leur positionnement concurrentiel.

Gérer les Web Application Firewalls (WAF)

Si vous utilisez un Web Application Firewall pour protéger votre site, vous devrez peut-être explicitement autoriser les crawlers IA afin qu’ils puissent accéder à votre contenu. De nombreux fournisseurs de WAF bloquent par défaut les user-agents inconnus, ce qui peut empêcher les crawlers IA d’atteindre votre site même si votre robots.txt les autorise.

Pour Cloudflare WAF, créez une règle personnalisée qui autorise les requêtes avec User-Agent contenant “GPTBot”, “PerplexityBot”, “ClaudeBot” ou d’autres crawlers IA, combinée à une vérification d’adresse IP utilisant les plages IP officielles publiées par chaque société IA. Pour AWS WAF, créez des ensembles d’IP pour chaque crawler en utilisant leurs adresses IP publiées et des conditions de correspondance de chaîne pour les headers User-Agent, puis créez des règles d’autorisation combinant les deux conditions. Utilisez toujours les plages IP les plus à jour provenant des sources officielles, car ces adresses sont mises à jour régulièrement et doivent servir de source de vérité pour vos configurations WAF.

Foire aux questions sur l’exploration des bots IA

Les crawlers IA sont-ils bloqués par défaut ? Non, les crawlers IA ne sont pas bloqués par défaut. Ils exploreront votre site à moins que vous ne les interdisiez explicitement dans votre fichier robots.txt. C’est pourquoi une configuration explicite est importante pour garantir que votre contenu apparaisse dans les résultats IA.

Tous les crawlers IA respectent-ils robots.txt ? La plupart des principaux crawlers IA respectent les directives robots.txt, mais certains peuvent les ignorer. Surveillez vos logs serveur et envisagez des règles de firewall pour un contrôle supplémentaire si besoin. Les sociétés IA les plus réputées (OpenAI, Anthropic, Perplexity) respectent les standards robots.txt.

Dois-je bloquer les crawlers d’entraînement ? Cela dépend de votre stratégie et de votre philosophie de licence de contenu. Bloquer les crawlers d’entraînement empêche votre contenu d’être utilisé pour entraîner des modèles IA, tandis qu’autoriser les crawlers de recherche maintient votre visibilité dans les résultats IA. Beaucoup d’entreprises autorisent les crawlers de recherche tout en bloquant les crawlers d’entraînement.

À quelle fréquence dois-je mettre à jour ma configuration robots.txt ? Vérifiez chaque mois l’apparition de nouveaux crawlers, mettez à jour votre robots.txt chaque trimestre, et rafraîchissez votre fichier llms.txt à chaque lancement de nouveau produit ou changement de contenu significatif. Le paysage des crawlers IA évolue rapidement, il est donc important de rester à jour.

Ai-je besoin à la fois de llms.txt et de llms-full.txt ? Pas nécessairement. llms.txt est le fichier essentiel qui agit comme une table des matières Markdown concise. llms-full.txt est optionnel et fournit un contenu détaillé pour les systèmes IA ayant besoin d’informations complètes. Commencez par llms.txt et ajoutez llms-full.txt si vous souhaitez fournir plus de détails.

Comment puis-je suivre l’activité des crawlers IA ? Utilisez l’analyse des logs serveur pour identifier les user-agents de crawlers, mettez en place des plateformes de suivi en temps réel dédiées à la visibilité IA, vérifiez vos analytics pour le trafic référent en provenance des plateformes IA, ou utilisez des outils spécialisés qui suivent les mentions sur ChatGPT, Claude, Gemini et Perplexity.

Quelle est la différence entre les crawlers IA et le SEO traditionnel ? Les crawlers IA consomment du contenu pour générer des réponses dans les moteurs de recherche IA, tandis que le SEO traditionnel amène du trafic sur votre site via les résultats de recherche. L’optimisation IA vise à ce que votre contenu soit bien représenté dans les réponses IA plutôt qu’à générer des clics via le classement.

Les sitemaps spécifiques IA sont-ils nécessaires ? Bien qu’ils ne soient pas obligatoires, les sitemaps spécifiques IA aident à mettre en avant votre contenu le plus important pour les systèmes IA, de la même façon que vous créez des sitemaps pour les actualités ou les images pour les moteurs de recherche classiques. Ils peuvent améliorer l’efficacité d’exploration et aider l’IA à comprendre la structure de votre site.

Comment savoir si mon site est explorable par l’IA ? Investissez dans une solution de surveillance en temps réel qui suit spécifiquement l’activité des bots IA. Sans monitoring dédié, vous n’aurez pas de visibilité sur la capacité des crawlers IA à accéder et comprendre votre contenu. Vérifiez vos logs serveur pour les user-agents IA, surveillez vos Core Web Vitals, et assurez-vous que votre contenu critique est disponible en HTML.

Que faire si les crawlers IA ne visitent pas mon site ? Si les crawlers IA ne visitent pas fréquemment votre site, il y a probablement des problèmes techniques ou de contenu qui les empêchent d’explorer efficacement. Auditez la santé technique de votre site, assurez-vous que le contenu critique est en HTML (et pas en JavaScript), implémentez le balisage schema, optimisez vos Core Web Vitals et vérifiez la bonne configuration de votre robots.txt.

Surveillez votre marque sur les moteurs de recherche IA

Suivez comment votre site apparaît dans ChatGPT, Perplexity, Claude et d'autres résultats IA. Obtenez des insights en temps réel sur votre visibilité IA et les mentions de votre marque.

En savoir plus

Quels crawlers IA dois-je autoriser ? Guide complet pour 2025
Quels crawlers IA dois-je autoriser ? Guide complet pour 2025

Quels crawlers IA dois-je autoriser ? Guide complet pour 2025

Découvrez quels crawlers IA autoriser ou bloquer dans votre robots.txt. Guide complet couvrant GPTBot, ClaudeBot, PerplexityBot et plus de 25 crawlers IA avec e...

12 min de lecture
Les crawlers IA expliqués : GPTBot, ClaudeBot et plus encore
Les crawlers IA expliqués : GPTBot, ClaudeBot et plus encore

Les crawlers IA expliqués : GPTBot, ClaudeBot et plus encore

Comprenez comment fonctionnent les crawlers IA comme GPTBot et ClaudeBot, leurs différences avec les crawlers de recherche traditionnels, et comment optimiser v...

15 min de lecture