Aller au contenu principalSkip to content

FAQ

La version gratuite est-elle utile à elle seule ?

Oui. La version gratuite donne déjà un setup guidé, un preset utile, des contrôles essentiels, et une étape finale de prévisualisation.

Ce qu’elle ne fait pas, c’est rabattre toutes les décisions avancées de gouvernance dans la version gratuite.

Les captures montrent-elles uniquement la version gratuite ?

Non. Les captures peuvent montrer des fonctions Free, Pro, ou Premium.

Elles servent à expliquer le produit, mais elles ne prouvent pas qu’une option visible sur une capture existe dans toutes les éditions.

Puis-je bloquer les crawlers IA ?

Vous pouvez configurer un comportement lié à l’IA et publier des préférences d’usage, mais ces sorties restent des signaux déclaratifs, pas de l’enforcement dur.

Cette distinction compte encore plus maintenant qu’une partie du trafic agentique est déclenchée par l’utilisateur ou vérifiée côté infrastructure.

Pourquoi ne pas traiter tous les crawlers pareil ?

Parce que moteurs de recherche, crawlers d’entraînement, systèmes de réponse, services d’archive, outils SEO, fetchers déclenchés par l’utilisateur, et bots abusifs n’apportent ni la même valeur ni le même niveau de risque.

Une politique moderne doit les séparer avant publication.

Google-Agent, est-ce la même chose que Google-Extended ?

Non.

Google-Extended concerne certains usages aval de Google pour de futurs entraînements Gemini et certains usages de grounding. Google-Agent correspond à du trafic agentique Google déclenché par l’utilisateur. Ce sont des surfaces différentes et il ne faut pas les gouverner comme si elles relevaient du même levier.

Bloquer l’entraînement, est-ce que cela bloque aussi la découvrabilité ?

Pas nécessairement.

Dans plusieurs écosystèmes, il est possible de conserver la visibilité Search tout en refusant certains usages liés à l’entraînement, tant que le crawler de recherche reste autorisé et que seule la surface liée à l’entraînement est bloquée.

llms.txt remplace-t-il robots.txt ?

Non.

robots.txt reste la couche d’accès au crawl. llms.txt est une couche de guidage qui aide les lecteurs machine à se concentrer sur le bon contenu.

Quand faut-il sortir de la politique du plugin pour passer à l’edge ?

Quand le problème implique des agents signés, une identité de bot vérifiée, de l’allowlisting, des permissions runtime, des règles WAF, ou du contrôle anti-abus.

C’est un sujet d’infrastructure, pas le cœur du plugin.

Better Robots.txt est-il un produit de sécurité ?

Non. Il aide à publier une politique de crawl et de gouvernance lisible par machine. Il ne remplace ni le WAF, ni l’authentification, ni les contrôles d’infrastructure.

Avec quel preset dois-je commencer ?

Pour la plupart des sites, commencez par Essential.

Passez ensuite à AI-First, Fortress, ou Custom uniquement lorsque le profil du site, le risque de publication, ou l’objectif business l’exige réellement.

Better Robots.txt peut-il garantir une amélioration du crawl budget ?

Non. Il peut améliorer l’hygiène de crawl et réduire des chemins de faible valeur, mais il ne garantit ni le crawl budget ni les résultats SEO.

Où obtenir du support ?

Utilisez la page Contact ou écrivez à support@better-robots.com.

Que lire en premier pour comprendre toute la logique ?

Commencez par :