Skip to content

Robots.txt pour les sites SaaS et applications web : protéger les tableaux de bord et les API

Les produits SaaS et les applications web ont une surface de crawl différente des sites axés sur le contenu. Le site marketing — pages d'atterrissage, tarification, documentation, blogue — devrait être crawlé et indexé. Mais l'application elle-même — tableaux de bord utilisateurs, panneaux d'administration, points de terminaison API, flux OAuth — devrait être invisible pour les robots.

Le défi est que les deux vivent sur le même domaine. Un seul robots.txt doit exprimer une politique ouverte pour le contenu public et restrictive pour les éléments internes de l'application.

Ce qu'il faut bloquer

Les sites SaaS doivent typiquement bloquer plusieurs catégories de chemins applicatifs :

Les points de terminaison d'authentification (connexion, inscription, réinitialisation de mot de passe, callbacks OAuth) sont des points fonctionnels, pas des pages de contenu. Ils ne devraient jamais apparaitre dans les résultats de recherche et ne devraient pas consommer de budget de crawl.

Les tableaux de bord et zones de compte (/app/, /dashboard/, /account/, /settings/, /admin/) servent l'expérience applicative connectée.

Les points de terminaison API (REST, GraphQL, webhooks) ne sont pas des pages web. Les crawler gaspille des ressources et peut produire des effets secondaires.

Les chemins d'outillage interne (healthcheck, métriques, outils d'administration internes) doivent être bloqués.

Ce qu'il faut garder ouvert

La surface marketing et documentation devrait rester entièrement crawlable. La page d'atterrissage, les fonctionnalités, la tarification, la FAQ, les cas d'usage et le contenu du blogue sont les surfaces SEO primaires.

Le patron

Le patron pratique pour la plupart des robots.txt SaaS est une approche de liste blanche dans une politique ouverte par défaut : bloquer les chemins applicatifs explicitement, garder le site marketing ouvert, ajouter des règles par robot IA.

Cela diffère de l'approche sur les sites WordPress de contenu, où l'objectif est de nettoyer les chemins de contenu à faible valeur. Sur les sites SaaS, l'objectif est de cloisonner l'application tout en gardant la surface marketing grande ouverte.

SaaS basé sur WordPress

Certains produits SaaS utilisent WordPress pour leur site public tout en faisant tourner l'application sur un stack séparé. Dans ce cas, le robots.txt WordPress n'adresse que le site marketing. Si l'application tourne sur le même domaine sous un préfixe comme /app/, Better Robots.txt peut gérer les protections WordPress standard et les blocs spécifiques à l'application via les paramètres avancés.

À lire aussi