Analysez votre
sitemap en
un clic.
Entrez l'URL de votre sitemap XML. On detecte le type (index ou sitemap), liste les URLs, verifie les dates et priorites. Gratuit, sans compte.
ou d'un accompagnement referencement ? Contactez-nous
Pourquoi verifier son sitemap XML ?
Indexation plus rapide
Un sitemap XML bien configure aide Google a decouvrir et indexer vos pages plus rapidement. Sans sitemap, certaines pages profondes peuvent rester invisibles pendant des semaines.
Dates de modification
La balise lastmod indique a Google quand re-crawler une page. Des dates a jour evitent les crawls inutiles et concentrent le budget crawl sur les pages mises a jour.
Detection d'erreurs
Un sitemap mal forme, des URLs en 404 ou des dates invalides peuvent nuire a votre referencement. Cet outil detecte ces problemes avant que Google ne les rencontre.
Vérifiez le sitemap XML d’un site web en entrant simplement son URL. L’outil détecte automatiquement l’emplacement du sitemap en interrogeant le fichier robots.txt puis en testant les emplacements standards. Il parse ensuite le XML, identifie le type de sitemap (index ou standard), compte les URLs référencées et signale les erreurs de format. Aucune installation requise, aucun compte nécessaire.
Qu’est-ce qu’un sitemap XML et à quoi il sert
Un sitemap XML est un fichier listé à la racine d’un site web qui référence l’ensemble des URLs que le propriétaire souhaite voir indexées par les moteurs de recherche. Il permet à Google et Bing de découvrir les pages plus rapidement, notamment sur les sites récents, peu liés en interne, ou dont les contenus changent fréquemment. Le sitemap ne garantit pas l’indexation — c’est une recommandation, pas une obligation pour le crawler — mais il réduit significativement les délais de découverte des nouvelles pages.
Comment fonctionne la détection automatique du sitemap
La détection automatique suit une logique précise. En premier lieu, l’outil interroge le fichier robots.txt du domaine — la grande majorité des CMS (WordPress, Shopify, Drupal, Webflow) y déclarent l’URL du sitemap via la directive ‘Sitemap:’. Si robots.txt ne contient pas cette directive ou est inaccessible, l’outil teste séquentiellement les emplacements les plus courants : /sitemap.xml, /sitemap_index.xml, /sitemap-index.xml, /wp-sitemap.xml (sitemap natif WordPress), /news-sitemap.xml. Si aucune de ces tentatives ne retourne un XML valide, l’outil vous indique les URLs à tester manuellement.
Sitemap standard vs sitemap index : quelle différence
Un sitemap index (sitemapindex) est un fichier XML qui ne liste pas directement des URLs de pages mais des références vers d’autres fichiers sitemap. Il est utilisé par les sites comportant un grand nombre de pages — Google impose une limite de 50 000 URLs par fichier sitemap, les sites de plusieurs milliers de pages utilisent donc un index pointant vers des sitemaps thématiques (sitemap-posts.xml, sitemap-pages.xml, sitemap-products.xml). L’outil identifie automatiquement ce type et liste les sitemaps enfants sans les ouvrir, pour rester rapide et ne pas surcharger le serveur cible.
Les erreurs fréquentes détectées dans un sitemap
Les erreurs les plus fréquentes rencontrées dans les sitemaps sont les balises lastmod au format invalide (date non conforme à la norme ISO 8601), les entrées sans balise loc (URL manquante, entrée inutilisable), les valeurs de priority hors de la plage 0.0-1.0, et les sitemaps tronqués dépassant la limite de 50 000 URLs. Ces erreurs n’empêchent pas nécessairement l’indexation mais peuvent ralentir le traitement par Googlebot et réduire la fiabilité des données transmises.
Sur WordPress, le sitemap natif est généré automatiquement depuis la version 5.5 à l’adresse /wp-sitemap.xml. Les extensions SEO comme RankMath et Yoast SEO génèrent leurs propres sitemaps avec des options de configuration avancées (exclusion de types de contenus, priorités personnalisées) et déclarent leur emplacement dans le robots.txt. Si votre site WordPress affiche une erreur 404 sur /sitemap.xml, vérifiez quelle extension SEO est active et consultez ses paramètres de sitemap.
Questions fréquentes
Tout savoir sur les sitemaps XML.
Pas systématiquement. Google recommande un sitemap pour les sites de plus de quelques centaines de pages, les sites récents sans backlinks établis, et les sites dont les contenus changent fréquemment. Un site vitrine de 10 pages avec une bonne structure de liens internes sera crawlé efficacement sans sitemap. En revanche, pour un blog actif, un e-commerce ou un site à fort volume de contenu, un sitemap correctement maintenu accélère significativement la découverte des nouvelles pages.
Plusieurs causes sont possibles : le sitemap n'est pas déclaré dans robots.txt, il se trouve à un emplacement non standard, le serveur bloque les requêtes automatisées via un pare-feu (WAF ou Cloudflare), ou le sitemap n'existe tout simplement pas encore. L'outil vous fournit dans ce cas les URLs standards à tester directement dans votre navigateur pour identifier la cause.
Un sitemap standard (urlset) liste directement les URLs de pages avec leurs métadonnées (lastmod, priority, changefreq). Un sitemap index (sitemapindex) liste d'autres fichiers sitemap — il ne contient pas d'URLs de pages directement. Les grands sites utilisent un sitemap index pour contourner la limite de 50 000 URLs par fichier et organiser leurs contenus par type (articles, pages, produits, images).
En pratique très peu. Google a confirmé officiellement qu'il ignore les valeurs de changefreq et accorde peu d'importance à priority, qui est souvent renseignée de manière uniforme (toutes les pages à 0.5) ce qui la rend inexploitable. Les seules métadonnées réellement utiles sont loc (l'URL, obligatoire) et lastmod (la date de dernière modification, prise en compte si elle est fiable et précise).
Via Google Search Console : dans la section 'Sitemaps' de votre propriété, entrez l'URL de votre sitemap et cliquez sur 'Envoyer'. Google le crawlera lors de sa prochaine exploration. La soumission manuelle accélère la première découverte mais n'est pas nécessaire pour les mises à jour ultérieures — Google re-crawle régulièrement les sitemaps déclarés dans robots.txt.
En utilisant cet outil, vous declarez etre proprietaire du site analyse ou disposer d'une autorisation explicite de son proprietaire pour en effectuer l'analyse. Osmova agit en qualite de prestataire technique neutre et ne conserve ni l'URL soumise ni le contenu recupere. Les resultats fournis sont indicatifs et ne constituent pas un audit professionnel. Osmova ne peut etre tenu responsable des decisions prises sur la base de ces resultats. Conditions d'utilisation