Le SEO est mort ? Vraiment ? À chaque évolution technologique majeure, cette prophétie refait surface. Pourtant, l'arrivée des intelligences artificielles génératives ne signe pas l'arrêt de mort du référencement naturel. Elle redéfinit ses règles. Carolyn Shelby, experte SEO chez Yoast, l'a démontré avec clarté lors de SMX Paris 2026 en partageant huit recommandations concrètes. Ce que nous retenons de cette intervention : le SEO n'a pas changé de nature, il a simplement révélé ce qu'il a toujours dû être. Un savoir structuré, fiable et facilement accessible.
Ce que les LLM changent vraiment dans la logique du référencement
Commençons par un constat fondamental que beaucoup ignorent encore. Les systèmes d'IA ne classent pas des pages web : ils sélectionnent des fragments d'information pour construire leurs réponses. Paragraphes isolés, définitions précises, listes synthétiques — voilà ce que les LLM consomment. Être premier sur Google reste indispensable, mais cela ne garantit plus d'être cité dans une réponse générée.
Autrement dit, la compétition se joue désormais au niveau du fragment, pas de la page entière. Un contenu dense, qui tente simultanément d'expliquer, de convaincre et de répondre, dilue son propre signal. Carolyn Shelby résume parfaitement l'enjeu : « Si votre contenu ne peut pas être extrait, il ne sera pas cité. Vous pouvez être premier, vous serez invisible. » Cette logique mathématique impose une discipline éditoriale nouvelle : un seul sujet traité par paragraphe, sans exception.
Deuxième rupture importante : l'accessibilité technique du contenu. Les LLM ne déchiffrent pas le JavaScript côté client. Les contenus derrière un paywall ou un formulaire de connexion restent invisibles pour ces systèmes. Pour les entreprises tech tentées de verrouiller leur documentation, le risque est réel : si l'information est absente de leur site, les LLM l'iront chercher ailleurs, sur Reddit ou Stack Overflow. Mieux vaut contrôler sa propre source.
Troisième point qui bouscule les habitudes SEO : les données structurées schema.org n'ont aucun impact sur les LLM. Ces systèmes lisent la structure visuelle d'une page — les titres courts interprétés comme des headings, la hiérarchie déduite de la position dans la page. Les balises HTML conventionnelles comptent moins que la clarté visuelle et logique du document. Chez Skoatch, nous intégrons cette réalité dans notre approche de génération de contenu : la structure prime sur la technique pure.
| Élément SEO | Impact sur Google | Impact sur les LLM |
|---|---|---|
| Schema.org | Fort (rich snippets) | Nul ou quasi-nul |
| Structure visuelle (H2, listes) | Modéré | Très fort |
| Contenu derrière JavaScript | Partiellement indexé | Invisible |
| Source first-party officielle | Fort | Très fort (fiabilité) |
Construire une autorité que les intelligences artificielles choisissent de citer
Devenir la source primaire de son secteur n'est plus une option. Les systèmes d'IA privilégient les données officielles, la documentation first-party et les contenus publiés directement par l'entité concernée. Ils cherchent à minimiser le risque d'erreur. Carolyn Shelby illustre ce point avec l'exemple de Chanel : une publicité aperçue à l'aéroport Charles-de-Gaulle affichait simplement « J'ai deux Chanel », sans description produit. Résultat ? Le LLM ira chercher l'information chez un revendeur tiers. Qui contrôle le contenu, contrôle le récit.
La cohérence du message sur tous les canaux joue également un rôle décisif. L'exemple Disney est parlant : les LLM associent systématiquement Disneyland Paris à l'« expérience magique » parce que la marque répète cette formulation partout — site officiel, publicités, panneaux d'affichage. Selon des données publiées en 2024, Google traitait déjà plus de 8,5 milliards de requêtes par jour. Dans ce volume, seules les marques qui disciplinent leur message sur l'ensemble de leurs points de contact obtiennent une cohérence sémantique reconnue par les algorithmes.
Voici les canaux prioritaires à aligner pour renforcer cette autorité perçue :
- Le site officiel avec une documentation complète et structurée
- Les vidéos YouTube avec des transcriptions exploitables
- Les réseaux sociaux avec une terminologie cohérente
- Les relations presse et les publications sectorielles
La vidéo YouTube mérite une attention particulière. Google, via Alphabet, accède aux transcriptions de toutes les vidéos publiées sur la plateforme, ce qui en fait une source directe pour Gemini. Une vidéo bien transcrite devient un fragment exploitable par les LLM, exactement comme un paragraphe de blog. L'investissement vidéo n'est plus réservé aux grandes marques : c'est un levier SEO concret pour tout créateur de contenu sérieux.

Hallucinations, complétude et avenir du contenu optimisé
Les hallucinations des LLM ne sont pas des dysfonctionnements aléatoires. Elles surviennent lorsque l'information disponible est insuffisante ou fragmentée. Carolyn Shelby compare ce mécanisme à la mémoire humaine : quand des lacunes existent, le cerveau comble les trous pour créer un récit cohérent. Les LLM font exactement pareil. La parade est simple à formuler, mais exigeante à mettre en œuvre : fournir des données complètes, dans un format directement exploitable.
Cette exigence de complétude redéfinit ce que signifie produire du contenu de qualité. Il ne s'agit plus d'accumuler des mots-clés ni de multiplier les pages. Chaque contenu doit répondre intégralement à une intention, sans laisser de zones d'ombre que l'IA pourrait combler avec des approximations. C'est précisément pour cela que des outils comme Skoatch intègrent une logique de couverture sémantique profonde, au-delà de la simple densité de mots-clés.
Le SEO de demain ressemble beaucoup au SEO tel qu'il aurait toujours dû être pratiqué : un contenu clair, structuré, complet et cohérent. L'IA n'a pas cassé les règles. Elle a simplement rendu les raccourcis obsolètes et récompensé enfin les bonnes pratiques éditoriales. Pour les professionnels du référencement naturel, c'est une opportunité autant qu'un défi.