- Le volume de recherche de la marque (brand search volume) est le meilleur prédicteur de citation par un LLM, avec une corrélation de 0,334. C'est le résultat marquant du rapport.
- Ajouter des statistiques chiffrées dans un contenu augmente sa visibilité IA de +22 %, des citations d'experts de +37 % sur Perplexity.
- Seulement 11 % des domaines sont cités à la fois par ChatGPT et Perplexity. Optimiser pour un seul moteur IA ne suffit pas.
- Le rapport est une compilation de sources tierces (Princeton, Seer, Profound...), pas une étude originale. À lire en gardant ça en tête.
Le rapport 2025 AI Citation & LLM Visibility Report publié par The Digital Bloom en décembre 2025 est devenu en quelques mois l'une des références citées dès qu'on parle de facteurs de visibilité dans les LLMs. Et pour cause : c'est un des seuls documents qui tente de mettre des coefficients de corrélation sur ce qui marche en GEO.
On va prendre le temps d'aller voir ce que dit le papier exactement, ce qu'il mesure de manière originale, ce qu'il reprend d'études antérieures, et où on doit nuancer les conclusions qu'on lit partout en résumé.
Qui publie ce rapport, et pourquoi ça compte
Le rapport est signé Vlad Kuriatnyk, CMO de The Digital Bloom, une agence de marketing digital basée entre le Portugal, la Floride et le Canada. Ce n'est pas un travail académique avec relecture par les pairs, c'est une publication d'agence. Ça ne disqualifie rien : beaucoup d'études marketing utiles sont publiées dans ce format. Mais ça change la lecture qu'on doit en faire.
Concrètement : le rapport ne fait pas une expérience originale à grande échelle. Il agrège, selon ses propres mots, « academic research, proprietary industry data, and platform documentation ». La majorité des chiffres clés viennent d'études antérieures (Princeton 2023, Seer Interactive, Profound, Search Engine Land) qui sont reprises et synthétisées dans un cadre commun.
Le rapport apporte deux choses propres : la mise en relation de ces données dans un cadre de prédiction (les coefficients de corrélation), et une lecture par plateforme (ChatGPT vs Perplexity vs AI Overviews vs Claude vs Copilot).
Le résultat marquant : la marque pèse plus que les backlinks
Le chiffre qui a fait le tour des conférences GEO en 2026 vient de ce rapport : le volume de recherche de marque corrèle à 0,334 avec la visibilité dans les LLMs. C'est présenté comme le « strongest predictor » identifié dans l'analyse, devant le contenu lui-même, devant la fraîcheur, et notamment devant les backlinks.
Concrètement, ça veut dire que si vous tapez le nom de votre marque dans Google chaque mois plus souvent qu'une marque concurrente, vous avez statistiquement plus de chances d'être cité par ChatGPT, Perplexity ou Gemini que cette concurrence - toutes choses égales par ailleurs. Plus que vos backlinks ne le prédisent. Plus que votre autorité de domaine.
Pourquoi ? Le mécanisme exact n'est pas démontré dans le rapport. Mais l'hypothèse la plus solide tient à la nature des corpus d'entraînement des LLMs. Une marque souvent recherchée est aussi une marque souvent mentionnée dans les médias, dans les avis, dans les forums, sur Wikipedia. Ces mentions multiples se retrouvent dans les données d'apprentissage. Le LLM "connaît" la marque parce qu'il l'a vue passer plein de fois dans des contextes variés, et il la convoque plus facilement quand la requête s'y prête.
Ce que ça implique en pratique
On bascule d'un monde où la stratégie SEO consistait à "construire de l'autorité par les liens" vers un monde où il faut construire de la notoriété de marque. Ce ne sont pas les mêmes leviers : relations presse, programmes de référence-client, présence dans les médias spécialisés, contenus mentionnant la marque sur des sites tiers, demande organique pour le nom.
Pour beaucoup d'éditeurs SEO habitués à raisonner backlinks et autorité technique, c'est un changement de paradigme. Les techniques marketing traditionnelles (RP, événementiel, partenariats média) reprennent une importance qu'elles avaient perdue dans la décennie 2010-2020.
Les leviers de contenu qui boostent la visibilité
Le rapport reprend et chiffre plusieurs leviers d'optimisation déjà identifiés par l'étude Princeton 2023, en y ajoutant des mesures plus récentes :
Effet mesuré des leviers GEO sur la visibilité IA
Hausse mesurée vs contenu de référence · Digital Bloom 2025
Source : The Digital Bloom, 2025 AI Citation & LLM Visibility Report. Échelle relative (max +50 %), ×2,8 et 65 % normalisés pour la lecture comparative.
| Levier | Effet mesuré | Sur quelle plateforme | Niveau de preuve |
|---|---|---|---|
| Ajouter des statistiques | +22 % de visibilité | Tous LLMs confondus | Confirmé (Princeton 2023 + Digital Bloom 2025) |
| Ajouter des citations d'experts | +37 % de visibilité | Spécifiquement Perplexity | Convergent avec Princeton |
| Présence sur 4+ plateformes tierces | ×2,8 chances d'être cité par ChatGPT | ChatGPT | Test propre Digital Bloom |
| Paragraphes de 40 à 60 mots | Longueur optimale identifiée | Tous LLMs | Observation, pas test contrôlé |
| Contenu de moins d'un an | 65 % des citations IA y vont | Tous LLMs | Donnée d'observation forte |
| Keyword stuffing | Effet inverse mesuré | Tous LLMs | Confirmé (3 études convergent) |
Le boost de +37 % pour les citations d'experts mérite une précision : le rapport le mesure principalement sur Perplexity, qui semble particulièrement sensible aux marqueurs d'autorité (nom de l'expert, titre, affiliation). Sur ChatGPT, l'effet est plus diffus. C'est cohérent avec ce que mesurait déjà l'étude Princeton 2023 sur la stratégie « Add Quotations », mais reproduire le résultat précis sur d'autres LLMs en 2026 reste à faire.
Ce qu'on observe sur nos terrains
Sur les contenus de notre réseau de sites où on a systématisé l'ajout de statistiques chiffrées avec source, on observe une augmentation des mentions par Perplexity sur le moyen terme, cohérente avec l'ordre de grandeur du rapport. Difficile d'isoler l'effet propre du levier statistiques quand on a aussi modifié la structure éditoriale, ajouté des citations et raccourci les paragraphes en même temps. Les +22 % du rapport sont une moyenne, ce qu'on observe en pratique varie fortement selon le sujet et le secteur.
Les LLMs ne citent pas les mêmes sources
L'apport le plus intéressant du rapport, à mon avis, est la mise en évidence des différences entre plateformes. On a tendance à parler des "LLMs" en bloc, comme si optimiser pour ChatGPT optimisait automatiquement pour Perplexity ou Gemini. Les chiffres disent l'inverse :
Ce chiffre de 11 % d'overlap, s'il se confirme dans d'autres études, change radicalement la stratégie GEO. Une marque visible sur ChatGPT ne l'est pas automatiquement sur Perplexity. Et inversement. L'optimisation doit se penser plateforme par plateforme.
Les sources préférées par plateforme
Le rapport identifie des biais clairs dans les sources que chaque LLM convoque le plus :
- ChatGPT : Wikipedia représente 47,9 % de ses citations. Les médias d'autorité éditoriale (NYT, BBC, Reuters, sites encyclopédiques) suivent. ChatGPT préfère les sources rédactionnelles établies.
- Perplexity : Reddit représente 46,7 % de ses citations sur les requêtes testées. Les forums, Quora, et le contenu généré par les utilisateurs sont massivement favorisés. Perplexity privilégie les voix communautaires.
- Google AI Overviews : sources principalement issues du top 10 organique, avec une logique de proximité avec le SEO classique.
- Gemini : mention de la préférence pour les sites de marques (cohérent avec les chiffres Yext de la même période, qui mesurent 52 % de citations Gemini issues de sites de marques).
Pour l'optimisation, ces biais ont des conséquences concrètes. Travailler sa fiche Wikipedia est une stratégie ChatGPT. Animer une présence Reddit utile (vraies réponses, vraie expertise, pas du marketing) est une stratégie Perplexity. Les deux ne se ressemblent pas.
Le citation drift : la volatilité qu'on sous-estime
Une donnée du rapport ne fait jamais les gros titres mais elle est importante pour quiconque veut piloter une stratégie GEO sérieuse :
Ce chiffre est important parce qu'il fixe un cadre mental honnête sur ce qu'est une citation IA aujourd'hui : volatile. On est loin du SERP Google où une page bien positionnée tient sa place plusieurs semaines voire plusieurs mois sans bouger. Dans les LLMs, presque la moitié des sources citées un mois donné ne le sont plus le mois suivant.
Pour le marketer, ça impose deux conclusions opérationnelles :
- Ne pas paniquer après une chute ponctuelle. Une perte de citations sur un mois donné ne signifie pas un problème structurel. La volatilité de base est élevée.
- Mesurer en moyennes mobiles. Le bon indicateur n'est pas "suis-je cité ce mois-ci ?" mais "ma part de citations moyenne sur 3 à 6 mois est-elle stable ou en croissance ?"
Le benchmark ConvertMate 2026 souligne lui aussi que le rafraîchissement régulier du contenu joue un rôle : 65 % des hits des bots IA visent du contenu publié dans l'année. Les deux observations convergent sur l'idée que sans actualisation, la visibilité décroît mécaniquement.
Les limites importantes du rapport
Si on veut utiliser ce rapport comme source de référence pour ses décisions, il faut être conscient de plusieurs limites que le document lui-même ne discute pas suffisamment.
1. Une compilation, pas une étude originale
La majorité des chiffres clés sont repris d'études antérieures (Princeton 2023, Seer Interactive, Profound). Le rapport les met en cohérence, ce qui est utile, mais il n'apporte pas le poids méthodologique d'une expérience originale à grande échelle. Pour les chiffres reproduits, il faut citer la source originale, pas Digital Bloom.
2. Des échantillons hétérogènes
Les volumes annoncés (7 000 citations sur 1 600 URLs pour les formats, 30 millions pour les plateformes, 300 000 mots-clés pour la fraîcheur) portent sur des sous-ensembles différents. Le chiffre global de "680 millions de citations analysées" est trompeur s'il est lu comme un seul échantillon.
3. Pas de discussion statistique
Aucune mention d'intervalles de confiance, de tests de significativité, de tailles d'effet relatives à la variance. Une corrélation de 0,334 est-elle stable d'un échantillon à l'autre ? Le rapport ne le dit pas. Ça reste une indication directionnelle, pas une mesure validée par les standards de la recherche.
4. L'effet schema repose sur 3 sites
Le rapport mentionne que les sites sans schema markup ne seraient pas indexés par les bots de LLMs. Cette affirmation forte s'appuie sur un test de Search Engine Land portant sur trois sites uniquement. C'est une indication, pas une preuve.
5. Pas de données françaises
Le rapport ne segmente pas par langue ou par marché. Les biais de sources (Wikipedia anglophone à 47,9 % sur ChatGPT) peuvent ne pas être identiques sur les requêtes francophones. À ce stade, on n'a pas les données pour le savoir.
Ce qu'on peut en tirer concrètement
Malgré ses limites, le rapport apporte plusieurs prises pour qui pilote une stratégie GEO en 2026 :
- Investir dans la marque. Si le brand search volume est le premier prédicteur de citation IA, alors les budgets RP, partenariats, contenu sponsorisé chez les médias d'autorité ne sont pas du luxe : c'est de la stratégie GEO directe.
- Adopter les leviers de contenu validés. Statistiques chiffrées avec source, citations d'experts identifiés, paragraphes courts, fraîcheur du contenu. Ces leviers convergent dans plusieurs études et le coût d'application est faible.
- Optimiser plateforme par plateforme. Avec 11 % d'overlap entre ChatGPT et Perplexity, une stratégie GEO unique pour tous les LLMs ne tient pas. Wikipedia pour ChatGPT, Reddit pour Perplexity, top 10 organique pour AIO, sites de marques pour Gemini.
- Penser en moyenne mobile, pas en mois isolé. La volatilité naturelle des citations LLM est forte (40 à 60 % de drift mensuel). Le bon KPI est la stabilité de la part de citations sur 3 à 6 mois.
- Tester sur ses propres contenus. Les ordres de grandeur du rapport (+22 %, +37 %, ×2,8...) sont des moyennes. L'effet réel sur votre secteur, votre audience, vos contenus précis ne sera connu qu'avec des tests A/B propres.
Source originale et études complémentaires
Le rapport est consultable librement sur le site de The Digital Bloom :
- Princeton 2023 : l'étude fondatrice du GEO et ses 9 stratégies. Les 9 leviers d'optimisation testés en conditions contrôlées, dont les résultats sont repris par Digital Bloom.
- LLM Research Lab 2026 : les vrais facteurs de classement en GEO. Confirme et complète les corrélations Digital Bloom avec des données 2026.
- Wix AI Search Lab (mars 2026) : quels formats les LLMs citent vraiment. 1 056 727 citations analysées : convergent avec Digital Bloom sur le poids des discussions chez Perplexity (17 %).
- Guide : pourquoi le brand search volume devient le levier n°1 du GEO. Comment travailler activement la notoriété de marque dans une logique GEO.
- Retour au hub : toutes les études GEO compilées