[1] llm-geo.fr
veille en direct FR / EN

Fiche étudeThe Digital BloomDécembre 2025

Digital Bloom 2025 : ce que les LLMs regardent vraiment pour vous citer

Publié le 14 décembre 2025 Auteur : Vlad Kuriatnyk Lecture : ~14 min
  • Le volume de recherche de la marque (brand search volume) est le meilleur prédicteur de citation par un LLM, avec une corrélation de 0,334. C'est le résultat marquant du rapport.
  • Ajouter des statistiques chiffrées dans un contenu augmente sa visibilité IA de +22 %, des citations d'experts de +37 % sur Perplexity.
  • Seulement 11 % des domaines sont cités à la fois par ChatGPT et Perplexity. Optimiser pour un seul moteur IA ne suffit pas.
  • Le rapport est une compilation de sources tierces (Princeton, Seer, Profound...), pas une étude originale. À lire en gardant ça en tête.

Le rapport 2025 AI Citation & LLM Visibility Report publié par The Digital Bloom en décembre 2025 est devenu en quelques mois l'une des références citées dès qu'on parle de facteurs de visibilité dans les LLMs. Et pour cause : c'est un des seuls documents qui tente de mettre des coefficients de corrélation sur ce qui marche en GEO.

On va prendre le temps d'aller voir ce que dit le papier exactement, ce qu'il mesure de manière originale, ce qu'il reprend d'études antérieures, et où on doit nuancer les conclusions qu'on lit partout en résumé.

Qui publie ce rapport, et pourquoi ça compte

Le rapport est signé Vlad Kuriatnyk, CMO de The Digital Bloom, une agence de marketing digital basée entre le Portugal, la Floride et le Canada. Ce n'est pas un travail académique avec relecture par les pairs, c'est une publication d'agence. Ça ne disqualifie rien : beaucoup d'études marketing utiles sont publiées dans ce format. Mais ça change la lecture qu'on doit en faire.

Concrètement : le rapport ne fait pas une expérience originale à grande échelle. Il agrège, selon ses propres mots, « academic research, proprietary industry data, and platform documentation ». La majorité des chiffres clés viennent d'études antérieures (Princeton 2023, Seer Interactive, Profound, Search Engine Land) qui sont reprises et synthétisées dans un cadre commun.

Le rapport apporte deux choses propres : la mise en relation de ces données dans un cadre de prédiction (les coefficients de corrélation), et une lecture par plateforme (ChatGPT vs Perplexity vs AI Overviews vs Claude vs Copilot).

Pour situer les volumes annoncés : 7 000+ citations sur 1 600 URLs pour les analyses de format, 30 millions+ de citations pour l'analyse de plateformes, 300 000+ mots-clés pour la fraîcheur. Un chiffre global de 680 millions+ de citations est cité en introduction. Ces volumes ne portent pas sur le même échantillon : c'est une compilation, pas une étude unique.

Le chiffre qui a fait le tour des conférences GEO en 2026 vient de ce rapport : le volume de recherche de marque corrèle à 0,334 avec la visibilité dans les LLMs. C'est présenté comme le « strongest predictor » identifié dans l'analyse, devant le contenu lui-même, devant la fraîcheur, et notamment devant les backlinks.

0,334 Coefficient de corrélation entre le volume de recherche de marque (Google) et la visibilité d'un domaine dans les réponses des LLMs. Premier prédicteur identifié par le rapport, devant les backlinks et la fraîcheur. Source : The Digital Bloom · 2025 AI Citation & LLM Visibility Report

Concrètement, ça veut dire que si vous tapez le nom de votre marque dans Google chaque mois plus souvent qu'une marque concurrente, vous avez statistiquement plus de chances d'être cité par ChatGPT, Perplexity ou Gemini que cette concurrence - toutes choses égales par ailleurs. Plus que vos backlinks ne le prédisent. Plus que votre autorité de domaine.

Pourquoi ? Le mécanisme exact n'est pas démontré dans le rapport. Mais l'hypothèse la plus solide tient à la nature des corpus d'entraînement des LLMs. Une marque souvent recherchée est aussi une marque souvent mentionnée dans les médias, dans les avis, dans les forums, sur Wikipedia. Ces mentions multiples se retrouvent dans les données d'apprentissage. Le LLM "connaît" la marque parce qu'il l'a vue passer plein de fois dans des contextes variés, et il la convoque plus facilement quand la requête s'y prête.

Ce que ça implique en pratique

On bascule d'un monde où la stratégie SEO consistait à "construire de l'autorité par les liens" vers un monde où il faut construire de la notoriété de marque. Ce ne sont pas les mêmes leviers : relations presse, programmes de référence-client, présence dans les médias spécialisés, contenus mentionnant la marque sur des sites tiers, demande organique pour le nom.

Pour beaucoup d'éditeurs SEO habitués à raisonner backlinks et autorité technique, c'est un changement de paradigme. Les techniques marketing traditionnelles (RP, événementiel, partenariats média) reprennent une importance qu'elles avaient perdue dans la décennie 2010-2020.

Une corrélation de 0,334, qu'est-ce que ça vaut ? Mathématiquement, c'est une corrélation faible à modérée. Pas une relation déterministe. Le brand search volume "explique" environ 11 % de la variance de la visibilité IA (0,334²). C'est un signal réel, pas une recette infaillible. Et c'est plus fort que les autres signaux mesurés, mais ça reste un signal parmi d'autres.

Les leviers de contenu qui boostent la visibilité

Le rapport reprend et chiffre plusieurs leviers d'optimisation déjà identifiés par l'étude Princeton 2023, en y ajoutant des mesures plus récentes :

Effet mesuré des leviers GEO sur la visibilité IA

Hausse mesurée vs contenu de référence · Digital Bloom 2025

  • Citations d'experts (Perplexity) +37 %
  • Statistiques chiffrées sourcées +22 %
  • Présence 4+ plateformes tierces ×2,8
  • Contenu < 1 an 65 %

Source : The Digital Bloom, 2025 AI Citation & LLM Visibility Report. Échelle relative (max +50 %), ×2,8 et 65 % normalisés pour la lecture comparative.

Levier Effet mesuré Sur quelle plateforme Niveau de preuve
Ajouter des statistiques +22 % de visibilité Tous LLMs confondus Confirmé (Princeton 2023 + Digital Bloom 2025)
Ajouter des citations d'experts +37 % de visibilité Spécifiquement Perplexity Convergent avec Princeton
Présence sur 4+ plateformes tierces ×2,8 chances d'être cité par ChatGPT ChatGPT Test propre Digital Bloom
Paragraphes de 40 à 60 mots Longueur optimale identifiée Tous LLMs Observation, pas test contrôlé
Contenu de moins d'un an 65 % des citations IA y vont Tous LLMs Donnée d'observation forte
Keyword stuffing Effet inverse mesuré Tous LLMs Confirmé (3 études convergent)

Le boost de +37 % pour les citations d'experts mérite une précision : le rapport le mesure principalement sur Perplexity, qui semble particulièrement sensible aux marqueurs d'autorité (nom de l'expert, titre, affiliation). Sur ChatGPT, l'effet est plus diffus. C'est cohérent avec ce que mesurait déjà l'étude Princeton 2023 sur la stratégie « Add Quotations », mais reproduire le résultat précis sur d'autres LLMs en 2026 reste à faire.

Ce qu'on observe sur nos terrains

Sur les contenus de notre réseau de sites où on a systématisé l'ajout de statistiques chiffrées avec source, on observe une augmentation des mentions par Perplexity sur le moyen terme, cohérente avec l'ordre de grandeur du rapport. Difficile d'isoler l'effet propre du levier statistiques quand on a aussi modifié la structure éditoriale, ajouté des citations et raccourci les paragraphes en même temps. Les +22 % du rapport sont une moyenne, ce qu'on observe en pratique varie fortement selon le sujet et le secteur.

Les LLMs ne citent pas les mêmes sources

L'apport le plus intéressant du rapport, à mon avis, est la mise en évidence des différences entre plateformes. On a tendance à parler des "LLMs" en bloc, comme si optimiser pour ChatGPT optimisait automatiquement pour Perplexity ou Gemini. Les chiffres disent l'inverse :

11 % Seulement 11 % des domaines sont cités à la fois par ChatGPT et Perplexity sur les requêtes testées. Près de neuf domaines sur dix cités par l'un ne le sont pas par l'autre. Source : Digital Bloom 2025

Ce chiffre de 11 % d'overlap, s'il se confirme dans d'autres études, change radicalement la stratégie GEO. Une marque visible sur ChatGPT ne l'est pas automatiquement sur Perplexity. Et inversement. L'optimisation doit se penser plateforme par plateforme.

Les sources préférées par plateforme

Le rapport identifie des biais clairs dans les sources que chaque LLM convoque le plus :

  • ChatGPT : Wikipedia représente 47,9 % de ses citations. Les médias d'autorité éditoriale (NYT, BBC, Reuters, sites encyclopédiques) suivent. ChatGPT préfère les sources rédactionnelles établies.
  • Perplexity : Reddit représente 46,7 % de ses citations sur les requêtes testées. Les forums, Quora, et le contenu généré par les utilisateurs sont massivement favorisés. Perplexity privilégie les voix communautaires.
  • Google AI Overviews : sources principalement issues du top 10 organique, avec une logique de proximité avec le SEO classique.
  • Gemini : mention de la préférence pour les sites de marques (cohérent avec les chiffres Yext de la même période, qui mesurent 52 % de citations Gemini issues de sites de marques).

Pour l'optimisation, ces biais ont des conséquences concrètes. Travailler sa fiche Wikipedia est une stratégie ChatGPT. Animer une présence Reddit utile (vraies réponses, vraie expertise, pas du marketing) est une stratégie Perplexity. Les deux ne se ressemblent pas.

Le citation drift : la volatilité qu'on sous-estime

Une donnée du rapport ne fait jamais les gros titres mais elle est importante pour quiconque veut piloter une stratégie GEO sérieuse :

59,3 % Citation drift mensuel mesuré sur Google AI Overviews. Près de 6 sources citées sur 10 changent d'un mois sur l'autre pour la même requête. Sur ChatGPT, le drift mensuel est de 54,1 %. Source : Digital Bloom 2025

Ce chiffre est important parce qu'il fixe un cadre mental honnête sur ce qu'est une citation IA aujourd'hui : volatile. On est loin du SERP Google où une page bien positionnée tient sa place plusieurs semaines voire plusieurs mois sans bouger. Dans les LLMs, presque la moitié des sources citées un mois donné ne le sont plus le mois suivant.

Pour le marketer, ça impose deux conclusions opérationnelles :

  1. Ne pas paniquer après une chute ponctuelle. Une perte de citations sur un mois donné ne signifie pas un problème structurel. La volatilité de base est élevée.
  2. Mesurer en moyennes mobiles. Le bon indicateur n'est pas "suis-je cité ce mois-ci ?" mais "ma part de citations moyenne sur 3 à 6 mois est-elle stable ou en croissance ?"

Le benchmark ConvertMate 2026 souligne lui aussi que le rafraîchissement régulier du contenu joue un rôle : 65 % des hits des bots IA visent du contenu publié dans l'année. Les deux observations convergent sur l'idée que sans actualisation, la visibilité décroît mécaniquement.

Les limites importantes du rapport

Si on veut utiliser ce rapport comme source de référence pour ses décisions, il faut être conscient de plusieurs limites que le document lui-même ne discute pas suffisamment.

1. Une compilation, pas une étude originale

La majorité des chiffres clés sont repris d'études antérieures (Princeton 2023, Seer Interactive, Profound). Le rapport les met en cohérence, ce qui est utile, mais il n'apporte pas le poids méthodologique d'une expérience originale à grande échelle. Pour les chiffres reproduits, il faut citer la source originale, pas Digital Bloom.

2. Des échantillons hétérogènes

Les volumes annoncés (7 000 citations sur 1 600 URLs pour les formats, 30 millions pour les plateformes, 300 000 mots-clés pour la fraîcheur) portent sur des sous-ensembles différents. Le chiffre global de "680 millions de citations analysées" est trompeur s'il est lu comme un seul échantillon.

3. Pas de discussion statistique

Aucune mention d'intervalles de confiance, de tests de significativité, de tailles d'effet relatives à la variance. Une corrélation de 0,334 est-elle stable d'un échantillon à l'autre ? Le rapport ne le dit pas. Ça reste une indication directionnelle, pas une mesure validée par les standards de la recherche.

4. L'effet schema repose sur 3 sites

Le rapport mentionne que les sites sans schema markup ne seraient pas indexés par les bots de LLMs. Cette affirmation forte s'appuie sur un test de Search Engine Land portant sur trois sites uniquement. C'est une indication, pas une preuve.

5. Pas de données françaises

Le rapport ne segmente pas par langue ou par marché. Les biais de sources (Wikipedia anglophone à 47,9 % sur ChatGPT) peuvent ne pas être identiques sur les requêtes francophones. À ce stade, on n'a pas les données pour le savoir.

Ce qu'on peut en tirer concrètement

Malgré ses limites, le rapport apporte plusieurs prises pour qui pilote une stratégie GEO en 2026 :

  • Investir dans la marque. Si le brand search volume est le premier prédicteur de citation IA, alors les budgets RP, partenariats, contenu sponsorisé chez les médias d'autorité ne sont pas du luxe : c'est de la stratégie GEO directe.
  • Adopter les leviers de contenu validés. Statistiques chiffrées avec source, citations d'experts identifiés, paragraphes courts, fraîcheur du contenu. Ces leviers convergent dans plusieurs études et le coût d'application est faible.
  • Optimiser plateforme par plateforme. Avec 11 % d'overlap entre ChatGPT et Perplexity, une stratégie GEO unique pour tous les LLMs ne tient pas. Wikipedia pour ChatGPT, Reddit pour Perplexity, top 10 organique pour AIO, sites de marques pour Gemini.
  • Penser en moyenne mobile, pas en mois isolé. La volatilité naturelle des citations LLM est forte (40 à 60 % de drift mensuel). Le bon KPI est la stabilité de la part de citations sur 3 à 6 mois.
  • Tester sur ses propres contenus. Les ordres de grandeur du rapport (+22 %, +37 %, ×2,8...) sont des moyennes. L'effet réel sur votre secteur, votre audience, vos contenus précis ne sera connu qu'avec des tests A/B propres.

Source originale et études complémentaires

Le rapport est consultable librement sur le site de The Digital Bloom :

Études et lectures complémentaires :