Query fan-out : comment les LLMs génèrent des sous-requêtes (et pourquoi ça change le SEO)

2026-04-09  ·  18 MIN DE LECTURE  ·  MAJ : 2026-04-09

// TL;DR

Les LLMs ne cherchent pas ta requête sur le web : ils génèrent 3 à 12 sous-requêtes (fan-out queries) et assemblent une réponse à partir des passages extraits de dizaines de pages. Le brevet Google PROMPTAGATOR documente 6 types de fan-out queries, chacun avec des implications éditoriales directes sur la structure et le contenu de tes pages. Sur nos tests ChatGPT Thinking 5.4, aucune fan-out query ne se répète d'un run à l'autre sur le même prompt, mais les domaines d'autorité convergent partiellement dans les sources finales. Le levier principal : extraire les fan-out queries réelles de ChatGPT et Perplexity sur tes prompts cibles, puis structurer ton contenu en chunks citables alignés sémantiquement sur ces sous-requêtes.

Sur les prompts testés pour préparer cet article, ChatGPT Thinking 5.4 a généré en moyenne 5.7 fan-out queries par prompt, avec des pics à 12 sur les questions techniques. Autrement dit : quand tu poses une question à ChatGPT Search, le modèle ne cherche pas “ta question” sur le web. Il génère entre 3 et 12 sous-requêtes, les envoie en parallèle à un moteur de recherche, récupère des dizaines de pages, puis synthétise. Mais toutes les réponses ChatGPT ne passent pas par ce processus. ChatGPT fonctionne en deux modes : Mode Knowledge (réponse depuis la mémoire d’entraînement, sans recherche web) et Mode RAG (recherche web + fan-out). Sur Perplexity, la recherche web est activée par défaut sur la quasi-totalité des requêtes. Google AI Mode est 100% RAG par construction. Sur ChatGPT, la frontière entre les deux modes reste opaque, et les deux leviers d’optimisation sont complémentaires.

Cet article pose les bases : ce que le fan-out est réellement, comment il fonctionne par modèle, les 6 types de sous-requêtes documentés dans les brevets Google, comment les extraire, et ce que ça implique pour la production de contenu.

Qu’est-ce que le query fan-out et pourquoi Google l’a officialisé ?

Le query fan-out est le mécanisme par lequel un LLM décompose la question d’un utilisateur en plusieurs sous-requêtes qu’il envoie simultanément à un moteur de recherche. Le terme a été officialisé par Google en deux temps. Robby Stein, VP Product Google Search, l’a défini dans un billet de blog le 5 mars 2025 : AI Mode “utilise une technique de requêtes fan-out qui consiste à lancer simultanément plusieurs recherches connexes sur des sous-thèmes.” Elizabeth Reid, Head of Search Google, a ensuite présenté le mécanisme dans le keynote Google I/O de mai 2025 en annonçant AI Mode publiquement.

Le pipeline concret fonctionne en 4 étapes. L’utilisateur soumet un prompt. Le LLM génère 3 à 12 sous-requêtes selon la complexité du sujet. Ces sous-requêtes sont envoyées à des fournisseurs de recherche. Perplexity utilise Google. ChatGPT s’appuie sur un mix de fournisseurs (Bing, et probablement Google selon des études indépendantes), complété par son propre crawler OAI-SearchBot. OpenAI a progressivement diversifié son infrastructure de recherche depuis mars 2025. Le LLM reçoit des snippets, sélectionne 5 à 8 pages à crawler en entier, puis synthétise sa réponse en assemblant des passages extraits de ces pages. Ce processus ne construit pas une SERP : il construit un corpus temporaire de “chunks” (passages autonomes) qu’il assemble pour générer une réponse unique.

Combien de fan-out queries génèrent ChatGPT, Perplexity et Gemini ?

ChatGPT Thinking 5.4 a généré en moyenne 5.7 fan-out queries par prompt sur nos tests, avec un minimum de 4 et un pic à 12 sur les prompts techniques orientés extraction. Ce chiffre est inférieur au 8.2 queries/prompt rapporté par des analyses tierces. L’écart s’explique probablement par le mode Thinking, qui semble plus chirurgical dans sa décomposition : moins de sous-requêtes, mais plus ciblées.

Le pic à 12 est révélateur. Pour le prompt “Comment extraire les fan-out queries de ChatGPT et Perplexity techniquement ?”, ChatGPT a déployé une couverture systématique : docs officielles (site:help.openai.com chatgpt search sources browsing citations, site:docs.perplexity.ai search_context_size citations api), implémentations open source (site:github.com perplexity network interceptor, site:github.com chatgpt search network devtools), et analyses techniques (ChatGPT search network requests devtools Bing query hidden subqueries, Perplexity devtools network search query extracted subqueries). Les prompts définitionnels simples (“c’est quoi le fan-out”) n’ont généré que 3 à 4 queries. Plus le prompt est technique et spécifique, plus le fan-out est large. C’est un insight actionnable : les contenus techniques et spécialisés génèrent plus de branches fan-out que les contenus définitionnels, donc plus d’opportunités d’être sélectionné.

Perplexity génère systématiquement entre 3 et 8 fan-out queries par prompt, avec une différence fondamentale : Perplexity effectue une recherche web sur la quasi-totalité des requêtes par défaut. Il ne répond quasiment jamais depuis sa mémoire seule. Perplexity s’appuie sur son propre index rafraîchi en continu, complété par du live web fetch sur chaque requête — c’est ce que Perplexity revendique officiellement dans la doc Sonar API (“continuously refreshed index”). Des observateurs externes suggèrent un recours partiel à des index tiers (Bing, Google), sans confirmation publique de Perplexity. ChatGPT utilise un pipeline plus opaque : historiquement basé sur Bing, il intègre désormais son propre crawler OAI-SearchBot et, selon des études indépendantes (Iyer/ACME.BOT juillet 2025, Dean/Backlinko août 2025), des résultats Google Search. Ces architectures distinctes produisent des corpus de pages très différents selon le modèle interrogé.

Gemini fait davantage de fan-out queries que ChatGPT selon l’analyse de Duffez sur WebRankInfo (janvier 2026), sans chiffre précis documenté publiquement. Gemini a un avantage structurel : un accès direct à l’index Google, au Knowledge Graph et à Google Shopping, ce qui lui permet d’exécuter ses sous-requêtes en parallèle sur plusieurs sources de données simultanément. Des tests LLM Radar sur Gemini sont en cours.

ModèleFan-out queries/promptBackend rechercheMode par défaut
ChatGPT Thinking 5.45.7 (nos tests)Mix : Bing + Google (probable) + crawler OAI-SearchBotMode Knowledge ou Mode RAG selon le prompt
Perplexity3-8Index maison + live fetch (index tiers non confirmé officiellement)Recherche web par défaut (quasi-totalité des requêtes)
Gemini> ChatGPT (non chiffré, Duffez jan 2026)Index Google natifRAG + Knowledge Graph

Mode Knowledge vs Mode RAG : pourquoi toutes les réponses ChatGPT ne font pas de fan-out

ChatGPT fonctionne en deux modes distincts. Le Mode RAG (Retrieval Augmented Generation) déclenche le fan-out : le LLM génère des sous-requêtes, cherche sur le web, et synthétise à partir des pages récupérées. Le Mode Knowledge répond directement depuis les données d’entraînement du modèle, sans aucune recherche web. Le Mode Knowledge est la réponse par défaut de ChatGPT : pas de fan-out, pas de sources, pas de citations.

La frontière entre les deux modes n’est pas mesurable de l’extérieur sans accès aux logs OpenAI. Ce qu’on observe : sur ChatGPT compte gratuit, il est techniquement impossible de vérifier la présence de fan-out (pas d’ID de conversation dans l’URL, pas de métadonnées réseau accessibles). L’absence de sources visibles dans l’interface ne prouve pas l’absence de recherche web : ChatGPT peut effectuer une recherche silencieuse sans afficher les sources dans la réponse. Aucune étude publique ne mesure le ratio exact Mode Knowledge/Mode RAG avec une méthodologie fiable.

Ce qu’on sait avec certitude : Perplexity effectue une recherche web sur la quasi-totalité des requêtes par défaut, chaque réponse ou presque passe par le fan-out. Google AI Mode est 100% RAG par construction. ChatGPT active le Mode RAG de façon croissante sur GPT-5.3 et GPT-5.4, notamment sur les queries commerciales et comparatives, sans que l’utilisateur le demande explicitement. Un prompt contenant “fais des recherches” ou “cherche les dernières données” force le Mode RAG. Un prompt factuel simple (“quelle est la capitale de la France”) reste en Mode Knowledge.

L’implication stratégique est directe : le GEO a deux leviers complémentaires, pas un seul. Le premier levier cible le Mode RAG : structurer son contenu pour être sélectionné dans le corpus fan-out (chunks citables, entity density, alignement sémantique). Le deuxième levier cible le Mode Knowledge : construire la notoriété et les associations d’entités qui s’impriment dans les données d’entraînement du modèle. Ignorer l’un des deux, c’est travailler avec un seul bras.

Quels sont les 6 types de fan-out queries ?

Le brevet Google PROMPTAGATOR (WO2024064249A1, mars 2024) documente 6 types de sous-requêtes que les LLMs génèrent à partir d’un prompt utilisateur. Chaque type a une implication éditoriale directe sur la manière de produire du contenu.

Deux types supplémentaires existent dans les brevets Google (US20240289407A1 et WO2025102041A1) mais ne sont pas actionnables : les requêtes personnalisées (basées sur l’historique et la localisation de l’utilisateur) et les requêtes récentes (basées sur la mémoire de session). Tu ne peux pas les cibler par le contenu.

Reformulation et connexes : le champ lexical complet, pas les mots-clés exacts

Les requêtes de reformulation sont des réécritures de la question initiale avec des synonymes, des tournures différentes ou des registres variés. Le LLM ne cherche pas “ta requête” : il cherche 3 à 5 variantes de ta requête. Exemple concret : pour le prompt “C’est quoi les requêtes fan-out et pourquoi c’est important pour le SEO ?”, ChatGPT Thinking 5.4 a généré ces 4 fan-out queries :

fan-out queries SEO definition "fan-out" queries generative engine optimization site:developers.google.com fan-out query search site:ahrefs.com fan-out queries SEO

Les deux premières sont des reformulations pures : même concept, registres différents (“SEO definition” vs “generative engine optimization”). Les deux dernières sont des requêtes entity-expanded (voir plus bas) : les termes génériques sont remplacés par des domaines d’autorité nommés. Un seul prompt génère plusieurs types de fan-out simultanément. L’implication est claire : un contenu qui n’utilise que le mot-clé exact sans couvrir le champ lexical complet du sujet sera invisible sur les reformulations.

Les requêtes connexes ciblent des sujets sémantiquement proches dans le Knowledge Graph. Pour un prompt sur le query fan-out, ChatGPT a aussi cherché retrieval augmented generation source selection ranking et AI Overviews source selection how it works. Ces requêtes connexes justifient la stratégie de topic clusters : couvrir les concepts périphériques dans la même page ou en maillage interne augmente les chances d’être sélectionné sur plusieurs branches du fan-out simultanément.

Implicites et comparatives : répondre aux questions que l’utilisateur n’a pas posées

Les requêtes implicites sont celles que le LLM infère à partir de l’intention réelle derrière la question. L’utilisateur demande “meilleur outil SEO”, le LLM cherche aussi “comparatif prix outils SEO 2026” et “avis utilisateurs Semrush vs Ahrefs”. Le LLM devine le besoin latent que l’utilisateur n’a pas formulé. Répondre uniquement au “quoi” sans couvrir le “pourquoi” et le “comment choisir” laisse le champ libre aux concurrents qui couvrent ces intentions implicites.

Les requêtes comparatives sont générées même quand l’utilisateur ne demande pas de comparaison. Un prompt “qu’est-ce que Perplexity” peut générer une sous-requête “Perplexity vs ChatGPT search differences”. Publier des pages comparatives explicites sur les queries où tu veux être visible n’est pas optionnel : c’est couvrir une branche systématique du fan-out.

Entity-expanded et contre-argument : nommer les entités, couvrir les deux angles

Les requêtes entity-expanded remplacent les termes génériques par des noms précis. Sur nos 40 fan-out queries uniques extraites de ChatGPT Thinking 5.4, 15 contenaient un opérateur site: ciblant un domaine d’autorité précis : site:openai.com, site:perplexity.ai, site:ahrefs.com, site:developers.google.com, site:github.com, site:docs.perplexity.ai, site:help.openai.com. ChatGPT ne cherche pas “documentation officielle ChatGPT search” : il cherche directement site:help.openai.com chatgpt search sources browsing citations. Le terme générique est remplacé par l’entité exacte. Un contenu sans entités nommées explicites (marques, outils, personnes, études) est invisible sur ces branches du fan-out. Les analyses disponibles suggèrent environ 20% d’entités nommées dans le texte cité contre 5-8% en baseline.

Les requêtes contre-argument cherchent des preuves qui réfutent une affirmation. Le LLM veut produire une réponse équilibrée. Sur un sujet de débat (“est-ce que le schema markup influence les citations LLM ?”), le contenu qui couvre explicitement les deux angles a plus de chances d’être sélectionné que celui qui défend une position unique.

Comment extraire les fan-out queries de ChatGPT et Perplexity ?

L’extraction des fan-out queries est le point de départ de toute stratégie GEO data-driven. Trois méthodes existent pour ChatGPT, par ordre croissant de fiabilité.

La première méthode est le network tab manuel dans Chrome DevTools. Ouvrir F12, aller dans Network, copier l’ID de conversation depuis l’URL ChatGPT, filtrer les requêtes réseau avec cet ID, puis chercher le champ search_queries dans les réponses. Cette méthode est la plus accessible mais la moins fiable : ChatGPT envoie les fan-out queries en plusieurs batches au fil de sa réflexion, et le network tab après coup rate les premières batches déjà transmises.

La deuxième méthode utilise des extensions Chrome (SEO Utils, LLMrefs, Keyword Surfer, Quolity). Ces extensions overrident window.fetch en MAIN world pour capturer le stream SSE en temps réel pendant que ChatGPT génère sa réponse. Elles voient plus de fan-out queries que le network tab parce qu’elles capturent toutes les batches en continu. La limite : c’est du travail manuel, un prompt à la fois.

La troisième méthode est Playwright en mode headful, qui intercepte les requêtes réseau sur chatgpt.com, parse le stream SSE (JSON Patch RFC 6902) et extrait les champs search_query automatiquement. C’est la solution la plus robuste pour l’automatisation à l’échelle. L’implémentation technique complète (architecture du script, gestion des cookies, parsing du stream) fera l’objet d’un article dédié à venir.

Pour Perplexity, c’est plus simple : l’interface web affiche directement les fan-out queries avant de générer la réponse. L’API Sonar expose les citations (URLs sources) mais pas les sous-requêtes intermédiaires. Pour extraire les fan-out queries Perplexity, l’interface web reste la seule option.

Pour Gemini, seule l’API fonctionne : le champ groundingMetadata contient les webSearchQueries. C’est le pipeline le plus propre des trois côté API.

Pourquoi les extensions Chrome voient plus de fan-out que le network tab ?

ChatGPT envoie ses fan-out queries en streaming, par batches successives au fil de sa “réflexion”. Le network tab dans Chrome DevTools capture un snapshot après coup : les premières batches, déjà transmises et traitées, n’apparaissent plus dans le log réseau si tu ouvres DevTools trop tard. Les extensions Chrome capturent le flux en temps réel dès le début de la réponse, donc elles interceptent toutes les batches, y compris les premières.

Simulation vs extraction : quelle est la différence ?

Des outils comme Qforia (créé par Mike King, CEO iPullRank) proposent une approche différente : au lieu d’extraire les vraies fan-out queries générées par ChatGPT, Qforia simule le processus via des prompts envoyés à Gemini, générant 20 à 30 queries par input. C’est une alternative no-code utile pour la discovery initiale, mais ce n’est pas une extraction des sous-requêtes réellement générées par ChatGPT ou Perplexity. La simulation reproduit le type de queries que le LLM pourrait générer, pas celles qu’il génère effectivement. Pour une stratégie GEO data-driven, l’extraction réelle reste nécessaire.

Les fan-out queries sont-elles stables d’un run à l’autre ?

Non. Sur 3 runs consécutifs du même prompt (“Quels sont les meilleurs outils SEO en 2026 ?”) soumis à ChatGPT Thinking 5.4, on a obtenu 0 fan-out query en commun. Variance totale. Le LLM reformule ses sous-requêtes différemment à chaque exécution, même quand le prompt est identique mot pour mot. Voici ce que ChatGPT a réellement cherché :

Run 1 (13 queries) : stratégie SEO classique. ChatGPT a cherché les outils établis par nom : Semrush, Ahrefs, Screaming Frog, Surfer SEO, SE Ranking, Sitebulb, Otterly.

Run 2 (10 queries) : stratégie GEO/monitoring. ChatGPT a pivoté vers les outils émergents : Otterly, Peec AI, Profound, Advanced Web Ranking, seoClarity.

Run 3 (8 queries) : stratégie agrégation. ChatGPT a utilisé des opérateurs OR massifs pour couvrir plusieurs domaines en une seule requête : site:ahrefs.com OR site:semrush.com OR site:screamingfrog.co.uk OR site:botify.com...

Même prompt, trois stratégies de recherche radicalement différentes. Zéro query en commun entre les trois runs.

En revanche, les sources finales convergent partiellement. Les domaines “autorité” du secteur (semrush.com, ahrefs.com, screamingfrog.co.uk) apparaissent dans 2 runs sur 3. Environ 50% des domaines cités sont uniques à chaque run. Le LLM emprunte des chemins différents (fan-out queries variables) mais arrive en partie aux mêmes destinations (domaines d’autorité stables).

Cette observation est cohérente avec l’analyse AirOps (45K citations) : les marques citées uniquement en source (sans mention dans la réponse) disparaissent fréquemment d’un run à l’autre. Mais ce sont deux mesures distinctes : AirOps mesure la variance des citations de marques dans la réponse finale, nos données mesurent la variance des fan-out queries en amont. Les deux confirment le même constat depuis des angles différents : les réponses LLM sont fondamentalement probabilistes, pas déterministes.

L’implication pratique est non négociable : un seul test n’est pas fiable. Tester chaque prompt 3 fois minimum et moyenner les résultats. C’est la base méthodologique de toute analyse fan-out sérieuse.

Comment structurer son contenu pour être sélectionné par le fan-out ?

Le LLM ne sélectionne pas des pages : il sélectionne des chunks, des passages autonomes de 40 à 150 mots extraits de plusieurs pages, qu’il assemble pour construire sa réponse. Structurer son contenu pour le fan-out, c’est structurer en chunks citables.

Chaque section doit être auto-suffisante une fois extraite de son contexte. Un heading H2 ou H3 formulé comme une question (le mécanisme “H2-as-prompt” documenté dans mon article sur le front-loading GEO) augmente les chances que le LLM traite ce heading comme un prompt et le paragraphe suivant comme la réponse candidate. La réponse directe doit apparaître dans les 2-3 premières phrases du paragraphe, en reprenant l’entité clé du heading (entity echoing).

La densité d’entités nommées est le signal de sélection le plus mesurable. Les données Kevin Indig (18 012 citations ChatGPT via Gauge, février 2026) mesurent environ 20% d’entités nommées dans le texte cité par ChatGPT contre 5-8% en baseline. Un paragraphe purement générique sans noms propres ni chiffres a un faible information gain : le LLM n’a aucune raison de le citer plutôt que de le reformuler lui-même. Les données uniques, les chiffres sourcés, les avis d’experts nommés sont ce qui différencie un chunk citable d’un paragraphe ignoré. C’est aussi ce que les signaux E-E-A-T renforcent : l’expérience de terrain et les données vérifiables augmentent la confiance du LLM dans un passage. Le balisage schema markup (Article, FAQ, HowTo) aide les LLMs à identifier et extraire les entités de ton contenu lors du crawl, renforçant la sélection dans le corpus fan-out.

L’alignement sémantique entre le texte des chunks et les fan-out queries est le dernier critère. Si le vocabulaire utilisé est trop éloigné de la manière dont le LLM formule ses sous-requêtes, la similarité vectorielle (cosinus) sera trop faible et le chunk ne sera pas récupéré dans le corpus temporaire. Extraire les vraies fan-out queries et aligner son champ lexical dessus est le moyen le plus direct d’augmenter ce score.

Pourquoi la Google Search Console ne suffit plus pour piloter le GEO ?

Les fan-out queries n’apparaissent pas dans Google Search Console. Quand Perplexity ou Google AI Mode envoient des sous-requêtes à Google, ces requêtes ne sont pas attribuées à ton site dans la GSC. Tu ne vois jamais sur quelles sous-requêtes ton contenu a été récupéré, ni combien de fois il a été sélectionné dans un corpus fan-out.

C’est le changement de paradigme le plus sous-estimé du passage au GEO. Le SEO classique fonctionne sur un modèle déterministe : tu places ton mot-clé, tu te classes, tu mesures ta position dans la GSC. Le GEO fonctionne sur un modèle probabiliste : tu augmentes tes chances d’être sélectionné dans le corpus temporaire construit par le LLM pour chaque réponse, mais tu ne contrôles ni la sélection ni la mesure.

Le fan-out existe pour réduire le “coût delphique” : l’effort cognitif que l’utilisateur doit fournir pour formuler la requête parfaite. Au lieu de taper 10 recherches successives, le LLM les exécute en parallèle. Pour l’utilisateur, c’est un gain. Pour le SEO qui pilote uniquement avec la GSC, c’est piloter à l’aveugle sur une part croissante du trafic IA. Le monitoring LLM dédié (sujet d’un article à venir) devient indispensable pour mesurer la visibilité réelle dans les réponses IA.

Ce que je retiens pour ma stratégie GEO

Trois actions concrètes tirées de ces findings.

Première action : extraire les fan-out queries réelles de ChatGPT et Perplexity sur tes 10-20 prompts ICP prioritaires. Pas simuler, extraire. Tester chaque prompt 3 fois minimum. Mapper les fan-out queries obtenues contre tes pages existantes. Les gaps identifiés sont ta roadmap contenu directe.

Deuxième action : restructurer les pages existantes en chunks citables. Chaque H2 formulé comme une question que ta cible pose à un LLM. Réponse directe en 2-3 phrases avec entity echoing. Densité d’entités nommées maximale : marques, outils, chiffres sourcés, noms de personnes. Paragraphes de 40 à 150 mots, auto-suffisants hors contexte.

Troisième action : travailler les deux leviers en parallèle. Le fan-out n’est qu’un des deux canaux de visibilité dans les LLMs. Sur ChatGPT, le Mode Knowledge (réponse depuis les données d’entraînement) reste le mode par défaut pour de nombreuses queries. La notoriété, les associations d’entités, la qualité du contenu : ce qui fait du bon SEO alimente aussi la visibilité en Mode Knowledge. Le fan-out est dominant sur Perplexity (recherche web par défaut) et Google AI Mode (100% RAG par construction), mais optimiser pour le fan-out sans travailler les fondamentaux SEO revient à couvrir la moitié du spectre.

Sources

  • Brevet Google PROMPTAGATOR WO2024064249A1, mars 2024 : taxonomie des 6 types de fan-out queries
  • Brevet Google “Thematic Search” US12158907B1 : organisation des résultats fan-out
  • Brevets Google US20240289407A1 et WO2025102041A1 : types non actionnables (personnalisation, session)
  • Blog Google, Robby Stein VP Product, 05/03/2025 : définition officielle fan-out
  • Keynote Google I/O, Elizabeth Reid Head of Search, mai 2025 : annonce publique AI Mode
  • Duffez/WebRankInfo, janvier 2026 : analyse des brevets PROMPTAGATOR, comportement fan-out par modèle
  • Linksgarden, 1M prompts ChatGPT FR, Summit SEO&GEO 2026 : étude de visibilité marques (NER + scoring sentiment)
  • AirOps, 45K citations : variance cross-run des citations de marques
  • Abhishek Iyer/ACME.BOT, juillet 2025 + Brian Dean/Backlinko, août 2025 : études indépendantes démontrant l’utilisation de résultats Google Search par ChatGPT
  • Doc officielle Perplexity Sonar API : “continuously refreshed index” + crawlers PerplexityBot et Perplexity-User (source primaire sur l’architecture d’index Perplexity)
  • Scrunch, mars 2025 : analyse de la transition d’OpenAI vers une infrastructure de recherche propre (OAI-SearchBot)

Questions fréquentes

Combien de fan-out queries génère ChatGPT par prompt ?
ChatGPT Thinking 5.4 génère en moyenne 5.7 fan-out queries par prompt, avec un minimum de 3-4 sur les prompts définitionnels simples et des pics à 12 sur les prompts techniques spécialisés. Plus le prompt est technique et spécifique, plus le nombre de sous-requêtes augmente.
Est-ce que Perplexity génère les mêmes fan-out queries que ChatGPT ?
Non. Perplexity et ChatGPT utilisent des architectures de recherche différentes. Perplexity s'appuie sur son propre index rafraîchi en continu (revendiqué officiellement dans la doc Sonar API) complété par du live web fetch, contre un mix Bing + Google probable + crawler OAI-SearchBot pour ChatGPT. Ce qui produit des corpus de pages et des fan-out queries distincts. Perplexity effectue une recherche web sur la quasi-totalité des requêtes par défaut, tandis que ChatGPT alterne entre Mode Knowledge (mémoire) et Mode RAG (recherche web) selon le type de prompt.
Combien de fois faut-il tester un prompt pour avoir des données fan-out fiables ?
Minimum 3 runs, idéalement 5 à 7 sur les prompts prioritaires. Sur nos tests ChatGPT Thinking 5.4, 3 runs consécutifs du même prompt ont produit 0 fan-out query en commun. L'objectif n'est pas de trouver 'la' bonne sous-requête : c'est de cartographier le champ sémantique complet que le LLM couvre sur ce prompt. L'union des fan-out queries sur plusieurs runs donne une image représentative des angles explorés. Agréger 5+ runs permet aussi d'identifier les domaines d'autorité stables, ceux qui reviennent dans 3 runs sur 5 ou plus, qui sont les vraies cibles de ta stratégie de contenu.
Comment savoir si ChatGPT utilise le Mode Knowledge ou le Mode RAG ?
ChatGPT indique explicitement dans l'interface quand il effectue une recherche web, en mode gratuit comme en mode payant : un indicateur apparaît avant la génération et les sources sont affichées en fin de réponse. La distinction Mode Knowledge/Mode RAG est donc visible. Ce qui reste opaque sans inspection réseau : les fan-out queries elles-mêmes. En mode payant, DevTools ou une extension Chrome permettent de les extraire pendant la génération. En mode gratuit, les sources finales sont visibles mais les sous-requêtes intermédiaires ne sont pas accessibles sans Playwright.
Les PAA (People Also Ask) de Google peuvent-elles remplacer l'extraction de fan-out queries ?
Non. Les PAA capturent les questions que les humains tapent sur Google, pas les sous-requêtes que les LLMs génèrent automatiquement. Les LLMs produisent des requêtes implicites et entity-expanded (avec opérateurs site: ciblant des domaines d'autorité) que les PAA ne couvrent pas. Les PAA restent un proxy utile pour la discovery initiale, mais l'extraction des vraies fan-out queries reste nécessaire pour une stratégie GEO data-driven.