Prompt-level SEO : le framework d’expérimentation pour tester votre visibilité dans les LLMs

Résumez cet article avec l’IA

En bref : Les classements ne suffisent plus. Les réponses IA ignorent souvent votre site, même bien classé. Ce guide pratique vous donne un framework pas à pas pour tester la visibilité de votre marque dans les LLMs, avec des résultats concrets +147 % de citations en 3 semaines.
+147%augmentation moyenne des citations IA en 3 semaines
47variations de prompts testées par cas
84combinaisons de variables analysées en 1 semaine

Pourquoi vos classements ne disent plus rien (et ce qui compte vraiment)

Un client m’appelle un mardi matin.

14 300 sessions organiques par mois. Il y a six mois.
Aujourd’hui : 9 200.

Il a investi 12 000 $ dans du contenu “optimisé IA”.
72 pages rédigées avec des LLMs, ciblant des expressions précises.

Mais quand je tape ses 10 requêtes principales dans ChatGPT Search…
Pas une mention de sa marque.

À l’époque, on ne mesurait que les classements bleus.
Maintenant, les clics passent par l’AI Overview, Gemini, la Search Generative Expérience.

Selon une étude partagée par Search Engine Land, plus de 30 % des requêtes commerciales génèrent une réponse IA en position zéro.
Vous pouvez être premier sur 100 mots-clés.
Si l’IA ne vous cite pas, vous n’existez pas.

Je regarde 15 sites par semaine.
93 % d’entre eux ont du trafic organique stable…
Mais une disponibilité IA quasi nulle.

Le problème n’est pas le contenu.
C’est l’architecture de présence.

Vous devez passer de la surveillance passive à l’expérimentation active.
Tester chaque variation de prompt.
Comprendre ce qui déclenche une citation.

Ce que j’appelle le prompt-level SEO.

Et pour ça, j’utilisé le framework DOSE, enseigné par Guillaume Attias, fondateur de la BMO Academy.

Diagnostiquer > Optimiser > Systématiser > Évaluer.

Je vous montre comment, avec un cas client et 147 % d’augmentation des citations en 3 semaines.

Pour structurer vos tests de visibilité dans les LLMs, le framework DOSE vous guide en quatre étapes clés. Découvrez le cycle complet avant de le déployer.

Le framework DOSE : 4 étapes pour tester votre visibilité IA

Diagnostiquer, Optimiser, Systématiser, Évaluer : un processus itératif validé par +147 % de citations.

Le framework DOSE appliqué aux prompts : isolez, mesurez, itérez

Depuis janvier 2026, je ne fais plus d’audit sans cet angle.

Les crawls techniques, les backlinks, le maillage interne… tout reste fondamental.
Mais la citation IA, c’est une nouvelle couche.

Et cette couche obéit à des lois propres.

Je vous résume le framework en 4 étapes :

1. Diagnostiquer.
Quelles sont les variables qui influencent la réponse d’un LLM ?
Principalement : le type de requête (informationnelle, transactionnelle…), le persona demandé (“je suis développeur”, “je suis RH”), et l’entité brandée.

J’ai réalisé 84 combinaisons de ces variables en une semaine.
Résultat : dans 34 % des cas, la même requête avec un persona différent fait apparaître un concurrent différent.

2. Optimiser.
Créer des variations de prompts documentées.
Pas au hasard.
On teste 47 prompts par cas, basés sur les mots-clés à fort volume et les questions du “People Also Ask”.

Un SaaS de gestion de projet, que j’accompagne, a vu sa présence passer de 0 à 41 citations sur 47 prompts tests en 3 semaines.
La clé : injecter des scénarios d’usage précis dans le contenu source.

3. Systématiser.
Chaque test est enregistré dans un tableau à 5 colonnes : date, prompt exact, variables, plateforme, résultat.
Sans cette traçabilité, on perd le fil.

Un client a accumulé 412 logs en 30 jours.
Il a découvert un schéma : il était cité uniquement pour les requêtes de type “comment faire” avec un persona de débutant.

À partir de là, on a réorienté 60 % de sa production éditoriale.

4. Évaluer.
On mesure le pourcentage de prompts où la marque apparaît, mais aussi la qualité de la mention : premier lien, lien simple, mention textuelle sans lien.

Chez 12 clients en B2B suivis depuis février, le taux moyen de citation est passé de 11 % à 38 % en 6 semaines.
+245 %.

Ce n’est pas de la magie.
C’est une méthode reproductible.

Diagnostiquer : les 3 variables à isoler pour vos premiers tests

Quand on teste la visibilité dans un LLM, on croit que la requête brute suffit.

Faux.

Les LLMs sont conversationnels.
Ils génèrent une réponse en fonction du contexte : ton, rôle, historique, exemple.

J’ai identifié trois variables critiques à isoler immédiatement.

Variable 1 : le type de requête.
Informationnelle : “qu’est-ce que le growth hacking”
Transactionnelle : “meilleur outil de growth hacking”
Navigational : “growthroi.com”
Chaque type active un corpus différent.
Votre marque peut être citée uniquement en transactionnel, jamais en informationnel.

Testez vos 10 expressions phares dans les 3 versions.
Notez la différence.

Variable 2 : le persona.
Un même prompt avec “en tant que chef d’entreprise” vs “en tant que stagiaire marketing” vous donnera des réponses radicalement opposées.
Chez un éditeur de logiciel, nous avons testé 5 personas pour 20 requêtes.
L’apparition du nom de l’éditeur varie de 2 % à 83 % selon le persona.

Variable 3 : l’entité entrante.
Si votre prompt contient le nom d’un concurrent, la réponse va probablement citer ce concurrent.
Mais si vous utilisez un terme générique, la place est libre.

J’ai vu des cas où le simple ajout de “palmarès 2026” dans le prompt faisait ressortir un site oublié depuis 3 ans.

Au total, croiser ces 3 variables crée une matrice.
Pour un client, nous l’avons fait sur 84 combinaisons (7 types x 4 personas x 3 entités).
Le taux de citation global ? 19 %.
Après optimisation des contenus basés sur les trous identifiés, on est passé à 67 %.

Optimiser : 47 variations qui ont changé la donne pour un SaaS

J’ai un client éditeur d’un outil de gestion de projet en mode SaaS.

Il y a 4 mois, zéro citation dans ChatGPT, Gemini ou Perplexity.
Pourtant, il était en top 5 sur la moitié de ses mots-clés cœur de métier.

On a construit une grille de 47 prompts.

Comment ?
7 types d’intention (comparaison, tutoriel, meilleur outil, etc.)
5 personas (chef de projet, développeur, responsable RH, CEO, freelance)
On ajoute quelques prompts avec localisation “pour une équipe en télétravail”.

Voici un échantillon :

“Quel outil pour gérer des projets en méthode agile avec une équipe de 10 développeurs ?” — persona chef de projet
“Je suis freelance, je cherche un logiciel gratuit pour suivre 3 clients” — persona freelance

Premier test : sur les 47 prompts, la marque apparaissait 0 fois.

On a alors repris ses fiches produits et ses articles de blog.
On a injecté des scénarios d’usage précis, des comparatifs chiffrés et des cas clients réels.
Pas plus de contenu.
Du contenu mieux structuré pour l’IA.

Trois semaines plus tard, nouveau run des 47 prompts.
La marque est citée 41 fois.
Des mentions contextuelles, parfois avec lien.
Dans les tests “comparaison”, elle apparaissait en premier dans 11 cas sur 12.

Le client m’a envoyé ce message :

“On pensait que notre fiche produit suffisait. On a compris que sans contexte d’usage, l’IA nous ignore.” — Thomas, CMO

Ce n’est pas le volume qui compte.
C’est la pertinence conversationnelle.

Systématiser : un tableau de bord à 5 colonnes pour tracker vos citations

Le vrai piège du prompt-level SEO, c’est le désordre.

On teste un prompt, on note le résultat… puis on oublie.

Pour que la méthode donne des résultats reproductibles, il faut un système.

J’utilisé un tableau en 5 colonnes :

Un client a rempli ce tableau 412 fois en un mois.

Grâce à ça, il a repéré un pattern très précis : il n’apparaissait que dans les prompts avec le persona “débutant” et des requêtes “comment faire”.
Zéro visibilité sur les requêtes “meilleur outil”.

On a modifié sa stratégie de contenus pour densifier les comparatifs.
En 8 semaines, le pourcentage de prompts gagnants est passé de 18 % à 52 %.

Je recommande Airtable ou un simple Google Sheet.
L’important, c’est la rigueur.
Chaque test est un jalon.

Avec un collègue, on a même ajouté une colonne “timestamp de la conversation” car les réponses évoluent.
Ainsi, on peut refaire un test identique et comparer dans le temps.

La systématisation, c’est le “S” du DOSE.
Sans elle, l’expérimentation reste anecdotique.

Évaluer : +147 % de citations en 3 semaines, c’est possible (voici comment)

Quand j’ai commencé à appliquer ce framework sur une cohorte de 15 clients en B2B et e-commerce, j’ai observé une moyenne de +147 % de mentions dans les réponses IA.

Ce chiffre est la moyenne sur 3 semaines d’expérimentation.
Il intègre les gagnants comme les modestes.

Un éditeur de logiciel est passé de 12 citations sur 200 prompts tests à 87 citations.
Soit un bond de 625 %.
Dans son cas, l’effet “persona” était particulièrement fort : il avait des contenus excellents pour les DSI, mais quasi rien pour les RH.

L’évaluation ne se limite pas à compter les apparitions.
Je mesure aussi :

Chez 4 clients, le taux de mention “brandée avec lien” est passé de 8 % à 33 %.
Un progrès énorme en visibilité commerciale.

Voici un échantillon des résultats consolidés :

CasCitations avantCitations après 3 sem.Variation
SaaS CRM1287+625 %
Agence web523+360 %
E-commerce mode2863+125 %
Éditeur RH941+356 %

Ces chiffres sont réels, issus de mes accompagnements.
Ils montrent qu’une approche structurée d’expérimentation prompt-level produit des gains rapides.

Mais n’oubliez pas : la citation ne vaut que si elle génère une action.
Une mention dans une réponse IA ne sert à rien si derrière le clic ne trouve pas la page pertinente.
D’où la nécessité de ne jamais négliger l’expérience post-clic.

Et maintenant, votre premier test en 12 minutes

Je ne vous laisse pas sans plan d’action.
Voici comment lancer votre première expérience dès aujourd’hui.

Étape 1. Sélectionnez 5 mots-clés à forte valeur commerciale.
Ceux qui génèrent au moins 500 clics par mois ou des conversions significatives.

Étape 2. Pour chaque mot-clé, rédigez 3 versions de prompt :
– La requête brute (ex. “meilleur logiciel comptable”)
– La requête + persona (ex. “en tant que comptable débutant, quel est le meilleur logiciel ?”)
– La requête + contexte (ex. “logiciel comptable pour auto-entrepreneur en 2026”)

Cela vous donne 15 prompts.

Étape 3. Testez ces 15 prompts sur 2 plateformes (par exemple ChatGPT et Gemini).
Soit 30 tests.
Temps estimé : 12 minutes.

Notez immédiatement vos résultats dans la grille à 5 colonnes.
Regardez si votre marque apparaît, et à quelle fréquence.

Lectures immédiates :
– Si vous avez 0 mention sur les 30, votre contenu manque de signal conversationnel.
– Si vous êtes cité uniquement avec persona précis, vous savez que l’audience est segmentée.
– Si un concurrent apparaît systématiquement, repérez les mots-clés déclencheurs qu’il utilisé.

À partir de ce diagnostic éclair, vous pouvez initier un cycle DOSE complet.

Je forge des systèmes d’expérimentation qui tournent sans moi.
Mais pour démarrer, 12 minutes suffisent.

Et si vous voulez que je le fasse avec vous, je prends 30 minutes.
On tape les prompts.
On regarde les pages.
Je vous montre exactement ce qui bloque.
C’est ça, mon audit.

Auditez votre présence IA en 30 minutes

Je regarde avec vous pourquoi ChatGPT, Gemini ou Perplexity ignorent votre marque. On tape les prompts, on voit les pages, et je vous donne les variables à corriger. Direct, sans bla-bla.

Réserver un appel diagnostic — 30 min

Questions fréquentes

Comment être sûr que mon site est bien cité par une IA conversationnelle ?

Tapez vos requêtes clés dans ChatGPT Search, Gemini, Perplexity. Notez la présence de votre marque. Aucun outil automatique ne remplace ce test manuel, car les citations IA varient beaucoup selon le contexte du prompt.

Quels outils peuvent automatiser les tests de prompts pour le SEO ?

Aucun outil ne le fait parfaitement aujourd’hui. J’utilisé des scripts Python simples pour envoyer des prompts via API et récupérer les réponses, mais le composant humain reste indispensable pour interpréter les mentions.

Les LLMs favorisent-ils toujours les grandes marques ?

Pas systématiquement. Dans mes tests, une marque de niche peut surpasser un géant si son contenu répond avec précision au contexte du prompt. Le persona joue un rôle énorme.

Faut-il créer du nouveau contenu pour être cité par les IA ?

Souvent non. Il suffit de restructurer l’existant : ajouter des scénarios d’usage, des comparatifs, des questions/réponses. Le contenu existant, une fois reformaté pour l’IA, peut voir ses citations exploser.

À quelle fréquence faut-il refaire ses tests d’inclusion IA ?

Je recommande un cycle toutes les 3 semaines. Les réponses IA évoluent vite. Un prompt qui fonctionne aujourd’hui peut ignorer votre marque demain si le corpus change. La systématisation est clé.

Stéphane Jambu

Stéphane Jambu

Ingénieur SEO & IA

Je forge des systèmes de croissance / IA / Neurosciences | 650+ clients · 80 témoignages LinkedIn · 30 ans d’expertise · 15 ans de systèmes qui tournent sans moi.

Suivre sur LinkedIn