Comment AI100 mesure la visibilité des marques dans l'IA
Ce que nous mesurons
AI100 mesure la naturalité avec laquelle une marque apparaît dans les réponses neutres de l'IA au sein de sa catégorie et de sa région. La méthodologie sépare la couche principale de notation (scénarios neutres) de la couche diagnostique (requêtes avec nom de marque) et utilise une échelle non linéaire de 0 à 100.
Unité de mesure : une réponse du modèle à un scénario de question standardisé.
Comment fonctionne une exécution
1. Préparation du cadre de recherche
D'abord nous lisons le site, identifions la catégorie et clarifions avec quel environnement de marché il est pertinent de comparer la marque. L'utilisateur sélectionne une langue de visibilité (Visibility Language) — la langue dans laquelle les questions seront posées au modèle. C'est un paramètre important : la même marque peut rencontrer un environnement concurrentiel différent selon la langue des prompts. Le modèle construit un champ associatif distinct pour chaque langue : des marques qui dominent dans une langue peuvent céder leur position à d'autres concurrents dans une autre. Pour les marques internationales, une étude séparée est recommandée pour chaque langue du marché cible.
2. Construction du corpus de questions
Ensuite le corpus de scénarios est assemblé : certains vérifient l'apparition naturelle de la marque, d'autres aident à comprendre la réputation et le caractère de la réponse du modèle.
3. Calcul du score principal
Le score principal repose uniquement sur les scénarios neutres, où la marque doit gagner sa place par la réponse du modèle elle-même. Séparément sont calculés le score diagnostique (par mentions directes), le renforcement web (différence entre réponse de mémoire et réponse avec recherche) et l'intervalle de confiance du résultat.
4. Explication et rapport
Enfin, nous traduisons l'ensemble des réponses en un rapport lisible : le score final, sa stabilité, les forces de la marque et les zones de croissance.
Comment le score est calculé et interprété
Le saut entre une visibilité faible et une couche médiane crédible est spectaculaire : la marque existe à peine pour le modèle ou apparaît déjà dans une partie des réponses. Le saut entre une visibilité forte et une quasi-domination est plus difficile. C'est pourquoi nous utilisons une transformation logarithmique.
Corpus et notation
Couche principale
| Famille | Ce qu'elle vérifie |
|---|---|
| Expertise | Le modèle détecte-t-il des signaux d'autorité dans le domaine de la marque ? |
| Comparison | La marque tient-elle dans les questions comparatives sans indication de nom ? |
| First appearance | Le modèle nomme-t-il la marque quand l'utilisateur commence tout juste à chercher ? |
| Ranking | À quel point le modèle place-t-il la marque dans un classement explicite de catégorie ? |
| Shortlist | La marque entre-t-elle dans la liste restreinte quand l'utilisateur est prêt à comparer ? |
| Trust | Le modèle associe-t-il la marque à la fiabilité et au choix judicieux ? |
Pondérations du score principal
| Métrique | Ce qu'elle montre | Poids |
|---|---|---|
| Mention Rate | À quelle fréquence la marque apparaît dans les réponses | 24.0% |
| Top-3 Rate | À quelle fréquence la marque est dans la partie supérieure de la réponse | 14.0% |
| Top-1 Rate | À quelle fréquence la marque est nommée en premier | 10.0% |
| Avg Position | Position moyenne de la marque dans les réponses | 15.0% |
| Prompt Coverage | Dans quelle proportion de scénarios la marque apparaît | 14.0% |
| Response Share | À quelle fréquence la marque est mentionnée dans le texte de la réponse | 10.0% |
| Text Share | Quelle proportion du texte de la réponse porte sur la marque | 5.0% |
| Domain Citation | À quelle fréquence le modèle cite le domaine de la marque | 8.0% |
Couche diagnostique
Cette couche ne remplace pas le score principal. Elle explique ce qui se passe lorsque la marque est déjà nommée, directement comparée ou discutée en termes de réputation.
| Famille | Ce qu'elle vérifie |
|---|---|
| Alternative | La marque est-elle rappelée comme alternative à une solution déjà nommée ? |
| Reputation | Comment le modèle décrit-il la marque quand le nom est déjà donné ? |
| Direct comparison | Que se passe-t-il dans une comparaison directe avec un concurrent ? |
Pondérations du score diagnostique
| Métrique | Ce qu'elle montre | Poids |
|---|---|---|
| Recommendation Rate | Proportion de réponses avec recommandation explicite de la marque | 30.0% |
| Recommendation Strength | Avec quelle conviction le modèle formule la recommandation | 25.0% |
| Centrality | Si la marque est le sujet principal de la réponse | 20.0% |
| Positive Tone | Proportion de réponses au ton explicitement positif | 15.0% |
| Argument Quality | Si le modèle étaye la recommandation par des arguments | 10.0% |
Périmètre et limites
AI100 utilise les modèles OpenAI (GPT-5.4) en deux modes : à partir des connaissances internes du modèle et avec l'appui de sources web. Le corpus est construit pour toute langue et toute région.
Ce que mesure AI100
- La naturalité avec laquelle la marque apparaît dans les réponses neutres de l'IA au sein de sa catégorie.
- La position de la marque dans la réponse et si les sources web la renforcent.
- Dans quelles familles de questions la marque disparaît et où elle apparaît plus forte que les concurrents.
Ce que ne mesure pas AI100
- Les ventes, la conversion, la force de l'équipe marketing ou la qualité du produit en eux-mêmes.
- Tous les modèles et tous les modes d'Internet à la fois. Actuellement, la méthode se concentre sur la couche appliquée la plus utile et est conçue pour s'étendre.
- Une vérité absolue sur le marché. Toute mesure dépend de la date, de la langue, de la catégorie et du corpus de questions.
Vous souhaitez voir ce que cela donne pour une vraie marque ?
Voir le rapport type