Ce que nous avons observé
Lors d’une exécution sur la catégorie « analytique pour le e-commerce de taille moyenne », l’une des marques testées se retrouvait de façon stable en 4e ou 5e position dans les réponses de ChatGPT et apparaissait à peine dans Perplexity. C’était inattendu : la marque n’est pas petite, elle dispose d’un site solide avec une documentation détaillée, d’un blog actif et de plusieurs cas clients avec de grands comptes. Dans la recherche Google classique, elle figure dans le top 5 sur les principales requêtes de sa catégorie. Selon tous les critères habituels, c’est une marque visible.
Mais dans les scénarios AI100 neutres, où l’on posait aux modèles des questions du type « que choisir pour une boutique en ligne de taille moyenne avec une équipe réduite », la marque perdait face à des concurrents objectivement moins connus.
Ce qui s’est révélé être la cause
L’analyse a mis en évidence trois problèmes qui se recoupaient.
Le premier, et le principal, était l’écart entre le langage du site et le langage de la demande. La marque se décrivait comme un « environnement modulaire d’analytique commerciale intelligente ». Les utilisateurs (et les modèles qui reflètent leur langage) demandaient plutôt un « service simple de reporting pour une boutique en ligne sans analyste dédié ». Ces deux langages ne se croisaient presque nulle part. Aucune page du site ne répondait directement à la question « à qui cela convient-il ? » dans les mots mêmes qu’emploie l’utilisateur pour décrire sa tâche.
Le deuxième problème était que le modèle reformulait la tâche dans une catégorie voisine. Au lieu de « analytique pour l’e-commerce », la réponse se construisait autour des « outils de BI pour les petites entreprises ». Résultat : la liste incluait deux solutions d’une catégorie adjacente que la marque ne considérait pas comme des concurrentes. C’est un cas classique de substitution de catégorie, décrit dans un autre article du corpus.
Le troisième point était le décalage de mise à jour. Deux mois avant l’exécution, la marque avait lancé une nouvelle offre tarifaire destinée aux entreprises de taille intermédiaire. Mais le modèle continuait à la décrire comme une solution pour les grandes entreprises — l’information sur cette nouvelle offre ne s’était diffusée ni dans les revues externes ni dans les données structurées.
Ce que cela implique
Cette observation confirme plusieurs thèses que le corpus AI100 présente comme robustes :
La distinguabilité machine et la notoriété humaine sont deux choses différentes. Une marque bien connue des humains peut être fonctionnellement invisible pour le modèle si son langage ne coïncide pas avec le langage de la tâche.
La substitution de catégorie intervient avant la comparaison directe des marques. La marque n’a pas perdu face à un concurrent, mais face à un cadre de choix étranger. Le modèle a d’abord rebaptisé la tâche, puis assemblé une liste à l’intérieur de la nouvelle catégorie.
Le décalage de mise à jour n’est pas un retard abstrait. C’est une situation concrète où la marque a déjà changé un fait sur elle-même, mais où la machine n’a pas encore eu le temps de le voir.
Ce que la marque aurait pu faire
Ajouter au site une page qui réponde directement à la question « à qui notre produit convient-il ? » dans les termes de la tâche de l’utilisateur, et non dans ceux de la catégorie marketing interne. S’assurer que la nouvelle offre tarifaire est décrite non seulement sur la page des prix, mais aussi dans les revues externes. Vérifier que le balisage structuré (Product, Offer) reflète les tarifs et le public visé actuels.
Une nouvelle exécution dans 6 à 8 semaines montrera si le tableau a changé.
Matériaux connexes
Substitution de catégorie : comment une marque perd non seulement face à un concurrent, mais aussi face à un cadre de choix qui n’est pas le sien
Comment une marque peut perdre non face à un concurrent mais face à un autre cadre de choix : l'IA déplace la tâche de l'utilisateur vers une autre catégorie et assemble un ensemble d'alternatives différent.
Ouvrir le matériau →Décalage de mise à jour : à quelle vitesse les systèmes d’IA modifient-ils leur représentation d’une entreprise après une actualité, un lancement de produit ou un changement de prix
Pourquoi il existe un délai entre le changement d'un fait sur la marque et son apparition stable dans les réponses machine — et comment observer ce décalage en pratique.
Ouvrir le matériau →Fiche de mini-étude pour la base de connaissances AI100
Modèle de fiche d'observation pour consigner les données de chaque test AI100 — afin que les réponses individuelles forment un historique de recherche.
Ouvrir le matériau →Carte pratique d’action : comment renforcer la distinguabilité machine de la marque
Six étapes séquentielles pour améliorer la visibilité IA : de la vérification d'identité à l'observation, en passant par le réassemblage du langage et le contour de confiance.
Ouvrir le matériau →Comment cela se rapporte à AI100 en pratique
Si vous avez besoin non pas d'une vue d'ensemble mais d'un diagnostic spécifique pour votre marque, AI100 permet de vérifier comment le modèle perçoit l'entreprise dans les scénarios neutres de choix, quels concurrents se positionnent plus haut et quelles améliorations ont le plus de chances d'augmenter la visibilité.
Voir le rapport type