Por qué la metáfora de la ficha induce a error

Pruebe a preguntar a ChatGPT: «¿Qué plataforma de analítica elegir para un e-commerce mediano?» — y observe cómo se construye la respuesta. El modelo no abrirá Gartner, no visitará el sitio web de cada proveedor ni comparará tarifas. Ensamblará la respuesta a partir de lo que ya tiene: fragmentos de documentación, rastros de artículos de análisis, restos de comparaciones de alguien en Reddit, pedazos de notas de prensa de hace dos años. Una marca aparecerá descrita con precisión — categoría correcta, características actuales, rango de precios adecuado. Otra será mencionada pero confundida con su empresa matriz. Una tercera ni siquiera aparecerá, aunque por facturación sea mayor que las dos primeras. ¿De dónde viene esta desigualdad? Dentro del modelo no existe ninguna ficha de marca con campos ordenados «nombre — categoría — precio — ventajas». Existe algo muy distinto: una red distribuida de conexiones probabilísticas — huellas en los parámetros, patrones activables, estados ocultos de cálculo y, en los modos de búsqueda, documentos recientes incorporados en el momento de la respuesta.

Mientras la empresa imagine una celda ordenada en la memoria de la máquina, buscará recetas sencillas: «añadir más menciones», «actualizar los titulares», «publicar otra página sobre nosotros». Pero si se entiende que la marca dentro del modelo es más un relieve de probabilidades que un registro en una base de datos, la tarea cambia. La cuestión no es cuántas señales se producen, sino cómo se articulan entre sí: si el nombre está vinculado de forma estable a la categoría, si los productos se distinguen entre sí, si las propiedades clave se confirman desde múltiples fuentes y si el modelo puede separar con facilidad su entidad de las vecinas. Por qué una marca fuerte acaba siendo invisible para la máquina — cuatro causas estructurales — se analiza en el artículo anterior; aquí descendemos un nivel más, hacia cómo se organiza el conocimiento sobre la empresa dentro del modelo.

Lo que muestran las investigaciones sobre interpretabilidad

Las investigaciones sobre interpretabilidad de los últimos años van haciendo gradualmente menos misteriosa esa imagen interna. El trabajo de Mor Geva y sus coautores mostró que los bloques feed-forward de la arquitectura Transformer a menudo se comportan como una especie de memoria de «clave-valor»: unas pautas de entrada textuales activan otras y empujan al modelo hacia una determinada continuación léxica [1]. El trabajo de Kevin Meng y sus colegas sobre la localización y edición de asociaciones fácticas mostró que una parte de los hechos en los modelos de autocompletado puede vincularse de verdad a nodos computacionales relativamente localizables, sobre todo en las capas intermedias [2]. Un trabajo posterior de Masaki Sakata y sus coautores encontró que las menciones de una misma entidad tienden a formar clústeres distinguibles en el espacio interno de representaciones, y que la información vinculada con la entidad suele concentrarse en un subespacio lineal compacto en las primeras capas del modelo [3]. Por último, las investigaciones de revisión sobre la mecánica del conocimiento en los modelos de lenguaje de gran escala subrayan una conclusión general: el conocimiento en estos sistemas existe realmente, pero está distribuido, es frágil y depende del modo en que se lo extraiga [4][5].

La manera más simple de imaginarlo es la siguiente. Dentro del modelo, la marca existe como un relieve probabilístico. En ese relieve hay zonas donde el nombre de la empresa está próximo a palabras como «analítica», «seguridad», «plataforma», «predicción», «mercado corporativo» o, por ejemplo, «gestión de la experiencia del cliente». Hay relaciones con productos conocidos. Hay huellas de antiguos comunicados de prensa. Hay proximidad con los competidores. Hay huellas de preguntas de usuarios a las que, en los datos de entrenamiento, solían seguir ciertos tipos de respuesta. Cuando el modelo recibe una nueva consulta, no «extrae una ficha», sino que recorre ese relieve y construye la interpretación más probable.

Precisamente por eso, la pregunta «qué sabe la IA sobre una empresa» conviene sustituirla por otra: «qué configuración de relaciones es capaz de reconstruir de manera estable la IA sobre una empresa en distintos contextos». Esto es más preciso y más útil. Porque para un negocio no importa la conciencia abstracta del modelo, sino la estabilidad. Si se pregunta al sistema de respuestas de diez maneras parecidas, ¿asignará una y otra vez la marca a la misma categoría? ¿La vinculará con las mismas propiedades básicas? ¿Distinguirá correctamente el producto de la empresa, la empresa de la estructura matriz, el nombre jurídico del nombre de consumo? ¿O cada nueva consulta activará una entidad ligeramente distinta?

Relieve probabilístico, vectores y relaciones estables

Esa estabilidad se ve bien en el ejemplo de las representaciones vectoriales (embeddings), es decir, de las representaciones numéricas del texto a las que se traducen las palabras, las frases y los fragmentos de contexto. La proximidad entre dos representaciones de este tipo suele medirse con la similitud coseno:

cos(theta) = (x · y) / (||x|| ||y||)

Aquí x e y son dos vectores. Uno puede corresponder a un conjunto de menciones de la marca; el otro, a un rasgo como «analítica corporativa» o «servicio de consumo de bajo costo». Si el coseno está próximo a uno, las direcciones de los vectores se parecen y el sistema tiende a considerar estos objetos como estrechamente relacionados. Si el valor es bajo o cambia de un contexto a otro, la relación resulta débil o inestable. La empresa no tiene acceso directo a esos vectores dentro de los modelos comerciales cerrados. Pero la lógica misma es útil: la marca gana cuando los vínculos importantes en su representación de máquina dejan de ser accidentales y se vuelven repetibles.

A partir de aquí también se entiende la naturaleza de las distorsiones típicas. Si el nombre de la marca es ambiguo, el modelo puede atraerlo con demasiada fuerza hacia la categoría general y perder su individualidad. Si la empresa tiene varias líneas de producto con distintos lenguajes de descripción, dentro del modelo pueden no llegar a formar una sola familia. Si el entorno externo conoce mejor la versión antigua de la marca que la nueva, el modelo «recordará el pasado» con más insistencia de la que querría el marketing. Si los competidores poseen un contorno semántico más nítido y mejor confirmado, una consulta sobre una clase de soluciones llevará a ellos y no a su empresa. Y a la inversa: si la marca está presente de forma sistemática en el lenguaje del mercado, en fuentes independientes y en sus propias descripciones claras, el modelo tendrá más probabilidades de reconstruir precisamente su marca, incluso aunque la empresa no sea la más grande.

Tres capas de la representación interna y un nuevo diagnóstico

Conviene dividir la representación interna de la marca en tres capas. La primera capa es la memoria paramétrica. Es lo que el modelo asimiló durante el entrenamiento y el ajuste posterior: hechos generales, asociaciones típicas, conexiones habituales entre el nombre y las propiedades. La segunda capa es la reconstrucción contextual. Es la forma en que la marca se reconstruye en el propio momento de la respuesta a partir de los estados ocultos del diálogo actual: qué palabras del usuario activaron unas u otras partes del conocimiento de máquina. La tercera capa es el refuerzo externo. En los modos de respuesta y de búsqueda, aquí se añaden páginas web recientes, documentos y bases de conocimiento, que influyen en la conclusión final [4][6][7]. En la práctica, es precisamente la interacción de las tres capas la que determina cómo se verá la marca en la respuesta.

Esta estructura explica por qué muchas empresas se equivocan al diagnosticar el problema. Cuando la marca no aparece en la respuesta, suele pensarse que «el modelo no nos conoce». A veces es verdad, pero no siempre. El modelo puede conocer la empresa por su nombre y, aun así, no considerarla la mejor respuesta a la pregunta. Puede recordar el producto, pero no vincularlo con el escenario de uso correcto. Puede citar correctamente el sitio, pero jerarquizar mal la importancia de los atributos. Puede apoyarse en fuentes web actuales y, con ello, redefinir el conocimiento interno antiguo. Dicho de otro modo, el problema puede no estar en la existencia del conocimiento, sino en su configuración.

Esto es especialmente importante para las marcas acostumbradas a apoyarse en la fuerza de su propia comunicación. Dentro de un sistema de respuestas no gana solo quien habla más alto de sí mismo, sino también aquel de quien puede construirse una representación no contradictoria. Y una representación no contradictoria requiere disciplina. El nombre debe ser estable. La categoría, clara. La estructura de productos, distinguible. Las propiedades, formuladas de manera directa y no solo insinuadas. Las confirmaciones externas, diversas y fiables. Entonces el modelo tiene la oportunidad no solo de reconocer la marca, sino de mantenerla en la memoria como una entidad estable.

Aquí aparece una conclusión más. El trabajo sobre la representación interna de la marca no se reduce a la «optimización del texto». En esencia, es un trabajo sobre la forma epistémica de la empresa, es decir, sobre la manera en que la empresa existe como conocimiento. Cuando la marca está mal ensamblada como conocimiento, el sistema de respuestas se ve obligado a completar los vacíos de forma probabilística. Cuando la marca está bien ensamblada, la probabilidad de distorsión disminuye. En este sentido, la lucha contemporánea por la visibilidad no es solo una lucha por el tráfico, sino también por la calidad de la comprensión por parte de la máquina.

Este enfoque resulta útil también porque devuelve la conversación a un plano maduro. No conviene preguntarse «si la IA nos recuerda». Conviene preguntarse qué propiedades de nuestra marca se extraen de manera estable, qué relaciones se pierden, qué atributos se sobrevaloran y cuáles ni siquiera llegan a la respuesta. A partir de esas preguntas empiezan ya la estrategia, el diagnóstico y el trabajo sustantivo. Son precisamente ellas las que distinguen una gestión seria de la visibilidad de máquina de una carrera superficial por menciones aleatorias.

Qué parece bien establecido

Puede afirmarse con seguridad que el conocimiento en los modelos de lenguaje actuales está distribuido y se extrae de forma contextual. De ello se sigue que la estabilidad de la marca en las respuestas no puede reducirse a la simple presencia del nombre en el material de entrenamiento.

Dónde persiste la incertidumbre

Está menos sólidamente establecida la geometría exacta de ese conocimiento en los sistemas comerciales cerrados. Vemos los mecanismos generales en los trabajos académicos, pero no tenemos acceso directo a los vectores internos ni a las reglas de reconstrucción de cada plataforma.

Qué cambia esto en la práctica

Para una empresa, esto significa pasar del lenguaje de la «optimización del texto» al lenguaje de la forma epistémica: hay que vigilar qué propiedades de la marca se extraen de forma estable y cuáles se descomponen o se distorsionan.

Fuentes

[1] Geva M., Schuster R., Berant J., Levy O. Transformer Feed-Forward Layers Are Key-Value Memories. EMNLP, 2021
[2] Meng K., Bau D., Andonian A., Belinkov Y. Locating and Editing Factual Associations in GPT. NeurIPS, 2022
[3] Sakata M., Yokoi S., Heinzerling B., Ito T., Inui K. On Entity Identification in Language Models. Findings of ACL, 2025
[4] Wang M. et al. Knowledge Mechanisms in Large Language Models: A Survey and Perspective. EMNLP Findings, 2024
[5] Wang Y. et al. Factuality of Large Language Models: A Survey. EMNLP, 2024
[6] Yadav I., et al. External Knowledge Integration in Large Language Models: Survey, Methods, Challenges, and Future Directions. Semantic Web Journal, 2025
[7] Google Search Central. AI Features and Your Website. 2026

Materiales relacionados

Texto fundamental 7 min

Por qué una marca fuerte puede ser invisible para los sistemas de respuestas

Explica la paradoja central: una marca puede ser bien conocida por las personas y al mismo tiempo poco distinguible para la IA en el momento de la elección real.

Abrir material →
Texto fundamental 7 min

De qué fuentes forma la IA una opinión sobre la marca y por qué el sitio web no es el protagonista

Las capas desde las que la IA forma su opinión sobre una marca: el sitio propio, el contexto de búsqueda, reseñas independientes, plataformas de usuarios — y por qué el sitio ya no es el único árbitro.

Abrir material →
Siguiente paso

Cómo se relaciona esto con AI100 en la práctica

Si necesita no una visión general sino un diagnóstico específico para su marca, AI100 permite verificar cómo el modelo ve la empresa en escenarios neutrales de elección, qué competidores se posicionan más arriba y qué mejoras tienen mayor probabilidad de aumentar la visibilidad.

Ver informe de muestra