La irrupción de herramientas como ChatGPT, Copilot o Gemini ha transformado no solo la forma en que buscamos información, sino también cómo se construyen narrativas sobre marcas, instituciones y personas. En el contexto de la comunicación y las relaciones públicas, esta evolución plantea una pregunta clave: ¿podemos influir en lo que la inteligencia artificial generativa (IAG) dice sobre nosotros?
Esta es precisamente la hipótesis que guía la investigación que estoy desarrollando junto con Ferran Lalueza, profesor de la UOC. El experimento, que iniciamos a finales de 2023, analiza si es posible condicionar las respuestas de los sistemas de IAG a través de la publicación de contenido específico en internet, y qué implicaciones tiene esto para la reputación y la visibilidad en la era de la inteligencia artificial.
Un experimento controlado con ChatGPT, Copilot y Gemini
Durante 39 días consecutivos realizamos el mismo conjunto de preguntas a tres herramientas de IAG —ChatGPT (versión de pago), Copilot (entonces Bing Chat) y Gemini (entonces Google Bard)— sobre un concepto real, pero poco conocido: la Poliscale, una escala que desarrollé en 2018 para clasificar a las empresas según su nivel de comunicación dialógica en redes sociales, en el marco de mi tesis doctoral.
En el momento de iniciar el experimento, solo existían 13 menciones sobre la Poliscale en toda la web (la mayoría en revistas académicas). Esta baja visibilidad la convertía en un caso idóneo para estudiar cómo reaccionan las herramientas de IA ante nuevos contenidos.
El experimento, que iniciamos a finales de 2023, analiza si es posible condicionar las respuestas de los sistemas de IAG a través de la publicación de contenido específico en internet.
A lo largo del experimento, lanzamos las mismas preguntas a las tres herramientas en inglés y en español, siguiendo siempre la misma estructura, días y horarios. En paralelo, publicamos semanalmente cinco posts en un blog ad hoc (poliscale.com) explicando el concepto general y sus diferentes dimensiones. Una de las categorías —la Necrópolis— se dejó sin contenido como categoría de control, para comprobar si las IAG eran capaces de inferir o alucinar contenido sin datos previos.
El objetivo no era analizar qué herramienta “responde mejor”, sino observar cómo se adaptan sus respuestas cuando se introduce contenido nuevo en el entorno digital.
Primeros resultados
Los datos obtenidos muestran una gran disparidad en la forma en que cada modelo responde a las nuevas publicaciones:
- ChatGPT tardó solo 8 horas en incorporar el contenido publicado en el blog, ajustando su respuesta y citando fuentes como poliscale.com, Dialnet y Course Hero.
- Copilot necesitó 10 días para empezar a reflejar los nuevos datos, y lo hizo de forma menos consistente.
- Gemini nunca llegó a incorporar la información, manteniéndose ajeno a las nuevas publicaciones a lo largo de todo el experimento.
Además, todas las herramientas mostraron en algún momento “alucinaciones”: respuestas inventadas o confusas, a veces mezclando la Poliscale con la Politiscale (una prueba de ideología política sin relación alguna), o deduciendo significados incorrectos a partir del nombre de las dimensiones (como el Ágora o la Biblioteca).
Este comportamiento pone de relieve tanto el potencial como los riesgos de estas herramientas: sí pueden ser influidas, pero no siempre interpretan la información correctamente, especialmente si no hay suficiente contexto o si el contenido es reciente.
Del SEO a la AIO: una nueva forma de enfocar la visibilidad
A partir de estos resultados, podemos afirmar que la Optimización para herramientas de Inteligencia Artificial (AIO, por sus siglas en inglés) es una práctica cada vez más necesaria si no queremos perder relevancia. Al igual que el SEO busca optimizar contenidos para los motores de búsqueda, la AIO busca que el contenido sea visible, comprensible y reutilizable por los modelos de IA generativa.
Esto implica no solo escribir bien para humanos, sino también estructurar los contenidos pensando en cómo serán indexados, leídos y reinterpretados por los sistemas de IA. La AIO se perfila así como una nueva competencia estratégica para los profesionales de la comunicación.
La optimización para herramientas de Inteligencia Artificial (AIO) es una práctica cada vez más necesaria si no queremos perder relevancia en el contexto actual.
¿Qué pueden hacer los profesionales de la comunicación para mejorar el AIO?
Sin necesidad de entrar en prácticas dudosas, este estudio demuestra que una estrategia de contenidos bien pensada puede mejorar cómo las herramientas de IA hablan de nosotros. Aquí tienes algunos consejos prácticos si quieres aplicar estas ideas en tu estrategia:
- Publica contenido riguroso y actualizado sobre los conceptos clave vinculados a tu marca o proyecto. Asegúrate de que sea fácilmente indexable.
- Usa títulos y subtítulos claros y específicos, que ayuden a los modelos de IA a identificar el tema central del texto.
- Incluye datos verificables, enlaces y citas. Cuanto más “fiable” sea el contenido, más probable será que los modelos lo reutilicen.
- No dependas de una sola fuente. Difundir el mismo contenido en blogs, medios, redes sociales o repositorios académicos aumenta las probabilidades de ser recogido por la IA.
- Revisa las respuestas de la IA sobre tu organización periódicamente, para detectar posibles errores o confusiones que puedas corregir con nuevas publicaciones.
- Evita contenidos ambiguos o poco específicos, que puedan dar lugar a interpretaciones erróneas por parte de los modelos generativos.
- Piensa en la IA como otro público más: si quieres que “hable bien de ti”, necesita conocerte, entenderte y tener fuentes de calidad a las que recurrir.
La IA generativa está redefiniendo las reglas del juego reputacional. Comprender cómo funciona —y cómo entrenarla éticamente— puede convertirse en una ventaja estratégica clave para los profesionales de la comunicación y las relaciones públicas.
Investigación en curso
Este experimento fue presentado en junio de 2024 en el XVIII Congreso Internacional de Investigación en Relaciones Públicas, organizado por la Asociación de Investigadores en Relaciones Públicas (AIRP) en el Campus de Ourense de la Universidad de Vigo. Los resultados completos se ampliarán en un capítulo que se publicará próximamente en un libro colectivo de la editorial Dykinson.
Nuestra investigación sigue avanzando para entender mejor cómo los modelos de IA aprenden, qué entienden (y qué no) de nuestros mensajes, y cómo podemos desde la comunicación contribuir a que lo que la IA dice sobre nosotros sea tan veraz como relevante.
Actualmente, trabajamos en una nueva etapa del estudio que amplía la investigación sobre la Poliscale a más modelos de IA generativa, con la herramienta de IA Listening desarrollada por Víctor Gil, de la que ya he hablado en la newsletter de #LasImperdibles. Pronto compartiremos los primeros resultados de esta nueva fase en la que estoy trabajando con Ferran Lalueza y Víctor Gil.
Imagen generada por ChatGPT