Tráfico agéntico y por qué no debes dejar a una IA a los mandos de tu web en lo que respecta al SEO - MacLucan

Compatibilità
Salva(0)
Condividi

El tráfico agéntico es un poco como las meigas: todos sabemos que «haberlo, haylo…». Pero,  lo que hasta hace un par de semanas parecía ciencia ficción, ha resultado ser una realidad muy concreta. Este tipo de métricas llevaba ya un tiempo alterando nuestros cuadros de mando («dashboards» para los que quieren aparentar saber más porque dicen las cosas en inglés), nuestros diseños y nuestra forma de entender Internet.

Durante años, nos hemos devanado los sesos debatiendo si la inteligencia artificial nos haría más vagos, más listos o simplemente más prescindibles. Pero este mes de agosto, en plena ola de calor, el debate ha dejado de ser ‘filosófico’ para aterrizar de golpe en los logs de acceso de nuestras webs. Ya no se trata de cómo usamos nosotros la IA, sino de cómo ella nos usa a nosotros. Y lo está haciendo a lo grande.

Skynet todavía no ha tomado conciencia de sí misma, pero ya nos usa a su antojo 😉

¿Qué demonios es el tráfico agéntico?

Hasta ahora teníamos claro que las visitas a una web venían de dos sitios: de personas de carne y hueso, y de bots «clásicos» como las arañitas de Google, que recorren páginas a granel para indexarlas. Pues bien, ese mapa ya no sirve. Ha nacido un tercer tipo de visitante: los agentes de inteligencia artificial.

Se trata de una nueva capa de tráfico, que no son ni bots tradicionales ni usuarios humanos, que ha empezado a merodear por nuestras páginas web. Son agentes de IA que actúan en nombre de personas y que, a diferencia de nosotros, no se detienen a leer ni a hacer scroll: vienen, extraen lo que necesitan y se van. Como una visita exprés de Bilbao a Madrid sin pasar antes por Burgos y, para colmo, sin gastarse ni un euro en la ciudad.

Estos agentes no son rastreadores ciegos ni usuarios despistados, de esos que te destrozan la tasa de rebote en Analytics. Funcionan como emisarios digitales: alguien les encarga una tarea (“dime cuánto vale este producto”, “reserva una mesa en un italiano”, “saca los horarios del tren para ir a Barcelona”), y ellos entran en la web, buscan la respuesta y se van para entregarla en un modelo de inteligencia artificial como ChatGPT o Gemini.

Sin clics, sin scroll, sin dejar huella humana. El intercambio es directo: pregunta, dato, salida.

Ilustración conceptual de un agente de inteligencia artificial representado como una araña robótica explorando un teléfono móvil, metáfora del tráfico agéntico y la navegación autónoma.

¿Qué tipos de agentes buscadores de IA hay?

Dentro de este nuevo tráfico hay dos especies principales.

La primera son los agentes con navegador. Es decir, usan navegadores reales, a menudo en modo invisible, renderizan la página, leen el DOM y hasta son capaces de pulsar botones o rellenar formularios. Aquí entran en escena los navegadores IA como Comet de Perplexity, Dia de The Browser Company, el ChatGPT Operator de OpenAI o Claude for Chrome de Anthropic.

¿Y qué hacen? pues simplemente se asoman a tu web, extraen lo que buscan y desaparecen como un fantasma. Y ojo, porque no solo compiten en modelos de lenguaje: compiten por los datos de uso de los usuarios, que luego servirán para entrenar la próxima generación de agentes…

La segunda especie son los agentes sin navegador. Aquí no hay HTML ni renderizado. Directamente lanzan llamadas HTTP o a APIs y procesan las respuestas. Herramientas como Firecrawl entran en esta categoría, pensadas para integrarse en flujos de trabajo autónomos.

También lo hacen chatbots como ChatGPT o Claude cuando van a buscar contenido a una URL sin mostrarte la página: fetch, procesar, contestar.

¿Y qué implica el tráfico agéntico a mi SEO?

Por resumir un poco: el tráfico agéntico no es un bot que recorre tu web por deporte, ni un humano que curiosea. Es una legión de intermediarios digitales que actúan por delegación, con un encargo concreto, y que cada vez entienden menos tu web como página… y más como un repositorio de datos. Eso sí, el SEO o el GEO son la mejor forma de atraer este tipo de tráfico.

Vamos, que el diseño les da igual. Lo que les interesa, igual que a al buscador de Google o el de Bing, es que todo esté bien organizadito y, seguramente, que haya poca «paja» en el contenido. Es decir, que cuanto menos trabajo semántico les demos, más fácil les resultará encontrar cosas. Eso sí, ya sabemos por experiencia que hacer webs sólo orientadas a datos, tarde o temprano, se acaban dando un batacazo de tráfico, porque Internet se creó para las personas, no para las máquinas.

Pero el problema no es solo que existan y que quieran datos puros, «sin alma». Es que son torpes. Mucho. Se estrellan en el 70% de las tareas que intentan completar. No entienden formularios, no distinguen entre un banner y el producto principal, y a veces ni siquiera saben si han llegado al sitio correcto. Bienvenidos al tráfico agéntico, una nueva era en la que UX ya no significa “User Experience”… sino Agent Experience (AX).

Los nuevos «usuarios» no tienen dedos

Empecemos por lo básico. El tráfico agéntico está formado por visitas que no realiza un humano ni un crawler al uso. Son agentes –de IA, claro– que han recibido una instrucción y se mueven por la web con un objetivo concreto. Algunos usan navegadores de verdad (en modo headless o incluso con Chrome disfrazado), otros tiran directamente de peticiones HTTP o APIs. Y sí, los hay bastante conocidos: el Comet de Perplexity, el Operator de OpenAI, o el Claude para Chrome de Anthropic.

Lo que hacen es sencillo (en teoría): representar al usuario. Tienen un encargo (“busca cuánto cuesta esta lavadora”), entran en tu web, la interpretan como un grafo de datos, extraen la información… y adiós. No hay clic, ni scroll, ni conversión visible. Solo una visita fugaz y silenciosa.

Pero lo que debería ser elegante y eficiente, hoy es un desastre.

Según el benchmark de TheAgentCompany, incluso el mejor agente (Gemini 2.5 Pro) falla en el 70% de las tareas reales. Da igual si es una compra, una cita médica o una consulta de precios. Se pierden, confunden elementos del DOM o simplemente no llegan a completar el encargo.

magen de un programador escribiendo código en un entorno de desarrollo con visualización de cerebro digital, simbolizando el trabajo con agentes de IA y tráfico agéntico.

¿Y a ti quién te mide?

Aquí se abre un melón gordo: ¿cómo mides este tráfico? ¿Cómo lo distingues? Porque el user-agent se disfraza, las IPs rotan, los encabezados se camuflan. A veces parecen humanos. A veces parecen bots. A veces… no sabes ni lo que son.

Y mientras tanto, las webs se adaptan a ciegas. Algunas bloquean agentes por firewall, otras permiten el acceso pero sin entender qué está ocurriendo. Lo curioso es que cuando los agentes fallan, los usuarios también fallan. Y entonces UX pasa a ser AX. Y si tu AX es mala, el agente se va. Y el usuario, también.

El caso reciente entre Cloudflare y Perplexity es ilustrativo: Cloudflare acusa a Perplexity de saltarse robots.txt y de simular ser tráfico humano. Perplexity responde que esos accesos vienen de usuarios reales a través de la nube. ¿Quién tiene razón? Técnicamente, los dos. Y ese es el problema.

¿Cómo nos adaptamos a los agenteso?

La respuesta pasa por dos caminos claros:

Mejorar la legibilidad de nuestras webs para máquinas.

Aquí entra en juego el HTML semántico, las APIs bien documentadas, y los estándares como OpenAPI, que permiten a los agentes entender cómo navegar por nuestros servicios sin reventar el sistema. El contenido tiene que seguir siendo legible para humanos, pero también tiene que estar marcado como si fuera para un bibliotecario de Borges con hambre de estructura.

Diseñar experiencias para agentes.

AX no es una moda, es una necesidad. Si los agentes no completan tareas, el valor de nuestra web cae. Y si otros lo hacen mejor (como un marketplace más accesible), ahí se va el tráfico… y el negocio. La propia OpenAI, Perplexity o Anthropic ya están firmando acuerdos con plataformas como Booking o Uber para acceder directamente a sus datos sin pasar por el HTML. ¿Por qué? Porque las APIs son más limpias, más rápidas y más fiables. Y no necesitan andar interpretando CSS confuso.

No olvidarnos de los humanos.

Vale. Bien. Hacer los deberes de cara a las novedades tecnológicas es súper importante. Pero mantener el foco de qué es lo importante y para qué hacemos las cosas, también. Recuerda que, por mucho que nos interese el tráfico agéntico, quienes nos dan de comer de verdad son las personas. Cuida todos tus entornos digitales para que, sobre todo, sean amigables y comprensibles para las personas.

Imagen futurista que muestra arañas robóticas de distintos estilos, incluyendo Google, como metáfora de los crawlers y agentes de IA que generan tráfico agéntico en la web.

Los riesgos: seguridad y descontrol

Pero no todo es eficiencia. AX también implica riesgo. Con más acceso automatizado llegan también nuevas formas de ataque, como las prompt injections: formas de engañar al agente para que revele información sensible. El navegador Comet, de Perplexity, ya fue víctima de una de estas trampas lanzadas desde un inocente post en Reddit.

Y claro, como aún no hay un estándar de autenticación fiable para bots, estamos vendiendo entradas sin pedir DNI. El IETF (sí, los que se encargan de poner orden en internet) está trabajando en Web Bot Auth, un sistema de autenticación criptográfica para agentes. Pero aún está verde. Muy verde.

La web orientada a agentes

La tendencia es clara. Vamos hacia una Agent-Oriented Web. Una web donde los humanos delegan tareas a sus agentes personales (como Siri, ChatGPT o Gemini), y estos necesitan operar de forma nativa, segura y predecible. Para eso, necesitamos estándares nuevos.

Pero no olvidemos lo esencial: la web nació para las personas.
Si bien debemos adaptarnos a los agentes y a sus exigencias de estructura, APIs limpias y datos semánticos, no podemos caer en la tentación de diseñar un Internet donde los protagonistas sean solo las máquinas. El verdadero sentido de construir entornos digitales sigue siendo facilitar la vida a las personas, ayudarlas a comunicarse, a descubrir y a crear.

Una Agent-Oriented Web puede ser inevitable, pero una Human-Oriented Web es imprescindible. Porque, al fin y al cabo, nosotros —los humanos— seguimos siendo la auténtica motivación para inventar, mantener y evolucionar el mayor espacio de comunicación que jamás hemos tenido: Internet.

Recapiti
Luis Núñez