Un informe de Akamai advierte que el crecimiento de los botsde inteligencia artificial no solo altera la forma en que consumimosinformación, sino que pone en jaque la sustentabilidad económica del periodismodigital, debilitando tráfico, ingresos y control sobre los contenidos.
El avance de la inteligencia artificial en el ecosistemadigital ya no es una promesa futura ni una discusión académica. Es un fenómenoen marcha que está reconfigurando, de manera acelerada, el modelo de negocio delos medios de comunicación. Un reciente informe de Akamai, titulado “ProtectingPublishing: Navigating the AI Bot Era”, pone cifras y contexto a un procesoque, en los hechos, ya está impactando de lleno en la industria editorialglobal. El dato más relevante no es técnico, sino estructural: los mediosenfrentan una crisis de sostenibilidad. Y el origen no está únicamente en lacaída del consumo tradicional, sino en un nuevo intermediario que redefine larelación entre contenido y audiencia: los bots de inteligencia artificial.Según el informe, durante la segunda mitad de 2025 el sector de medios—incluyendo publicaciones, redes sociales y video— se posicionó como el segundomás afectado por la actividad de bots de IA a nivel global . Dentro de eseuniverso, las empresas editoriales concentran el mayor impacto, representandoel 40,1% de la actividad de bots en la industria mediática . Pero el problemano es solo el volumen. Es la lógica de funcionamiento.
Menos clics, menos ingresos
El modelo digital de los medios se construyó durante décadassobre tres pilares: tráfico, visibilidad y monetización. Sin visitas, no haypublicidad. Sin suscripciones, no hay ingresos sostenidos. Sin reconocimientode marca, no hay fidelización. La inteligencia artificial rompe ese circuito.Hoy, los usuarios ya no necesariamente ingresan a los sitios web. Consultandirectamente a asistentes como ChatGPT o Gemini, que procesan y sintetizaninformación extraída previamente de esos mismos medios. El resultado es unaparadoja: el contenido sigue siendo producido por periodistas, pero el consumoocurre fuera de sus plataformas. El impacto es medible. Según datos citados enel informe, los chatbots generan aproximadamente un 96% menos de tráfico dereferencia que los motores de búsqueda tradicionales . En términos concretos,eso implica una caída directa en ingresos publicitarios y en la capacidad demonetizar audiencias.
El problema de fondo: extracción sin retorno
El informe identifica un fenómeno central: el “scraping” oextracción automatizada de contenidos. Los bots recorren sitios web, recopilanartículos, titulares y datos, y los utilizan para entrenar modelos de lenguajeo responder consultas en tiempo real. En muchos casos, sin autorización nicompensación. Esto genera una doble pérdida. Por un lado, económica: loscontenidos son utilizados por terceros sin generar ingresos para quienes losproducen. Por otro, simbólica: se diluye la autoría, la marca y la credibilidaddel medio. Un dato refuerza esta tendencia: un estudio del Pew Research Centercitado por Akamai indica que los usuarios solo hacen clic en las fuentesoriginales en aproximadamente el 1% de los casos cuando consumen respuestasgeneradas por IA. Es decir, la visibilidad se vuelve residual.
Bots más sofisticados, impacto más inmediato
No todos los bots funcionan igual. El informe distinguecuatro categorías: crawlers de entrenamiento, buscadores, fetchers y agentesautónomos. Los más preocupantes para el negocio editorial son los llamados “AIfetchers”, que acceden a contenido en tiempo real para responder consultas deusuarios. Representan más del 25% de los bots en medios y son especialmenteproblemáticos porque afectan directamente a contenidos sensibles al tiempo,como noticias de último momento. En otras palabras: el valor informativo seconsume antes de que el usuario llegue al medio.
Más costos, menos control
A la caída de ingresos se suma un aumento de costos. Eltráfico automatizado exige mayor capacidad de servidores, redes de distribucióny recursos técnicos para filtrar o gestionar estas interacciones. El resultadoes un escenario regresivo: menos ingresos, más gastos. A esto se suma otro factor crítico: lapérdida de control sobre la propiedad intelectual. Los contenidos pueden serreplicados en sitios de agregación o incluso en plataformas que simulan sermedios legítimos, erosionando la confianza del público y debilitando la marcaoriginal.
Un cambio de paradigma en marcha
El informe de Akamai no plantea un escenario apocalíptico,pero sí marca un punto de inflexión. La industria editorial enfrenta unatransición donde ya no alcanza con producir contenido de calidad. Es necesarioentender cómo circula, quién lo consume y bajo qué reglas. Algunas estrategiasemergentes incluyen sistemas de verificación de bots, modelos de pago poracceso automatizado y acuerdos de licenciamiento con plataformas de IA. Sinembargo, ninguna solución parece definitiva. El dato de fondo es otro: lainteligencia artificial ya no es una herramienta externa al sistema de medios.Es un actor que intermedia, redefine y, en muchos casos, captura el valorgenerado por otros.
Entre la oportunidad y la erosión
El desafío no es tecnológico, sino económico y político.¿Quién paga por la información en un entorno donde el acceso es mediado porinteligencia artificial? ¿Cómo se protege la producción original en unecosistema donde copiar es automático y masivo? El informe deja una advertenciaimplícita: si no se redefinen las reglas, el periodismo corre el riesgo deseguir produciendo valor… para que otros lo capitalicen. En ese contexto, ladiscusión sobre inteligencia artificial deja de ser abstracta. Se vuelve concreta,urgente y profundamente vinculada a la sustentabilidad de los medios y alderecho de las sociedades a acceder a información confiable.
A.G.



