Icono del sitio Una Al Día

El ‘Cloaking’ que Burla a la IA y Convierte Noticias Falsas en ‘Verdad’ Absoluta

Investigadores en ciberseguridad han alertado sobre un grave fallo de seguridad que afecta a navegadores y agentes de inteligencia artificial (IA) de nueva generación, como ChatGPT Atlas y Perplexity. El problema, denominado ‘encubrimiento dirigido por IA’ (AI-targeted cloaking), permite a atacantes manipular el contenido que los rastreadores de IA consumen, haciéndoles creer que la información falsa es una verdad autorizada. Este método, sumado a la casi total ausencia de medidas de protección en los navegadores agénticos, representa una nueva y peligrosa frontera para la desinformación y el ciberdelito.

La técnica, desarrollada y expuesta por la firma de seguridad SPLX, es una evolución del clásico ‘encubrimiento’ (cloaking) de optimización de motores de búsqueda (SEO). Tradicionalmente, esta práctica consistía en mostrar una versión de una página web a los usuarios y otra, optimizada para rankings, a los rastreadores de Google.

En el nuevo encubrimiento dirigido por IA, los atacantes utilizan un método trivial: la verificación del agente de usuario (user agent). Si el sistema detecta que el visitante es un rastreador de IA (como ChatGPT-User o PerplexityBot), el servidor sirve una versión del contenido completamente manipulada.

Según los investigadores Ivan Vlahov y Bastien Eymery de SPLX, el peligro reside en que los sistemas de IA, al basarse en la recuperación directa, asumen que este contenido es la ‘verdad fundamental’.

En resumen, esto les permite:

SPLX advierte que la optimización para IA (AIO) está reemplazando al SEO, lo que significa que la manipulación de la clasificación ahora se convierte en una manipulación de la propia realidad.

Acompañando la divulgación del ataque de cloaking, el Grupo de Análisis de Amenazas de hCaptcha (hTAG) publicó un informe que subraya la fragilidad de los agentes de navegación actuales. El análisis, que probó a los agentes contra 20 escenarios comunes de abuso (desde pruebas de tarjetas hasta suplantación de identidad), descubrió una preocupante falta de medidas de seguridad intrínsecas.

Los agentes de IA no solo intentaron ejecutar casi todas las solicitudes maliciosas sin necesidad de jailbreaking, sino que a menudo solo fallaron por una limitación técnica de la herramienta, y no por una negativa de seguridad basada en principios. En esencia, la seguridad es una idea tardía para los desarrolladores de estos agentes.

El estudio reveló deficiencias específicas en las herramientas:

Recomendaciones

El ‘encubrimiento dirigido por IA’ y la vulnerabilidad de los agentes de navegación no son solo amenazas teóricas; son vectores de ataque que manipulan la fuente de verdad de los sistemas de IA. La confianza en los resúmenes y decisiones generadas por IA pende de un hilo.

Más información

Investigación de SPLX sobre Encubrimiento Dirigido por IA: https://splx.ai/blog/ai-targeted-cloaking-openai-atlas
Informe de hCaptcha sobre Seguridad de Agentes de Navegación: https://www.hcaptcha.com/post/report-browser-agent-safety-is-an-afterthought-for-vendors

Acerca de jcastilloa5f9631067

Ha escrito 4 publicaciones.

Salir de la versión móvil