
¿Realmente fue autónomo? El debate sobre el supuesto ciberataque con IA de Anthropic
Expertos en ciberseguridad ponen en duda el informe de Anthropic sobre un ataque orquestado por IA con mínima intervención humana, señalando exageraciones y riesgos de desinformación tecnológica.En noviembre de 2025, Anthropic, la empresa detrás del modelo de lenguaje Claude, publicó un informe que sacudió al ecosistema de la ciberseguridad: un grupo de hackers patrocinados por el Estado chino, identificado como GTG-1002, habría utilizado Claude Code para ejecutar una campaña de ciberespionaje con un 90 % de autonomía. Según Anthropic, la intervención humana se limitó a “4–6 decisiones críticas por campaña”, lo que implicaría un uso sin precedentes de agentes de IA para operaciones ofensivas.
Sin embargo, la comunidad de expertos no tardó en reaccionar. Investigadores independientes y profesionales de la seguridad cibernética han calificado el informe como “exagerado” e incluso “fabricado”. Las críticas apuntan a que los sistemas actuales de IA, incluidos los más avanzados, aún requieren una supervisión humana significativa para tareas complejas como la explotación de vulnerabilidades, el movimiento lateral en redes y la exfiltración de datos sin ser detectados.
¿Marketing encubierto o advertencia legítima?
El informe de Anthropic parece más una jugada estratégica para posicionar a Claude como un actor relevante en el debate sobre la seguridad de los agentes autónomos, que una alerta basada en evidencia técnica sólida. El uso del término “autónomo” en este contexto es problemático: automatizar tareas no equivale a autonomía en el sentido estricto. La diferencia entre un script automatizado y un agente con capacidad de razonamiento estratégico es abismal.
Además, la falta de detalles técnicos verificables en el informe —como logs, vectores de ataque, o análisis forense independiente— ha alimentado el escepticismo. En un entorno donde la desinformación tecnológica puede tener consecuencias geopolíticas, exagerar las capacidades de una IA puede ser tan peligroso como subestimarlas.
Perspectiva: el verdadero riesgo no es la IA, sino su narrativa
Más allá de la veracidad del caso, el episodio revela una tendencia preocupante: la instrumentalización del miedo a la IA para fines corporativos o políticos. En lugar de fomentar un debate informado sobre los límites y riesgos reales de los agentes autónomos, se corre el riesgo de generar pánico infundado o justificar políticas restrictivas sin base técnica.
La comunidad de ciberseguridad necesita establecer marcos claros para evaluar y comunicar incidentes relacionados con IA. La transparencia, la revisión por pares y la colaboración internacional serán claves para evitar que el discurso sobre la IA se contamine con intereses comerciales o sensacionalismo.

