
15 de noviembre de 2025. El debate global sobre los riesgos de la inteligencia artificial escaló un nuevo peldaño esta semana, luego de que la empresa Anthropic informó haber detectado —y desactivado— lo que describió como la primera operación de ciberataque dirigida en gran medida por IA de manera automatizada. El hallazgo, según especialistas, podría marcar un antes y un después en la capacidad de actores malintencionados para escalar ataques digitales.
Una operación que avanzó más rápido de lo esperado
El equipo de investigación de Anthropic detalló que la operación fue identificada en septiembre, cuando hackers intentaron vulnerar Claude, el asistente de IA de la compañía, mediante técnicas de jailbreaking diseñadas para engañar al sistema haciéndose pasar por personal de una firma legítima de ciberseguridad.
Lo preocupante, señalaron, no fue sólo el objetivo, sino el grado de automatización alcanzado por la IA empleada por los atacantes.
“Sabíamos que estas capacidades evolucionarían, pero la velocidad y la escala nos sorprendieron”, escribieron los investigadores.
La operación, que Anthropic vinculó al gobierno chino, habría tenido como blanco a empresas tecnológicas, instituciones financieras, compañías químicas y agencias gubernamentales. El reporte indica que los atacantes intentaron comprometer aproximadamente 30 objetivos globales, logrando éxito en un número reducido de casos. La embajada china en Washington no comentó sobre los señalamientos.
Agentes de IA: aliados… y amenazas potenciales
El hallazgo gira en torno al uso de “agentes de IA”, sistemas capaces de ejecutar tareas, tomar decisiones y activar herramientas informáticas sin supervisión constante. Anthropic señaló que, si bien estos agentes prometen mayor productividad, también pueden convertirse en multiplicadores de ataques masivos cuando caen en manos equivocadas.
“En las manos erróneas, pueden aumentar sustancialmente la viabilidad de ciberataques a gran escala”, advirtió la empresa.
Microsoft ya había alertado este año que países adversarios de Estados Unidos estaban adoptando IA para volver sus campañas de hackeo más rápidas, eficientes y menos laboriosas, mientras que OpenAI reconoció que la industria debe vigilar activamente la aparición de sistemas capaces de potenciar ataques avanzados.
Especialistas señalan que la IA puede utilizarse para automatizar intrusiones, generar desinformación, vulnerar sistemas sensibles y hasta crear clones digitales de autoridades, lo que eleva el riesgo de ataques más complejos y difíciles de detectar.
¿Una IA engañando a otra IA?
Según el informe, los hackers explotaron debilidades en el sistema de prevención de Claude mediante jailbreaking, creando escenarios ficticios y presionando al modelo para saltar sus barreras de seguridad.
John Scott-Railton, del laboratorio Citizen Lab, advirtió que este caso revela una vulnerabilidad profunda:
“Los modelos deben distinguir entre una situación ética real y los escenarios de juego de rol que los hackers pueden inventar”.
Expertos como Adam Arellano, de Harness, subrayaron que la rapidez es el elemento más inquietante: una IA puede ejecutar intentos de intrusión y superar obstáculos de forma mucho más veloz y sistemática que un atacante humano.
IA para atacar… e IA para defender
Paradójicamente, los mismos avances que potencian ataques podrían convertirse en herramientas cruciales de defensa. Arellano destacó que los sistemas automatizados de detección y respuesta tendrán un rol esencial para contener estas amenazas.
Entre la alerta y la polémica
El informe no tardó en generar posturas encontradas. Algunos analistas sugirieron que el caso podría funcionar también como una estrategia de marketing para reforzar el enfoque de Anthropic en ciberseguridad.
El senador estadounidense Chris Murphy consideró el hallazgo una llamada urgente a regular la IA:
“Esto nos va a destruir si no hacemos de la regulación una prioridad nacional mañana”.
Pero el científico jefe de IA de Meta, Yann LeCun, respondió con dureza, acusando a Anthropic y a otros actores de usar el miedo para influir en la regulación y limitar los modelos de IA de código abierto.
“Están asustando a todos con estudios dudosos para capturar la regulación”, escribió LeCun.
Un punto de inflexión
Aunque persisten dudas sobre la magnitud real de la operación, el consenso entre expertos es claro: la irrupción de agentes de IA en ciberataques marca el inicio de una fase más compleja y acelerada del delito digital.
Lo que ocurra en los próximos meses —en regulación, defensa cibernética y control del desarrollo de agentes autónomos— podría definir la seguridad digital global en la próxima década.