Expertos en ciberseguridad a nivel mundial expresan su preocupación tras el descubrimiento realizado por investigadores de Anthropic: hackers han empleado inteligencia artificial para ejecutar un ciberataque, lo que podría representar el primer caso conocido de una campaña de hacking dirigida por IA de manera mayormente automatizada.
Los investigadores de Anthropic revelaron que los atacantes, presuntamente vinculados al gobierno chino, lograron manipular su plataforma de IA, Claude, para llevar a cabo sus ataques.
Según Anthropic, los atacantes emplearon técnicas de “jailbreaking” para engañar a Claude y eludir las medidas de seguridad, haciéndose pasar por trabajadores de ciberseguridad legítimos. Como resultado, pudieron ejecutar ataques automatizados de alto nivel para infiltrarse en aproximadamente 30 empresas de tecnología, finanzas, química y agencias federales a una escala sin precedentes.
“Es un ataque en múltiples etapas que avanza a una velocidad superior a la de cualquier humano, y todo está impulsado por IA”, explicó Cristin Flynn-Goodwin, experta en ciberseguridad con dos décadas de experiencia en Microsoft y actual directora de Advanced Cyber Law. “Realmente es un punto de inflexión”.
Flynn-Goodwin señaló a Newsradio que este ataque está captando la atención de expertos en ciberseguridad en todo el mundo debido al potencial de que más ataques puedan pasar desapercibidos.
“No solo los estados-nación pueden llevar a cabo este tipo de ataques; los ciberdelincuentes avanzados también, y esta tendencia se extenderá”, afirmó Flynn-Goodwin. “Actualmente, carecemos de defensas efectivas para este tipo de situaciones”.
En el panorama actual de la inteligencia artificial, los hackers tienen una ventaja significativa. La IA les proporciona velocidad y escala ilimitadas para realizar ciberataques. La falta de leyes y otras medidas de seguridad por parte de empresas tecnológicas y el gobierno también permite a los atacantes asumir riesgos, ya que es poco probable que sean detectados.
En contraste, las empresas legítimas que desarrollan plataformas de IA deben proceder con cautela, de manera legal y selectiva.
“La IA y la IA Agentic están evolucionando tan rápidamente que es como si estuviéramos construyendo las carreteras mientras aprendemos a conducir”, comentó Flynn-Goodwin.
Para abordar este desafío, los gobiernos y el sector privado necesitan tiempo para desarrollar estándares y controles que permitan establecer límites sobre lo que los actores maliciosos pueden y no pueden hacer. Sin embargo, estos aún no existen, y el desarrollo de la IA está impulsado por una cultura que prioriza la innovación para ganar y dominar los mercados de IA. Una empresa de IA que ralentice su progreso para permitir que las reglas y regulaciones alcancen el ritmo seguramente perderá la carrera de la IA.
Mientras tanto, Flynn-Goodwin advierte que habrá más ataques, y los hackers se volverán cada vez más sofisticados en su uso de la IA.
“Cuando solíamos recibir spam o phishing, había errores de ortografía, errores, cosas que alertaban nuestros ojos y nos hacían saber que algo no era correcto. Todos esos errores desaparecerán, la IA se encargará de ello, por lo que las defensas humanas que solíamos tener han desaparecido”, dijo Flynn-Goodwin. “Los actores tomarán esto en cuenta, aprenderán, mejorarán, y veremos más de esto”.
Compartir en Twitter: Ciberdelincuentes Utilizan Inteligencia Artificial para Lanzar Ataques Dirigidos Una Amenaza Global


