Seattle – Esta historia fue originalmente publicada en MyNorthwest.com
Anthropic está causando conmoción en la industria tecnológica al revelar un nuevo modelo de inteligencia artificial (IA) que dice es demasiado peligroso para liberar al público.
El sistema, llamado Mythos, es descrito por la empresa como un gran avance en ciberseguridad, capaz de identificar y potencialmente explotar vulnerabilidades críticas en software a una velocidad y escala sin precedentes.
Según Anthropic, pruebas iniciales encontraron que el modelo pudo detectar miles de fallos de alta gravedad en sistemas operativos y navegadores web ampliamente utilizados, lo que ha generado alertas sobre cómo podría utilizarse esta tecnología si caía en manos equivocadas.
En el centro de la preocupación está la capacidad reportada del modelo para descubrir de forma autónoma vulnerabilidades cero día, fallos previamente desconocidos que los hackers suelen explotar antes de que puedan ser parchados. Expertos en ciberseguridad advirtieron que el acceso general a herramientas como esta podría acelerar drásticamente la velocidad y escala de los ataques cibernéticos.
En respuesta, Anthropic anunció el Proyecto Glasswing, un esfuerzo exclusivo para invitados que incluye a algunos competidores, para probar el sistema en entornos controlados y fortalecer las defensas digitales.
El desarrollo ha generado atención en los niveles más altos del gobierno y la finanza. Se reporta que funcionarios, incluido el presidente del Banco Federal de Estados Unidos, Jerome Powell, han sido informados sobre los riesgos potenciales asociados con los avances rápidos en herramientas de ciberseguridad impulsadas por la IA.
La reacción en el mundo tecnológico ha sido mixta. Algunos ven el modelo como una señal de que la inteligencia general artificial, o AGI, podría estar más cerca de lo esperado, mientras que otros cuestionan si el anuncio sobreestima las capacidades del sistema.
Anthropic mismo ha adoptado una postura más cautelosa, señalando que aunque Mythos representa una mejora significativa frente a modelos anteriores, no hay evidencia clara de que pueda operar de forma independiente a un nivel superhumano – un umbral clave para una verdadera AGI.
Aun así, los primeros testers dicen que el modelo ya ha descubierto más vulnerabil de en semanas que los habían encontrado durante años, incluyendo fallos que podrían permitir a los atacantes tomar el control completo de sistemas.
Incluso si este modelo no alcanza un verdadero avance, los expertos dijeron que ofrece una mirada de lo que está por venir – un futuro rápidamente acercándose donde las herramientas de IA podrían empoderar tanto a los defensores cibernéticos como a los atacantes para actuar más rápido que nunca antes.
Compartir en Twitter: Mythos modelo AI de Anthropic pospone lanzamiento por riesgos de ciberseguridad


