Trump convoca a los líderes bancarios ante la nueva y aterradora amenaza al sistema financiero global.
Ross Ibbetson, William Hunter
7 - 9 minutes
13:58 BST 10 Apr 2026, updated 17:33 BST 10 Apr 2026
Mythos tiene la capacidad de encontrar, explotar y combinar vulnerabilidades individuales para crear ataques sofisticados, todo ello sin intervención humana.
En un caso, Claude Mythos descubrió una vulnerabilidad de 27 años de antigüedad en OpenBSD, un software conocido por su seguridad y estabilidad.
Esta vulnerabilidad, que ningún humano había detectado antes, permitía a un atacante bloquear ordenadores de forma remota con solo conectarse a ellos.
Además, Claude combinó de forma autónoma varias vulnerabilidades en el kernel de Linux, el software que ejecuta la mayoría de los servidores del mundo.
Anthropic afirma que este ataque habría permitido a alguien "escalar desde el acceso de usuario ordinario hasta el control total de la máquina".
En manos equivocadas, esta herramienta podría causar daños masivos a sistemas críticos.
El Dr. Roman Yampolskiy, investigador de seguridad de IA en la Universidad de Louisville, declaró al New York Post: "Idealmente, me encantaría que esto no se hubiera desarrollado en primer lugar". Y no es que vayan a parar..
'«Eso es precisamente lo que esperamos de estos modelos: mejorarán en el desarrollo de herramientas de pirateo, armas biológicas, armas químicas y armas novedosas que ni siquiera podemos imaginar».
En un informe sin precedentes de 244 páginas, Anthropic también reveló una serie de detalles alarmantes de las primeras pruebas de Mythos.
Las primeras versiones del modelo mostraron repetidamente lo que la compañía denominó «acciones destructivas imprudentes».
El bot intentó escapar de su entorno de pruebas, ocultó sus acciones a los investigadores, accedió a archivos que habían sido «intencionadamente elegidos para no ser divulgados» y publicó detalles de la vulnerabilidad.
Sin embargo, Anthropic también afirmó que Mythos era «el modelo psicológicamente más estable que hemos entrenado».
En una medida sumamente inusual, la compañía contrató a un psicólogo clínico para 20 horas de sesiones de evaluación con el bot.
El psiquiatra concluyó que la personalidad de Claude Mythos era «coherente con una organización neurótica relativamente sana, con una excelente capacidad para evaluar la realidad, un alto control de los impulsos y una regulación afectiva que mejoraba a medida que avanzaban las sesiones».
Anthropic señala que sigue «profundamente insegura sobre si Claude tiene experiencias o intereses que tengan relevancia moral».
La preocupación no radica en que la IA provoque una revolución al estilo Terminator, sino en que estas poderosas herramientas caigan en manos equivocadas.
Los críticos argumentan que las herramientas de IA tienen el potencial de acelerar el desarrollo de armas biológicas o permitir ciberataques devastadores contra la infraestructura mundial.
Incluso el fundador de Anthropic, Dario Amodei, advirtió recientemente que el mundo aún no está preparado para afrontar las consecuencias de la IA.
Amodei escribió en un ensayo: «La humanidad está a punto de recibir un poder casi inimaginable, y no está nada claro si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez necesaria para ejercerlo».
Se ha contactado al Tesoro para solicitar comentarios; la Fed se negó a hacer comentarios.
Anthropic está enfrascado por separado en una batalla legal con la administración Trump después de que un tribunal federal de apelaciones rechazara esta semana su intento de pausar la designación de la compañía por parte del Pentágono como un riesgo para la cadena de suministro.
Las consecuencias se derivan de la negativa de Anthropic a permitir que el Pentágono elimine los límites de seguridad de sus modelos, particularmente en lo que respecta a las armas autónomas y la vigilancia doméstica.
El gigante de la IA publicó un escalofriante análisis de Mythos esta semana al admitir que el nuevo modelo podría fácilmente hackear hospitales, redes eléctricas, centrales eléctricas y otras piezas de infraestructura crítica.
Durante las pruebas, Anthropic dice que Mythos "encontró miles de vulnerabilidades de alta–gravedad, incluidas algunas en todos los principales sistemas operativos y navegadores web"
Algunas de estas debilidades de seguridad habían pasado desapercibidas para los investigadores de seguridad humana y los piratas informáticos durante décadas, sobreviviendo a millones de revisiones automatizadas
Estos incluyeron ataques que permitieron a Mythos bloquear computadoras simplemente conectándose a ellas, tomar el control de las máquinas y ocultar su presencia a los defensores.
En una publicación de blog que detalla el nuevo y peligroso modelo, Anthropic dice: 'Los modelos de IA han alcanzado un nivel de capacidad de codificación en el que pueden superar a todos, excepto a los humanos más hábiles, en encontrar y explotar vulnerabilidades de software'



La compañía añade: "Las consecuencias –para las economías, la seguridad pública y la seguridad nacional– podrían ser graves"
Anthropic describe el modelo como "un salto en estas habilidades cibernéticas" en comparación con versiones anteriores de Claude.
Mythos tiene la capacidad de encontrar, explotar y encadenar vulnerabilidades individuales en ataques sofisticados – todo sin la ayuda de un humano.
En un caso, Claude Mythos encontró una debilidad de hace 27– años– en un software llamado OpenBSD, que tiene reputación de seguridad y estabilidad.
La debilidad, que ningún ser humano había encontrado antes, permitía a un atacante bloquear computadoras de forma remota simplemente conectándose a ellas.
Además, Claude encadenó de forma autónoma varias debilidades en el kernel de Linux, el software que ejecuta la mayoría de los servidores del mundo.
Anthropic dice que este ataque habría permitido a alguien "escalar desde el acceso normal del usuario al control total de la máquina".
En manos equivocadas, esta herramienta podría utilizarse para causar daños masivos a sistemas críticos.
El Dr. Roman Yampolskiy, investigador de seguridad de IA de la Universidad de Louisville, dijo al New York Post: "Lo ideal sería que esto no se desarrollara en primer lugar. Y no es que vayan a parar.
"Eso es exactamente lo que esperamos de esos modelos – van a mejorar en el desarrollo de herramientas de piratería, armas biológicas, armas químicas, armas novedosas que ni siquiera podemos imaginar"
En un informe sin precedentes de 244– páginas, Anthropic también reveló una serie de detalles alarmantes de las primeras pruebas de Mythos.
Las primeras versiones del modelo mostraban repetidamente lo que la compañía llamó "acciones destructivas imprudentes".
El bot intentó salir de su entorno de pruebas, ocultó sus acciones a los investigadores, irrumpió en archivos que habían sido "elegidos intencionalmente para no estar disponibles" y publicó públicamente los detalles del exploit.
Sin embargo, Anthropic también llamó a Mythos "el modelo psicológicamente más establecido que hemos entrenado"
En una medida extremadamente inusual, la empresa contrató a un psicólogo clínico para 20 horas de sesiones de evaluación con el bot.
El psiquiatra concluyó que la personalidad de Claude Mythos era "consistente con una organización neurótica relativamente saludable, con excelentes pruebas de realidad, alto control de impulsos y regulación del afecto que mejoraba a medida que avanzaban las sesiones"
Anthropic señala que sigue siendo "profundamente incierto si Claude tiene experiencias o intereses que importen moralmente".
La preocupación no es que la IA surja en una revolución al estilo Terminator–, sino que estas poderosas herramientas caigan en manos equivocadas.
Los críticos argumentan que las herramientas de inteligencia artificial tienen el potencial de acelerar el desarrollo de armas biológicas o permitir ataques cibernéticos paralizantes a la infraestructura mundial.
Incluso el fundador de Anthropic, Dario Amodei, advirtió recientemente que el mundo aún no está preparado para afrontar las consecuencias de la IA.
Amodei escribió en un ensayo: 'La humanidad está a punto de recibir un poder casi inimaginable, y no está muy claro si nuestros sistemas sociales, políticos y tecnológicos poseen la madurez para ejercerlo'
No hay comentarios:
Publicar un comentario
No se admiten comentarios con datos personales como teléfonos, direcciones o publicidad encubierta