En resumen
- Funcionarios de EE.UU. advirtieron a los principales bancos sobre riesgos de ciberseguridad relacionados con el modelo de IA Mythos de Anthropic, informa Bloomberg.
- Según se informa, el sistema puede identificar y explotar vulnerabilidades en sistemas operativos y navegadores.
- Anthropic ha limitado el acceso al modelo mientras evalúa posibles riesgos de seguridad.
El Secretario del Tesoro de EE.UU. Scott Bessent y el presidente de la Reserva Federal Jerome Powell supuestamente convocaron una reunión con los directores ejecutivos de bancos de Wall Street a principios de esta semana para advertir sobre riesgos de ciberseguridad relacionados con un nuevo modelo de inteligencia artificial de Anthropic.
Según un informe de Bloomberg, la reunión incluyó a ejecutivos de Citigroup, Bank of America, Wells Fargo, Morgan Stanley y Goldman Sachs. Los funcionarios discutieron el nuevo modelo de IA Mythos de Anthropic, que recientemente ha generado una amplia preocupación por sus aparentes capacidades avanzadas de ciberseguridad.
Los funcionarios convocaron la reunión para asegurar que los bancos comprendan los riesgos que plantean los sistemas capaces de identificar y explotar vulnerabilidades de software en sistemas operativos y navegadores web, y para alentar a las instituciones a fortalecer las defensas contra posibles ciberataques asistidos por IA dirigidos a la infraestructura financiera.
Los investigadores de seguridad han advertido que las herramientas capaces de descubrir automáticamente vulnerabilidades podrían acelerar tanto el trabajo de seguridad defensiva como el hackeo malicioso si se usan incorrectamente.
El modelo Mythos de Anthropic apareció por primera vez en línea en marzo después de que se filtraran materiales preliminares sobre el sistema en línea, revelando lo que la compañía describió como su modelo de IA más capaz hasta el momento. En las pruebas, el sistema supuestamente encontró miles de vulnerabilidades de software previamente desconocidas, incluidas fallas de día cero en los principales sistemas operativos y navegadores web.
Los investigadores de Anthropic dijeron en un informe a principios de esta semana que las capacidades de descubrimiento de vulnerabilidades de Mythos Preview no fueron entrenadas intencionalmente, sino que surgieron de mejoras más amplias en la codificación, el razonamiento y la autonomía del modelo.
"Las mismas mejoras que hacen que el modelo sea sustancialmente más efectivo para parchear vulnerabilidades también lo hacen sustancialmente más efectivo para explotarlas", escribió la empresa.
Debido a esas capacidades, Anthropic ha restringido el acceso a un pequeño grupo de organizaciones de ciberseguridad.
"Dada la fortaleza de sus capacidades, estamos siendo deliberados sobre cómo lo lanzamos", dijo Anthropic en un comunicado. "Como es práctica estándar en toda la industria, estamos trabajando con un pequeño grupo de clientes de acceso anticipado para probar el modelo. Consideramos que este modelo es un cambio significativo y el más capaz que hemos construido hasta la fecha".
Para abordar ese riesgo, Anthropic está probando Mythos a través del Proyecto Glasswing, una colaboración con importantes compañías de tecnología y ciberseguridad que utiliza el modelo para identificar y parchear vulnerabilidades en software crítico antes de que los atacantes puedan explotarlas.
"El Proyecto Glasswing es un punto de partida. Ninguna organización puede resolver estos problemas de ciberseguridad sola", dijo la compañía en un comunicado. "Los desarrolladores de IA de vanguardia, otras compañías de software, investigadores de seguridad, mantenedores de código abierto y gobiernos de todo el mundo tienen roles esenciales que desempeñar".
Anthropic no respondió de inmediato a la solicitud de comentarios de Decrypt.
Boletín Daily Debrief
Comience cada día con las principales noticias en este momento, además de contenido original, un podcast, videos y más.
Fuente: https://decrypt.co/363927/powell-bessent-warn-banks-security-anthropic-mythos-ai








