Por: Gabriela Jiménez.
El campo de la inteligencia artificial sigue creciendo y su auge deja claro que esta tecnología es más que un producto comercial, sino que puede representar un activo estratégico en el mundo.
Un ejemplo es Anthropic, que la semana pasada sorprendió al anunciar el desarrollo de un nuevo modelo de inteligencia artificial, llamado Claude Mythos, sin embargo, lo más llamativo del anuncio fue que se notificó la decisión de no hacerlo público, aún.
De acuerdo con su portal web, este modelo mostró una gran capacidad para detectar vulnerabilidades en software, identificando miles de fallos en aplicaciones ampliamente utilizadas, muchos de ellos no contaban con parches disponibles.
«Las consecuencias podrían ser graves», señala la empresa en su portal web con el lanzamiento de un proyecto denominado Glasswing.
Este proyecto forma parte de la estrategia de Anthropic, que consistió en compartir una versión de esta inteligencia artificial con gigantes tecnológicos como Google, Microsoft, NVIDIA, Linux Foundation, así como con empresas de ciberseguridad como CrowdStrike y Palo Alto Networks.
Este modelo de IA fue puesto a prueba y en pocas semanas, Mythos reveló fallos críticos en sistemas operativos y navegadores que habían permanecido ocultos durante décadas.
Entre las vulnerabilidades descubiertas, detallan diferentes portales, la más antigua tiene 27 años y nunca había sido detectada antes.
De acuerdo con Canal.Mutuo en su publicación en Instagram, señala que «el modelo no solo encuentra fallas, encadena tres, cuatro o cinco vulnerabilidades menores para construir un ataque sofisticado».
Esta es una de las razones por la que este modelo de IA no ha sido liberada aún y solo fue entregada a unos cuantos. Según la empresa de inteligencia artificial, se busca que este grupo logre identificar y corregir las vulnerabilidades, antes de que el modelo esté disponible de manera más amplia.
Anthropic advirtió que los modelos de IA alcanzaron un nivel de programación que supera las capacidades humanas en la identificación de fallos de software, por lo que no hace público este modelo (aún) responde también a las preocupaciones sobre el uso potencial de la inteligencia artificial por parte de hackers para realizar ataques cibernéticos, un riesgo que ha sido especialmente alarmante para el sector financiero.
Otra sorpresa es la precisión de este nuevo modelo de IA. En su portal web, reseñaron una evaluación, donde colocaron a prueba el modelo Claude Opus 4.6 de su misma empresa y que fue lanzada hace unos cuantos meses, y demostró una mayor precisión.
Con esta decisión, Anthropic se convierte en la primera empresa que frena el lanzamiento de un modelo de IA por considerarlo «demasiado capaz», lo que vuelve a traer sobre la mesa el siguiente debate: el balance entre innovación tecnológica y la responsabilidad social, así como los riesgos si no se manejan con prudencia.