PRENSA IBERO
PRENSA IBERO
8 DE ABRIL DE 2026
Por: Luis Reyes
AUTOR

Anthropic acaba de presentar Claude Mythos, un modelo de Inteligencia Artificial (IA) que encontró miles de vulnerabilidades en sistemas operativos y navegadores. El modelo ha localizado bugs que llevaban décadas en sistemas que son considerados como los más seguros del planeta.
Para el Dr. Alexandro López González, Coordinador de la Ingeniería en Inteligencia Artificial de la Universidad Iberoamericana (IBERO), emerge una discusión sobre la dimensión ética de estas tecnologías y obliga a replantear no solo cómo se construyen estos sistemas, sino quiénes los diseñan y con qué propósito.
“El que Claude Mythos haya encontrado vulnerabilidades en sistemas considerados ‘seguros’ durante décadas confirma que la IA ha iniciado una carrera armamentística de escala infinita. Estamos ante un cambio de paradigma: ya no existe la ‘seguridad por antigüedad’”, explicó.
En entrevista, dijo que el código que sobrevivió 20 años sin fallos hoy es vulnerable porque la IA no solo busca errores humanos, sino que predice patrones de falla que eran invisibles para las herramientas tradicionales. Una competencia entre sistemas de ataque y defensa que solo irá escalando en complejidad y velocidad.
Acotó que expertos de Linux Foundation y OpenSSF señalan que Claude Mythos ha roto el mito de que el código antiguo es seguro solo por haber sobrevivido décadas. El modelo detectó una vulnerabilidad de 27 años en OpenBSD (sistema ultra-seguro) y otra de 16 años en FFmpeg en líneas de código que habían pasado por 5 millones de pruebas automatizadas sin éxito.
“Los expertos coinciden en que estamos ante un ‘cambio de fase’ en la ciberseguridad. Ya no basta con parchar; la IA ha demostrado que puede ver patrones de error que el ojo humano y las herramientas tradicionales ignoran por completo”.
A pesar de los hallazgos técnicos en navegadores o kernels, indicó que no hay que olvidar que la vulnerabilidad crítica de cualquier sistema sigue siendo el humano, pues la ingeniería social es el arte de sabotear al usuario, no al código.
“Con modelos tan potentes como los de Anthropic, la capacidad de generar métodos de ataque y defensa dirigidos a la psicología humana –mediante desinformación o engaños ultra-personalizados— se vuelve masiva. La IA puede ser el ‘Súper-Ingeniero Social’ que automatice el engaño a una escala nunca antes vista”, advirtió.
Ventana de vulnerabilidad crítica
Comentó que analistas del Futurum Group advierten que, aunque Anthropic está compartiendo esto con Google y Microsoft para "ganar tiempo", la tecnología se filtrará o será replicada en meses, no años, es decir, una ventana de vulnerabilidad crítica, pues mientras las grandes empresas se blindan, los sistemas de medianas empresas y ciudadanos quedan expuestos.
Apuntó que existe un riesgo latente: si gracias a proyectos como Glasswing se logra blindar por completo las infraestructuras críticas (gobiernos, grandes industrias o nubes globales), el cibercrimen no desaparecerá y simplemente se desplazará.
Dijo que los atacantes enfocarán estas herramientas de IA contra los eslabones menos protegidos como las cuentas personales, tarjetas de crédito y la identidad digital de los ciudadanos comunes. “La ciberseguridad se convertirá, más que nunca, en un tema de justicia social y protección al individuo”, acotó.
El Dr. López González indicó que reportes del World Economic Forum (2026) subrayan que el riesgo ya no es solo el código malicioso, sino el fraude habilitado por IA.
“La capacidad de Claude Mythos para entender sistemas complejos se traduce, en manos equivocadas, en una capacidad sobrehumana para engañar humanos. Los expertos llaman a esto ‘Deepfake de Ingeniería Social’, donde la IA puede generar pretextos de sabotaje tan perfectos que la formación ética es la única defensa real”.
Refirió que directivos de Cisco y AWS han declarado que "las viejas formas de endurecer sistemas ya no son suficientes". Ahora se requieren ingenieros que entiendan de "Gobernanza de IA" y "Mitigación de Sesgos Adversarios". En otras palabras, no solo es saber programar la IA, sino saber cuándo y cómo limitarla.
Subrayó que eventos como este subrayan por qué en la IBERO es tan enfática al diseñar su Ingeniería en Inteligencia Artificial, en la cual no necesita solamente técnicos que sepan programar modelos, ya que el mundo urge de ingenieros con una formación ética profunda y conciencia de su impacto social.
Por eso, remarcó que la propuesta educativa de la Licenciatura en Inteligencia Artificial de la IBERO se centra en:
Por: Luis Reyes
Las opiniones y puntos de vista vertidos en este comunicado son de exclusiva responsabilidad de quienes los emiten y no representan necesariamente el pensamiento ni la línea editorial de la Universidad Iberoamericana.
Para mayor información sobre este comunicado llamar a los teléfonos: (55) 59 50 40 00, Ext. 7594, 7759 Comunicación Institucional de la Universidad Iberoamericana Ciudad de México Prol. Paseo de la Reforma 880, edificio F, 1er piso, Col. Lomas de Santa Fe, C.P. 01219