PRENSA IBERO
PRENSA IBERO
7 DE MAYO DE 2026
Por: Luis Reyes
AUTOR
Reportero de la Dirección de Comunicación Institucional

La Inteligencia Artificial (IA) está redefiniendo la seguridad global, acelerando los ciberataques y obligando a gobiernos, empresas y universidades a replantear cómo proteger la información en la era digital. Esa fue una de las conclusiones del conversatorio organizado en el Día de las Ingenierías de la Universidad Iberoamericana (IBERO) Ciudad de México (CDMX), donde especialistas analizaron el impacto de la IA en la sociedad y los nuevos riesgos del ciberespacio.

La conferencia reunió al ingeniero Rafael Fernández Corro, presidente de la Academia Mexicana de Informática A.C., y a la Mtra. María del Carmen García García, líder de la Olimpiada Mexicana de Ciberseguridad y colíder de Womcy Geek Girls, quienes coincidieron en que el desarrollo tecnológico avanza a una velocidad exponencial que supera incluso la capacidad de regulación de los gobiernos.

Uno de los momentos más relevantes del encuentro ocurrió cuando la Mtra. García García aseguró que el mundo ya vive una “carrera armamentista digital”, impulsada por la IA y computación avanzada.
“Estamos en una carrera armamentista donde la IA es el motor, pero la ciberseguridad es el freno de emergencia”, advirtió la especialista ante estudiantes y académicos.

La experta explicó que las herramientas de IA ya son utilizadas para automatizar ataques, vulnerar sistemas y realizar operaciones de ingeniería social cada vez más sofisticadas. Según detalló, actualmente el 87% de las organizaciones ya ha sufrido ataques vinculados con IA.
Alertó sobre el surgimiento de nuevas plataformas diseñadas para ejecutar pruebas ofensivas automatizadas en sistemas digitales. Uno de los casos que mencionó fue “Mythos”, herramienta liberada recientemente que, aunque fue creada para fortalecer procesos de seguridad, también podría facilitar ataques si cae en manos equivocadas.

“El problema es que muchas veces abrimos la puerta a estas herramientas sin dimensionar que pueden entender y analizar todo lo que hacemos en el ciberespacio”, señaló.
Explicó que la velocidad de los ataques cambió radicalmente gracias a la IA. Como ejemplo, relató una competencia internacional organizada por la Organización de Estados Americanos (OEA), donde equipos especializados en ciberseguridad resolvieron ejercicios de hackeo en apenas 30 minutos utilizando IA, cuando la prueba estaba diseñada para durar ocho horas.
“Los ataques hoy son más rápidos, más sofisticados y mucho más difíciles de detectar”, sostuvo.
La especialista subrayó que la amenaza no solo afecta a empresas tecnológicas, sino a bancos, gobiernos, universidades y usuarios comunes. Recordó casos recientes de fraudes multimillonarios ejecutados mediante ingeniería social apoyada con IA, donde delincuentes se hicieron pasar por altos ejecutivos para ordenar transferencias bancarias falsas.
En ese contexto, insistió en la necesidad de fortalecer estándares internacionales de protección y gobernanza tecnológica, especialmente ante el crecimiento de la computación cuántica y el riesgo de que, en el futuro, pueda desencriptarse información actualmente considerada segura.
“La seguridad al 100% no existe. Lo importante es construir controles, cultura organizacional y mecanismos éticos para el uso de inteligencia artificial”, reconoció.
El Ing. Rafael Fernández Corro contextualizó el crecimiento de la IA desde una perspectiva histórica y tecnológica. Explicó cómo el desarrollo de procesadores especializados, redes neuronales y sistemas de procesamiento paralelo permitió el auge actual de herramientas generativas como ChatGPT y otras plataformas de IA.

Destacó que gigantes tecnológicos invierten cantidades “astronómicas” de dinero en infraestructura y centros de datos para competir por el liderazgo en IA, comparando el momento actual con la expansión histórica de la electricidad o internet.
Sin embargo, advirtió que el verdadero desafío ya no es únicamente tecnológico, sino ético.
“La pregunta más importante ya no es qué puede hacer la IA, sino para qué la vamos a usar”, reflexionó.
El conversatorio finalizó con un llamado a formar profesionales capaces de desarrollar tecnología con responsabilidad social y pensamiento crítico. Los especialistas coincidieron en que el futuro de la IA dependerá no solo de la innovación, sino de la capacidad humana para establecer límites, proteger derechos y evitar que el avance tecnológico se convierta en un riesgo global.
Por: Luis Reyes
Las opiniones y puntos de vista vertidos en este comunicado son de exclusiva responsabilidad de quienes los emiten y no representan necesariamente el pensamiento ni la línea editorial de la Universidad Iberoamericana.
Para mayor información sobre este comunicado llamar a los teléfonos: (55) 59 50 40 00, Ext. 7594, 7759 Comunicación Institucional de la Universidad Iberoamericana Ciudad de México Prol. Paseo de la Reforma 880, edificio F, 1er piso, Col. Lomas de Santa Fe, C.P. 01219