La humanidad ha atestiguado los grandes avances tecnológicos de la última década, sobre todo en el tema de Inteligencia Artificial (IA). Herramientas como Chat-GPT, DALL-E, Pictoría y Midjourney, son algunos ejemplos de lo que se avecina para los años inmediatos. Sin embargo, con toda esta innovacióntecnológica, no podemos evitar preguntarnos si llegará el día en que la máquina pueda realmente pensar como persona.
Para hablar del tema, se llevó a cabo la Conferenciamagistral,Ética e inteligencia artificial, en la Universidad Iberoamericana Ciudad de México. Aquí, en nuestro Campus, el Dr. José María Guibert, S.J., ex Rector de la Universidad de Deusto en España, indicó que, a pesar de que las máquinas tienen una inmensa cantidad de información a su disposición, no son capaces de entenderla, dificultándoles su aptitud para ciertas tareas, por ejemplo, discernir entre el bien y el mal.
José Guibert, también Gasson Professor en Boston College, recordó los 10 parámetros que la UNESCO planteó en el 2021 para un desarrollo y uso ético de la IA, los cuales son: proporcionalidad, seguridad y protección, equidad y no discriminación, sostenibilidad, derecho a la intimidad y protección de datos, supervisión y decisión humana, transparencia y explicabilidad, responsabilidad y rendición de cuentas, sensibilidad y educación, y por último, gobernanza y colaboración adaptativa y de múltiples partes interesadas.

Posteriormente, realizó una pregunta, “ ¿qué es más importante, la ética o la tecnología?” Reconoció que es una interrogante difícil de contestar, ya que habrá personas que prefieran una sobre la otra, dependiendo sus vivencias. Sin embargo, aseguró que de lo que sí debemos estar al tanto, es la diferencia entre conocimientocientífico y conocimientoético.
“Lo que es verificableracionalmente y que se puede demostrar a través de pruebas y experimentos, lo podemos considerar parte de la ciencia, mientras que para la parte ética es diferente, ya que para llegar a acuerdos o resultados favorables, necesitamos usar el lenguaje y comprensión, tarea que se le dificultaría a la máquina, ya que carece de pensar”.
Agregó que la formulación de los derechos humanos no se trata de ciencia, pues para lograrlos, la humanidad tuvo que pasar por circunstancias tanto favorables como desfavorables, por lo que si le preguntas a la IA sobre los derechos de las personas, “sabrá que responder, pero no entenderá las razones que nos llevaron a ello”.
Aceptó que la tecnología ha facilitado muchas tareas que antes nos tomaban más esfuerzo y tiempo, por lo que dijo que no es malo usar este tipo de herramientas, siempre y cuando no generemos situaciones de desventaja para otros individuos o vulneremos sus derechos, pues reiteró que algo que nos diferencia de la tecnología es saber discriminar lo bueno de lo malo.
“Obviamente estos avances van a cambiar la forma en que se genera contenido, podemos ver programas que usan IA y que hacen textos, imágenes y videos en cuestión de minutos, sin embargo, vuelvo a decir, la máquina no comprenderá ese resultado, simplemente responderá ante las peticiones que se le hacen”.
El Dr. Alejandro Anaya Muñoz, Vicerrector de la IBERO, reconoció por su parte que en el ámbito académico, la IA generópreocupación a muchas instituciones, sobre todo porque al inicio no se sabía el rumbo que tomarían estas herramientas tecnológicas, pero aseguró que al analizar y comprender su funcionamiento, se puede tener mayor seguridad para su uso responsable y humanista.
“En la IBERO nos preocupa el uso que se le da a la IA, por lo decidimos realizar Lineamientos para el Uso de la Inteligencia Artificial, los cuales tienen como objetivo, establecer la función que juega la IA en los procesos de enseñanza-aprendizaje y su evaluación, así como también garantizar la confidencialidad de los datos personales de los usuarios”.
Reiteró que el uso de las nuevas tecnologías nos debe conducir a una profunda reflexión sobre su posible uso en el futuro, y con ello, prevenir que se le dé un mal uso.
Texto: Alberto Elihú Cortés Hernández. Fotos: Alberto Hernández Mendoza
Notas relacionadas:
- Da a conocer IBERO Lineamientos para el Uso de Inteligencia Artificial
- Universidad e inteligencia artificial: un desafío emergente para las humanidades(Artículo del Rector, Luis Arriaga Valenzuela, publicado en la Revista Nexos)
- Doce criterios a seguir para un desarrollo ético de la Inteligencia Artificial
- ¿Qué retos enfrenta la humanidad ante la Inteligencia Artificial? Filósofo nos pone a reflexionar
