El doctor Ricardo Baeza-Yates, investigador y profesor en el KTH de Suecia, la Universitat Pompeu Fabra en Barcelona y la Universidad de Chile, impartió en el Tec campus Qro la conferencia “Inteligencia Artificial (Ir) Responsable: Riesgos y Recomendaciones”.
La charla abordó los retos éticos, sociales y humanos del uso de la inteligencia artificial y la premura de promover un desarrollo tecnológico verdaderamente responsable, además compartió ejemplos concretos sobre cómo el mal uso de la inteligencia artificial y los chatbots.
Para Edgardo Pérez Hermosillo, director de división de Ingeniería y Ciencias tener la visita del doctor Baeza-Yates enriquece los temas de la IA en los estudiantes, "escuchar a expertos como Ricardo Baeza-Yates nos recuerda que el verdadero desafío de la inteligencia artificial no es tecnológico, sino humano".
Resaltó la importancia del Tec en fomentar un uso responsable de la IA, “La inteligencia artificial debe servir a las personas, no reemplazarlas. En el Tec trabajamos para que nuestros estudiantes comprendan esa responsabilidad".

El lado humano de los algoritmos
Baeza-Yates explicó que los sistemas inteligentes no poseen conciencia ni moral: “Los robots no piensan, no razonan, no mienten; solo hacen lo que fueron programados para hacer”.
Desde el inicio, el especialista invitó a reflexionar sobre el papel del ser humano en el desarrollo tecnológico “el verdadero problema de la humanidad es que tenemos emociones paleolíticas, instituciones medievales y tecnología divina”, citó retomando a Edward O. Wilson, para subrayar la brecha entre el avance técnico y la madurez ética de nuestra sociedad.
Contó la historia de un estudiante que confesó a una IA su intención de suicidarse. “El sistema respondió seis veces más que él mismo con la palabra suicidio”, relató. “Eso demuestra que la IA no entiende el contexto ni la emoción humana”.
También habló de quienes, tras perder a un ser querido, recrean su presencia a través de programas de inteligencia artificial: “Intentan llenar vacíos emocionales con tecnología, pero lo irreemplazable no se puede programar”, reflexionó.
El doctor hizo hincapié en su mensaje: el riesgo no está en que las máquinas se humanicen, sino en que las personas dejen de comportarse como tales.
“El problema no es que las máquinas se vuelvan más humanas, sino que nosotros olvidemos serlo”.- Ricardo Baeza-Yates.
Dilemas éticos y el impacto de lo automatizado
Durante su exposición, Baeza-Yates analizó el famoso dilema del tren: elegir entre desviar el curso y causar una muerte o no hacerlo y provocar cinco. Lo trasladó al contexto de los vehículos autónomos, señalando que si todos los autos tuvieran piloto automático disminuirían los accidentes; sin embargo, habría nuevas víctimas que antes no estaban en riesgo.
“Un Tesla puede no ver una bicicleta. Un humano probablemente sí lo haría”, explicó. “Reducimos muertes, pero también introducimos otras. Hay que decidir qué riesgos estamos dispuestos a aceptar como sociedad”.
El académico comparó esta reflexión con una frase atribuida a la Revolución Francesa: es mejor salvar a un culpable que matar a un inocente, destacando que la tecnología debe guiarse por la proporcionalidad ética y no solo por la eficiencia técnica.

Ética, gobernanza y regulación
A partir del Informe Belmont (1979), Baeza-Yates recordó los tres principios que deben guiar la investigación y el desarrollo tecnológico: autonomía, hacer el bien y no el mal, y justicia. No obstante, advirtió que estos valores pueden entrar en conflicto si no se acompañan de políticas de gobernanza, transparencia y rendición de cuentas.
“No se necesita inteligencia artificial para hacer daño; hay que regular todos los sistemas automatizados”, afirmó, señalando que el desafío no es solo tecnológico, sino también político y humano.
El ponente también analizó el caso de la Unión Europea, que en 2021 presentó el EU AI Act, una propuesta pionera para regular el uso de la IA según niveles de riesgo, con obligaciones de transparencia, monitoreo y sanciones.
La conferencia cerró con una provocación directa a la audiencia: “¿Pueden los humanos pensar?”. Baeza-Yates añadió: “Nos estamos volviendo perezosos. La IA confiable aún no llega, pero tampoco nosotros hemos aprendido a usarla con responsabilidad.” Con esa reflexión, invitó a las y los asistentes a mirar más allá de la fascinación tecnológica y colocar la ética y la empatía en el centro del futuro digital.
“El problema no es que las máquinas se vuelvan más humanas, sino que nosotros olvidemos serlo”, finalizó el investigador.
SEGUIR LEYENDO