Entér@te No. 47. 15 de agosto de 2025
Inteligencia Artificial, un desafío de confiabilidad y veracidad
Dr. Juan Carlos Olivares Rojas, académico del Instituto Tecnológico de Morelia.
Por Juan Ibarra
Lo que popularmente se conoce como Inteligencia Artificial (IA) por lo general se refiere a los Modelos de Lenguaje Grande (LLM, por sus siglas en inglés), mismos que implican no sólo nuevas posibilidades para desempeñar tareas, sino también nuevas problemáticas para las que debemos estar preparados.
Durante la sexta sesión del Seminario de la Red de Ingeniería de Software y Bases de Datos (ISyBD) de la UNAM, el doctor Juan Carlos Olivares Rojas, académico del Instituto Tecnológico de Morelia, ofreció la charla “Verificación de LLMs: ¿Las IAs me están diciendo la verdad?”, donde explicó el funcionamiento y los problemas relacionados con estas herramientas.
Uno de los mayores inconvenientes de utilizar grandes modelos de lenguaje radica en la confiabilidad y la veracidad de las respuestas que un sistema puede proporcionar a sus usuarios. “Tenemos que utilizarla como lo que es: una herramienta para la toma de decisiones”, puntualizó Olivares Rojas.
Si bien ya se han depurado muchos de los errores que las primeras inteligencias artificiales cometían, todavía es necesario verificar los resultados que se obtienen cuando se les solicita información o ejecutar alguna tarea. “Nos interesa poder medir qué tan veraces o confiables son las repuestas que nos puede dar una IA”, señaló.
De acuerdo con el experto, la veracidad (que la información sea verdadera) y la confiabilidad (que la fuente de información sea confiable) son dos de los aspectos a considerar para determinar la calidad de una respuesta. Sin embargo, también es posible encontrar una sin la otra, es decir, un dato puede ser real y provenir de una fuente poco confiable y, al contrario, una fuente muy confiable puede mentir.
Olivares Rojas explicó que una parte de este problema proviene de la manera en que operan estas inteligencias artificiales. “Tenemos una expresión en lenguaje, sabemos que las computadoras no entienden eso; así que tratamos de separarlas en partes llamadas tokens, y eso se representa de manera vectorial (números), a partir de los cuales se obtienen relaciones”, detalló.
No obstante, al implicar procesos creativos en las respuestas, el modelo de lenguaje debe dejar atrás lo convencional, llegando a presentar “alucinaciones” y, por lo tanto, errores.
Para atender esta problemática, los desarrolladores utilizan diversas técnicas de evaluación, desde la revisión humana, que es el método más utilizado y preciso en la actualidad, pero también el más tardado; hasta el desarrollo de herramientas internas, softwares externos, otros lenguajes de programación y métricas académicas.
Por último, el doctor Oivares Rojas compartió algunos consejos para que los usuarios puedan evitar errores al utilizar estas herramientas. Principalmente, recomendó no asumir las respuestas de la IA como una verdad absoluta sino más bien como una referencia, asimismo, aconsejó solicitar la bibliografía de las que surgió la respuesta, así como corroborar y contrastar con fuentes confiables.
La conferencia completa se puede ver en YouTube.
