A pesar de las promesas de gigantes como ChatGPT, el problema persiste: la IA prefiere inventar una respuesta con total seguridad antes que admitir ignorancia.
Sin embargo, una nueva investigación de la Universidad de Stanford propone una solución que podría cambiar las reglas del juego.
ChatGPT finge saberlo todo
El problema es estructural. Los LLMs están diseñados para completar información de forma fluida, lo que los lleva a rellenar huecos con suposiciones cuando carecen de datos reales.
Responden con la misma autoridad tanto si citan un hecho histórico como si se inventan una ley física.
Una propuesta que soluciona
La investigadora Shuhui Qu ha introducido un método denominado Planificación Categorial Bidireccional con Auto-Consulta. La premisa es tan simple como revolucionaria: obligar al modelo a reconocer qué es lo que no sabe antes de avanzar.
Este enfoque funciona bajo un método más científico:
-
Auto-evaluación: En cada paso del razonamiento, el modelo verifica si tiene la información necesaria.
-
Bloqueo de seguridad: Si detecta una «condición desconocida», el sistema se detiene. No se le permite suponer.
-
Resolución activa: Para continuar, la IA debe formular una pregunta específica para obtener el dato faltante o realizar un paso de verificación intermedio.
¿Qué pasaría?
En pruebas con GPT-4, ocultando datos en recetas de cocina, los investigadores lograron que la IA se detuviera y preguntara, en lugar de inventar.
Aunque los resultados son prometedores, la implementación masiva no será inmediata. Este método rompe el flujo de respuesta rápida de los chatbots actuales y requiere una capa adicional de control que las tecnológicas aún no están listas para integrar.
Por ahora, parece que seguiremos conviviendo con una IA que, de vez en cuando, prefiere «tirarse un triple» antes que admitir que no tiene la respuesta, así que ojo con eso.
Información de Xataka / Redacción Noti AI
No dejes de leer: Uso de la IA en mamografías permite detectar cáncer de forma temprana, según estudio
