Enseñar a los modelos de IA a decir “no estoy seguro”
Investigadores del MIT identificaron por qué los modelos de razonamiento en IA tienden a mostrarse excesivamente seguros y propusieron RLCR, una técnica que enseña a los modelos a estimar su confianza. En pruebas, RLCR mejoró la calibración hasta en 90% manteniendo o aumentando la precisión.