Ir al contenido principal
Hallucination Detection

Todo sobre Hallucination Detection

Un artículo
Methods and techniques for detecting factual errors and hallucinations in LLM outputs

Confianza y calibración de LLM: Un estudio de lo que la investigación muestra realmente

Un estudio sistemático de los métodos de estimación de confianza y calibración de LLM —enfoques de logits de caja blanca, SelfCheckGPT basado en consistencia y entropía semántica— revela que las puntuaciones de confianza verbalizada de GPT-4 alcanzan solo un AUROC de ~62,7%, apenas por encima del azar, con implicaciones directas para el despliegue de agentes conscientes de la incertidumbre en finanzas y contabilidad.