Mitigación de Alucinaciones
Técnicas para reducir la generación de información falsa pero plausible por parte de los LLMs, desde RAG hasta verificación factual y diseño de prompts.
¿Qué es?
Las alucinaciones son respuestas de LLMs que suenan correctas pero contienen información fabricada. El modelo genera texto plausible basándose en patrones estadísticos, no en hechos verificados. Mitigar alucinaciones es crítico para aplicaciones donde la precisión importa.
Tipos de alucinaciones
| Tipo | Ejemplo | Detección | Mitigación |
|---|---|---|---|
| Factual | Datos incorrectos como hechos | Verificación contra fuentes | RAG con citas |
| Fabricación | Inventar URLs, papers, citas | Validar que las fuentes existen | Instruir «no sé» + verificación |
| Inconsistencia | Contradecirse en la misma respuesta | Comparar afirmaciones | Chain-of-thought |
| Extrapolación | Generalizar de ejemplos limitados | Evaluar confianza del modelo | Limitar scope del prompt |
Estrategias de mitigación
Grounding con RAG
RAG ancla las respuestas en documentos reales:
- El modelo cita fuentes específicas
- Se puede verificar la información contra los documentos originales
- Reduce (no elimina) la fabricación de hechos
Diseño de prompts
- Instruir al modelo a decir «no sé» cuando no tiene información
- Pedir que cite fuentes para afirmaciones factuales
- Usar chain-of-thought para hacer el razonamiento explícito
- Separar claramente hechos de opiniones
Verificación post-generación
- Modelos secundarios que verifican afirmaciones factuales
- Búsqueda web para validar claims específicos
- Comparación con bases de conocimiento estructuradas
Calibración de confianza
- Pedir al modelo que indique su nivel de certeza
- Generar múltiples respuestas y comparar consistencia
- Detectar patrones lingüísticos asociados con alucinaciones
Métricas de evaluación
- Faithfulness: ¿la respuesta es fiel al contexto proporcionado?
- Factuality: ¿los hechos son verificablemente correctos?
- Attribution: ¿las citas son reales y relevantes?
Limitaciones
No existe solución perfecta. Incluso con RAG, el modelo puede:
- Malinterpretar el contexto recuperado
- Combinar información de formas incorrectas
- Inventar detalles que «completan» la información
La mitigación reduce la frecuencia, no elimina el problema.
¿Por qué importa?
Las alucinaciones son el riesgo más visible de los sistemas de IA en producción. Un modelo que genera información falsa con confianza puede causar daño real. Las técnicas de mitigación — RAG, grounding, verificación — son requisitos de ingeniería, no mejoras opcionales.
Referencias
- Survey of Hallucination in Natural Language Generation — Ji et al., 2023.
- FActScore: Fine-grained Atomic Evaluation of Factual Precision — Min et al., 2023.
- A Survey on Hallucination in LLMs — Huang et al., 2023. Survey completo sobre alucinaciones en LLMs.