Conceptos

Mitigación de Alucinaciones

Técnicas para reducir la generación de información falsa pero plausible por parte de los LLMs, desde RAG hasta verificación factual y diseño de prompts.

seed#hallucination#factuality#grounding#rag#verification#llm

¿Qué es?

Las alucinaciones son respuestas de LLMs que suenan correctas pero contienen información fabricada. El modelo genera texto plausible basándose en patrones estadísticos, no en hechos verificados. Mitigar alucinaciones es crítico para aplicaciones donde la precisión importa.

Tipos de alucinaciones

TipoEjemploDetecciónMitigación
FactualDatos incorrectos como hechosVerificación contra fuentesRAG con citas
FabricaciónInventar URLs, papers, citasValidar que las fuentes existenInstruir «no sé» + verificación
InconsistenciaContradecirse en la misma respuestaComparar afirmacionesChain-of-thought
ExtrapolaciónGeneralizar de ejemplos limitadosEvaluar confianza del modeloLimitar scope del prompt

Estrategias de mitigación

Grounding con RAG

RAG ancla las respuestas en documentos reales:

  • El modelo cita fuentes específicas
  • Se puede verificar la información contra los documentos originales
  • Reduce (no elimina) la fabricación de hechos

Diseño de prompts

  • Instruir al modelo a decir «no sé» cuando no tiene información
  • Pedir que cite fuentes para afirmaciones factuales
  • Usar chain-of-thought para hacer el razonamiento explícito
  • Separar claramente hechos de opiniones

Verificación post-generación

  • Modelos secundarios que verifican afirmaciones factuales
  • Búsqueda web para validar claims específicos
  • Comparación con bases de conocimiento estructuradas

Calibración de confianza

  • Pedir al modelo que indique su nivel de certeza
  • Generar múltiples respuestas y comparar consistencia
  • Detectar patrones lingüísticos asociados con alucinaciones

Métricas de evaluación

  • Faithfulness: ¿la respuesta es fiel al contexto proporcionado?
  • Factuality: ¿los hechos son verificablemente correctos?
  • Attribution: ¿las citas son reales y relevantes?

Limitaciones

No existe solución perfecta. Incluso con RAG, el modelo puede:

  • Malinterpretar el contexto recuperado
  • Combinar información de formas incorrectas
  • Inventar detalles que «completan» la información

La mitigación reduce la frecuencia, no elimina el problema.

¿Por qué importa?

Las alucinaciones son el riesgo más visible de los sistemas de IA en producción. Un modelo que genera información falsa con confianza puede causar daño real. Las técnicas de mitigación — RAG, grounding, verificación — son requisitos de ingeniería, no mejoras opcionales.

Referencias

Conceptos