Entender y Mitigar las Alucinaciones de los LLMs

¿Cómo podemos detectar y mitigar las alucinaciones para un despliegue más seguro de los LLMs?

24/03/2024 · 10 min · Olivier MF Martin

Una Guía Rápida sobre la IA Explicable

Abriendo la caja negra de la IA para entender cómo razonan los algoritmos y fomentar la confianza.

18/02/2024 · 13 min · Olivier MF Martin