‹ Volver al glosario

Alucinación

beginner
Cuando una IA genera información que parece verosímil, pero que, en realidad, es incorrecta. Los modelos de lenguaje grande (LLM) no «conocen» los hechos, sino que predicen secuencias de palabras probables. Esto puede dar lugar a respuestas que parecen seguras, pero que son totalmente erróneas. Comprueba siempre los datos generados por la IA con fuentes fiables.
Términos relacionados
Modelo de lenguaje a gran escala (LLM)
Questions?
AI Readiness Check All terms
El Briefing Native AI
Noticias de IA europeas, curadas y verificadas. Cada 2–3 días. Gratis.