할루시네이션란?

LLM이 정확해 보이지만 실제로 잘못된 내용을 자신 있게 생성하는 현상입니다. 확신 없이도 ‘모르겠다’고 말하지 않는 학생처럼, AI도 모르는 것을 지어내는 경향이 있습니다. 해결 방법: RAG(데이터를 먼저 확인하고 답변), 멀티 모델 교차 검증, AI에게 출처를 반드시 명시하도록 요구. 특히 의료·법률·금융 분야에서는 할루시네이션이 심각한 결과를 초래할 수 있어, 반드시 검증 체계가 필요합니다.