할루시네이션 (환각 현상, Hallucination)
인공지능 모델이 사실이 아니거나 논리적으로 어긋난 정보를 마치 진실인 것처럼 생성해내는 현상으로, 기술적 오류나 정보의 신뢰도 저하를 초래하는 고질적인 문제
1 / 3
용례
"인공지능은 위험한 주제에 대해 글을 쓸 때 환각 증세를 보일 수 있으며, 컴퓨터에 위험한 명령을 실행하거나 해로운 물질을 섞으라고 제안할 수도 있음."
"AI 모델은 때때로 '할루시네이션'을 일으켜 존재하지 않는 정보를 제공하거나 잘못된 주장을 펼칠 수 있습니다."
"거대 언어 모델은 환각 현상을 일으키고 잘못된 답을 내놓으며, 매번 다른 답을 제시하거나 복잡한 과업을 제대로 수행하지 못하는 경우가 많음."