할루시네이션 (환각 현상, Hallucination)
인공지능이 사실이 아닌 정보를 마치 사실인 것처럼 그럴싸하게 생성하는 환각 현상
1 / 4
용례
"인공지능은 빠르게 진화하고 있으며 확률적인 성격을 띠고 있어 때때로 환각이 포함된 결과물을 생성할 수 있음."
"인공지능은 위험한 주제에 대해 글을 쓸 때 환각 증세를 보일 수 있으며, 컴퓨터에 위험한 명령을 실행하거나 해로운 물질을 섞으라고 제안할 수도 있음."
"AI 모델은 때때로 '할루시네이션'을 일으켜 존재하지 않는 정보를 제공하거나 잘못된 주장을 펼칠 수 있습니다."
"거대 언어 모델은 환각 현상을 일으키고 잘못된 답을 내놓으며, 매번 다른 답을 제시하거나 복잡한 과업을 제대로 수행하지 못하는 경우가 많음."