인공지능 모델, 저품질 데이터 학습으로 인한 인지 능력 저하 경고
* 대규모 언어 모델(LLM)이 저품질 웹 텍스트를 지속적으로 학습할 경우, 인간의 '뇌 썩음' 현상과 유사한 인지 능력 저하 발생 가능성 제시. * 모델의 추론 능력 감소, 기억력 저하, '사고 건너뛰기' 현상 심화는 물론, 정신병적·자기애적 성향 증가로 인한 윤리적 정렬 손상. * 저품질 데이터로 손상된 인공지능 모델은 고품질 데이터로 재학습하더라도 인지 능력 저하가 영구적으로 지속될 수 있다는 점 발견. * 인공지능이 생성하는 저품질 콘텐츠의 증가가 미래 모델 학습 데이터의 질을 저하시키는 악순환으로 이어질 우려 및 데이터 품질 관리의 중요성 강조.