아동 성 착취물 (CSAM, Child Sexual Abuse Material)
디지털 플랫폼에서 발견되는 아동 대상 성적 학대 및 착취와 관련된 모든 형태의 자료. 이는 기술 기업들이 윤리적, 법적으로 반드시 탐지하고 즉시 법 집행 기관에 보고해야 하는 가장 심각한 범죄 콘텐츠 유형. 메타와 같은 소셜 미디어 플랫폼은 이러한 자료를 적극적으로 탐지하여 보고하지만, 이로 인해 자사 플랫폼에 문제가 더 많은 것처럼 비춰져 비판의 대상이 되기도 하며, 애플이 이 문제를 해결하기 위해 시도했던 iCloud 사진 스캔 계획이 사생활 침해 논란으로 무산된 사례처럼, 기술적 해결 노력 또한 역풍을 맞을 수 있는 민감한 영역
용례
"메타가 아동 성 착취물을 더 많이 신고했기 때문에 더 많은 비판에 직면했으며, 이는 자사 플랫폼에 그러한 행위가 더 많은 것처럼 보이게 한다고 저커버그는 지적했습니다."