newsroom 8/7 '21 posted
• 이것은 Apple이 구축 및 운영하는 보안 감시 시스템으로, 개인 콘텐츠를 스캔하는 데 매우 쉽게 사용될 수 있습니다.

• 다음 조치를 통해 애플은 아이클라우드 사진에 저장된 아동 성학대 물질(CSAM)을 NCMEC(National Center for Missing and Invicted Children)에 보고하기 전에 탐지할 수 있습니다.
• 기기 내 기계 학습 시스템이 이미지 첨부 파일을 분석하여 사진이 성적으로 노골적인지 확인합니다.
• 또한, 아이클라우드 포토 계정이 알려진 CSAM 콘텐츠의 임계값을 넘지 않는 한, 안전 바우처의 내용이 애플에 의해 해석되지 않도록 함으로써 사용자 프라이버시를 보호하고자 하는 임계값 비밀 공유라는 다른 기술이 있습니다.
• "애플의 장기적인 계획이 무엇이든 간에, 그들은 매우 분명한 신호를 보냈습니다.
• 이 시스템은 사진을 미국 국립 실종 및 착취 아동 센터(NCMEC) 및 기타 아동 안전 단체가 수집한 알려진 아동 성적 학대 이미지 데이터베이스와 비교하는 방식으로 작동합니다.





Open Wiki - Feel free to edit it. -
8/7 '21 answered

https://twitter.com/chrisbhoffman/status/1423657833854287881


permanent link