newsroom 8/22 posted
성적으로 노골적인 물질을 감지하도록 설계된 알고리즘은 신뢰할 수 없는 것으로 악명 높습니다. 이들은 예술, 건강 정보, 교육 자료, 옹호 메시지 및 기타 이미지에 잘못 플래그를 지정하는 경향이 있습니다. 이러한 정보를 보내고 받을 수 있는 아동의 권리는 유엔 아동권리협약에서 보호됩니다.

• 전 세계 90개 이상의 인권단체들은 아동 성학대 물질(CSAM)에 대한 애플의 스캔 계획을 비난하는 서신에 서명했으며 쿠퍼티노가 "전 세계적으로 검열, 감시, 박해를 초래할 수 있다"고 경고했습니다."
• 이러한 압력은 iCloud에 업로드된 이미지뿐만 아니라 장치에 저장된 모든 이미지로 확대될 수 있습니다.
• 따라서, 애플은 전 세계적으로 검열, 감시, 박해의 기반을 마련할 것입니다."
• CSAM 탐지 시스템은 아이클라우드 업로드 해시(hash)를 Apple이 제어하는 비밀 데이터베이스와 일치시키는 방식으로 작동하며, 이 데이터베이스는 영국의 아동 착취 및 온라인 보호(CEOP) 경찰 부대에 해당하는 미국 NCMEC(National Center for Missing and Invicted Children)가 채운다고 합니다.
• CDT는 성명에서 "메시지의 스캔 및 경보 기능은 일부 젊은이들의 안전과 복지를 위협하는 경고를 초래할 수 있으며, 동정심이 없는 부모를 둔 LGBTQ+ 청소년들은 특히 위험에 처해 있습니다."
• "이 기능이 Apple 제품에 내장되면, 회사와 경쟁업체는 CSAM뿐만 아니라 정부가 반대한다고 생각하는 다른 이미지에 대해서도 사진을 스캔해야 한다는 전세계 정부로부터 엄청난 압력과 잠재적으로 법적 요구 사항에 직면하게 될 것"이라고 이 서신은 밝혔습니다.
• 팀 쿡 애플 CEO에게 보낸 서한은 오늘 "전세계의 인권, 디지털 권리를 위해 헌신한 산하 단체들이 애플이 2021년 8월 5일 발표한 아이폰, 아이패드 및 기타 애플 제품에 보안 감시 기능을 구축하기 위한 계획을 포기하도록 촉구하는 글을 쓰고 있다"고 밝혔습니다.
• "이러한 기능들이 어린이를 보호하고 아동 성학대 물질(CSAM)의 확산을 줄이기 위한 것이기는 하지만, 우리는 보호되는 발언을 검열하고, 전 세계 사람들의 사생활과 안전을 위협하며, 많은 어린이들에게 재앙적인 결과를 초래하는 데 사용될 것을 우려합니다.
• 이러한 변경으로 인해 iMessages는 보낸 사람과 의도된 수신자만이 보낸 정보에 액세스할 수 있는 엔드 투 엔드 암호화된 메시징 시스템을 통해 사용자에게 더 이상 기밀성과 개인 정보를 제공하지 않습니다.
• 일단 이 백도어 기능이 내장되면, 정부는 애플에 다른 계정으로 알림을 확장하고, 성적으로 노골적인 것 이외의 이유로 거부감이 드는 이미지를 감지하도록 강제할 수 있습니다.





Login to comment

Open Wiki - Feel free to edit it. -
8/22 answered



permanent link

Login to comment