newsroom 8/10 posted
• 새로운 FAQ는 Apple이 아이클라우드 포토 라이브러리에서 아동 성학대 물질(CSAM) 스캔과 메시지에서 노골적인 사진을 탐지하는 새로운 어린이 안전 기능을 지난주 출시할 것임을 확인한 후 나온 것입니다.
• "가족 공유에 설정된 자녀 계정의 메시지 앱에서 보내거나 받은 이미지에 대해서만 작동합니다." FAQ가 설명합니다.
• "기기의 이미지를 분석하므로 메시지의 개인 정보 보호 보장은 변경되지 않습니다.
• 하위 계정에 이 기능이 활성화된 경우 장치는 메시지에서 이미지를 평가하고 이미지가 성적으로 노골적인 것으로 판단될 경우 개입을 표시합니다.
• "자녀 계정으로 성적으로 노골적인 이미지를 보내거나 받으면 이미지가 흐려지고 아이가 보내는 내용에 대해 경고를 받게 됩니다.
• 12세 이하 아동 계정의 경우, 성적으로 노골적인 이미지를 보내거나 받은 각 인스턴스가 아이에게 이미지를 계속 보거나 보낼 경우 부모에게 알림이 발송됨을 경고합니다.
• "어린이는 안전을 보장하기 위해 부모에게 성적으로 노골적인 이미지를 보거나 보낼 경우 이를 알려준다는 말도 듣게 됩니다.
• 메시지에서 통신 안전에 대해 부모 또는 보호자가 자녀 계정에 이 기능을 사용하려면 선택해야만 하며 12세 이하 어린이에게만 이 기능을 사용할 수 있다고 설명합니다.
• "이 기능은 사진을 저장하기 위해 iCloud Photos를 사용하기로 선택한 사용자에게만 영향을 미칩니다.
• "우리는 이전부터 사용자의 프라이버시를 저하시키는 정부 요구 사항의 구축 및 구현에 직면해 왔으며, 이러한 요구를 꾸준히 거부해 왔습니다.
• "이러한 시스템을 구축하려는 선의의 노력도 메신저 암호화의 핵심 약속을 어기고 더 광범위한 남용에 대한 문을 열 것"이라고 EFF는 경고했습니다.


Philip Elmer‑DeWitt [www.ped30.com]



Login to comment

Open Wiki - Feel free to edit it. -
8/10 answered



permanent link

Login to comment