newsroom 8/9 '21 posted
• 애플은 CSAM과 싸우기 위해 오랫동안 더 많은 것을 해야 했지만, 그들이 취하고 있는 접근 방식은 전 세계에 매우 우려스러운 것을 도입하고 있습니다.
• 이것은 Apple이 구축 및 운영하는 보안 감시 시스템으로, 개인 콘텐츠를 스캔하는 데 매우 쉽게 사용될 수 있습니다.
• 또한 iPhone의 메시지 앱은 어린이가 성적으로 노골적인 이미지를 수신하거나 보내려고 할 때마다 경고를 보냅니다.
• Apple은 제안된 백도어(backdoor)에서 자사의 기술 구현이 어떻게 개인 정보 보호와 보안을 유지할 수 있는지를 상세히 설명할 수 있지만, 결국 철저한 문서화되고 신중하게 생각하며 범위를 좁혀진 백도어(backdoor)도 여전히 백도어(backdoor)입니다."
• WhatsApp의 책임자인 Will Cathcart는 트위터 스레드에서 "애플의 접근 방식은 매우 우려스럽다"며 그 안전 조치를 채택하지 않을 것이라고 말했습니다.

이 기술은 이미지가 iCloud 포토에 저장되기 전에 알려진 CSAM과 일치하는 내용을 검색합니다. 그러나 권위주의 정부가 자국민들을 감시하는 데 이 기술이 확대되고 사용될 수 있다는 우려가 있습니다. 

• 실종 아동 및 착취 아동 국립 센터와 함께 발표된 2019년 논문에 따르면 1998년에 아동 성 학대 이미지에 대한 3,000건 이상의 보고가 있었습니다.






Open Wiki - Feel free to edit it. -
8/9 '21 answered



permanent link