newsroom 8/22 posted
연구자들은 아동 성학대 물질(CSAM)을 감지하고 플래그를 지정하는 애플의 새로운 시스템의 특정 부분을 조사했으며, 명백히 다른 두 개의 이미지가 동일한 암호화 지문을 공유한다고 속일 수 있었다고 주장합니다.

• 그런 다음 이러한 해시를 NCMEC(National Center for Missing and Invicted Children) 데이터베이스에 있는 사진의 해시와 비교합니다.
• 개발자인 Asuhariet Ygvar는 Github에서 재구성된 NeuralHash의 Python 버전에 대한 코드를 게시했습니다.
• "초기 테스트에서 이미지 크기 조정과 압축을 허용할 수 있지만 자르거나 회전할 수는 없는 것으로 나타났습니다.
• 모든 iOS 기기에서 활성화하기 전에 NeuralHash 알고리즘을 더 잘 이해하고 잠재적 문제를 파악하는 데 도움이 되길 바랍니다.
• 8월 초 애플이 발표한 안티CSAM 시스템의 해싱 기술인 뉴럴해시의 구현에 대해 깃허브 사용자 아수하리에 이그바(Asuhariet Ygvar)가 어제 발표했습니다.
• 그러나 애플은 마더보드에게 이메일을 통해 GitHub에서 사용자가 분석한 버전은 일반 버전이며, 아이클라우드 포토 CSAM 탐지에 사용될 최종 버전은 아니라고 밝혔습니다.
• 애플이 새로운 반CSAM 시스템을 발표한 이후 프라이버시 및 보안 전문가들은 물론 일반 대중들도 이 시스템이 어떻게 악용될 수 있는지에 대한 우려를 제기해 왔다.
• Reddit 게시물에서 Ygvar는 NeuralHash가 iOS 14.3에 난독화된 코드로 "이미 존재하고" 있지만 올해 말 iOS와 macOS 기기에 배포되기 전에 다른 보안 연구자들이 알고리즘을 더 잘 이해할 수 있도록 기술을 재구성할 수 있었다고 말했습니다.
• 연구진이 iOS의 내장 해시 기능에서 결함을 발견, 애플 CSAM 스캔 시스템의 무결성에 대한 새로운 우려를 제기하고 있습니다.





Login to comment

Open Wiki - Feel free to edit it. -
8/22 answered



permanent link

Login to comment