디지털 프라이버시1 Apple, CSAM 감지 미실시와 집단 소송 Apple은 자사의 클라우드 서비스 iCloud에서 아동 성착취물(CSAM)을 감지하기 위한 시스템 도입 계획을 철회하며 비판의 중심에 섰습니다. 이 문제는 최근 집단 소송으로 이어졌으며, Apple의 사용자 프라이버시와 아동 보호 사이의 딜레마가 다시 한번 주목받고 있습니다.CSAM이란 무엇인가?CSAM(Child Sexual Abuse Material)은 아동 성적 학대 이미지나 영상을 의미하며, 이를 인터넷을 통해 유포하는 것은 전 세계적으로 불법입니다. 기술 기업들은 이러한 콘텐츠를 감지하고 차단하기 위해 다양한 시스템을 개발해왔습니다. 그러나 Apple은 2021년에 발표했던 CSAM 감지 시스템 도입을 철회하며 논란을 빚고 있습니다.Apple의 CSAM 감지 시스템Apple은 CSAM 감지 시.. 2024. 12. 9. 이전 1 다음