소셜/인터넷

애플 아이클라우드에 저장된 아동 성학대 이미지 검출해 사법기관에 신고한다


  • 우예진 기자
    • 기사
    • 프린트하기
    • 크게
    • 작게

    입력 : 2021-08-09 09:54:28

    [베타뉴스=우예진 기자]

    BBC는 8월 6일(현지시간) 애플이 미국 아이폰 유저가 이미지를 아이클라우드(iCloud) 서비스에 저장할 때 아동 성학대 컨텐츠(CSAM)가 포함되었는지 여부를 확인하는 시스템 도입 발표 소식을 전했다. 애플에 따르면 컨텐츠가 아이클라우드 내에 보존되기 전 검수가 진행된다고 한다.

    전미 실종 및 학대아동센터(NCMEC)를 비롯 아동 안전 관련 단체가 수집한 아동 성학대 컨텐츠 데이터베이스와 아이폰 유저가 아이클라우드에 보존하려는 컨텐츠를 비교하는 구조다. 애플은 컨텐츠가 편집되어도 오리지널 컨텐츠와 유사한 부분을 확인할 수 있다고 전했다.

    만약 아동 성학대 컨텐츠로 판단된 경우, 사람이 내용을 확인한 후 이 사실을 사법 기관에 통보하게 된다. 

    애플은 “이미지를 아이클라우드포토(iCloudPhotos)에 보존하기 전 단말기 상 이미지와 기존 데이터베이스에 보관된 이미지를 비교한다”고 설명했다. 이 시스템은 매우 정밀도가 높아서 특정 유저 계정에 잘못된 경고를 전송할 확률은 1년간 1조분의 1 이하라고 전했다. 만약 아동 성학대 컨텐츠가 확인되면 유저 계정을 정지시킨 뒤, 사법 기관에 신고하기 위한 조치를 취하게 된다.

    애플은 해당 유저가 아이클라우드포토 계정에 아동 성학대 이미지를 보관 중인 경우로 한정되므로, 기존 기술에 비해서 프라이버시 보호 면에서 메리트가 크다고 전했다.

    한편, 이런 기술이 정치적인 컨텐츠 등 다른 분야에도 적용될 경우 프라이버시 침해 우려가 커진다. 전문가들은 독재 정부가 자국민을 감시하는데 이 기술을 이용할 가능성도 있다고 우려를 표명했다.


    베타뉴스 우예진 기자 (w9502@betanews.net)
    Copyrights ⓒ BetaNews.net





    http://m.betanews.net/1275064?rebuild=on