구글 아들 사타구니 의료영상 촬영한 남성

구글 아들 사타구니 의료영상 촬영한 남성 계정 복원 거부

구글 아들

카지노제작 전문가들은 이 사례가 아동 성적 학대 이미지의 자동 감지의 잘 알려진 위험을 강조한다고 말합니다.

구글이 아들의 사타구니를 촬영한 의료 이미지를 아동 성적 학대 자료(CSAM)로 잘못

신고한 남성의 계정 복원을 거부했다고 뉴욕 타임즈가 처음 보도했다. 전문가들은 사회적 문제에 기술적 솔루션을 적용하려는 시도의 불가피한 함정이라고 말합니다.

전문가들은 특히 기업이 성적 학대 자료의 존재를 해결하는 데 도움이 되는 규제

및 대중의 압력에 직면함에 따라 자동화된 아동 성적 학대 이미지 감지 시스템의 한계에 대해 오랫동안 경고해 왔습니다.

“이러한 회사는 사람들의 삶에 대한 엄청난 양의 데이터에 접근할 수 있습니다.

그리고 여전히 사람들의 실제 삶이 어떤 것인지에 대한 맥락이 없습니다.”라고 ACLU의 수석 기술자인 Daniel Kahn Gillmor가 말했습니다.

“이러한 정보 거인들은 당신의 삶의 사실을 읽을 수 없는 모든 종류의 일들이 있습니다.” 그는 법 집행을 위해 “대리 역할을 하는” 기술 회사가 이러한 시스템을 사용하면 사람들이 “국가의 힘”에 “휩쓸릴” 위험에 처하게 된다고 덧붙였습니다.

New York Times에서 Mark로만 확인된 이 남성은 아들의 사타구니 사진을 찍어 염증이 생긴 것을 알게 된 후 의사에게 보내기 위해 사진을 찍었습니다. 의사는 그 이미지를 사용하여 마크의 아들을 진단하고

항생제를 처방했습니다. 사진이 클라우드에 자동으로 업로드되었을 때 Google 시스템은 사진을 CSAM으로 식별했습니다.

구글 아들

이틀 후 Mark의 Gmail 및 전화 서비스를 제공하는 Google Fi를 포함한 다른

Google 계정은 “회사 정책에 대한 심각한 위반이며 불법일 수 있는” “유해한 콘텐츠”로 인해 사용이 중지되었습니다. 그의 전화에 메시지입니다.

그는 나중에 구글이 자신의 휴대전화에 있는 다른 동영상을 신고했다는 사실과 샌프란시스코 경찰서에서 그에 대한 조사를 시작했다는 사실을 알게 되었습니다.

마크는 범죄 혐의에 대해 무혐의 처분을 받았지만 구글은 결정을 지지할 것이라고 밝혔다.

구글 대변인 크리스타 멀둔(Christa Muldoon)은 “우리는 CSAM을 구성하는 요소를

정의할 때 미국 법을 따르고 해시 매칭 기술과 인공 지능을 조합해 이를 식별하고 우리 플랫폼에서 제거한다”고 말했다.

Muldoon은 CSAM을 검토하는 Google 직원이 발진이나 기타 문제를 찾기 위해 의료

전문가로부터 교육을 받았다고 덧붙였습니다. 그러나 그들 자신은 의료 전문가가 아니며 각 사례를 검토할 때

의료 전문가와 상의하지 않았다고 그녀는 말했다.

Gillmor에 따르면 이는 이러한 시스템이 해를 입힐 수 있는 한 가지 방법일 뿐입니다.

예를 들어, 알고리즘이 유해한 성적 학대 이미지와 의료 이미지를 구별할 때 가질 수 있는 제한 사항을 해결하기 위해 회사는

종종 인간을 루프에 둡니다. 그러나 이러한 인간은 본질적으로 전문 지식이 제한되어 있으며 각 사례에 대한 적절한 컨텍스트를 얻으려면 사용자 데이터에 대한 추가 액세스가 필요합니다. Gillmor는 CSAM을 탐지하는

데 여전히 비효율적인 방법이 될 수 있는 훨씬 더 침입적인 프로세스라고 말했습니다.

“이러한 시스템은 사람들에게 실질적인 문제를 일으킬 수 있습니다.”라고 그는 말했습니다.More news