Computer >> 컴퓨터 >  >> 네트워킹 >> 네트워크 보안

Apple이 사진 스캔 기능을 포기한 이유는 무엇입니까?

2021년 8월, Apple은 iPhone에서 아동 성적 학대 이미지를 스캔할 계획임을 밝혔습니다. 이러한 움직임은 아동 보호 단체로부터 박수를 받았지만 이 기능이 오용될 수 있다는 프라이버시 및 보안 전문가들의 우려를 불러일으켰습니다.

Apple은 처음에 iOS 15에 CSAM(아동 성적 학대 자료) 스캔 기술을 포함할 계획이었습니다. 대신 정식 출시 전에 피드백을 받기 위해 기능 출시를 무기한 연기했습니다.

그렇다면 CSAM 감지 기능이 뜨거운 논쟁의 대상이 된 이유는 무엇이며 Apple이 출시를 연기한 이유는 무엇입니까?

Apple의 사진 스캔 기능은 무엇을 합니까?

Apple이 사진 스캔 기능을 포기한 이유는 무엇입니까?

Apple은 아동 성적 학대를 근절하기 위해 사진 스캔 기능을 구현한다고 발표했습니다. Apple 사용자의 기기에 있는 모든 사진은 Apple에서 만든 "NueralHash" 알고리즘을 사용하여 소아성애 콘텐츠를 검색합니다.

또한, 어린이가 사용하는 모든 Apple 기기에는 어린이가 성인 사진을 받으면 자동으로 흐리게 처리하는 안전 기능이 있으며, 어린이가 이를 열려고 하면 사용자에게 두 번 경고가 표시됩니다.

성인 콘텐츠에 대한 노출을 최소화하는 것 외에도 추가 안전을 위해 부모가 자녀 소유의 기기를 등록하면 자녀가 온라인에서 누군가로부터 음란물을 받는 경우 부모에게 알림이 전송됩니다.

더 읽어보기:Apple의 아동 안전 보호에 대해 알아야 할 사항

Siri를 사용하여 어린이를 성희롱하는 모든 것을 찾는 성인의 경우 Siri는 해당 검색을 수행하지 않고 대신 다른 대안을 제안합니다.

알고리즘에 의해 의심스러운 것으로 간주되는 10장 이상의 사진이 포함된 모든 장치의 데이터는 해독되어 사람이 검토합니다.

기기에 있는 사진이나 기타 항목이 국립 실종 착취 아동 센터에서 제공한 데이터베이스와 일치하는 것으로 판명되면 당국에 신고되고 사용자 계정이 정지됩니다.

사진 스캐닝 기능에 관한 주요 관심사

CSAM 감지 기능은 2021년 9월 iOS 15 출시와 함께 시작되었지만 광범위한 항의에 직면하여 Apple은 피드백을 수집하고 이 기능을 개선하는 데 더 많은 시간을 할애하기로 결정했습니다. 다음은 지연에 대한 Apple의 전체 성명입니다.

<블록 인용>

"지난 달 우리는 의사소통 도구를 사용하여 아동을 모집하고 착취하는 포식자로부터 아동을 보호하고 아동 성적 학대 자료의 확산을 제한하는 데 도움이 되는 기능에 대한 계획을 발표했습니다.

고객, 옹호 단체, 연구원 및 기타 사람들의 피드백을 기반으로, 우리는 이러한 매우 중요한 아동 안전 기능을 출시하기 전에 의견을 수집하고 개선하기 위해 앞으로 몇 달 동안 추가 시간을 들이기로 결정했습니다."

Apple의 사진 스캔 기능과 관련된 우려의 거의 절반은 개인 정보 보호에 관한 것입니다. 나머지 주장에는 알고리즘의 가능한 부정확성 및 시스템 또는 시스템의 허점의 잠재적인 오용이 포함됩니다.

네 부분으로 나누어 보겠습니다.

잠재적인 오용

Apple이 사진 스캔 기능을 포기한 이유는 무엇입니까?

아동 포르노 또는 아동 성적 학대에 대한 알려진 이미지와 일치하는 모든 자료가 장치를 "의심스러운" 목록에 올리게 될 것이라는 사실을 알고 있으면 사이버 범죄자가 움직일 수 있습니다.

그들은 iMessage, WhatsApp 또는 기타 수단을 통해 의도적으로 부적절한 콘텐츠를 퍼뜨리고 그 사람의 계정을 정지시킬 수 있습니다.

Apple은 사용자가 오해로 인해 계정이 일시 중지된 경우 이의를 제기할 수 있음을 확인했습니다.

내부자 학대

이 기능은 자비로운 목적을 위해 설계되었지만 통신을 모니터링하는 데 관심이 있는 친척이 자신의 장치를 시스템에 등록한 경우 여부에 관계없이 특정 사람들에게 총체적 재앙이 될 수 있습니다.

그런 일이 발생하지 않더라도 Apple은 하루가 끝날 때 사용자 데이터에 액세스할 수 있도록 백도어를 만들었습니다. 이제 사람들이 다른 사람의 개인 정보에 액세스하려는 동기와 결단의 문제입니다.

이는 중대한 사생활 침해를 조장할 뿐만 아니라 학대하거나 유독하거나 통제하는 친척, 보호자, 친구, 연인, 간병인 및 전직 애인이 다른 사람의 개인 공간을 더 침범하거나 자유를 제한할 수 있는 길을 열어줍니다.

한편으로는 아동 성적 학대와 싸우기 위한 것입니다. 다른 한편으로는 다른 종류의 학대를 더욱 지속시키는 데 사용될 수 있습니다.

정부 감시

Apple이 사진 스캔 기능을 포기한 이유는 무엇입니까?

Apple은 항상 경쟁사보다 개인 정보 보호에 더 민감한 브랜드라고 선전해 왔습니다. 그러나 지금은 정부의 사용자 데이터 투명성에 대한 끝없는 요구를 충족시켜야 하는 미끄러운 경사면에 접어들고 있을지도 모릅니다.

소아성애 콘텐츠를 감지하기 위해 만든 시스템은 전화기에서 모든 종류의 콘텐츠를 감지하는 데 사용할 수 있습니다. 즉, 컬트 사고 방식을 가진 정부가 사용자를 손에 넣으면 더 개인적인 수준에서 사용자를 모니터링할 수 있음을 의미합니다.

억압적이든 아니든, 정부가 일상 및 개인 생활에 개입하는 것은 불안할 수 있으며 사생활을 침해하는 것입니다. 잘못된 일을 했을 때만 그런 침략에 대해 걱정하면 된다는 생각은 잘못된 생각이며 앞서 말한 미끄러운 비탈을 보지 못합니다.

잘못된 경보

사진을 데이터베이스와 일치시키기 위해 알고리즘을 사용할 때 가장 큰 문제 중 하나는 잘못된 경보입니다. 해싱 알고리즘은 동일하지 않은 경우에도 두 장의 사진을 일치하는 것으로 잘못 식별할 수 있습니다. "충돌"이라고 하는 이러한 오류는 아동 성적 학대 콘텐츠와 관련하여 특히 우려스럽습니다.

연구원들은 Apple이 이미지 스캔에 알고리즘을 사용할 것이라고 발표한 후 "NeuralHash"에서 여러 충돌을 발견했습니다. Apple은 잘못된 경보에 대한 질문에 결과는 최종적으로 사람이 검토하므로 사람들이 그것에 대해 걱정할 필요가 없다고 지적하여 답변했습니다.

Apple의 CSAM 일시 중지는 영구적입니까?

Apple이 제안한 기능에는 많은 장단점이 있습니다. 하나하나가 진품이고 무게감이 있습니다. Apple이 비평가를 만족시키기 위해 CSAM 스캔 기능에 어떤 구체적인 변경 사항을 도입할 수 있는지는 아직 확실하지 않습니다.

사용자의 장치를 포함하는 대신 공유 iCloud 앨범으로 스캔을 제한할 수 있습니다. Apple은 일반적으로 계획을 포기하는 경향이 없기 때문에 이러한 계획을 완전히 철회할 가능성은 거의 없습니다.

그러나 광범위한 반발과 Apple의 계획 보류로 인해 기업은 특히 테스트되지 않은 기술에 대해 처음부터 연구 커뮤니티를 통합해야 한다는 것이 분명합니다.