Computer >> 컴퓨터 >  >> 네트워킹 >> 네트워크 보안

딥페이크의 6가지 주요 위험 및 탐지 방법

귀하의 온라인 신원이 귀하와 직접 연결되는 세상에서 완벽한 복제에 대한 전망은 걱정스럽습니다. 그러나 이것이 바로 딥페이크 기술의 출현으로 우리가 직면한 문제입니다.

기술이 더 저렴해지고 사용하기 쉬워짐에 따라 딥페이크의 위험은 무엇입니까? 또한 딥페이크와 실제 거래를 어떻게 구별할 수 있습니까?

딥페이크란 무엇입니까?

딥페이크는 동영상이나 이미지의 인물을 다른 사람의 초상으로 바꾸는 미디어에 부여된 이름입니다. 이 용어는 "딥 러닝"과 "가짜"의 합성어로 기계 학습 알고리즘과 인공 지능을 사용하여 현실적이면서도 종합적인 미디어를 만듭니다.

가장 기본적으로 다른 모델에 겹쳐진 얼굴을 찾을 수 있습니다. 급속도로 발전하는 최악의 상황에서 딥페이크 기술은 순진한 피해자를 가짜 포르노 비디오, 가짜 뉴스, 사기 등으로 엮어냅니다.

딥페이크 설명에서 이 기술의 기원에 대해 자세히 알아볼 수 있습니다.

Deepfakes의 위험은 무엇입니까?

가짜 이미지는 항상 존재했습니다. 무엇이 가짜이고 무엇이 아닌지 알아내는 것은 특히 디지털 미디어의 부상 이후 삶의 일반적인 부분입니다. 그러나 딥페이크 기술이 만들어내는 문제는 다르며, 가짜 이미지와 가짜 비디오에 비할 데 없는 정확도를 제공합니다.

더 많은 청중을 강타한 최초의 딥페이크 동영상 중 하나는 바로 당면한 문제를 논의하는 동영상에서 Barack Obama를 가장한 Jordan Peele이었습니다.

비디오는 복제된 얼굴에 이상한 목소리와 거친 인공물이 있는 조잡하게 보입니다. 그럼에도 불구하고 딥페이크 기술을 보여줍니다.

아니면 만약 Will Smith가 Keanu Reeves 대신에 Matrix에서 Neo를 연기했다면 어땠을지 생각해 본 적이 있습니까? 더 이상 궁금해하지 마세요:

이 두 비디오는 악성이 아니며 컴파일하는 데 수백 시간의 기계 학습이 필요합니다. 그러나 학습할 시간이 충분하고 그에 따른 컴퓨팅 성능이 있는 사람이라면 누구나 동일한 기술을 사용할 수 있습니다. 딥페이크 기술 사용에 대한 장벽은 초기에 상당히 높았습니다. 그러나 기술이 향상되고 진입 장벽이 크게 낮아짐에 따라 사람들은 딥페이크에 대해 부정적이고 해로운 용도를 찾습니다.

딥페이크의 어두운 면을 살펴보기 전에 The Shining에서 Jack Nicholson을 대신한 Jim Carrey가 있습니다.

딥페이크의 6가지 주요 위험 및 탐지 방법

1. 유명인이 등장하는 가짜 성인 자료

딥페이크 기술의 주요 위협 중 하나는 합성 성인 자료 또는 딥페이크 포르노로 알려져 있습니다. Emma Watson, Natalie Portman, Taylor Swift와 같은 저명한 여성 유명인의 얼굴이 등장하는 수만 개의 가짜 성인 비디오가 있습니다.

모두 딥페이크 머신 러닝 알고리즘을 사용하여 유명인의 얼굴을 여성 성인 여배우의 몸에 꿰매고 있으며 모두 수많은 성인 콘텐츠 웹사이트에서 수천만 회의 조회수를 기록하고 있습니다.

그러나 이러한 사이트 중 어느 곳도 유명인 딥페이크에 대해 아무 것도 하지 않습니다.

딥페이크 탐지 및 분석 회사인 Sensity의 CEO이자 수석 과학자인 Giorgio Patrini는 "그들이 그들을 제거하고 걸러내려고 할 강력한 이유가 있을 때까지는 아무 일도 일어나지 않을 것입니다."라고 말했습니다. "사람들은 수억 명이 보는 이러한 웹사이트에 아무런 결과 없이 이러한 유형의 자료를 계속 무료로 업로드할 수 있습니다."

일부 딥페이크 제작자가 주장하는 것처럼 동영상은 착취적이며 피해자가 없는 것은 아닙니다.

2. 일반 사람들이 등장하는 가짜 성인 자료

유명인이 등장하는 합성 포르노보다 더 나쁜 것은 무엇입니까? 맞습니다. 순진한 여성이 등장하는 가짜 성인 자료입니다. Sensity 연구는 소셜 메시징 앱인 Telegram에서 100,000개가 넘는 딥페이크 누드 이미지를 만든 딥페이크 봇을 발견했습니다. 친구, 여자 친구, 아내, 어머니 등이 등장하는 소셜 미디어 계정에서 많은 이미지가 도난당했습니다.

이미지 업로더는 딥페이크, 머신 러닝 또는 AI에 대한 기존 지식이 필요하지 않기 때문에 봇은 딥페이크 기술의 주요 발전입니다. 단일 이미지가 필요한 자동화된 프로세스입니다. 게다가 텔레그램 봇은 여성용 이미지에만 작동하는 것으로 보이며 프리미엄 구독(더 많은 이미지, 워터마크 제거)은 터무니 없이 저렴합니다.

유명인 딥페이크와 마찬가지로 텔레그램 봇 딥페이크 이미지는 착취적이고 학대적이며 비도덕적입니다. 그들은 남편, 파트너, 가족, 동료 또는 상사의 받은 편지함에 쉽게 도달하여 그 과정에서 생명을 파괴할 수 있습니다. 협박 및 기타 형태의 갈취 가능성이 매우 높으며 리벤지 포르노와 같은 기존 문제의 위협을 증가시킵니다.

텔레그램에 딥페이크를 게시하는 것도 또 다른 문제를 야기합니다. Telegram은 사용자를 너무 많이 방해하지 않는 개인 정보 중심의 메시징 서비스입니다. 성인물과 관련된 포르노 봇 및 기타 봇을 제거하는 정책이 있지만 이 경우에는 아무 조치도 취하지 않았습니다.

3. 사기 자료

당신은 조던 필이 오바마를 연기하는 것을 보았을 것입니다. 그 영상에서 그는 딥페이크의 위험성에 대해 경고하고 있습니다. 딥페이크 기술과 관련된 주요 우려 사항 중 하나는 누군가가 동영상을 너무 사실적으로 만들고 게시하여 어떤 형태의 비극을 초래할 수 있다는 것입니다.

사람들은 딥페이크 비디오 콘텐츠가 전쟁을 촉발할 수 있다고 말합니다. 그러나 다른 중요한 결과도 있습니다. 예를 들어, 주요 기업이나 은행 CEO가 피해를 주는 진술을 하는 딥페이크 비디오는 주식 시장 붕괴를 유발할 수 있습니다. 역시나 극단적이다. 하지만 실제 사람이 동영상을 확인하고 확인할 수 있는 반면 글로벌 시장은 뉴스에 즉시 반응하고 자동 매도가 발생합니다.

고려해야 할 또 다른 사항은 볼륨입니다. 딥페이크 콘텐츠 제작 비용이 점점 저렴해짐에 따라 동일한 사람의 딥페이크 콘텐츠가 엄청나게 많을 가능성이 높아져 동일한 가짜 메시지를 다양한 어조, 장소, 스타일 등으로 전달하는 데 집중하고 있습니다.

4. 실제 자료 거부

hoax 자료의 확장으로서 deepfakes가 믿을 수 없을 정도로 현실적이 될 것이라는 점을 고려해야 합니다. 내용에 상관없이 사람들이 동영상이 진짜인지 아닌지 의심하게 될 정도로 말이죠.

범죄를 저질렀는데 증거가 영상뿐이라면 "딥페이크다, 거짓 증거다"라고 말하는 것을 막을 방법은? 반대로 누군가가 찾을 수 있도록 딥페이크 비디오 증거를 심는 것은 어떨까요?

5. 가짜 사상가와 사회적 접촉

선구자 역할을 하는 딥페이크 콘텐츠와 관련된 여러 사례가 이미 있었습니다. LinkedIn 및 Twitter의 프로필에는 전략적 조직의 고위 직책이 자세히 설명되어 있지만 이러한 사람들은 존재하지 않으며 딥페이크 기술을 사용하여 생성될 가능성이 높습니다.

즉, 이것은 딥페이크 관련 문제가 아닙니다. 태초부터 정부, 스파이 네트워크 및 기업은 가짜 프로필과 페르소나를 사용하여 정보를 수집하고, 의제를 푸시하고, 조작했습니다. .

6. 피싱 사기, 사회 공학 및 기타 사기

사회 공학은 보안과 관련하여 이미 문제입니다. 사람들은 다른 사람들을 신뢰하기를 원합니다. 그것은 우리의 본성에 있습니다. 그러나 이러한 신뢰는 보안 침해, 데이터 도난 등으로 이어질 수 있습니다. 사회 공학은 종종 전화, 화상 통화 등의 개인적인 접촉을 필요로 합니다.

누군가 딥페이크 기술을 사용하여 감독을 모방하여 보안 코드 또는 기타 민감한 정보에 액세스할 수 있다고 가정합니다. 이 경우 딥페이크 사기의 홍수로 이어질 수 있습니다.

딥페이크 탐지 및 탐지 방법

딥페이크의 품질이 향상됨에 따라 딥페이크를 식별하는 것이 중요합니다. 초기에는 흐릿한 이미지, 비디오 손상 및 인공물, 기타 결함과 같은 간단한 설명이 있었습니다. 그러나 기술 사용 비용이 급격히 떨어지는 동안 이러한 명백한 문제는 감소하고 있습니다.

딥페이크 콘텐츠를 탐지하는 완벽한 방법은 없지만 다음은 4가지 유용한 팁입니다.

  1. 세부정보 . 딥페이크 기술이 발전함에 따라 여전히 어려움을 겪는 부분이 있습니다. 특히 머리카락의 움직임, 눈의 움직임, 뺨의 구조와 말하는 동안의 움직임, 부자연스러운 표정과 같은 비디오 내의 미세한 디테일. 눈의 움직임은 큰 의미가 있습니다. 딥페이크가 이제 효과적으로 깜박일 수 있지만(초기에는 이것이 중요한 문제였습니다), 눈의 움직임은 여전히 ​​문제입니다.
  2. 감정 . 디테일을 엮는 것은 감성이다. 누군가가 강한 말을 한다면 세부 사항을 전달할 때 얼굴에 다양한 감정이 표시됩니다. Deepfakes는 실제 사람과 같은 깊이의 감정을 전달할 수 없습니다.
  3. 불일치 . 비디오 품질은 사상 최고입니다. 주머니에 넣은 스마트폰으로 4K로 녹화 및 전송할 수 있습니다. 정치 지도자가 발언을 하면 최고 수준의 녹음 장비로 가득 찬 방 앞입니다. 따라서 시각 및 청각 모두에서 열악한 녹음 품질은 현저한 불일치입니다.
  4. 출처 . 동영상이 검증된 플랫폼에 표시되나요? 소셜 미디어 플랫폼은 검증을 사용하여 전 세계적으로 인정받는 사람들이 모방되지 않도록 합니다. 물론 시스템에 문제가 있습니다. 그러나 특히 심각한 비디오가 어디에서 스트리밍되고 있거나 호스팅되고 있는지 확인하면 실제인지 여부를 파악하는 데 도움이 됩니다. 인터넷에서 이미지가 발견된 다른 위치를 나타내기 위해 역 이미지 검색을 수행할 수도 있습니다.

딥페이크 탐지 및 방지 도구

딥페이크 발견과의 싸움에서 당신은 혼자가 아닙니다. 몇몇 주요 기술 회사는 딥페이크 탐지를 위한 도구를 개발하고 있으며 다른 플랫폼에서는 딥페이크를 영구적으로 차단하기 위한 조치를 취하고 있습니다.

예를 들어, Microsoft의 딥페이크 탐지 도구인 Microsoft Video Authenticator는 몇 초 안에 분석하여 사용자에게 진위를 알려줍니다(예를 보려면 아래 GIF 참조). 동시에 Adobe를 사용하면 콘텐츠를 디지털 서명하여 조작으로부터 보호할 수 있습니다.

Facebook 및 Twitter와 같은 플랫폼은 이미 악성 딥페이크를 금지했으며(The Matrix의 Will Smith와 같은 딥페이크는 여전히 공정한 게임입니다), Google은 가짜 오디오 스니펫에 대응하기 위한 TTS(텍스트 음성 변환) 분석 도구를 개발 중입니다.

가짜 미디어 탐지 기술을 연마하고 싶다면 탐지 및 학습을 위한 가짜 탐지 테스트 목록을 확인하세요.

Deepfakes가 오고 있으며 점점 더 좋아지고 있습니다

문제의 진실은 2018년에 딥페이크가 주류를 이룬 이후로 주로 여성을 학대하는 데 사용된다는 것입니다. 유명인의 얼굴을 사용하여 가짜 포르노를 제작하거나 소셜 미디어에서 다른 사람의 옷을 벗기는 것이 모두 전 세계 여성을 착취, 조종 및 비하하는 데 중점을 둡니다.

딥페이크의 반란이 곧 일어날 것이라는 데는 의심의 여지가 없습니다. 이러한 기술의 부상은 대중에게 위험을 안겨주지만 앞으로 나아가는 것을 막을 방법은 거의 없습니다.