Computer >> 컴퓨터 >  >> 네트워킹 >> 인터넷

딥페이크를 탐지할 수 있습니까?

딥페이크를 탐지할 수 있습니까?

소스 이미지가 충분하다면 조던 필을 오바마 대통령으로, 지미 팰런을 존 올리버로, 존 스노우를 실망스러운 왕좌의 게임 팬들을 위한 대변인으로 만드는 것은 그리 어렵지 않습니다. 처음에는 딥페이크를 잡는 것이 그리 어렵지 않았습니다. 심지어 최고의 딥페이크도 흐릿함, 왜곡, 기이한 얼굴 차이와 같은 시각적 효과로 인해 "꺼져" 보이게 만들었습니다.

하지만 이것은 고양이와 쥐 게임이고 우리가 딥페이크를 탐지하는 한 가지 방법을 배우자마자 다음 세대가 결함을 수정하는 것 같습니다. 이에 맞서기 위해 어떤 동영상이 우리를 속이려고 하는지 알아낼 수 있는 신뢰할 수 있는 솔루션이 있습니까?

시각적 단서

딥페이크를 탐지할 수 있습니까?

인공물은 Indiana Jones가 박물관에 보관하는 것뿐만 아니라 이미지나 비디오가 조작된 후 약간의 오차가 남습니다. 초기 딥페이크에서는 종종 사람의 눈으로 포착할 수 있으며 나쁜 딥페이크에는 가장자리 주변이 흐려짐, 지나치게 스무딩된 얼굴, 이중 눈썹, 결함 또는 일반적으로 얼굴이 맞는 방식에 대한 일반적으로 "부자연스러운" 느낌과 같은 몇 가지 경고 신호가 있을 수 있습니다. .

딥페이크를 탐지할 수 있습니까?

그러나 대부분의 경우 이러한 아티팩트가 비디오 데이터를 통해 결합하고 픽셀 수준에서 사물을 검사하는 다른 알고리즘에서만 볼 수 있는 지점까지 기술이 향상되었습니다. 그들 중 일부는 코의 방향이 얼굴의 방향과 일치하는지 확인하는 한 가지 기술과 같이 꽤 창의적일 수 있습니다. 그 차이는 사람이 알아차리기에는 너무 미묘하지만 기계는 그 차이를 꽤 잘 압니다.

생체 인식 단서

딥페이크를 탐지할 수 있습니까?

잠시 동안 딥페이크를 풀기 위한 열쇠는 "눈을 감은" 소스 이미지의 상대적 희소성 덕분에 자연스러운 깜박임 패턴이 부족한 것처럼 보였습니다. 하지만 차세대 딥페이크 기술이 더 나은 깜박임을 통합하여 해당 기술의 효과를 빠르게 줄이는 데 오랜 시간이 걸리지 않았습니다.

딥페이크를 탐지할 수 있습니까?

그러나 알고리즘이 사용되는 언어에 대한 컨텍스트 이해가 필요하기 때문에 딥페이크로 쉽게 자동화할 수 없는 개별적인 단점과 같은 다른 생체 인식 지표는 아직 완전히 해독되지 않았습니다. 놀랐을 때 빠르게 눈을 깜박거리거나 질문할 때 눈썹을 올리는 것과 같은 작은 습관은 딥페이크에 의해 선택되어 사용될 수 있지만 (아직) 자동으로 언제인지 알아낼 수 없기 때문에 반드시 제때에 사용할 수는 없습니다. 이러한 움직임을 전개하십시오.

비디오 이미지를 사용하여 심장 박동을 읽을 수 있는 AI는 딥페이크 감지 외에도 많은 응용 프로그램이 있지만 심박수를 알리는 주기적인 움직임과 색상 변화를 찾는 것은 AI가 생성한 사기꾼을 식별하는 데 도움이 될 수 있습니다. 가장 확실한 선물은 deepfake에 하트비트가 전혀 없지만 deepfake에는 종종 펄스가 있다는 것입니다. 그렇더라도 불규칙(예:얼굴의 다른 부분에 서로 다른 심장 박동수가 표시됨)은 여전히 ​​딥페이크를 식별하는 데 도움이 될 수 있습니다.

AI 프로젝트

딥페이크를 탐지할 수 있습니까?

많은 유명 인사들이 딥페이크 문제를 해결하는 데 매우 관심이 있습니다. Facebook, Google, MIT, Oxford, Berkeley 및 기타 많은 신생 기업과 연구원들은 위에 나열된 방법을 사용하여 가짜 비디오를 찾아내도록 인공 지능을 훈련함으로써 이 문제를 해결하고 있습니다.

딥페이크를 탐지할 수 있습니까?

Facebook과 Google 모두 작업 중인 한 가지는 배우가 작업을 수행하는 고품질 비디오 데이터 세트를 만들고 딥페이크를 만드는 데 사용합니다. 이에 대해 훈련된 AI는 딥페이크의 명백한 징후가 무엇인지 파악하고 이를 탐지하는 임무를 맡을 수 있습니다.

물론 이것은 연구원들이 최신 기술을 사용하여 딥페이크를 계속 생성하는 동안에만 작동합니다. 즉, 발견되는 최신 딥페이크 트릭과 이러한 알고리즘이 이를 포착할 수 있는 사이에는 항상 약간의 지연이 있습니다. 하지만 운이 좋다면 실제 쥐를 사용하여 딥페이크를 식별하는 실험이 성공하여 우리에게 유리할 것입니다.

인증

딥페이크를 탐지할 수 있습니까?

탐지 기술은 딥페이크에 대한 완전한 답은 아니지만 아마도 100% 성공률을 가질 수 없을 것이기 때문입니다. 시간과 돈을 투자한 딥페이크는 아마도 많은 스니핑 테스트와 현재의 AI 방법을 통과할 수 있습니다. 그리고 인터넷이 어떻게 작동하는지 기억합시다. 이러한 가짜가 적발되더라도 어쨌든 일부 사람들은 이를 믿게 될 것입니다.

그렇기 때문에 어떤 형태의 검증 메커니즘을 갖는 것도 중요합니다. 어떤 비디오가 원본인지 또는 비디오가 수정되었는지 여부를 나타낼 수 있는 증거입니다. Factom, Ambervideo 및 Axiom과 같은 회사는 동영상에 대한 데이터를 불변 블록체인에 인코딩하여 하고 있습니다.

이러한 많은 프로젝트의 기본 아이디어는 비디오 파일에 포함되거나 특정 카메라에서 생성된 데이터를 사용하여 비디오가 변조될 경우 변경되는 고유한 서명을 생성할 수 있다는 것입니다. 결국 소셜 미디어에 업로드된 동영상에는 원본 업로더가 원래 동영상 소유자임을 증명하기 위해 블록체인에 등록할 수 있는 인증 코드를 생성하는 옵션이 제공될 수 있습니다.

물론 이러한 솔루션에는 비디오 인코딩이 파일의 데이터를 변경하고 비디오 콘텐츠가 실제로 변경되지 않고 서명을 변경하거나 합법적인 비디오 편집이 서명을 엉망으로 만드는 것과 같은 고유한 문제 세트가 있습니다. 그러나 이미지가 배달을 확인하거나 투자자 지원을 받는 데 사용되는 상업 거래와 같이 위험이 큰 상황에서는 이와 같은 인증 계층을 사용하면 딥페이크 관련 사기를 방지하는 데 도움이 될 수 있습니다.

딥페이크가 Photoshop보다 더 위험합니까?

이 시점에서 우리 모두는 정지 이미지에서 거의 모든 것을 사실적으로 보이게 하는 기술이 존재한다는 것을 완전히 알고 있기 때문에 이미지가 실제가 아닐 수도 있다고 가정합니다. 결국 우리는 Photoshop이 현재 이미지 편집을 하고 있는 것처럼 비디오를 위조하는 것이 쉽고 설득력이 있다는 것과 같은 종류의 회의론을 가지고 비디오에 접근하기 시작할 수 있습니다. 하지만 일반적인 인식으로도 멀지 않은 미래에 적절한 시기에 고품질 딥페이크를 시작하는 실제 사건이 많이 발생한다고 쉽게 상상할 수 있습니다.