AI는 이미 우리가 기술과 상호 작용하는 방식을 변화시키고 있습니다. 불행하게도 사기꾼과 기타 악의적인 행위자들은 강력한 AI 도구를 악용하여 해킹하고, 잘못된 정보를 유포하고, 이전보다 더 큰 규모로 사기를 저지르고 있습니다.
이 기사에서는 가장 일반적인 AI 사기를 식별하는 방법과 AI 지원 사기로 인한 잠재적인 위험으로부터 자신을 보호하는 방법에 대해 알아봅니다.
AI 사기란 무엇인가요?
AI 사기는 인공 지능 기술의 도움을 받아 저지르는 사기입니다. 해커와 사기꾼은 불법 다크 AI 도구를 사용하여 딥페이크, AI 음성 복제, AI 피싱 공격을 활용하여 대규모 복잡한 범죄를 저지르고 개인 정보를 도용하고 무고한 인터넷 사용자를 속이는 데 도움을 줍니다.
AI 사기는 피해자와 법 집행 기관이 탐지하기 어렵고, AI와 관련된 사기 사례 3분의 1 정도가 성공합니다. 인공 지능 사기에 대한 첫 번째 방어선은 지식, 즉 사기꾼의 속임수를 발견하면 이를 감지하는 방법을 아는 것입니다.
AI 사기가 왜 그렇게 위험한가요?
AI 사기는 감지하기가 너무 어렵기 때문에 특히 안전하지 않습니다. 이제 사기꾼은 자신의 계획을 더욱 설득력 있게 만드는 AI 도구를 사용할 수 있습니다. AI는 또한 더 많은 수의 사기가 여러 채널에 걸쳐 더 효율적으로 실행될 수 있기 때문에 사기꾼의 손에 위험합니다.
AI 사기는 그 어느 때보다 정교해졌습니다. 딥페이크와 AI 음성 클론(AI가 누군가의 얼굴이나 목소리를 가장하는 것)을 사용하면 사기꾼이 피해자를 가장하고 조작하는 것이 더 쉬워집니다. 디지털 ID 회사 Signicat의 조사에 따르면, 생성 AI가 주류로 자리잡은 2022년 이후 Deepfake가 2,100% 이상 급증했습니다.
기술 기업과 법 집행 기관은 AI 위협으로부터 사용자를 보호하기 위해 안간힘을 쓰고 있지만 AI 기술은 빠르게 발전하고 있어 따라가기가 어렵습니다. 우리가 전례 없는 발전의 시대에 진입하고 있다는 사실은 부인할 수 없지만, 위험도 인식해야 합니다.
일반적인 AI 사기 유형
일반적인 AI 사기를 식별하는 방법을 배우는 것은 피해자가 되지 않도록 자신을 보호하는 가장 좋은 방법 중 하나입니다. 다음은 AI 사기꾼의 툴킷에서 가장 인기 있는 몇 가지 트릭입니다.
1. AI 음성 복제
AI 음성 복제는 사기꾼이 AI 기술을 이용해 누군가의 목소리를 모방할 때 발생합니다. 비싱('음성'과 '피싱'의 합성어)이라고도 알려진 사기꾼은 음성을 모방하여 피해자에게 돈이나 개인 정보를 보내도록 조작합니다.
예를 들어, 사기꾼이 상사의 목소리를 흉내내 전화를 걸어 민감한 회사 데이터를 확인해달라고 요청할 수 있습니다. 아니면 사랑하는 사람의 흉내를 내며 긴급 재정 지원을 요청하는 전화를 할 수도 있습니다.
알고 계셨나요? 사기꾼이 귀하의 음성을 정확하게 복제하려면 3초의 오디오만 있으면 됩니다. 그러면 그들은 당신을 사칭하여 놀라울 정도로 정확하게 의사소통을 할 수 있습니다.
2023년 애리조나주 엄마 제니퍼 드스테파노(Jennifer DeStefano)는 자신의 '딸' 브리(Brie)로부터 자신이 납치됐다는 전화를 받았다. DeStefano는 "목소리는 Brie의 목소리와 억양 등 모든 것이 똑같았습니다."라고 말했습니다. 사기꾼들은 몸값으로 100만 달러를 요구했는데 다행히도 DeStefano는 계략이 밝혀지기 전에 지불하지 않았습니다.
AI 전화 사기에 빠지지 않으려면 사랑하는 사람이나 동료가 긴급하거나 무서운 요구로 전화하더라도 당황하지 마십시오. 전화를 끊고 다른 통신 채널을 통해 전화하여 첫 번째 통화가 합법적인지 확인하십시오. 귀하와 귀하가 사랑하는 사람만이 아는 안전한 문구, 단어 또는 질문을 갖는 것도 좋은 생각입니다. 대상이 되는 경우 합의된 용어를 사용하십시오.
2. 딥페이크 사기
Deepfake 사기는 사기꾼이 비디오에서 다른 사람의 디지털 복제물을 만드는 일종의 AI 사기입니다. 이러한 동영상은 사람의 외모와 목소리를 거의 완벽하게 흉내낼 수 있습니다.
Deepfake 사기에는 사전 녹화된 동영상이나 실시간 동영상이 사용될 수 있으므로 피해자는 실제로 사기꾼과 대화할 때 친구나 동료와 영상 통화를 하고 있다고 생각할 수 있습니다. 사기꾼은 일반적으로 유명인과 영향력 있는 인물을 딥페이크합니다.
최근 한 사례에서는 딥페이크를 한 머스크가 은퇴한 간호사 Joseph Ramsubhag에게 암호화폐 사기를 권유했습니다. 시간이 지남에 따라 사기꾼은 그에게 부의 증가에 대해 알려 주었고, 이는 그가 사기에 수십만 달러를 더 투자하도록 장려했습니다. Ramsubhag는 팔려고 했을 때 곧 돈이 없어졌다는 사실을 알게 되었습니다.
이와 같은 딥페이크는 점점 더 보편화되고 있으며 사기로 인한 손실은 향후 몇 년 내에 400억 달러 이상으로 늘어날 것으로 예상됩니다.
자신을 보호하려면 믿기 어려울 만큼 좋은 약속을 조심하세요. 특히 유명 인사가 대화를 나누는 경우에는 더욱 그렇습니다. 그리고 아는 사람으로부터 긴급 영상 통화나 메시지를 받은 경우 조치를 취하기 전에 다른 플랫폼으로 전화하여 신원을 확인하세요.
추가 보호를 받으려면 Norton 360 Deluxe에 포함된 사기 방지 제품군을 사용하십시오. 고급 AI를 기반으로 패턴과 영상 단서를 분석하여 딥페이크 및 기타 정교한 사기를 감지하므로 위협이 해를 끼치기 전에 조기에 발견하고 차단할 수 있습니다.
3. AI 기반 봇
AI 봇은 사기 행위, 개인 정보 제공, 악성 링크 클릭 등의 조치를 취하도록 사용자를 조작하는 온라인 챗봇입니다. 이 봇은 인간과 유사한 대화를 하도록 프로그래밍되어 있지만 생성 AI 도구를 기반으로 합니다.
AI 챗봇은 은행의 기술 지원이나 데이트 사이트의 로맨틱한 만남 등 신뢰할 수 있는 사람과 조직을 모방하는 경우가 많습니다. 또한 DM으로 연락하기 전에 귀하의 콘텐츠에 좋아요를 누르고 댓글을 달아 소셜 미디어에서 귀하와 소통할 수도 있습니다.
AI 챗봇은 인터넷 어디에나 있습니다. Microsoft는 매 시간마다 약 160만 개의 계정이 Microsoft 계정에 가입하지 못하도록 차단한다고 주장하지만, 다른 영역과 다른 사이트에서는 더 많은 계정이 빠져나갈 가능성이 높습니다.
자신을 보호하려면 신뢰하는 사람과 채팅 중이라고 생각되더라도 채팅을 통해 개인 정보를 제공하지 마세요. 채팅, 이메일, 문자를 통해 전송된 링크는 절대 클릭하지 마세요. 특히 알 수 없는 발신자가 보낸 링크라면 더욱 그렇습니다.
4. AI가 생성한 가짜 웹사이트
사기꾼들은 AI를 사용하여 실제 기업, 정부 페이지, 미디어 등을 모방한 가짜 웹사이트를 구축하고 있습니다. 예전에는 상세한 웹페이지를 만드는 데 시간이 걸렸습니다. 하지만 이제 사기꾼은 AI를 사용하여 몇 분 만에 이미지, 제품 설명, 심지어 고객 리뷰까지 생성할 수 있습니다.
전문가 의견
"단 몇 번의 클릭만으로 피싱 사이트를 만드는 VibeScams 시대에 오신 것을 환영합니다. 인터넷에 연결된 사람이라면 누구나 믿을 수 있는 충실도로 신뢰할 수 있는 브랜드를 복제할 수 있습니다." - 젠 블로그, 2025
Jan Rubín, 위협 연구 팀장
사기꾼은 정교한 파밍 공격을 통해 피해자를 AI가 만든 사기 웹사이트로 유인하여 개인 정보나 금융 정보를 입력합니다. 피해자들은 자신이 제품을 구매하거나 계정에 로그인한다고 생각하지만 실제로는 자신의 정보를 사기꾼에게 직접 보내는 것입니다.
AI가 만든 파밍 웹사이트의 작동 방식을 보여주는 그림.
그런 다음 사기꾼은 입력 정보를 금융 사기, 신원 도용, 피싱 공격에 사용합니다. 아니면 다크 웹에서 민감한 데이터를 판매합니다.
PayPal과 같은 은행 및 온라인 금융 서비스는 일반적으로 사기꾼에 의해 위조됩니다. 실제 사이트와 차이가 있는지 항상 URL(웹 주소)에 주의 깊게 살펴보세요.
항상 검색창에 주소를 입력하거나 북마크를 사용하여 웹사이트를 방문하세요. 소셜 미디어나 메시지에 웹사이트 링크가 보이면 클릭하지 마세요. 사기꾼 사이트로 연결될 수 있습니다.
5. AI가 생성한 로맨스 사기
AI 로맨스 사기는 사기꾼이 피해자의 마음을 사로잡기 위해 AI 도구를 사용할 때 발생합니다. 그런 다음 돈을 보내도록 조작합니다.
로맨스 사기는 AI를 사용하여 존재하지 않는 사람의 사진, 음성, 동영상을 생성합니다(또는 실제 사람을 딥페이크할 수도 있음). 그런 다음 사기꾼은 데이트 프로필, 소셜 미디어 계정 등을 설정하여 가짜 사람에게 디지털 발자국을 제공합니다. AI 챗봇 사기꾼은 동시에 많은 피해자와의 대화를 자동화하므로 AI가 모든 유혹을 수행하는 동안 편안히 앉아 휴식을 취할 수 있습니다.
최근 Nikki MacLeod라는 스코틀랜드 여성은 실제로 존재하지 않는 연인과 관계를 구축하면서 은행 송금, PayPal 거래, 기프트 카드 형태로 £17,000를 속았습니다. 그녀는 회의적이라고 느꼈지만 지금은 딥페이크라는 사실을 알고 안심했습니다.
알고 계셨나요? GPT 4.5와 같은 생성 AI 모델은 이미 Turing 테스트를 통과했습니다. 즉, 인간은 더 이상 자신이 AI 봇과 대화하고 있는지 아니면 다른 인간과 대화하고 있는지 알 수 없습니다. 따라서 AI의 로맨틱한 발전에 면역이 될 것이라고 확신한다면 다시 생각해 보세요.
6. AI가 생성한 피싱 공격
피싱 공격은 해커가 귀하의 개인 정보를 수집하기 위해 다른 사람인 것처럼 가장하여 메시지를 보내는 사회 공학적 계획입니다.
AI 이전에는 사기꾼이 피싱 메시지를 직접 작성하고 피해자에게 답장을 해야 했습니다. 이제 이 모든 것이 AI로 자동화될 수 있습니다. 사기꾼은 몇 초 만에 설득력 있는 메시지를 생성할 수 있습니다. 그리고 과거의 투박하고 오류가 가득한 메시지와는 달리 AI는 진실하게 들리며 오타와 같은 인간의 실수를 저지르지 않습니다.
다행스럽게도 AI로 구동되는 새로운 도구는 개인과 기업이 메시지에서 사기 징후를 신속하게 검사하는 데 도움을 주고 있습니다. Norton Genie와 같은 AI 도구는 수십만 개의 피싱 메시지를 식별하여 AI 스팸 및 사기로부터 사람들을 보호하는 데 도움을 주었습니다.
2025년 첫 몇 달 동안 발견된 사이버 안전 동향을 자세히 설명하는 최신 Gen 위협 보고서에 따르면 Norton Genie가 감지한 모든 사기 중 피싱 사기가 30% 이상을 차지하며 이는 이전 분기보다 465% 증가한 수치입니다.
그래프는 2025년 첫 3개월 동안 Norton Genie가 감지한 사기 유형의 분석을 보여줍니다.
7. AI 기반 투자 사기
AI 투자 사기는 큰 수익을 약속하며 피해자를 속여 돈을 보내도록 합니다. 사기꾼은 AI에서 생성된 피싱 메시지와 AI 챗봇을 사용하여 사회 공학 전술을 자동화합니다. 이러한 사기꾼 효율성 향상으로 인해 2023년 이후 투자 사기가 24% 증가했습니다.
사기꾼은 피해자의 신뢰를 얻기 위해 딥페이크와 음성 클론을 사용하여 Elon Musk, Warren Buffett 등 금융계의 저명한 인물을 흉내내는 경우가 많습니다.
사기꾼과 함께 투자하는 것은 합법적인 것처럼 보일 수 있습니다. 많은 투자 사기 사이트는 가짜 웹사이트에 의해 호스팅되거나 실제 담당자가 전화로 통화합니다. 하지만 일단 돈을 보내면 다시는 볼 수 없습니다.
이러한 사기를 피하려면 돈에 대한 중요한 결정을 내리기 전에 은행이나 재무 설계사와 상담하세요. 빨리 부자가 되겠다는 약속을 조심하세요. 특히 긴급 조치가 필요하거나 사실상 추적이 불가능하기 때문에 사기꾼들이 가장 선호하는 암호화폐가 관련된 경우에는 더욱 그렇습니다. 그리고 소셜 미디어 게시물에서 투자 조언을 절대 받아들이지 마세요.
뉴스에 등장하는 AI 사기
AI를 사용하는 사기꾼들은 피해자 수억 명을 속였으며 그들의 이야기는 글로벌 언론에 등장했습니다. 다음은 뉴스에 등장한 가장 큰 AI 사기 몇 가지입니다.
딥페이크 전화회의
영국 엔지니어링 회사인 Arup의 한 직원은 회사 최고 관리자와의 영상 통화에서 송금 확인을 받은 후 약 2,500만 달러를 범죄자에게 송금했습니다.
알고 보니 그 직원은 관리자들과 전혀 대화를 나누지 않았습니다. 회의 참석자들은 모두 딥페이크였습니다. 이는 대기업 최고 경영진의 실시간 딥페이크가 동시에 이루어지는 매우 정교한 딥페이크 공격이었습니다.
이 이야기는 딥페이크가 주요 기업의 최고 수준을 표적으로 삼는 방법을 보여줍니다. 2024년 딜로이트 여론조사에 따르면 경영진의 15% 이상이 조직에서 딥페이크 사건을 한 번 이상 경험한 것으로 나타났습니다.
조 바이든 AI 음성 복제
2024년에 사기꾼들은 뉴햄프셔 유권자에게 자동 녹음 전화를 걸어 다가오는 주의 예비선거에서 투표하지 말라고 말함으로써 미국 대통령 선거를 흔들려고 했습니다.
문제는 전화가 Joe Biden을 가장한 AI에서 왔다는 것입니다. 그것은 고전적인 바이든주의로 시작되었습니다:"정말 나쁜 놈들이에요." 그리고 여론조사에 참여하지 않고 집에 머물고 싶은 충동으로 계속되었습니다. AI 사기는 빠르게 밝혀졌지만 AI가 선거나 기타 정치 활동을 조작하는 데 얼마나 쉽게 사용될 수 있는지 보여줍니다.
최근 세계경제포럼(World Economic Forum)은 AI의 잘못된 정보를 "세계적 규모의 위기"의 두 번째 위험 요소로 꼽았습니다. 많은 국가에서 이미 사기꾼과 외국의 적에 의한 선거 개입을 경험했습니다.
Taylor Swift 딥페이크가 팬을 사기
그녀의 메가스타 지위로 인해 Taylor Swift는 가장 딥페이크된 유명인 중 하나입니다. 최근 사기 사건에서 그녀는 팬들에게 Le Creuset 조리기구 세트를 무료로 제공하는 일련의 소셜 미디어 광고에 출연했습니다.
혜택을 받으려면 참가자는 개인 정보를 제공하고 배송비를 소액 결제해야 했습니다. 물론 해당 영상은 가짜였습니다. Swift는 그런 제안을 한 적이 없습니다. 사기꾼들은 수천 명의 Swifties의 현금, 금융 정보 및 개인 정보를 훔쳤습니다.
AI 사기를 피하는 방법
AI 사기는 감지하기 까다로울 수 있지만 몇 가지 기본적인 사이버 보안 모범 사례를 따르면 위험에 대한 노출을 제한할 수 있습니다.
- 의심스러운 링크를 클릭하지 마세요. 링크는 사기꾼이 사용자를 가짜 웹사이트 등 온라인에서 안전하지 않은 장소로 보내는 방법이며 사용자의 기기를 멀웨어에 노출시킬 수도 있습니다. 채팅, 이메일, 문자를 통해 전송된 의심스러운 링크를 클릭하지 마세요.
- 소셜 미디어 게시물의 링크를 클릭하지 마세요. 사기꾼은 소셜 미디어, 특히 가족과 친구가 공유할 수 있는 바이러스성 게시물을 통해 악의적인 링크와 AI의 잘못된 정보를 퍼뜨리는 것을 좋아합니다.
- 원치 않는 메시지에 대해 의심하세요. 원치 않는 메시지는 사기꾼이 보내는 경우가 많습니다. AI는 그 어느 때보다 더 많은 메시지를 생성하고 응답할 수 있도록 도와줍니다. 이러한 메시지에는 답장하지 않는 것이 가장 좋습니다.
- 온라인에서 개인 정보 공유 제한:소셜 미디어, 메시징 앱, AI 도구 또는 온라인 어디에서나(신뢰할 수 있는 금융 또는 정부 계정 제외) 개인 정보를 공유하지 마세요. 사기꾼은 AI를 사용하여 인터넷에서 개인 정보를 크롤링하고 이를 악용하여 신원 도용을 저지릅니다.
- AI 사기 방지에 투자:AI 사이버 위협에 대처하는 가장 효과적인 방법 중 하나는 AI 사이버 보안을 사용하는 것입니다. AI 사기 탐지 도구는 AI 위험을 식별하고 너무 늦기 전에 경고합니다. 예를 들어 Norton Genie는 사기를 식별하는 데 90% 이상의 정확성을 발휘합니다.
- 긴급하거나 비정상적인 요청에 주의하세요. 누군가가 귀하에게 긴급하거나 위협적인 요청을 보낸다면 귀하를 조종하려는 사기꾼일 수 있습니다. 조치를 취하기 전에 한발 물러서서 명확하게 생각할 때까지 기다리세요.
- 발신자/발신자 신원 확인:개인정보나 금전을 요구하는 메시지를 받으면 항상 발신자 또는 발신자의 신원을 다시 확인하세요. 다른 통신 채널을 통해 전화하여 신원을 확인하세요.
일부 AI 브라우저에는 가짜 AI 웹사이트를 찾아내는 데 도움이 되는 도구가 내장되어 있습니다. 이러한 사기를 발견하는 데 도움이 되는 기타 브라우저 기반 도구를 고려해 보세요.
AI 사기에 당했을 경우 대처 방법
모든 AI 사기의 약 3분의 1이 성공합니다. 예방 조치를 취했더라도 항상 피해자가 될 위험이 있습니다. AI 사기에 당할 경우 대처 방법은 다음과 같습니다:
- 도용된 계정을 보호하세요. 비밀번호를 변경하거나 영향을 받은 계정을 폐쇄하세요. 금융 계좌인 경우 해당 기관에 연락하여 사기 경고를 설정하세요.
- FTC에 사기 신고:사기를 신고하려면 reportfraud.ftc.gov를 방문하세요. 이는 연방 당국이 사기를 추적하고 다른 사람들이 피해자가 되는 것을 방지하는 데 도움이 될 것입니다.
- 경찰 신고서 제출:신고서를 제출하려면 현지 경찰서에 문의하세요. 보험사 및 은행에서 환급 및 분쟁 비용에 대한 도움을 받기 전에 경찰 보고서를 요구할 수 있으므로 즉시 조치를 취하세요.
- 모든 것을 문서화하세요. 사기로 인해 영향을 받은 모든 방법을 기록하고 기록하세요. 재무제표와 경찰 보고서를 인쇄하고 사기꾼과의 대화 내용을 모두 캡쳐하세요. 자금을 회수하고 조사관이 가해자에게 책임을 묻도록 돕는 데는 명확한 문서가 중요합니다.
- 금융 계정 모니터링:계정을 주시하여 알 수 없는 청구 금액이나 기타 비정상적인 활동이 있는지 확인하세요.
- 신용 보호:주요 신용 보고 기관(Equifax, Experian 및 TransUnion)에 문의하여 사기 경고를 설정하거나 신용을 동결시키십시오. 귀하의 신용을 동결하면 (귀하를 포함하여) 다른 사람이 새 신용 카드와 같은 신용 한도를 개설하는 것을 방지할 수 있습니다. 사기 경고를 받으려면 대출 기관이 신용을 연장하기 전에 확인을 요청해야 합니다.
- 기기에서 악성 코드 검사:바이러스 백신 소프트웨어를 사용하여 인터넷에 연결된 기기(휴대폰, 태블릿, 컴퓨터 등)에서 악성 코드를 검사합니다. 이 소프트웨어는 배후에서 발생하는 숨겨진 바이러스 및 기타 악성 활동을 찾아냅니다.
로봇에 속지 마세요
AI는 사기꾼들에게 딥페이크부터 AI가 만든 악성 코드에 이르기까지 다양한 새로운 수법을 제공했습니다. 하지만 AI 사기의 피해자가 될 필요는 없습니다. 함정을 피하려면 사기꾼의 수법을 식별하는 방법을 배우고 Norton 360 Deluxe를 통해 최신 AI 사이버 보안 보호를 받으세요.
Norton 360 Deluxe는 해커를 차단하고 중요한 정보를 보호하며 여러 장치에서 AI 사기를 모니터링하는 데 도움이 됩니다. 따라서 온라인 안전을 유지하기 위해 사이버 포렌식 전문가가 될 필요는 없습니다.
FAQ
ChatGPT는 안전한가요?
예, ChatGPT는 일반적으로 안전합니다. OpenAI(ChatGPT 제작자)는 고급 사이버 보안 조치와 콘텐츠 조정을 사용하여 사이버 위협, 유해한 상호 작용 및 잘못된 정보로부터 사용자를 보호합니다.
그러나 사용자는 ChatGPT와의 대화에서 개인 정보를 공유하지 않아야 합니다. OpenAI는 연구 목적으로 대화를 저장하므로 개인 정보를 공유하면 데이터 유출 시 위험이 높아질 수 있습니다.
AI는 사기인가요?
아니요, AI는 사기가 아닙니다. AI는 머신러닝 알고리즘을 활용해 데이터의 패턴을 인식하고 결과를 예측하는 합법적인 기술입니다. 다른 기술과 마찬가지로 AI의 이점이나 위험은 사용 방법에 따라 달라집니다.
의사들은 암을 보다 정확하게 감지하고 예방하기 위해 AI를 활용하고 있습니다. 반면, 사기꾼은 AI를 오용하여 설득력 있는 사기를 만들어 피해자를 속여 돈과 민감한 데이터를 빼냅니다.