본문 바로가기
카테고리 없음

AI 목소리로 공무원·연예인 사칭까지…미국 전역 7조 피해, FBI도 경고

by AI빅대디 2025. 5. 19.

딥페이크·음성합성 기술 악용 급증…정부·연예인 사칭 범죄 확산


미국 전역에서 AI를 활용한 사기 수법이 급증하고 있습니다.
FBI는 최근 AI 음성 메시지로 고위 관료를 사칭하는 사기 수법이 급속도로 확산되고 있다며 공무원들을 상대로 긴급 경고를 발령했습니다.
음성·영상 딥페이크 기술의 고도화로 인해
정부 관계자, 유명 인사까지 현실적으로 재현되는 사례가 속출하면서
미국 사회 전반에 AI 악용 리스크가 본격화되고 있는 모습입니다.


AI 음성으로 고위 공직자 사칭…링크 유도 후 정보 탈취

FBI는 다음과 같은 수법의 사기 사례를 경고했습니다.

  • AI로 생성된 대통령급 고위 인사의 음성을 문자와 함께 발송
  • 수신자가 신뢰하도록 만든 후 의심 없는 클릭 유도
  • 클릭 즉시 개인정보 및 보안 정보 탈취
  • 공무원 이메일 해킹 시도까지 병행
주요 피해 유형                                                     특징
고위 관료 사칭 음성·텍스트 메시지 활용
로보콜 딥페이크 바이든 대통령 목소리 사칭 사례 보고
내부 관계자 연쇄 피해 ‘지인을 사칭한 2차 사기’로 확산 중
 

2023년 피해 규모만 7조 원…젊은 층도 예외 없어

FBI는 2023년 한 해 동안 AI 관련 사기로만 약 50억 달러(약 7조 원)의 피해가 발생했다고 집계했습니다.
특히 20~29세 연령층에서도 피해율이 44%에 달하며,
AI 사기가 더 이상 고령층만의 문제가 아님을 강조했습니다.

또한 로맨스 스캠 피해도 늘고 있으며,
SNS 기반의 감정 사기 피해액만 약 1조8000억 원에 달할 것으로 추정되고 있습니다.


연예인 딥페이크까지…정교한 ‘AI 범죄극’ 현실화

AI 기반 딥페이크 영상은 단순 패러디 수준을 넘어, 실제 사기로 연결되는 범죄 수단으로 악용되고 있습니다.

사례 지역                        피해 내용
아르헨티나 조지 클루니 딥페이크에 속아 1859만 원 송금
프랑스 브래드 피트로 위장한 영상통화로 11억7000만 원 피해
 

이들 범죄는 음성, 얼굴, 영상 통화까지 완전 자동 생성된 콘텐츠로
피해자가 “진짜와 가짜를 구별하지 못한 채 송금”하는 점이 핵심입니다.


미국 FTC도 대응 중…규제보다 빠른 기술이 과제

미국 FTC는 지난해
AI 기반 가짜 리뷰·유명인 사칭 콘텐츠 등을 규제하는 가이드라인을 시행 중입니다.
그러나 전문가들은 AI 기술 발전 속도가 규제보다 빠르다
다음과 같은 대응 전략을 강조합니다.

  • AI 콘텐츠에 ‘신뢰마크’ 삽입 의무화
  • 공공기관·기업 음성 메시지 전송 시 출처 인증 의무 강화
  • AI 사기 예방 교육의 전 국민 확대 필요

결론: 디지털 시대의 ‘방역’은 정보 검증이다

AI 사기는 기술이 진화할수록 더 정교해집니다.
특히 신뢰 기반 커뮤니케이션을 악용한 범죄
일반 사용자가 사기 여부를 구별하기 매우 어렵습니다.
따라서 다음과 같은 ‘디지털 방역’이 절실합니다.

  • 모르는 발신자의 음성·영상·링크 즉시 확인 금지
  • 공식 채널 2차 확인 생활화
  • 고위 인사·유명인 메시지는 무조건 의심 후 검증

신뢰가 공격당하는 시대, 정보 확인이 곧 안전을 지키는 방패가 될 수 있습니다.