지역별 뉴스를 확인하세요.

많이 본 뉴스

광고닫기

기사공유

  • 페이스북
  • 트위터
  • 카카오톡
  • 카카오스토리
  • 네이버
  • 공유

‘AI 가짜 가족목소리’ 노인 대상 사기 급증

연방통신위원회, 신종 사기 전화 경고
소셜미디어에서 목소리 추출해 복제

본인 음성 3초면 AI로 음성 복제 가능하며 이를 악용한 보이스 피싱이 늘고 있어서 소비자들이 주의해야 한다.

본인 음성 3초면 AI로 음성 복제 가능하며 이를 악용한 보이스 피싱이 늘고 있어서 소비자들이 주의해야 한다.

연방통신위원회(FCC)가 노년층을 대상으로 한 인공지능(AI) 음성 복제 사기 전화 주의보를 내렸다. 주로 소셜미디어 영상에서 목소리를 추출해 복제하고, 피해자에게 가족이나 지인이 위험에 처해 있는 것처럼 속여 돈을 요구하는 방식이다. 사기범들은 모바일 결제 앱이나 송금, 기프트카드 등으로 돈을 요구하며 “아무에게도 말하지 말라”고 피해자의 입단속을 하는 것으로 전해졌다.  
 
FCC는 17일 소비자 경고를 통해 “노인을 대상으로 한 AI 음성 복제 사기가 새로운 수준의 정교함에 도달했다”며 주의를 당부했다.  
 
이전에도 발신 번호를 조작해 피해자가 알고 있는 지인의 번호로 전화가 온 것처럼 보이게 하는 기술을 사용했지만, 이제는 지인의 목소리까지 도용해 속이고 있다.  
 
상대를 속일 수 있는 정보는 주로 소셜미디어에서 얻는다. AI 기술을 사용해 소셜미디어에 업로드된 짧은 영상으로도 목소리를 진짜처럼 복제하고, 복제한 목소리를 전화 사기에 이용하는 것이다.  
 
예를 들면 사기범들은 시니어에게 손자의 전화번호로 전화를 걸고, 손자의 목소리를 복제해 “현재 감옥에 있으니 도와달라”는 식으로 돈을 요구하는 것으로 나타났다. 실제 목소리와 구분할 수 없는 말투로 가족만 알 수 있는 사적인 정보를 얘기하기 때문에 속기 쉽다.  
 
FCC는 “목소리를 믿지 말라”고 경고하며 “연락을 받았다고 주장하는 사람에게 반드시 확인 전화를 걸되, 알고 있는 전화번호를 사용하라”고 조언했다.  
 
“아무에게도 말하지 말라”는 것도 흔한 수법이다. 부모에게 말하지 말라는 부탁이나 체포에 대한 비밀유지 의무가 있어 다른 사람에게 알리면 더 큰 문제가 생길 것이라고 위협하는 수법이다.
 
연방수사국(FBI) 인터넷 범죄 신고센터(IC3)에 보고된 노인 대상 사기 사례는 2023년 14%나 증가했다.

김은별 기자 [email protected]

Log in to Twitter or Facebook account to connect
with the Korea JoongAng Daily
help-image Social comment?
lock icon

To write comments, please log in to one of the accounts.

Standards Board Policy (0/250자)


많이 본 뉴스





실시간 뉴스