‘AI 가짜 가족목소리’ 노인 대상 사기 급증
연방통신위원회, 신종 사기 전화 경고
소셜미디어에서 목소리 추출해 복제

본인 음성 3초면 AI로 음성 복제 가능하며 이를 악용한 보이스 피싱이 늘고 있어서 소비자들이 주의해야 한다.
FCC는 17일 소비자 경고를 통해 “노인을 대상으로 한 AI 음성 복제 사기가 새로운 수준의 정교함에 도달했다”며 주의를 당부했다.
이전에도 발신 번호를 조작해 피해자가 알고 있는 지인의 번호로 전화가 온 것처럼 보이게 하는 기술을 사용했지만, 이제는 지인의 목소리까지 도용해 속이고 있다.
상대를 속일 수 있는 정보는 주로 소셜미디어에서 얻는다. AI 기술을 사용해 소셜미디어에 업로드된 짧은 영상으로도 목소리를 진짜처럼 복제하고, 복제한 목소리를 전화 사기에 이용하는 것이다.
예를 들면 사기범들은 시니어에게 손자의 전화번호로 전화를 걸고, 손자의 목소리를 복제해 “현재 감옥에 있으니 도와달라”는 식으로 돈을 요구하는 것으로 나타났다. 실제 목소리와 구분할 수 없는 말투로 가족만 알 수 있는 사적인 정보를 얘기하기 때문에 속기 쉽다.
FCC는 “목소리를 믿지 말라”고 경고하며 “연락을 받았다고 주장하는 사람에게 반드시 확인 전화를 걸되, 알고 있는 전화번호를 사용하라”고 조언했다.
“아무에게도 말하지 말라”는 것도 흔한 수법이다. 부모에게 말하지 말라는 부탁이나 체포에 대한 비밀유지 의무가 있어 다른 사람에게 알리면 더 큰 문제가 생길 것이라고 위협하는 수법이다.
연방수사국(FBI) 인터넷 범죄 신고센터(IC3)에 보고된 노인 대상 사기 사례는 2023년 14%나 증가했다.
김은별 기자 [email protected]
with the Korea JoongAng Daily
To write comments, please log in to one of the accounts.
Standards Board Policy (0/250자)