아들 목소리도 믿지마세요...


아들 목소리도 믿지마세요...

목소리를 복제하는 기술인 ‘딥보이스’가 보이스피싱에 악용되고 있어요. 20초 분량의 목소리만 있어도 목소리를 복제할 수 있대요. 딥보이스는 복잡하고 긴 문장에서 발음의 정확도가 떨어진다고. AI 음성 보이스피싱 조심하세요. 보이스피싱 수법이 갈수록 교묘한 방식으로 진화하고 있습니다. 최근 한 유튜버 A씨도 ‘딥보이스(목소리 딥페이크)’ 보이스피싱에 속아 2천만 원을 뜯기는 일이 있었다고 합니다. A씨가 해외여행 중일 때 보이스피싱 조직이 그의 남편에게 전화를 걸었는데요. A씨 번호로 걸려 온 전화에서 남편은 흐느끼는 A씨의 목소리를 듣게 됐다고 했습니다. “납치를 당했다. 옆에 있는 사람이 총을 들고 있다”는 아내의 목소리에 당황한 남편은 일당이 요구하는 2천만 원을 입금할 수밖에 없었다고합니다. 분명히..


원문링크 : 아들 목소리도 믿지마세요...