지난 10월께 외국인 A 씨는 익명의 상대방으로부터 한국 여행을 간 딸이 방에 감금된 채 "살려달라"고 울고있는 영상을 받았다.
이어 상대방은 "딸을 납치했다"고 협박하며 "살리고 싶으면 합의금을 보내라"고 금전을 요구했다.
이에 부모는 해당 사실을 영사관에 알렸으며, 한국 경찰이 즉각 딸의 안전을 확인한 것으로 전해졌다.
영상 속 울부짖던 딸의 모습은 딥페이크로 합성한 가짜였다.
경찰청 국가수사본부는 해당 사건을 공개하며 "유사한 사건이 국내에서도 발생할 가능성이 있으므로 각별히 주의해달라"고 7일 당부했다.
딥페이크는 인공지능(AI) 기술을 이용해 얼굴 합성을 넘어 실제 인물처럼 표정과 움직임 등도 조정할 수 있다.
이를 통해 자녀의 사진을 영상에 합성해 진짜 납치 상황처럼 꾸며 부모에게 보낼 수 있다.
또 경찰청은 자녀 목소리를 복제해 가짜 음성을 생성하는 딥보이스도 유의해야 한다고 전했다.
이어 경찰청은 딥페이크와 딥보이스 등이 실제 인물의 사진과 영상을 소스로 사용하는 점을 들어 "소셜미디어(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등이 범죄조직의 표적이 될 수 있다"고 경고했다.
또 올해 9월까지 납치를 빙자한 전화금융사기가 174건 발생했다고 전하며 "납치 전화가 금융사기일 가능성이 크다는 것을 항상 기억해달라"며 신고를 당부했다.
안찬수 경찰청 마약조직범죄수사과장은 "AI 발전이 일상생활을 더 편리하게 만들었지만, 동시에 범죄에 악용될 환경을 제공했다"고 덧붙였다.
이해원 기자
https://n.news.naver.com/article/082/0001296596