인공지능(AI) 기술을 악용한 피해 사례가 갈수록 늘어나고 있다. 단순히 가상의 이미지 형성을 넘어 실제 인물을 합성해 성적 모욕을 하는가 하면 목소리를 변조해 보이스피싱을 유도하고 가짜뉴스를 생성하는데까지 AI가 활용되는 상황이다.
[사진=게티이미지뱅크]
【뉴스퀘스트=김민우 기자】 인공지능(AI) 기술을 악용한 피해 사례가 급증하고 있다.
단순히 가상의 이미지 형성을 넘어 실제 인물을 합성해 성적 모욕을 하는가 하면 목소리를 변조해 보이스피싱을 유도하고 가짜뉴스를 생성하는데까지 AI가 활용되고 있는 것이다.
AI 개발에 앞장서왔던 빅테크 기업들도 이같은 악용 사례에 골머리를 앓고 있다.
무분별한 AI 활용에 따른 피해를 막기 위해 일명 '착한 AI' 기능을 도입해 나가고 있지만 여전히 피해자들이 속출하고 있어서다.
이에 따라 악용되는 AI 사진·영상 등이 주요 플랫폼에서 유포되지 않도록 하는 규제가 강화돼야 한다는 목소리가 커지고 있다.
또한 윤리적 AI 활용에 대한 표준을 만들고 이를 사용자들에게 교육하는 프로그램이 필요하다는 의견이 나오고 있다.
https://www.newsquest.co.kr/news/articleView.html?idxno=230126