20대 A 씨는 헤어 스타일을 바꿔 주는 이 앱의 기능을 사용했다 황당한 경험을 했습니다.
[A 씨/'스노우' 앱 피해자/음성변조 : "10가지인가 8가지인가 AI가 합성을 해 줘서..."]
자신의 얼굴에 나체가 합성된 사진이 나온 겁니다.
[A 씨/'스노우' 앱 피해자/음성변조 : "처음 보고 경악스러웠죠. 유방의 모양이 그대로 나오고... 내가 돈 주고 했는데 이런 거를 받는 게 너무 화가 났죠."]
스노우가 출시한 또 다른 사진 앱, '소다'를 이용한 여성도 비슷한 피해를 입었습니다.
증명사진의 배경 공간을 바꾸려 AI 기능을 이용했는데, 성적 수치심을 느낄만한 사진이 합성돼 나온 겁니다.
[B 씨/'소다' 앱 피해자/음성변조 : "어플한테 성희롱을 당한 것 같은 느낌도 들고 소비자 기만하나 약간 이런 생각... 본인들이 그걸 다 100% 통제 못 한다면 유료 서비스를 하지 말든가."]
이에 대해 스노우 측은 "AI 이미지 변환 모델의 한계로 생긴 일"이라며 "필터링 시스템을 강화하겠다"고 밝혔습니다.
[김명주/서울여대 정보보호학과 교수 : "오픈 소스로 공개되어 있는 성인물을 학습한 엔진을 사용하고 있기 때문에 처음부터 문제시되었던 부분들입니다."]
https://n.news.naver.com/article/056/0011801172?sid=102
썼던 필터는 이거
((얼굴을 검은색으로 가린 걸 모자이크 한 거라서 캡쳐했어))
기사를 이제 봤는데 9월 중순에 있었던 일