세계 최대 소셜미디어(SNS) 페이스북이 혐오 발언(Hate Speech) 콘텐츠를 감지하는 인공지능 기술이 실제로는 무용하다는 내부 폭로에 대해 곧장 대응에 나섰다.
미국 IT 전문매체 <씨넷(Cnet)> 등에 따르면 가이 로젠 페이스북 부사장은 17일(현지시간) 자신의 블로그에 "지난 3년 동안 페이스북 플랫폼에서 혐오 발언이 50% 감소해 1만건당 약 5건꼴로 줄었다"며 "혐오 발언과 싸우기 위해 우리가 사용하는 기술이 부적절하다거나 의도적으로 진척 상황을 잘못 전달했다는 건 사실이 아니다"라고 썼다.
이는 같은날 <월스트리트저널(The WallStreet Journal)>의 보도에 대한 반박으로 풀이된다. 월스트리트저널은 2019년의 내부 문서를 인용, 페이스북의 알고리즘이 혐오 발언 조회 건수의 단 2%에 해당하는 게시물을 제거하는 것으로 추정했다고 보도했다.
유해 콘텐츠를 차단하는 업무를 수행하는 페이스북 직원들은 회사가 그런 콘텐츠를 자동으로 감별할 능력이 있을 것이라고 보지 않았다고 한다. 한 수석 엔지니어 연구원은 "우리는 민감한 영역에서 해로운 콘텐츠를 포착하는 모델을 가지지 못하고 있고 앞으로도 결코 보유하지 못할 것"이라고 했다.
내부 문서에선 혐오 발언과 관련한 불만 건수를 줄이기 위해 페이스북의 인공지능이 회사의 규칙을 집행하는데 실제보다 더 성공한 것처럼 '조정'을 했다는 내용도 포함됐다.
최근 시점인 올 3월에도 페이스북의 AI 시스템은 혐오 발언 조회 건수의 3∼5%에 해당하는 게시물을 삭제하는 수준이었고, 폭력과 선동 등 규칙을 위반하는 콘텐츠의 제거율은 1% 미만에 그쳤다고 내부적으로 보고됐다.
앞서 페이스북은 커뮤니티 규정 집행 보고서를 통해 "유해 콘텐츠 전반에서 규정 집행을 강화해왔으며, AI에 대한 지속적인 투자를 통해 콘텐츠의 감지 및 삭제율을 높이고 있다"고 밝힌 바 있다.
이에 대해 로젠 부사장은 "편파적인 발언을 제거하는 기술은 페이스북이 사용하는 한 가지 방법일 뿐 거기에만 초점을 맞추는 것은 잘못됐다"며 "우리는 그런 게시물을 제거하기 전에 어느 부분이 편파적인 발언인지를 확신할 필요가 있다"고 반박했다.
혐오 발언의 확산을 막고 다양한 도구를 사용해 이를 줄이는 방법에 초점을 맞추는 것이 더 중요하다는 설명이다.
그는 "우리는 플랫폼에서 증오를 보고 싶지도 않고, 사용자나 광고주도 보고 싶지 않아 한다"며 "그런 콘텐츠를 제거하기 위한 우리의 작업은 투명하다"고 강조했다.
페이스북이 이처럼 곧장 대응에 나선 건 직원에서 내부고발자로 변신한 프랜시스 하우겐(Frances Haugen)의 폭로가 회사 주가에 악영향을 미치는 것은 물론 정치권까지 파급되고 있기 때문으로 풀이된다. 페이스북은 올 1월 6일 있었던 도널드 트럼프 전 미국 대통령 지지자들의 국회의사당 점거 사태에 대해 책임론이 제기된 바 있다.
프랜시스 하우겐이 미 의회에 출석해 "페이스북은 아이들에게 해를 끼치고 분열을 조장하며 우리의 민주주의를 악화시킨다"고 폭로한 지난 5일 페이스북은 접속 장애까지 겹치며 주가가 약 5% 떨어졌다. 마크 저커버그 페이스북 최고경영자(CEO)는 그의 증언이 SNS에 대한 '거짓된 그림'을 그리고 있다고 비난했다.
강승혁(ksh@bloter.net)
https://n.news.naver.com/article/293/0000036629
미국 IT 전문매체 <씨넷(Cnet)> 등에 따르면 가이 로젠 페이스북 부사장은 17일(현지시간) 자신의 블로그에 "지난 3년 동안 페이스북 플랫폼에서 혐오 발언이 50% 감소해 1만건당 약 5건꼴로 줄었다"며 "혐오 발언과 싸우기 위해 우리가 사용하는 기술이 부적절하다거나 의도적으로 진척 상황을 잘못 전달했다는 건 사실이 아니다"라고 썼다.
이는 같은날 <월스트리트저널(The WallStreet Journal)>의 보도에 대한 반박으로 풀이된다. 월스트리트저널은 2019년의 내부 문서를 인용, 페이스북의 알고리즘이 혐오 발언 조회 건수의 단 2%에 해당하는 게시물을 제거하는 것으로 추정했다고 보도했다.
유해 콘텐츠를 차단하는 업무를 수행하는 페이스북 직원들은 회사가 그런 콘텐츠를 자동으로 감별할 능력이 있을 것이라고 보지 않았다고 한다. 한 수석 엔지니어 연구원은 "우리는 민감한 영역에서 해로운 콘텐츠를 포착하는 모델을 가지지 못하고 있고 앞으로도 결코 보유하지 못할 것"이라고 했다.
내부 문서에선 혐오 발언과 관련한 불만 건수를 줄이기 위해 페이스북의 인공지능이 회사의 규칙을 집행하는데 실제보다 더 성공한 것처럼 '조정'을 했다는 내용도 포함됐다.
최근 시점인 올 3월에도 페이스북의 AI 시스템은 혐오 발언 조회 건수의 3∼5%에 해당하는 게시물을 삭제하는 수준이었고, 폭력과 선동 등 규칙을 위반하는 콘텐츠의 제거율은 1% 미만에 그쳤다고 내부적으로 보고됐다.
앞서 페이스북은 커뮤니티 규정 집행 보고서를 통해 "유해 콘텐츠 전반에서 규정 집행을 강화해왔으며, AI에 대한 지속적인 투자를 통해 콘텐츠의 감지 및 삭제율을 높이고 있다"고 밝힌 바 있다.
이에 대해 로젠 부사장은 "편파적인 발언을 제거하는 기술은 페이스북이 사용하는 한 가지 방법일 뿐 거기에만 초점을 맞추는 것은 잘못됐다"며 "우리는 그런 게시물을 제거하기 전에 어느 부분이 편파적인 발언인지를 확신할 필요가 있다"고 반박했다.
혐오 발언의 확산을 막고 다양한 도구를 사용해 이를 줄이는 방법에 초점을 맞추는 것이 더 중요하다는 설명이다.
그는 "우리는 플랫폼에서 증오를 보고 싶지도 않고, 사용자나 광고주도 보고 싶지 않아 한다"며 "그런 콘텐츠를 제거하기 위한 우리의 작업은 투명하다"고 강조했다.
페이스북이 이처럼 곧장 대응에 나선 건 직원에서 내부고발자로 변신한 프랜시스 하우겐(Frances Haugen)의 폭로가 회사 주가에 악영향을 미치는 것은 물론 정치권까지 파급되고 있기 때문으로 풀이된다. 페이스북은 올 1월 6일 있었던 도널드 트럼프 전 미국 대통령 지지자들의 국회의사당 점거 사태에 대해 책임론이 제기된 바 있다.
프랜시스 하우겐이 미 의회에 출석해 "페이스북은 아이들에게 해를 끼치고 분열을 조장하며 우리의 민주주의를 악화시킨다"고 폭로한 지난 5일 페이스북은 접속 장애까지 겹치며 주가가 약 5% 떨어졌다. 마크 저커버그 페이스북 최고경영자(CEO)는 그의 증언이 SNS에 대한 '거짓된 그림'을 그리고 있다고 비난했다.
강승혁(ksh@bloter.net)
https://n.news.naver.com/article/293/0000036629