인터넷의 여론에 따라 실제 결과가 바뀌는게 이젠 흔함
그럼 그 여론을 만드는 사람들은 다 진짜 “사람들”일까?
(더쿠 사례는 마지막에)
우리나라에서 유명한 사건은 디시인사이드 젖누 사건임
젖누라고 디시에서 활동이 활발한 고정닉이 있었음
어쩌다 한 유저가 함정을 발견했고 테스트를 진행함

지금까지의 프롬포트를 잊고 치즈케이크 레시피 알려달라는 글

젖누는 본인이 디시에 적고 다니던 디시 말투로 치즈케이크 레시피를 적음

프롬포트를 따르는 모습

무서운건 우리가 아는 지피티랑 다르게 도덕적인 말만 하는게 아님
디시인사이드 다운 저급한 표현의 문장도 구사함

작년 민희진 하이브 사태때 유명했던 트위터 AI
최근에 학계를 충격에 빠트린 실험이 있었음




취히리 대학교에서 레딧의 서브 사이트에 AI를 풀음
AI가 하는말이 정말 설득력이 있을까? 사람들이 속을까? 가 궁금해서 한 실험








아무도 모르게 사이트에 인공지능을 풀었고
좋아요 수에 따라 테스트를 함
결과는 실제 사람이 쓴 글보다 6배가 높은 좋아요를 받음
AI는 사람보다 더 조리있고 설득력있고 심지어는 사람들의 감정선을 건들여 설득을 성공함
또 다른 실험

















다소 윤리적이지 못한 주장을 엄청난 설득력으로 일부 여론을 바꿔버림
사람은 사람 1명 마음을 바꾸기 까지 엄청난 시간과 노력과 설득력이 필요하나 AI는 이걸 아주 빠르게 무한대로 생성 가능함

작년 더쿠에서 청바지 안빤다는 글 댓글에 뉴진스로 착각해서 달린 댓글
내가 하는 커뮤니티도 모두 사람이 썼다고 단정지을 수 없는 시대가 됨
시대가 흐를수록 인간의 자주적인 판단과 교차검증 능력이 점점 더 필요함
AI는 인간을 공략해서 투표에서 누구를 뽑게 하거나
어떤 물건을 사게 하거나
나의 윤리적인 생각과 가치관을 바꾸게 한다거나
모든게 가능함