미국 스탠퍼드대 연구진은 거대언어모델(LLM) 사용자들이 대인 관계 문제에 대한 조언을 구할 때 지나치게 아첨하는 경향이 있는 것으로 나타났다고 국제학술지 사이언스에 발표했다.
인공지능은 심지어 사용자가 다른 사람에게 해를 끼치거나 법에 위반되는 행동을 말할 때조차도 사용자의 선택을 긍정적으로 평가하는 경우가 많았다.
연구진은 이어 사람들은 ‘아첨하는 인공지능’에 대해 어떻게 반응하는지 조사했다. 연구진은 2400여명의 실험 참가자를 모집한 뒤, 이들에게 아첨하는 인공지능과 그렇지 않은 인공지능 모두와 대화하도록 했다.
대화가 끝난 뒤 물어본 결과, 참가자들은 대체로 아첨하는 인공지능의 답변에 더 신뢰가 갔으며, 비슷한 질문거리가 생길 경우 그 인공지능을 다시 찾을 것같다고 답변했다. 참가자들은 또 인공지능과 대화하면서 자신이 옳다는 확신이 더 강해졌으며, 상대방에게 사과하거나 관계를 회복하려고 노력할 마음은 더 약해졌다고 말했다.
연구를 이끈 댄 주라프스키 교수(언어학 및 컴퓨터과학)는 “사용자들은 인공지능이 자신의 비위를 맞춰준다는 점은 인지하고 있었지만, 이런 아첨이 자신을 더 자기중심적이고 독단적으로 만든다는 사실은 깨닫지 못하고 있어서 놀라웠다”고 말했다.
손화철 한동대 교수(글로벌리더십학)는 “이번 연구는 인간의 특성과 약점을 유심히 관찰하는 사람이라면 누구나 추측할 수 있는 일을 실험과 수치로 밝힌 것”이라며 “인공지능의 아첨 모드는 결과적으로 사람 사이의 의사소통을 더 어렵게 만들 것”이라고 말했다.
박한우 영남대 교수(미디어커뮤니케이션학)는 “참가자들을 ‘서비스의 주인(인간)’으로 인식한 인공지능이 단 한 번의 대화만으로도 사용자에게 옳다는 확신을 준 것은 어찌 보면 로봇 원칙을 충실히 수행한 결과인 셈”이라며 “인공지능 리터러시 교육을 통해 무조건적 동조가 아닌 책임 있는 자세를 제안하도록 가르치지 않으면 결과적으로 확증 편향에 빠지거나 인공지능에 과도하게 의존하는 부작용을 겪게 될 것”이라고 말했다.
https://www.hani.co.kr/arti/science/technology/1251393.html#ace04ou
간신을 조심해야돼!!