
기억하자 llm(거대언어모델)은 말 그대로 '언어 모델'임.
'나는' '바퀴벌레를' 이렇게 배열했을때 다음에 올 단어로 가장 확률이 높은 걸 선택하는 시스템이야
그러니 '나는' '바퀴벌레를' 다음으로 '먹는다' 를 배치하는게 적합하다, 확률 높다 싶으면 넣는 식이라 내가 진짜 바퀴벌레를 먹었냐 아니냐, 내용 자체가 옳냐 그르냐를 판단하는 건 아님
근본적으론 결국 럭키 아무말 제조기라는 거.
가장 그럴듯한 말을 해주는 거지 진위 여부를 확실히 판독하는 것이 아니야
그래서 환각이 일어나는 거고.
그래서 llm 모델론 결국 agi(일반 인공지능)까지 못 간다고 보는 얀 르쿤 같은 학자들도 있음