Shapley 값을 사용한 대규모 언어 모델 결정 설명

2024-12-28
Shapley 값을 사용한 대규모 언어 모델 결정 설명

대규모 언어 모델(LLM)은 인간 행동을 시뮬레이션하는 데 있어 흥미로운 가능성을 제공하지만, 의사결정 과정의 투명성이 부족합니다. 본 논문에서는 Shapley 값에 기반한 새로운 접근 방식을 제시하여 LLM의 행동을 해석하고 프롬프트의 각 구성 요소가 모델 출력에 기여하는 정도를 정량화합니다. 두 가지 응용 프로그램을 통해 LLM의 의사결정은 '토큰 노이즈'의 영향을 받기 쉽고, 정보량이 적은 토큰에 모델이 불균형적으로 반응한다는 것을 밝혔습니다. 이는 인간 행동 시뮬레이션에서 LLM으로부터 얻은 통찰력의 견고성과 일반화 가능성에 대한 우려를 제기하며, 연구에 사용할 경우 신중한 프롬프트 엔지니어링과 그 한계에 대한 보다 미묘한 이해가 필요함을 강조합니다.