모델 붕괴: AI의 자기 소모 위험
2025-05-17
대규모 언어 모델(LLM)의 보급과 함께 '모델 붕괴'라는 위험이 주목받고 있습니다. LLM이 스스로 생성한 텍스트를 사용하여 훈련됨에 따라 훈련 데이터가 현실 세계 데이터에서 벗어나 모델의 출력 품질 저하나 무의미한 결과로 이어질 가능성이 있습니다. 이 문제는 LLM에 국한되지 않고 반복적으로 훈련되는 생성 모델 모두에 위험으로 존재한다는 것이 연구를 통해 밝혀졌습니다. 데이터 축적은 저하를 늦추지만 계산 비용을 증가시킵니다. 현재 연구자들은 데이터 큐레이션과 모델 자체 평가 등을 사용하여 합성 데이터의 질을 높이고 모델 붕괴를 방지하며 그 결과 발생하는 다양성 문제에 대처하는 방법을 모색하고 있습니다.
AI
모델 붕괴