RWKV: RNN과 Transformer의 장점을 결합한 새로운 언어 모델
2025-01-02
RWKV는 RNN(순환 신경망)과 Transformer의 장점을 결합한 새로운 언어 모델입니다. 기존 Transformer와 달리 RWKV는 선형 시간 복잡도와 일정한 공간 복잡도를 특징으로 하며, 빠른 학습, 무한한 컨텍스트 길이, 그리고 어텐션이 없는 것을 특징으로 합니다. 현재 버전인 RWKV-7에서는 WebGPU 데모, 파인튜닝 툴, 고속 추론을 위한 서버 등 다양한 데모와 툴을 제공합니다. 활발한 커뮤니티와 많은 관련 프로젝트를 보유하고 있으며, Linux Foundation의 AI 프로젝트이기도 합니다.
AI
언어 모델