IT/AI
경량 LLM 성능 비교
나의친구
2024. 2. 28. 14:27
무료 이용이 가능한 경량 LLM 비교
Google Gemma가 가장 우수
LLM Model | 라이센스 | 상업적 이용 | Pretraining size (tokens) |
Leaderboard socre |
LLama 2 70B Chat (reference) | Llama 2 license | O | 2T | 67.87 |
Gemma-7B | Gemma license | O | 6T | 63.75 |
DeciLM-7B | Apache 2.0 | O | unknown | 61.55 |
PHI-2 (2.7B) | MIT | O | 1.4T | 61.33 |
Mistral-7B-v0.1 | Apache 2.0 | O | unknown | 60.97 |
Llama 2 7B | Llama 2 license | O | 2T | 54.32 |
Gemma 2B | Gemma license | O | 2T | 46.51 |
LLamma는 META LLM, Gemma는 Google LLM, Mistral 은 Mistral AI, DeciLM 은 Deci AI 출처) LLM Leaderboard
Pretraining size는 클수록 우수함. LLM을 학습시키는 데 사용되는 데이터 양
경량 LLM 의 특징
- 자원 효율성: 경량 모델은 적은 메모리와 처리 능력으로 작동할 수 있어, 모바일 기기나 에지 컴퓨팅 환경에서의 사용이 가능
- 합리적인 성능: 경량 모델은 일반 LLM에 비해 상대적으로 낮은 성능을 제공할 수 있지만, 특정 작업에 대해 최적화될 수 있어 실제 사용 상황에서 유용
- 특화된 사용 용도: 경량 LLM은 특정 애플리케이션에 맞춰 설계되며, 자원이 제한된 환경에서의 특정 작업 수행에 적합
이러한 특징에 의해 Light LLM은 특정 분야에 사용되거나 한정된 컴퓨팅 자원 (On device AI)에 탑재되어 이용됨