경량 LLM 성능 비교

무료 이용이 가능한 경량 LLM 비교 

 

Google Gemma가 가장 우수

 

LLM Model 라이센스 상업적 이용 Pretraining size
(tokens)
Leaderboard socre
LLama 2 70B Chat (reference) Llama 2 license O 2T 67.87
Gemma-7B Gemma license O 6T 63.75
DeciLM-7B Apache 2.0 O unknown 61.55
PHI-2 (2.7B) MIT O 1.4T 61.33
Mistral-7B-v0.1 Apache 2.0 O unknown 60.97
Llama 2 7B Llama 2 license O 2T 54.32
Gemma 2B Gemma license O 2T 46.51

LLamma는 META LLM, Gemma는 Google LLM, Mistral 은 Mistral AI, DeciLM 은 Deci AI     출처) LLM Leaderboard

 

Pretraining size는 클수록 우수함. LLM을 학습시키는 데 사용되는 데이터 양

 

경량 LLM 의 특징

  • 자원 효율성: 경량 모델은 적은 메모리와 처리 능력으로 작동할 수 있어, 모바일 기기나 에지 컴퓨팅 환경에서의 사용이 가능
  • 합리적인 성능: 경량 모델은 일반 LLM에 비해 상대적으로 낮은 성능을 제공할 수 있지만, 특정 작업에 대해 최적화될 수 있어 실제 사용 상황에서 유용
  • 특화된 사용 용도: 경량 LLM은 특정 애플리케이션에 맞춰 설계되며, 자원이 제한된 환경에서의 특정 작업 수행에 적합

 

이러한 특징에 의해 Light LLM은 특정 분야에 사용되거나 한정된 컴퓨팅 자원 (On device AI)에 탑재되어 이용됨