Colab에서 실행 시 모델 준비단계에서 오류가 발생합니다
import os
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
model_id = 'MLP-KTLim/llama-3-Korean-Bllossom-8B'
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained(
model_id,
torch_dtype=torch.bfloat16,
device_map="auto",
)
model.eval()
/usr/local/lib/python3.10/dist-packages/huggingface_hub/file_download.py:1132: FutureWarning: resume_download
is deprecated and will be removed in version 1.0.0. Downloads always resume when possible. If you want to force a new download, use force_download=True
.
warnings.warn(
Special tokens have been added in the vocabulary, make sure the associated word embeddings are fine-tuned or trained.
ValueError Traceback (most recent call last)
in <cell line: 8>()
6
7 tokenizer = AutoTokenizer.from_pretrained(model_id)
----> 8 model = AutoModelForCausalLM.from_pretrained(
9 model_id,
10 torch_dtype=torch.bfloat16,
4 frames
/usr/local/lib/python3.10/dist-packages/transformers/models/llama/configuration_llama.py in _rope_scaling_validation(self)
179
180 if not isinstance(self.rope_scaling, dict) or len(self.rope_scaling) != 2:
--> 181 raise ValueError(
182 "rope_scaling
must be a dictionary with two fields, type
and factor
, " f"got {self.rope_scaling}"
183 )
ValueError: rope_scaling
must be a dictionary with two fields, type
and factor
, got {'factor': 8.0, 'high_freq_factor': 4.0, 'low_freq_factor': 1.0, 'original_max_position_embeddings': 8192, 'rope_type': 'llama3'}
Llama3.1 버전을 기반으로한 Bllossom-8B로 모델을 업데이트 했습니다.
transformers 패키지를 최신버전으로 업데이트한다음에 사용해보시길 바랍니다.
pip install -U transformers
'MLP-KTLim/llama-3-Korean-Bllossom-8B'을 불러오면 자동적으로 Llama3.1 버전으로 불러오고 있는게 맞는걸까요?
혹시 기존 Llama3 모델로 파인튜닝된 모델을 쓸 수 있는 다른 방법은 없을까요?
8월 12일 13시 기준으로 Llama3 8B 기반의 블라썸 8B로 다시 업데이트 했습니다.
Llama3.1 8B 기반의 블라썸 8B는 추후에 다시 공개하겠습니다.