quantumaikr
commited on
Commit
โข
de1e105
1
Parent(s):
6d0ad17
Update README.md
Browse files
README.md
CHANGED
@@ -8,6 +8,12 @@ tags:
|
|
8 |
- llama
|
9 |
---
|
10 |
|
|
|
|
|
|
|
|
|
|
|
|
|
11 |
# KoreanLM: ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ ํ๋ก์ ํธ
|
12 |
|
13 |
KoreanLM์ ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ๊ฐ๋ฐํ๊ธฐ ์ํ ์คํ์์ค ํ๋ก์ ํธ์
๋๋ค. ํ์ฌ ๋๋ถ๋ถ์ ์ธ์ด๋ชจ๋ธ๋ค์ ์์ด์ ์ด์ ์ ๋ง์ถ๊ณ ์์ด, ํ๊ตญ์ด์ ๋ํ ํ์ต์ด ์๋์ ์ผ๋ก ๋ถ์กฑํ๊ณ ํ ํฐํ ๊ณผ์ ์์ ๋นํจ์จ์ ์ธ ๊ฒฝ์ฐ๊ฐ ์์ต๋๋ค. ์ด๋ฌํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ณ ํ๊ตญ์ด์ ์ต์ ํ๋ ์ธ์ด๋ชจ๋ธ์ ์ ๊ณตํ๊ธฐ ์ํด KoreanLM ํ๋ก์ ํธ๋ฅผ ์์ํ๊ฒ ๋์์ต๋๋ค.
|
@@ -19,4 +25,134 @@ KoreanLM์ ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ๊ฐ๋ฐํ๊ธฐ ์ํ ์คํ์์ค ํ๋ก์
|
|
19 |
|
20 |
2. ํจ์จ์ ์ธ ํ ํฐํ ๋ฐฉ์ ๋์
: ํ๊ตญ์ด ํ
์คํธ์ ํ ํฐํ ๊ณผ์ ์์ ํจ์จ์ ์ด๊ณ ์ ํํ ๋ถ์์ด ๊ฐ๋ฅํ ์๋ก์ด ํ ํฐํ ๋ฐฉ์์ ๋์
ํ์ฌ ์ธ์ด๋ชจ๋ธ์ ์ฑ๋ฅ์ ํฅ์์ํต๋๋ค.
|
21 |
|
22 |
-
3. ๊ฑฐ๋ ์ธ์ด๋ชจ๋ธ์ ์ฌ์ฉ์ฑ ๊ฐ์ : ํ์ฌ ๊ฑฐ๋ํ ์ฌ์ด์ฆ์ ์ธ์ด๋ชจ๋ธ๋ค์ ๊ธฐ์
์ด ์์ฌ์ ๋ฐ์ดํฐ๋ฅผ ํ์ธํ๋ํ๊ธฐ ์ด๋ ค์ด ๋ฌธ์ ๊ฐ ์์ต๋๋ค. ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ํฌ๊ธฐ๋ฅผ ์กฐ์ ํ์ฌ ์ฌ์ฉ์ฑ์ ๊ฐ์ ํ๊ณ , ์์ฐ์ด ์ฒ๋ฆฌ ์์
์ ๋ ์ฝ๊ฒ ์ ์ฉํ ์ ์๋๋ก ํฉ๋๋ค.
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
8 |
- llama
|
9 |
---
|
10 |
|
11 |
+
|
12 |
+
<p align="center" width="100%">
|
13 |
+
<img src="https://i.imgur.com/snFDU0P.png" alt="KoreanLM icon" style="width: 500px; display: block; margin: auto; border-radius: 10%;">
|
14 |
+
</p>
|
15 |
+
|
16 |
+
|
17 |
# KoreanLM: ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ ํ๋ก์ ํธ
|
18 |
|
19 |
KoreanLM์ ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ๊ฐ๋ฐํ๊ธฐ ์ํ ์คํ์์ค ํ๋ก์ ํธ์
๋๋ค. ํ์ฌ ๋๋ถ๋ถ์ ์ธ์ด๋ชจ๋ธ๋ค์ ์์ด์ ์ด์ ์ ๋ง์ถ๊ณ ์์ด, ํ๊ตญ์ด์ ๋ํ ํ์ต์ด ์๋์ ์ผ๋ก ๋ถ์กฑํ๊ณ ํ ํฐํ ๊ณผ์ ์์ ๋นํจ์จ์ ์ธ ๊ฒฝ์ฐ๊ฐ ์์ต๋๋ค. ์ด๋ฌํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ๊ณ ํ๊ตญ์ด์ ์ต์ ํ๋ ์ธ์ด๋ชจ๋ธ์ ์ ๊ณตํ๊ธฐ ์ํด KoreanLM ํ๋ก์ ํธ๋ฅผ ์์ํ๊ฒ ๋์์ต๋๋ค.
|
|
|
25 |
|
26 |
2. ํจ์จ์ ์ธ ํ ํฐํ ๋ฐฉ์ ๋์
: ํ๊ตญ์ด ํ
์คํธ์ ํ ํฐํ ๊ณผ์ ์์ ํจ์จ์ ์ด๊ณ ์ ํํ ๋ถ์์ด ๊ฐ๋ฅํ ์๋ก์ด ํ ํฐํ ๋ฐฉ์์ ๋์
ํ์ฌ ์ธ์ด๋ชจ๋ธ์ ์ฑ๋ฅ์ ํฅ์์ํต๋๋ค.
|
27 |
|
28 |
+
3. ๊ฑฐ๋ ์ธ์ด๋ชจ๋ธ์ ์ฌ์ฉ์ฑ ๊ฐ์ : ํ์ฌ ๊ฑฐ๋ํ ์ฌ์ด์ฆ์ ์ธ์ด๋ชจ๋ธ๋ค์ ๊ธฐ์
์ด ์์ฌ์ ๋ฐ์ดํฐ๋ฅผ ํ์ธํ๋ํ๊ธฐ ์ด๋ ค์ด ๋ฌธ์ ๊ฐ ์์ต๋๋ค. ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ํฌ๊ธฐ๋ฅผ ์กฐ์ ํ์ฌ ์ฌ์ฉ์ฑ์ ๊ฐ์ ํ๊ณ , ์์ฐ์ด ์ฒ๋ฆฌ ์์
์ ๋ ์ฝ๊ฒ ์ ์ฉํ ์ ์๋๋ก ํฉ๋๋ค.
|
29 |
+
|
30 |
+
|
31 |
+
## ์ฌ์ฉ ๋ฐฉ๋ฒ
|
32 |
+
|
33 |
+
KoreanLM์ GitHub ์ ์ฅ์๋ฅผ ํตํด ๋ฐฐํฌ๋ฉ๋๋ค. ํ๋ก์ ํธ๋ฅผ ์ฌ์ฉํ๋ ค๋ฉด ๋ค์๊ณผ ๊ฐ์ ๋ฐฉ๋ฒ์ผ๋ก ์ค์นํ์ค ์ ์์ต๋๋ค.
|
34 |
+
|
35 |
+
```bash
|
36 |
+
git clone https://github.com/quantumaikr/KoreanLM.git
|
37 |
+
cd KoreanLM
|
38 |
+
pip install -r requirements.txt
|
39 |
+
```
|
40 |
+
|
41 |
+
## ์์
|
42 |
+
|
43 |
+
๋ค์์ transformers ๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ฅผ ํตํด ๋ชจ๋ธ๊ณผ ํ ํฌ๋์ด์ ๋ฅผ ๋ก๋ฉํ๋ ์์ ์
๋๋ค.
|
44 |
+
|
45 |
+
```python
|
46 |
+
|
47 |
+
import transformers
|
48 |
+
model = transformers.AutoModelForCausalLM.from_pretrained("quantumaikr/KoreanLM")
|
49 |
+
tokenizer = transformers.AutoTokenizer.from_pretrained("quantumaikr/KoreanLM")
|
50 |
+
|
51 |
+
```
|
52 |
+
|
53 |
+
|
54 |
+
## ํ๋ จ (ํ์ธํ๋)
|
55 |
+
|
56 |
+
```bash
|
57 |
+
torchrun --nproc_per_node=4 --master_port=1004 train.py \
|
58 |
+
--model_name_or_path quantumaikr/KoreanLM \
|
59 |
+
--data_path korean_data.json \
|
60 |
+
--num_train_epochs 3 \
|
61 |
+
--cache_dir './data' \
|
62 |
+
--bf16 True \
|
63 |
+
--tf32 True \
|
64 |
+
--per_device_train_batch_size 4 \
|
65 |
+
--per_device_eval_batch_size 4 \
|
66 |
+
--gradient_accumulation_steps 8 \
|
67 |
+
--evaluation_strategy "no" \
|
68 |
+
--save_strategy "steps" \
|
69 |
+
--save_steps 500 \
|
70 |
+
--save_total_limit 1 \
|
71 |
+
--learning_rate 2e-5 \
|
72 |
+
--weight_decay 0. \
|
73 |
+
--warmup_ratio 0.03 \
|
74 |
+
--lr_scheduler_type "cosine" \
|
75 |
+
--logging_steps 1 \
|
76 |
+
--fsdp "full_shard auto_wrap" \
|
77 |
+
--fsdp_transformer_layer_cls_to_wrap 'OPTDecoderLayer' \
|
78 |
+
```
|
79 |
+
|
80 |
+
```bash
|
81 |
+
pip install deepspeed
|
82 |
+
torchrun --nproc_per_node=4 --master_port=1004 train.py \
|
83 |
+
--deepspeed "./deepspeed.json" \
|
84 |
+
--model_name_or_path quantumaikr/KoreanLM \
|
85 |
+
--data_path korean_data.json \
|
86 |
+
--num_train_epochs 3 \
|
87 |
+
--cache_dir './data' \
|
88 |
+
--bf16 True \
|
89 |
+
--tf32 True \
|
90 |
+
--per_device_train_batch_size 4 \
|
91 |
+
--per_device_eval_batch_size 4 \
|
92 |
+
--gradient_accumulation_steps 8 \
|
93 |
+
--evaluation_strategy "no" \
|
94 |
+
--save_strategy "steps" \
|
95 |
+
--save_steps 2000 \
|
96 |
+
--save_total_limit 1 \
|
97 |
+
--learning_rate 2e-5 \
|
98 |
+
--weight_decay 0. \
|
99 |
+
--warmup_ratio 0.03 \
|
100 |
+
```
|
101 |
+
|
102 |
+
## ํ๋ จ (LoRA)
|
103 |
+
|
104 |
+
```bash
|
105 |
+
python finetune-lora.py \
|
106 |
+
--base_model 'quantumaikr/KoreanLM' \
|
107 |
+
--data_path './korean_data.json' \
|
108 |
+
--output_dir './KoreanLM-LoRA' \
|
109 |
+
--cache_dir './data'
|
110 |
+
```
|
111 |
+
|
112 |
+
## ์ถ๋ก
|
113 |
+
|
114 |
+
```bash
|
115 |
+
python generate.py \
|
116 |
+
--load_8bit \
|
117 |
+
--share_gradio \
|
118 |
+
--base_model 'quantumaikr/KoreanLM' \
|
119 |
+
--lora_weights 'quantumaikr/KoreanLM-LoRA' \
|
120 |
+
--cache_dir './data'
|
121 |
+
|
122 |
+
```
|
123 |
+
|
124 |
+
## ์ฌ์ ํ์ต ๋ชจ๋ธ ๊ณต๊ฐ ๋ฐ ์น ๋ฐ๋ชจ
|
125 |
+
|
126 |
+
[ํ์ต๋ชจ๋ธ](https://huggingface.co/quantumaikr/KoreanLM/tree/main)
|
127 |
+
|
128 |
+
[์น๋ฐ๋ชจ](https://ntcswxk8f4m9zf-7860.proxy.runpod.net/)
|
129 |
+
|
130 |
+
|
131 |
+
|
132 |
+
|
133 |
+
## ๊ธฐ์ฌ๋ฐฉ๋ฒ
|
134 |
+
|
135 |
+
1. ์ด์ ์ ๊ธฐ: KoreanLM ํ๋ก์ ํธ์ ๊ด๋ จ๋ ๋ฌธ์ ์ ์ด๋ ๊ฐ์ ์ฌํญ์ ์ด์๋ก ์ ๊ธฐํด์ฃผ์ธ์.
|
136 |
+
|
137 |
+
2. ์ฝ๋ ์์ฑ: ๊ฐ์ ์ฌํญ์ด๋ ์๋ก์ด ๊ธฐ๋ฅ์ ์ถ๊ฐํ๊ธฐ ์ํด ์ฝ๋๋ฅผ ์์ฑํ์ค ์ ์์ต๋๋ค. ์์ฑ๋ ์ฝ๋๋ Pull Request๋ฅผ ํตํด ์ ์ถํด์ฃผ์๊ธฐ ๋ฐ๋๋๋ค.
|
138 |
+
|
139 |
+
3. ๋ฌธ์ ์์ฑ ๋ฐ ๋ฒ์ญ: ํ๋ก์ ํธ์ ๋ฌธ์ ์์ฑ์ด๋ ๋ฒ์ญ ์์
์ ์ฐธ์ฌํ์ฌ ํ๋ก์ ํธ์ ์ง์ ๋์ฌ์ฃผ์ธ์.
|
140 |
+
|
141 |
+
4. ํ
์คํธ ๋ฐ ํผ๋๋ฐฑ: ํ๋ก์ ํธ๋ฅผ ์ฌ์ฉํ๋ฉด์ ๋ฐ๊ฒฌํ ๋ฒ๊ทธ๋ ๊ฐ์ ์ฌํญ์ ํผ๋๋ฐฑํด์ฃผ์๋ฉด ํฐ ๋์์ด ๋ฉ๋๋ค.
|
142 |
+
|
143 |
+
## ๋ผ์ด์ ์ค
|
144 |
+
|
145 |
+
KoreanLM ํ๋ก์ ํธ๋ Apache 2.0 License ๋ผ์ด์ ์ค๋ฅผ ๋ฐ๏ฟฝ๏ฟฝ๏ฟฝ๋๋ค. ํ๋ก์ ํธ๋ฅผ ์ฌ์ฉํ์ค ๋ ๋ผ์ด์ ์ค์ ๋ฐ๋ผ ์ฃผ์์ฌํญ์ ์ง์ผ์ฃผ์๊ธฐ ๋ฐ๋๋๋ค.
|
146 |
+
|
147 |
+
|
148 |
+
## ๊ธฐ์ ๋ฌธ์
|
149 |
+
|
150 |
+
KoreanLM ํ๋ก์ ํธ์ ๊ด๋ จ๋ ๋ฌธ์์ฌํญ์ด ์์ผ์๋ฉด ์ด๋ฉ์ผ ๋๋ GitHub ์ด์๋ฅผ ํตํด ๋ฌธ์ํด์ฃผ์๊ธฐ ๋ฐ๋๋๋ค. ์ด ํ๋ก์ ํธ๊ฐ ํ๊ตญ์ด ์ธ์ด๋ชจ๋ธ์ ๋ํ ์ฐ๊ตฌ์ ๊ฐ๋ฐ์ ๋์์ด ๋๊ธธ ๋ฐ๋ผ๋ฉฐ, ๋ง์ ๊ด์ฌ๊ณผ ์ฐธ์ฌ ๋ถํ๋๋ฆฝ๋๋ค.
|
151 |
+
|
152 |
+
|
153 |
+
์ด๋ฉ์ผ: [email protected]
|
154 |
+
|
155 |
+
|
156 |
+
---
|
157 |
+
|
158 |
+
This repository has implementations inspired by [open_llama](https://github.com/openlm-research/open_llama), [Stanford Alpaca](https://github.com/tatsu-lab/stanford_alpaca) and [alpaca-lora](https://github.com/tloen/alpaca-lora) projects.
|