Update README.md
Browse files
README.md
CHANGED
@@ -11,7 +11,7 @@ library_name: transformers
|
|
11 |
|
12 |
基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见[llama.family](https://llama.family)。
|
13 |
|
14 |
-
模型的部署、训练、微调等方法详见Llama中文社区GitHub仓库:[**
|
15 |
|
16 |
|
17 |
## 📝 中文数据
|
@@ -76,7 +76,7 @@ Atom-7B采用了FlashAttention-2技术进行训练。由于在处理较长的输
|
|
76 |
|
77 |
## 🚀 社区地址:
|
78 |
|
79 |
-
Github:[**
|
80 |
|
81 |
在线体验链接:[**llama.family**](https://llama.family/)
|
82 |
|
|
|
11 |
|
12 |
基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见[llama.family](https://llama.family)。
|
13 |
|
14 |
+
模型的部署、训练、微调等方法详见Llama中文社区GitHub仓库:[**Llama-Chinese**](https://github.com/LlamaFamily/Llama-Chinese)。
|
15 |
|
16 |
|
17 |
## 📝 中文数据
|
|
|
76 |
|
77 |
## 🚀 社区地址:
|
78 |
|
79 |
+
Github:[**Llama-Chinese**](https://github.com/LlamaFamily/Llama-Chinese)
|
80 |
|
81 |
在线体验链接:[**llama.family**](https://llama.family/)
|
82 |
|