wuyongyu commited on
Commit
05aeca0
1 Parent(s): b0df127

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -11,7 +11,7 @@ library_name: transformers
11
 
12
  基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见[llama.family](https://llama.family)。
13
 
14
- 模型的部署、训练、微调等方法详见Llama中文社区GitHub仓库:[**Llama2-Chinese**](https://github.com/FlagAlpha/Llama2-Chinese)。
15
 
16
 
17
  ## 📝 中文数据
@@ -76,7 +76,7 @@ Atom-7B采用了FlashAttention-2技术进行训练。由于在处理较长的输
76
 
77
  ## 🚀 社区地址:
78
 
79
- Github:[**Llama2-Chinese**](https://github.com/FlagAlpha/Llama2-Chinese)
80
 
81
  在线体验链接:[**llama.family**](https://llama.family/)
82
 
 
11
 
12
  基于Atom-7B具有32k长度的对话模型,完全开源可商用,由Llama中文社区和AtomEcho(原子回声)联合研发,基于Llama2-7B采用大规模的中文数据进行了继续预训练,我们会持续提供更新的模型参数,模型训练过程见[llama.family](https://llama.family)。
13
 
14
+ 模型的部署、训练、微调等方法详见Llama中文社区GitHub仓库:[**Llama-Chinese**](https://github.com/LlamaFamily/Llama-Chinese)。
15
 
16
 
17
  ## 📝 中文数据
 
76
 
77
  ## 🚀 社区地址:
78
 
79
+ Github:[**Llama-Chinese**](https://github.com/LlamaFamily/Llama-Chinese)
80
 
81
  在线体验链接:[**llama.family**](https://llama.family/)
82