flemingxu
commited on
Commit
•
d580b8c
1
Parent(s):
bd7991e
update hf
Browse files
README.md
CHANGED
@@ -48,7 +48,7 @@ pip install -U textgen
|
|
48 |
|
49 |
```python
|
50 |
from textgen import LlamaModel
|
51 |
-
model = LlamaModel("llama", "shibing624/chinese-alpaca-plus-7b")
|
52 |
r = model.predict(["用一句话描述地球为什么是独一无二的。"])
|
53 |
print(r) # ['地球是独一无二的,因为它拥有独特的大气层、水循环、生物多样性以及其他自然资源,这些都使它成为一个独特的生命支持系统。']
|
54 |
```
|
@@ -78,8 +78,8 @@ def generate_prompt(text):
|
|
78 |
### Response:"""
|
79 |
|
80 |
|
81 |
-
tokenizer = LlamaTokenizer.from_pretrained('shibing624/chinese-alpaca-plus-7b')
|
82 |
-
model = LlamaForCausalLM.from_pretrained('shibing624/chinese-alpaca-plus-7b').half().cuda()
|
83 |
model.eval()
|
84 |
|
85 |
text = '为什么天空是蓝色的?'
|
@@ -116,7 +116,7 @@ release合并后的模型权重,一次到位直接使用,省电、减少碳
|
|
116 |
|
117 |
模型文件组成:
|
118 |
```
|
119 |
-
chinese-alpaca-plus-7b
|
120 |
config.json
|
121 |
generation_config.json
|
122 |
pytorch_model-00001-of-00002.bin
|
@@ -155,4 +155,4 @@ chinese-alpaca-plus-7b
|
|
155 |
|
156 |
|
157 |
## Reference
|
158 |
-
- https://github.com/ymcui/Chinese-LLaMA-Alpaca
|
|
|
48 |
|
49 |
```python
|
50 |
from textgen import LlamaModel
|
51 |
+
model = LlamaModel("llama", "shibing624/chinese-alpaca-plus-7b-hf")
|
52 |
r = model.predict(["用一句话描述地球为什么是独一无二的。"])
|
53 |
print(r) # ['地球是独一无二的,因为它拥有独特的大气层、水循环、生物多样性以及其他自然资源,这些都使它成为一个独特的生命支持系统。']
|
54 |
```
|
|
|
78 |
### Response:"""
|
79 |
|
80 |
|
81 |
+
tokenizer = LlamaTokenizer.from_pretrained('shibing624/chinese-alpaca-plus-7b-hf')
|
82 |
+
model = LlamaForCausalLM.from_pretrained('shibing624/chinese-alpaca-plus-7b-hf').half().cuda()
|
83 |
model.eval()
|
84 |
|
85 |
text = '为什么天空是蓝色的?'
|
|
|
116 |
|
117 |
模型文件组成:
|
118 |
```
|
119 |
+
chinese-alpaca-plus-7b-hf
|
120 |
config.json
|
121 |
generation_config.json
|
122 |
pytorch_model-00001-of-00002.bin
|
|
|
155 |
|
156 |
|
157 |
## Reference
|
158 |
+
- https://github.com/ymcui/Chinese-LLaMA-Alpaca
|