Update README.md
Browse files
README.md
CHANGED
@@ -13,13 +13,13 @@ base_model:
|
|
13 |
</a>
|
14 |
|
15 |
# Update!
|
16 |
-
* [2024.09.04] Bllossom의
|
17 |
|
18 |
|
19 |
# Bllossom | [Demo]() | [Homepage](https://www.bllossom.ai/) | [Github](https://github.com/MLP-Lab/Bllossom) |
|
20 |
|
21 |
```bash
|
22 |
-
저희 Bllossom 팀에서 llama3.1 기반의 한국어-영어
|
23 |
이번 Bllossom-Vision은 preview 버전으로 다음과 같은 특징을 보입니다.
|
24 |
- 일반 언어모델, 시각-언어모델 양방향으로 활용이 가능합니다.
|
25 |
- 이미지를 넣으면 시각-언어모델, 넣지 않으면 언어모델로 작동하며 시각-언어, 그냥 언어모델 양방향모두 학습 및 추론이 가능합니다.
|
@@ -30,8 +30,9 @@ base_model:
|
|
30 |
해당 모델은 다음과 같은 협업을 토대로 구축 되었습니다!
|
31 |
- 서울과기대 MLP연구실의 시각-언어 + 언어모델 사전학습 기법이 적용되었습니다.
|
32 |
- 테디썸의 정교한 Instruction Tuning과 RAG 기술이 적용되었습니다.
|
33 |
-
- AICA의 GPU 지원이 있었습니다.
|
34 |
- 유클리드소프트에서 제작한 시각-언어 학습데이터를 토대로 학습 되었습니다.
|
|
|
|
|
35 |
|
36 |
언제나 그랬듯 해당 모델은 상업적 이용이 가능합니다.
|
37 |
|
@@ -47,8 +48,23 @@ We, the Bllossom team, are pleased to announce the release of Bllossom-Vision, a
|
|
47 |
- We have put significant effort into ensuring it remains faithful to the role of a vision-language model while maintaining the performance of a traditional language model as much as possible.
|
48 |
- It is a fully bilingual model that does not compromise English performance at all.
|
49 |
```
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
50 |
|
51 |
-
**This model developed by [MLPLab at Seoultech](http://mlp.seoultech.ac.kr), [Teddysum](http://teddysum.ai/) and [Yonsei Univ](https://sites.google.com/view/hansaemkim/hansaem-kim)**
|
52 |
|
53 |
## Example code
|
54 |
|
@@ -60,46 +76,7 @@ We, the Bllossom team, are pleased to announce the release of Bllossom-Vision, a
|
|
60 |
pip install torch transformers==4.44.0
|
61 |
```
|
62 |
|
63 |
-
### Python code
|
64 |
-
```python
|
65 |
-
from PIL import Image
|
66 |
-
from transformers import LlavaNextForConditionalGeneration,LlavaNextProcessor
|
67 |
-
import torch
|
68 |
-
|
69 |
-
model = LlavaNextForConditionalGeneration.from_pretrained('Bllossom/llama-3.1-Korean-Bllossom-Vision-8B', torch_dtype=torch.bfloat16)
|
70 |
-
processor = LlavaNextProcessor.from_pretrained('Bllossom/llama-3.1-Korean-Bllossom-Vision-8B', torch_dtype=torch.bfloat16)
|
71 |
-
|
72 |
-
image = Image.open('[IMAGE_PATH]').convert('RGB')
|
73 |
-
|
74 |
-
PROMPT=\
|
75 |
-
"""You are a versatile AI assistant named Bllava, capable of both understanding and generating text as well as interpreting and analyzing images. Your role is to kindly and effectively answer the user’s questions, whether they are about text or images, and provide appropriate and helpful responses to all types of queries.
|
76 |
-
|
77 |
-
당신은 텍스트를 이해하고 생성하는 것뿐만 아니라 이미지를 해석하고 분석할 수 있는 다재다능한 AI 어시스턴트 블라바입니다. 사용자의 질문이 텍스트에 관한 것이든 이미지에 관한 것이든 친절하고 효과적으로 답변하며, 모든 유형의 질의에 대해 적절하고 유용한 응답을 제공하는 것이 당신의 역할입니다."""
|
78 |
-
|
79 |
-
|
80 |
-
instruction = '이미지에 대해서 설명해주세요.'
|
81 |
-
messages = [
|
82 |
-
{'role': 'system', 'content': f"{PROMPT}"},
|
83 |
-
{'role': 'user', 'content': f"<image>\n{instruction}"}
|
84 |
-
]
|
85 |
-
|
86 |
-
chat_messages = processor.tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)
|
87 |
-
|
88 |
-
inputs = processor(
|
89 |
-
chat_messages,
|
90 |
-
image,
|
91 |
-
return_tensors='pt',
|
92 |
-
)
|
93 |
-
|
94 |
-
output = model.generate(
|
95 |
-
**inputs,
|
96 |
-
max_new_tokens=1024,
|
97 |
-
)
|
98 |
-
|
99 |
-
print(processor.tokenizer.decode(output[0]))
|
100 |
-
```
|
101 |
-
|
102 |
-
### Python code No Image
|
103 |
```python
|
104 |
from transformers import LlavaNextForConditionalGeneration,LlavaNextProcessor
|
105 |
import torch
|
@@ -144,11 +121,50 @@ with torch.no_grad():
|
|
144 |
print(processor.tokenizer.decode(output[0]))
|
145 |
```
|
146 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
147 |
## Supported by
|
148 |
|
149 |
-
-
|
150 |
-
-
|
151 |
-
- AICA
|
152 |
|
153 |
## Citation
|
154 |
**Language Model**
|
|
|
13 |
</a>
|
14 |
|
15 |
# Update!
|
16 |
+
* [2024.09.04] Bllossom의 시각-언어 preview 모델이 최초 업데이트 되었습니다.
|
17 |
|
18 |
|
19 |
# Bllossom | [Demo]() | [Homepage](https://www.bllossom.ai/) | [Github](https://github.com/MLP-Lab/Bllossom) |
|
20 |
|
21 |
```bash
|
22 |
+
저희 Bllossom 팀에서 llama3.1 기반의 한국어-영어 시각-언어모델 Bllossom-Vision을 공개합니다.
|
23 |
이번 Bllossom-Vision은 preview 버전으로 다음과 같은 특징을 보입니다.
|
24 |
- 일반 언어모델, 시각-언어모델 양방향으로 활용이 가능합니다.
|
25 |
- 이미지를 넣으면 시각-언어모델, 넣지 않으면 언어모델로 작동하며 시각-언어, 그냥 언어모델 양방향모두 학습 및 추론이 가능합니다.
|
|
|
30 |
해당 모델은 다음과 같은 협업을 토대로 구축 되었습니다!
|
31 |
- 서울과기대 MLP연구실의 시각-언어 + 언어모델 사전학습 기법이 적용되었습니다.
|
32 |
- 테디썸의 정교한 Instruction Tuning과 RAG 기술이 적용되었습니다.
|
|
|
33 |
- 유클리드소프트에서 제작한 시각-언어 학습데이터를 토대로 학습 되었습니다.
|
34 |
+
- AICA의 연구지원이 있었습니다.
|
35 |
+
- 서울과기대MLP연구실과 유클리드소프트가 지난 2020~2024년 까지 5년 동안 함께 진행한 한국어 VQA관련 데이터를 모두 활용했습니다.
|
36 |
|
37 |
언제나 그랬듯 해당 모델은 상업적 이용이 가능합니다.
|
38 |
|
|
|
48 |
- We have put significant effort into ensuring it remains faithful to the role of a vision-language model while maintaining the performance of a traditional language model as much as possible.
|
49 |
- It is a fully bilingual model that does not compromise English performance at all.
|
50 |
```
|
51 |
+
**Bllossom is developed by [MLPLab at Seoultech](http://mlp.seoultech.ac.kr), [Teddysum](http://teddysum.ai/) and [Yonsei Univ](https://sites.google.com/view/hansaemkim/hansaem-kim)**
|
52 |
+
|
53 |
+
|
54 |
+
## Demo Video
|
55 |
+
|
56 |
+
<div style="display: flex; justify-content: space-between;">
|
57 |
+
<!-- 첫 번째 컬럼 -->
|
58 |
+
<div style="width: 49%;">
|
59 |
+
<a>
|
60 |
+
<img src="https://github.com/lhsstn/lhsstn/blob/main/x-llava_dem.gif?raw=true" style="width: 100%; height: auto;">
|
61 |
+
</a>
|
62 |
+
<p style="text-align: center;">Bllossom-V Demo</p>
|
63 |
+
</div>
|
64 |
+
</div>
|
65 |
+
|
66 |
+
|
67 |
|
|
|
68 |
|
69 |
## Example code
|
70 |
|
|
|
76 |
pip install torch transformers==4.44.0
|
77 |
```
|
78 |
|
79 |
+
### Python code without Image
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
80 |
```python
|
81 |
from transformers import LlavaNextForConditionalGeneration,LlavaNextProcessor
|
82 |
import torch
|
|
|
121 |
print(processor.tokenizer.decode(output[0]))
|
122 |
```
|
123 |
|
124 |
+
### Python code with Image
|
125 |
+
```python
|
126 |
+
from PIL import Image
|
127 |
+
from transformers import LlavaNextForConditionalGeneration,LlavaNextProcessor
|
128 |
+
import torch
|
129 |
+
|
130 |
+
model = LlavaNextForConditionalGeneration.from_pretrained('Bllossom/llama-3.1-Korean-Bllossom-Vision-8B', torch_dtype=torch.bfloat16)
|
131 |
+
processor = LlavaNextProcessor.from_pretrained('Bllossom/llama-3.1-Korean-Bllossom-Vision-8B', torch_dtype=torch.bfloat16)
|
132 |
+
|
133 |
+
image = Image.open('[IMAGE_PATH]').convert('RGB')
|
134 |
+
|
135 |
+
PROMPT=\
|
136 |
+
"""You are a versatile AI assistant named Bllava, capable of both understanding and generating text as well as interpreting and analyzing images. Your role is to kindly and effectively answer the user’s questions, whether they are about text or images, and provide appropriate and helpful responses to all types of queries.
|
137 |
+
|
138 |
+
당신은 텍스트를 이해하고 생성하는 것뿐만 아니라 이미지를 해석하고 분석할 수 있는 다재다능한 AI 어시스턴트 블라바입니다. 사용자의 질문이 텍스트에 관한 것이든 이미지에 관한 것이든 친절하고 효과적으로 답변하며, 모든 유형의 질의에 대해 적절하고 유용한 응답을 제공하는 것이 당신의 역할입니다."""
|
139 |
+
|
140 |
+
|
141 |
+
instruction = '이미지에 대해서 설명해주세요.'
|
142 |
+
messages = [
|
143 |
+
{'role': 'system', 'content': f"{PROMPT}"},
|
144 |
+
{'role': 'user', 'content': f"<image>\n{instruction}"}
|
145 |
+
]
|
146 |
+
|
147 |
+
chat_messages = processor.tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)
|
148 |
+
|
149 |
+
inputs = processor(
|
150 |
+
chat_messages,
|
151 |
+
image,
|
152 |
+
return_tensors='pt',
|
153 |
+
)
|
154 |
+
|
155 |
+
output = model.generate(
|
156 |
+
**inputs,
|
157 |
+
max_new_tokens=1024,
|
158 |
+
)
|
159 |
+
|
160 |
+
print(processor.tokenizer.decode(output[0]))
|
161 |
+
```
|
162 |
+
|
163 |
+
|
164 |
## Supported by
|
165 |
|
166 |
+
- AICA <img src="https://aica-gj.kr/images/logo.png" width="20%" height="20%">
|
167 |
+
- 유클리드소프트 <img src="https://euclidsoft.co.kr/_next/image?url=%2Fimg%2Flogo.png&w=384&q=75" width="20%" height="20%">
|
|
|
168 |
|
169 |
## Citation
|
170 |
**Language Model**
|