jujbob commited on
Commit
2e146f9
1 Parent(s): 92712fd

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +63 -47
README.md CHANGED
@@ -13,13 +13,13 @@ base_model:
13
  </a>
14
 
15
  # Update!
16
- * [2024.09.04] Bllossom의 시각-언어모델 preview 모델이 최초 업데이트 되었습니다.
17
 
18
 
19
  # Bllossom | [Demo]() | [Homepage](https://www.bllossom.ai/) | [Github](https://github.com/MLP-Lab/Bllossom) |
20
 
21
  ```bash
22
- 저희 Bllossom 팀에서 llama3.1 기반의 한국어-영어 **시각-언어모델** Bllossom-Vision을 공개합니다.
23
  이번 Bllossom-Vision은 preview 버전으로 다음과 같은 특징을 보입니다.
24
  - 일반 언어모델, 시각-언어모델 양방향으로 활용이 가능합니다.
25
  - 이미지를 넣으면 시각-언어모델, 넣지 않으면 언어모델로 작동하며 시각-언어, 그냥 언어모델 양방향모두 학습 및 추론이 가능합니다.
@@ -30,8 +30,9 @@ base_model:
30
  해당 모델은 다음과 같은 협업을 토대로 구축 되었습니다!
31
  - 서울과기대 MLP연구실의 시각-언어 + 언어모델 사전학습 기법이 적용되었습니다.
32
  - 테디썸의 정교한 Instruction Tuning과 RAG 기술이 적용되었습니다.
33
- - AICA의 GPU 지원이 있었습니다.
34
  - 유클리드소프트에서 제작한 시각-언어 학습데이터를 토대로 학습 되었습니다.
 
 
35
 
36
  언제나 그랬듯 해당 모델은 상업적 이용이 가능합니다.
37
 
@@ -47,8 +48,23 @@ We, the Bllossom team, are pleased to announce the release of Bllossom-Vision, a
47
  - We have put significant effort into ensuring it remains faithful to the role of a vision-language model while maintaining the performance of a traditional language model as much as possible.
48
  - It is a fully bilingual model that does not compromise English performance at all.
49
  ```
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
50
 
51
- **This model developed by [MLPLab at Seoultech](http://mlp.seoultech.ac.kr), [Teddysum](http://teddysum.ai/) and [Yonsei Univ](https://sites.google.com/view/hansaemkim/hansaem-kim)**
52
 
53
  ## Example code
54
 
@@ -60,46 +76,7 @@ We, the Bllossom team, are pleased to announce the release of Bllossom-Vision, a
60
  pip install torch transformers==4.44.0
61
  ```
62
 
63
- ### Python code with Image
64
- ```python
65
- from PIL import Image
66
- from transformers import LlavaNextForConditionalGeneration,LlavaNextProcessor
67
- import torch
68
-
69
- model = LlavaNextForConditionalGeneration.from_pretrained('Bllossom/llama-3.1-Korean-Bllossom-Vision-8B', torch_dtype=torch.bfloat16)
70
- processor = LlavaNextProcessor.from_pretrained('Bllossom/llama-3.1-Korean-Bllossom-Vision-8B', torch_dtype=torch.bfloat16)
71
-
72
- image = Image.open('[IMAGE_PATH]').convert('RGB')
73
-
74
- PROMPT=\
75
- """You are a versatile AI assistant named Bllava, capable of both understanding and generating text as well as interpreting and analyzing images. Your role is to kindly and effectively answer the user’s questions, whether they are about text or images, and provide appropriate and helpful responses to all types of queries.
76
-
77
- 당신은 텍스트를 이해하고 생성하는 것뿐만 아니라 이미지를 해석하고 분석할 수 있는 다재다능한 AI 어시스턴트 블라바입니다. 사용자의 질문이 텍스트에 관한 것이든 이미지에 관한 것이든 친절하고 효과적으로 답변하며, 모든 유형의 질의에 대해 적절하고 유용한 응답을 제공하는 것이 당신의 역할입니다."""
78
-
79
-
80
- instruction = '이미지에 대해서 설명해주세요.'
81
- messages = [
82
- {'role': 'system', 'content': f"{PROMPT}"},
83
- {'role': 'user', 'content': f"<image>\n{instruction}"}
84
- ]
85
-
86
- chat_messages = processor.tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)
87
-
88
- inputs = processor(
89
- chat_messages,
90
- image,
91
- return_tensors='pt',
92
- )
93
-
94
- output = model.generate(
95
- **inputs,
96
- max_new_tokens=1024,
97
- )
98
-
99
- print(processor.tokenizer.decode(output[0]))
100
- ```
101
-
102
- ### Python code No Image
103
  ```python
104
  from transformers import LlavaNextForConditionalGeneration,LlavaNextProcessor
105
  import torch
@@ -144,11 +121,50 @@ with torch.no_grad():
144
  print(processor.tokenizer.decode(output[0]))
145
  ```
146
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
147
  ## Supported by
148
 
149
- - Hewlett Packard (HP) Enterprise <img src="https://upload.wikimedia.org/wikipedia/commons/thumb/4/46/Hewlett_Packard_Enterprise_logo.svg/2880px-Hewlett_Packard_Enterprise_logo.svg.png" width="20%" height="20%">
150
- - Common Crawl <img src="https://cdn.prod.website-files.com/6479b8d98bf5dcb4a69c4f31/649b5869af56f6df617cfb1f_CC_Logo_Blue_Auto.svg" width="20%" height="20%">
151
- - AICA
152
 
153
  ## Citation
154
  **Language Model**
 
13
  </a>
14
 
15
  # Update!
16
+ * [2024.09.04] Bllossom의 시각-언어 preview 모델이 최초 업데이트 되었습니다.
17
 
18
 
19
  # Bllossom | [Demo]() | [Homepage](https://www.bllossom.ai/) | [Github](https://github.com/MLP-Lab/Bllossom) |
20
 
21
  ```bash
22
+ 저희 Bllossom 팀에서 llama3.1 기반의 한국어-영어 시각-언어모델 Bllossom-Vision을 공개합니다.
23
  이번 Bllossom-Vision은 preview 버전으로 다음과 같은 특징을 보입니다.
24
  - 일반 언어모델, 시각-언어모델 양방향으로 활용이 가능합니다.
25
  - 이미지를 넣으면 시각-언어모델, 넣지 않으면 언어모델로 작동하며 시각-언어, 그냥 언어모델 양방향모두 학습 및 추론이 가능합니다.
 
30
  해당 모델은 다음과 같은 협업을 토대로 구축 되었습니다!
31
  - 서울과기대 MLP연구실의 시각-언어 + 언어모델 사전학습 기법이 적용되었습니다.
32
  - 테디썸의 정교한 Instruction Tuning과 RAG 기술이 적용되었습니다.
 
33
  - 유클리드소프트에서 제작한 시각-언어 학습데이터를 토대로 학습 되었습니다.
34
+ - AICA의 연구지원이 있었습니다.
35
+ - 서울과기대MLP연구실과 유클리드소프트가 지난 2020~2024년 까지 5년 동안 함께 진행한 한국어 VQA관련 데이터를 모두 활용했습니다.
36
 
37
  언제나 그랬듯 해당 모델은 상업적 이용이 가능합니다.
38
 
 
48
  - We have put significant effort into ensuring it remains faithful to the role of a vision-language model while maintaining the performance of a traditional language model as much as possible.
49
  - It is a fully bilingual model that does not compromise English performance at all.
50
  ```
51
+ **Bllossom is developed by [MLPLab at Seoultech](http://mlp.seoultech.ac.kr), [Teddysum](http://teddysum.ai/) and [Yonsei Univ](https://sites.google.com/view/hansaemkim/hansaem-kim)**
52
+
53
+
54
+ ## Demo Video
55
+
56
+ <div style="display: flex; justify-content: space-between;">
57
+ <!-- 첫 번째 컬럼 -->
58
+ <div style="width: 49%;">
59
+ <a>
60
+ <img src="https://github.com/lhsstn/lhsstn/blob/main/x-llava_dem.gif?raw=true" style="width: 100%; height: auto;">
61
+ </a>
62
+ <p style="text-align: center;">Bllossom-V Demo</p>
63
+ </div>
64
+ </div>
65
+
66
+
67
 
 
68
 
69
  ## Example code
70
 
 
76
  pip install torch transformers==4.44.0
77
  ```
78
 
79
+ ### Python code without Image
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
80
  ```python
81
  from transformers import LlavaNextForConditionalGeneration,LlavaNextProcessor
82
  import torch
 
121
  print(processor.tokenizer.decode(output[0]))
122
  ```
123
 
124
+ ### Python code with Image
125
+ ```python
126
+ from PIL import Image
127
+ from transformers import LlavaNextForConditionalGeneration,LlavaNextProcessor
128
+ import torch
129
+
130
+ model = LlavaNextForConditionalGeneration.from_pretrained('Bllossom/llama-3.1-Korean-Bllossom-Vision-8B', torch_dtype=torch.bfloat16)
131
+ processor = LlavaNextProcessor.from_pretrained('Bllossom/llama-3.1-Korean-Bllossom-Vision-8B', torch_dtype=torch.bfloat16)
132
+
133
+ image = Image.open('[IMAGE_PATH]').convert('RGB')
134
+
135
+ PROMPT=\
136
+ """You are a versatile AI assistant named Bllava, capable of both understanding and generating text as well as interpreting and analyzing images. Your role is to kindly and effectively answer the user’s questions, whether they are about text or images, and provide appropriate and helpful responses to all types of queries.
137
+
138
+ 당신은 텍스트를 이해하고 생성하는 것뿐만 아니라 이미지를 해석하고 분석할 수 있는 다재다능한 AI 어시스턴트 블라바입니다. 사용자의 질문이 텍스트에 관한 것이든 이미지에 관한 것이든 친절하고 효과적으로 답변하며, 모든 유형의 질의에 대해 적절하고 유용한 응답을 제공하는 것이 당신의 역할입니다."""
139
+
140
+
141
+ instruction = '이미지에 대해서 설명해주세요.'
142
+ messages = [
143
+ {'role': 'system', 'content': f"{PROMPT}"},
144
+ {'role': 'user', 'content': f"<image>\n{instruction}"}
145
+ ]
146
+
147
+ chat_messages = processor.tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True)
148
+
149
+ inputs = processor(
150
+ chat_messages,
151
+ image,
152
+ return_tensors='pt',
153
+ )
154
+
155
+ output = model.generate(
156
+ **inputs,
157
+ max_new_tokens=1024,
158
+ )
159
+
160
+ print(processor.tokenizer.decode(output[0]))
161
+ ```
162
+
163
+
164
  ## Supported by
165
 
166
+ - AICA <img src="https://aica-gj.kr/images/logo.png" width="20%" height="20%">
167
+ - 유클리드소프트 <img src="https://euclidsoft.co.kr/_next/image?url=%2Fimg%2Flogo.png&w=384&q=75" width="20%" height="20%">
 
168
 
169
  ## Citation
170
  **Language Model**