dahara1 commited on
Commit
329d441
1 Parent(s): dc4d80d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +22 -0
README.md CHANGED
@@ -1,3 +1,25 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
 
2
  gemma-2-9b-itを日本語が多く含まれる重要度行列(iMatrix)を使って量子化したgguf版です。日本語対応能力が多めに保持されている事を期待していますが確かめる事はまだ出来ていません
3
  This is a quantized gguf version of gemma-2-9b-it using an importance matrix (iMatrix) that contains many Japanese words. I hope it retains more Japanese support, but I can't be sure yet.
 
1
+ ---
2
+ tags:
3
+ - gemma2
4
+ - llm
5
+ ---
6
+
7
+ ## 更新履歴 update history
8
+
9
+ 現在、差し替え作業中です!
10
+
11
+ 2024/07/20
12
+ llama.cppに不具合[llama : fix pre-tokenization of non-special added tokens #8228](https://github.com/ggerganov/llama.cpp/pull/8228)が見つかり、Gemma2モデルは再変換が必要になり対応しました。HTMLタグの処理などが不正確になっていたとの事です。
13
+ A bug was found in llama.cpp [llama: fix pre-tokenization of non-special added tokens #8228](https://github.com/ggerganov/llama.cpp/pull/8228), and the Gemma2 model needed to be reconverted. The problem was that HTML tags were not being processed correctly.
14
+
15
+
16
+ 単純に再変換するのは面白みがなかったので4bit以上の版は更に精度向上するという説もあるoutput tensorとembeddingをf16にするタイプの変換をしてみました。
17
+ Simply reconverting it was not interesting, so I tried converting the output tensor and embedding to f16, which is said to have even greater accuracy in versions of 4 bits or more.
18
+ 念の為、4bit版は従来の変換とf16タイプの変換の両方をアップロードしてあります。
19
+ Just to be on the safe side, I have uploaded both the 4-bit conventional conversion and the f16 conversion.
20
+
21
+ 再変換時に、9b版のみ重要度行列(iMatrix)に日本語データを更に追加しています。
22
+ During reconversion, additional Japanese data was added to the importance matrix (iMatrix) for 9b only.
23
 
24
  gemma-2-9b-itを日本語が多く含まれる重要度行列(iMatrix)を使って量子化したgguf版です。日本語対応能力が多めに保持されている事を期待していますが確かめる事はまだ出来ていません
25
  This is a quantized gguf version of gemma-2-9b-it using an importance matrix (iMatrix) that contains many Japanese words. I hope it retains more Japanese support, but I can't be sure yet.