metadata
base_model: mesolitica/gemma-2B-16k-instructions
inference: false
model_creator: mesolitica
model_name: Malaysian Gemma 2B 16k instructions (FPF on Malaysian context)
model_type: mistral
pipeline_tag: text-generation
prompt_template: <start_of_turn>user kwsp tu apa?<end_of_turn> <start_of_turn>model
quantized_by: prsyahmi
tags:
- finetuned
language:
- ms
Malaysian Gemma 2B 16k instructions - GGUF
- Model creator: mesolotica
- Original model: Gemma 2B 16k instructions (FPF on Malaysian context)
Pengenalan
Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python.
Prompt template: Gemma
<start_of_turn>user
kwsp tu apa?<end_of_turn>
<start_of_turn>model
Kumpulan wang simpanan pekerja<end_of_turn>
<start_of_turn>user
kumpulan tu buat apa?<end_of_turn>
<start_of_turn>model
Fail yang diberikan
Sila rujuk Files and versions
Penghargaan
Terima kasih kepada Husein Zolkepli dan keseluruhan team mesolotica!
Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan.