--- base_model: mesolitica/gemma-2B-16k-instructions inference: false model_creator: mesolitica model_name: Malaysian Gemma 2B 16k instructions (FPF on Malaysian context) model_type: mistral pipeline_tag: text-generation prompt_template: user kwsp tu apa? model quantized_by: prsyahmi tags: - finetuned language: - ms --- # Malaysian Gemma 2B 16k instructions - GGUF - Model creator: [mesolotica](https://huggingface.co/mesolitica) - Original model: [Gemma 2B 16k instructions (FPF on Malaysian context)](https://huggingface.co/mesolitica/gemma-2B-16k-instructions) ## Pengenalan Repo ini mengandungi model berformat GGUF, iaitu format kepada llama.cpp yang dibangunkan menggunakan C/C++ dimana aplikasi ini kurang kebergantungan dengan software/library lain menjadikan ia ringan berbanding rata-rata aplikasi python. ## Prompt template: Gemma ``` user kwsp tu apa? model Kumpulan wang simpanan pekerja user kumpulan tu buat apa? model ``` ## Fail yang diberikan Sila rujuk [Files and versions](https://huggingface.co/prsyahmi/malaysian-gemma-2B-16k-instructions-GGUF/tree/main) ## Penghargaan Terima kasih kepada Husein Zolkepli dan keseluruhan team [mesolotica](https://huggingface.co/mesolitica)! Atas jasa mereka, kita dapat menggunakan atau mencuba AI peringkat tempatan. -------