GEMMA3-PMB-UNSI - GGUF Model untuk Ollama

Model ini adalah hasil fine-tuning Gemma 3 1B untuk chatbot PMB (Penerimaan Mahasiswa Baru) dalam format GGUF yang siap digunakan dengan Ollama.

πŸ“Š Model Files

File Size Format Description
gemma3-pmb-unsiq-q4_k_m.gguf 768.72 MB Q4_K_M (4-bit) Recommended for production
gemma3-pmb-unsiq-f16.gguf 1.87 GB F16 (16-bit) Recommended for production

πŸš€ Quick Start dengan Ollama

1. Download Modelfile dan GGUF

# Download file Q4_K_M (recommended)
wget https://huggingface.co/Pandusu/Qlora-gguf-v4/resolve/main/gemma3-pmb-unsiq-q4_k_m.gguf

# Download Modelfile
wget https://huggingface.co/Pandusu/Qlora-gguf-v4/resolve/main/Modelfile.gemma3-pmb-unsi

2. Import ke Ollama

# Create model di Ollama
ollama create gemma3-pmb-unsi -f Modelfile.gemma3-pmb-unsi

# Verifikasi
ollama list

3. Jalankan Model

# Run model
ollama run gemma3-pmb-unsi

# Contoh query
ollama run gemma3-pmb-unsi "Jelaskan tentang proses pendaftaran mahasiswa baru"

πŸ’» Penggunaan via API

import requests

def chat_with_model(question):
    response = requests.post('http://localhost:11434/api/generate',
        json={
            "model": "gemma3-pmb-unsi",
            "prompt": question,
            "stream": False
        })
    return response.json()['response']

# Contoh
answer = chat_with_model("Apa saja jalur pendaftaran yang tersedia?")
print(answer)

πŸ“‹ Model Details

  • Base Model: google/gemma-2-1b
  • Training Method: QLoRA (Quantized Low-Rank Adaptation)
  • Language: Indonesian
  • Domain: Educational (PMB/University Admission)
  • Format: GGUF
  • Quantization: Q4_K_M (4-bit) and F16 (16-bit)

🎯 Use Cases

Model ini dioptimalkan untuk menjawab pertanyaan seputar:

  • Proses pendaftaran mahasiswa baru
  • Persyaratan dan dokumen
  • Jadwal dan timeline pendaftaran
  • Biaya dan beasiswa
  • Program studi yang tersedia
  • Informasi umum kampus

βš™οΈ Model Parameters (di Modelfile)

PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER top_k 40
PARAMETER repeat_penalty 1.1
PARAMETER num_ctx 4096
PARAMETER num_predict 512

πŸ“¦ Alternative: Pull via Ollama Library

Jika sudah dipublish ke Ollama Library:

ollama pull gemma3-pmb-unsi

πŸ”§ System Requirements

  • RAM: Minimum 4GB (8GB recommended)
  • Storage: ~1GB untuk Q4_K_M model
  • GPU: Optional (CPU-only supported)

πŸ“ Training Details

Model ini di-train menggunakan:

  • Dataset custom untuk PMB Indonesia
  • QLoRA untuk efficient fine-tuning
  • Unsloth untuk optimasi training
  • Total training epochs: [sesuaikan]
  • Learning rate: [sesuaikan]

πŸ“„ License

Model ini menggunakan lisensi dari base model Gemma. Silakan cek Gemma Terms of Use untuk detail lengkap.

🀝 Citation

Jika menggunakan model ini dalam penelitian atau project, mohon cantumkan:

@misc{gemma3_pmb_unsi,
  title={gemma3-pmb-unsi: Fine-tuned Gemma 3 1B for Indonesian University Admission Chatbot},
  author={PMB Chatbot Project},
  year={2025},
  publisher={Hugging Face},
  howpublished={\url{https://huggingface.co/Pandusu/Qlora-gguf-v4}}
}

πŸ“§ Contact

Untuk pertanyaan atau issue, silakan buka issue di repository atau hubungi maintainer.


Note: Model ini khusus untuk keperluan edukasi dan chatbot PMB. Hasil jawaban model sebaiknya divalidasi oleh pihak terkait sebelum digunakan di production.

Downloads last month
47
GGUF
Model size
1.0B params
Architecture
gemma3
Hardware compatibility
Log In to view the estimation

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support

Space using Pandusu/Qlora-gguf-v4 1