Edit model card

Model Card for Minerva-3B-base-QA-v1.0

Minerva-3B-base-RAG is a specialized question-answering (QA) model derived through the finetuning of Minerva-3B-base-v1.0. This finetuning was independently conducted to enhance the model's performance for QA tasks, making it ideally suited for use in Retrieval-Augmented Generation (RAG) applications.

Overview


How to Use

import transformers
import torch

model_id = "DeepMount00/Minerva-3B-base-RAG"

# Initialize the pipeline.
pipeline = transformers.pipeline(
    "text-generation",
    model=model_id,
    model_kwargs={"torch_dtype": torch.bfloat16},
    device_map="auto",
)

def generate_text(pipeline, context, question):
    input_text = f"[INST]Contesto: {context}\nDomanda:{question}\n[/INST]"
    output = pipeline(
        input_text,
        max_new_tokens=512,
    )
    generated_text = output[0]['generated_text']
    response_text = generated_text.split("[/INST]", 1)[1].strip()
    return response_text.replace("<end_of_text>", "")

contesto = """La torre degli Asinelli è una delle cosiddette due torri di Bologna, simbolo della città, situate in piazza di porta Ravegnana, all'incrocio tra le antiche strade San Donato (ora via Zamboni), San Vitale, Maggiore e Castiglione. Eretta, secondo la tradizione, fra il 1109 e il 1119 dal nobile Gherardo Asinelli, la torre è alta 97,20 metri, pende verso ovest per 2,23 metri e presenta all'interno una scalinata composta da 498 gradini. Ancora non si può dire con certezza quando e da chi fu costruita la torre degli Asinelli. Si presume che la torre debba il proprio nome a Gherardo Asinelli, il nobile cavaliere di fazione ghibellina al quale se ne attribuisce la costruzione, iniziata secondo una consolidata tradizione l'11 ottobre 1109 e terminata dieci anni dopo, nel 1119."""
domanda = """In che città si trova la torre degli Asinelli?"""

answer = generate_text(pipeline, contesto, domanda)
print(answer)
Downloads last month
451
Safetensors
Model size
2.89B params
Tensor type
BF16
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for DeepMount00/Minerva-3B-base-RAG

Finetunes
6 models
Merges
2 models
Quantizations
4 models

Dataset used to train DeepMount00/Minerva-3B-base-RAG

Collection including DeepMount00/Minerva-3B-base-RAG