Amadeus - Modèle conversationnel

Modèle basé sur Phi-3-mini-4k-instruct, fine-tuné pour des conversations en français avec un style scientifique.

Format de prompt

Le modèle utilise le format Phi-3 :

<|user|>
Votre message<|end|>
<|assistant|>

Utilisation avec l'API

from huggingface_hub import InferenceClient

client = InferenceClient("Eclairmania/amadeus-merged", token="votre_token")

response = client.text_generation(
    "<|user|>\nBonjour<|end|>\n<|assistant|>\n",
    max_new_tokens=150
)
print(response)

Utilisation avec Transformers

from transformers import AutoTokenizer, AutoModelForCausalLM

model = AutoModelForCausalLM.from_pretrained("Eclairmania/amadeus-merged")
tokenizer = AutoTokenizer.from_pretrained("Eclairmania/amadeus-merged")

prompt = "<|user|>\nBonjour<|end|>\n<|assistant|>\n"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=150)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Downloads last month
22
Safetensors
Model size
4B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Eclairmania/amadeus-merged

Finetuned
(415)
this model

Space using Eclairmania/amadeus-merged 1