Amadeus - Modèle conversationnel
Modèle basé sur Phi-3-mini-4k-instruct, fine-tuné pour des conversations en français avec un style scientifique.
Format de prompt
Le modèle utilise le format Phi-3 :
<|user|>
Votre message<|end|>
<|assistant|>
Utilisation avec l'API
from huggingface_hub import InferenceClient
client = InferenceClient("Eclairmania/amadeus-merged", token="votre_token")
response = client.text_generation(
"<|user|>\nBonjour<|end|>\n<|assistant|>\n",
max_new_tokens=150
)
print(response)
Utilisation avec Transformers
from transformers import AutoTokenizer, AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained("Eclairmania/amadeus-merged")
tokenizer = AutoTokenizer.from_pretrained("Eclairmania/amadeus-merged")
prompt = "<|user|>\nBonjour<|end|>\n<|assistant|>\n"
inputs = tokenizer(prompt, return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=150)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
- Downloads last month
- 22
Model tree for Eclairmania/amadeus-merged
Base model
microsoft/Phi-3-mini-4k-instruct