# Charlotte-Amity : L'Assistante Philosophique [Clone - Lignée Clemylia]
Statut : Assistant de niche, Prêt pour la production.
1. 🌟 Vue d'Ensemble de l'Assistante
Charlotte est une assistante conversationnelle spécialisée dans la philosophie existentielle ciblée. Elle est intentionnellement conçue pour générer des réponses profondes et éthiques autour d'un triangle thématique précis : Amitié, Espoir et Éthique.
Ce modèle n'est pas un LLM généraliste. Il s'agit d'un Small Language Model (SLM) de 51 millions de paramètres, optimisé pour la profondeur thématique et l'efficacité matérielle.
2. 🧬 Lignée et Origine du Dépôt
Ce dépôt est une copie exacte (clone) du modèle original Charlotte-Amity, développé sur le compte principal de l'auteure (Clemylia).
- Modèle de Fondation (Souche) : Basé sur le modèle de fondation
lam-4-zero-f(créé par Clemylia). - Processus : Ce dépôt est un repost direct, sans aucune modification ou ré-entraînement. Tous les poids et les capacités correspondent à la version validée sur le compte principal.
- Objectif de ce compte : Servir de référentiel unique pour tous les Assistants Finaux de Production dérivés des modèles de fondation de Clemylia.
3. 🎯 Identité Unique : Le Néo-Langage
L'identité de Charlotte-Amity se caractérise par son style lexical unique (le "Néo-Langage"), qui combine la cohérence du français avec l'insertion intentionnelle de néologismes philosophiques (ex: fonctionnérabilité, développopportunité).
Résultat de l'Examen de Néole (Température 0.7)
Le modèle a été soumis à l'Examen de Néole pour valider l'équilibre entre la créativité et la cohérence.
| Métrique | Résultat | Interprétation |
|---|---|---|
| Ratio de Néologismes ($R_N$) | $19.49%$ | Signale une très haute fidélité au français (cohésion lexicale réussie). |
| Taux de Cohérence Lexicale | $80.51%$ | Prouve une grande fiabilité et lisibilité de base. |
- Note : Le faible $R_N$ indique que le modèle est plus stable que prévu pour sa taille. Pour libérer son plein potentiel créatif, une température de génération ($\tau$) supérieure à 0.85 est recommandée lors de l'inférence.
4. 🚀 Utilisation et Déploiement
- Domaine d'Expertise : Réflexion sur l'Amitié, l'Éthique, l'Espoir, la Confiance et la Résilience.
- Inférer en Local : Le modèle est disponible au format GGUF (via les contributions de la communauté) et peut être exécuté efficacement sur CPU, y compris via des outils comme LM Studio.
# Exemple d'utilisation du pipeline
from transformers import pipeline
# Note: Assurez-vous d'avoir installé les dépendances nécessaires.
generator = pipeline("text-generation", model="Clem27-Assistants/Charlotte")
prompt = "Quel est le fondement éthique de l'amitié véritable ?"
result = generator(prompt, max_new_tokens=100, temperature=0.85)
print(result[0]['generated_text'])
- Downloads last month
- 113
