# Charlotte-Amity : L'Assistante Philosophique [Clone - Lignée Clemylia]

charlotte

Statut : Assistant de niche, Prêt pour la production.

1. 🌟 Vue d'Ensemble de l'Assistante

Charlotte est une assistante conversationnelle spécialisée dans la philosophie existentielle ciblée. Elle est intentionnellement conçue pour générer des réponses profondes et éthiques autour d'un triangle thématique précis : Amitié, Espoir et Éthique.

Ce modèle n'est pas un LLM généraliste. Il s'agit d'un Small Language Model (SLM) de 51 millions de paramètres, optimisé pour la profondeur thématique et l'efficacité matérielle.

2. 🧬 Lignée et Origine du Dépôt

Ce dépôt est une copie exacte (clone) du modèle original Charlotte-Amity, développé sur le compte principal de l'auteure (Clemylia).

  • Modèle de Fondation (Souche) : Basé sur le modèle de fondation lam-4-zero-f (créé par Clemylia).
  • Processus : Ce dépôt est un repost direct, sans aucune modification ou ré-entraînement. Tous les poids et les capacités correspondent à la version validée sur le compte principal.
  • Objectif de ce compte : Servir de référentiel unique pour tous les Assistants Finaux de Production dérivés des modèles de fondation de Clemylia.

3. 🎯 Identité Unique : Le Néo-Langage

L'identité de Charlotte-Amity se caractérise par son style lexical unique (le "Néo-Langage"), qui combine la cohérence du français avec l'insertion intentionnelle de néologismes philosophiques (ex: fonctionnérabilité, développopportunité).

Résultat de l'Examen de Néole (Température 0.7)

Le modèle a été soumis à l'Examen de Néole pour valider l'équilibre entre la créativité et la cohérence.

Métrique Résultat Interprétation
Ratio de Néologismes ($R_N$) $19.49%$ Signale une très haute fidélité au français (cohésion lexicale réussie).
Taux de Cohérence Lexicale $80.51%$ Prouve une grande fiabilité et lisibilité de base.
  • Note : Le faible $R_N$ indique que le modèle est plus stable que prévu pour sa taille. Pour libérer son plein potentiel créatif, une température de génération ($\tau$) supérieure à 0.85 est recommandée lors de l'inférence.

4. 🚀 Utilisation et Déploiement

  • Domaine d'Expertise : Réflexion sur l'Amitié, l'Éthique, l'Espoir, la Confiance et la Résilience.
  • Inférer en Local : Le modèle est disponible au format GGUF (via les contributions de la communauté) et peut être exécuté efficacement sur CPU, y compris via des outils comme LM Studio.
# Exemple d'utilisation du pipeline
from transformers import pipeline

# Note: Assurez-vous d'avoir installé les dépendances nécessaires.
generator = pipeline("text-generation", model="Clem27-Assistants/Charlotte")

prompt = "Quel est le fondement éthique de l'amitié véritable ?"
result = generator(prompt, max_new_tokens=100, temperature=0.85)

print(result[0]['generated_text'])
Downloads last month
113
Safetensors
Model size
51M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support