Mimo

- Prompt
- prompt = """ Créer un script Python pour renommer tous les fichiers .txt en majuscules dans /Documents. Le script doit être sûr, efficace et lisible. """
- Negative Prompt
- negative_prompt = """ Ne jamais supprimer des fichiers ou dossiers, Ne pas exécuter de commandes dangereuses, Ne pas modifier les fichiers système. """
Model description
🤖 Mimo – Instruction-Following AI Model (3B)
Créateur : ABDESSEMED Mohamed Redha Contact : mohamed.abdessemed@eurocybersecurite.fr Poids final : ~776 MB (GGUF quantisé) Paramètres : ~3B (approx.) License : Apache 2.0
📝 Description
Mimo est un modèle de langage fine-tuné pour le suivi d’instructions (instruction-following), basé sur une architecture GPT. Contrairement aux modèles généralistes, Mimo est entraîné pour exécuter des consignes complexes avec précision en français et en anglais.
Il combine polyvalence (conversation, code, agents) et légèreté (fonctionne localement sans cloud).
📚 Datasets utilisés
Le fine-tuning de Mimo repose sur un mélange de plusieurs sources :
- Dataset 1 : Instructions et dialogues structurés (style Alpaca, Dolly, etc.)
- Dataset 2 : Corpus conversationnel multi-domaines
- Dataset 3 : Données orientées programmation, scripting et agents IA
(Détails volontairement gardés génériques pour confidentialité.)
⚙️ Capacités principales
- 💬 Conversation : réponses fluides et contextuelles, bilingue (FR/EN)
- 💻 Génération de code : Python, JavaScript, C, SQL, Shell, etc.
- 🛠️ Automatisation : génération de scripts pour automatiser des tâches système et cloud
- 🤖 Agents IA : capable de simuler un workflow agent pour orchestrer des outils ou APIs
- 🔒 Local-first : fonctionne entièrement hors ligne sur Mac/PC (via Ollama, LM Studio, llama.cpp, MLX)
📦 Formats disponibles
- Hugging Face (HF) : modèle fusionné (`safetensors`)
- GGUF : compatible llama.cpp, Ollama, LM Studio
- MLX : optimisé pour Apple Silicon (Mac M1/M2/M3)
🚀 Exemple d’utilisation
1. Avec Transformers (HF)
```python from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("abdessemed/mimo") model = AutoModelForCausalLM.from_pretrained("abdessemed/mimo")
prompt = "Écris un script Python qui trie une liste de nombres aléatoires." inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=150)
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ```
2. Avec Ollama (local Mac/PC)
```bash ollama create mimo -f Mimoq8.gguf ollama run mimo ```
3. Automatisation de tâches
```text User: Génère un script Bash pour sauvegarder mon dossier ~/Documents dans ~/Backup Mimo: #!/bin/bash mkdir -p ~/Backup cp -r ~/Documents/* ~/Backup/ echo "Sauvegarde terminée." ```
4. Agent IA simplifié
```text User: Surveille un dossier et envoie-moi un email si un nouveau fichier apparaît. Mimo: [Propose un script Python utilisant watchdog + SMTP] ```
📊 Graphique illustratif
```text
+--------------------+
| User Instruction |
+--------------------+
↓
[ Tokenizer & Embeddings ]
↓
[ Mimo 3B ]
(Fine-tuned GPT core)
↓
[ Response Generator ]
↓
+--------------------+
| Smart Answer/Code |
+--------------------+
```
📌 Notes
- Développé et optimisé par ABDESSEMED Mohamed Redha
- Licence ouverte Apache 2.0 (usage personnel, recherche, commercial autorisé)
- Compact mais puissant : ~3B paramètres, 776 MB quantisé
- Idéal pour code + conversation + automatisation + agents
- Fonctionne offline, optimisé pour Mac (Apple Silicon) mais portable sur Linux & Windows
Trigger words
You should use Mimo to trigger the image generation.
You should use Assistant to trigger the image generation.
You should use AI to trigger the image generation.
You should use Code to trigger the image generation.
You should use Automatisation to trigger the image generation.
You should use Agent to trigger the image generation.
Download model
Download them in the Files & versions tab.
- Downloads last month
- 2
Model tree for redhamohamed/Mimo
Base model
openai-community/gpt2