Guide de configuration de l'IA locale
Guide complet étape par étape pour configurer des modèles d'IA locale avec Ollama dans Grambo pour une vérification grammaticale 100% hors ligne
📖 Aperçu
La fonctionnalité IA locale de Grambo vous permet d'exécuter des modèles d'IA directement sur votre Mac, garantissant une confidentialité totale et une fonctionnalité hors ligne. Avec Ollama, vous pouvez installer et exécuter de puissants modèles de langage localement sans connexion Internet ni coûts d'API.
🔒 La confidentialité d'abord : Avec l'IA locale, tout votre texte est traité entièrement sur votre appareil. Rien n'est envoyé à des serveurs externes.
⚙️ Étapes de configuration automatique
Suivez ces étapes simples pour configurer l'IA locale dans Grambo :
- Ouvrez les paramètres de Grambo : Lancez Grambo sur votre Mac et cliquez sur le bouton "Paramètres".
- Choisissez l'IA locale comme type de service : Dans la fenêtre des paramètres, naviguez vers "Type de service" et sélectionnez "IA locale".
-
Choisissez votre modèle préféré : Sélectionnez parmi les modèles disponibles :
Llama 3.2 3B - A powerful 3 billion parameter model from Meta
Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model
- Faites défiler jusqu'à la section Configuration de l'IA locale : Faites défiler vers le bas pour trouver la section "Configuration de l'IA locale".
-
Cliquez sur le bouton Configuration automatique : Cliquez sur "Configuration automatique". Cela va :
Installer le service Ollama sur votre Mac (s'il n'est pas déjà installé)
Démarrer le service Ollama automatiquement
Télécharger le modèle choisi depuis Internet
Tout configurer pour fonctionner parfaitement avec Grambo
-
Surveillez la progression du téléchargement : Vous pouvez voir la progression directement dans la fenêtre des paramètres.
Llama 3.2 3B: ~2-3 Go
Qwen 3 1.7B: ~1-1,5 Go
- Prêt à utiliser : Une fois le téléchargement terminé, tout est prêt ! Grambo utilisera automatiquement votre modèle d'IA locale.
✅ C'est tout ! Une fois la configuration terminée, vous pouvez utiliser Grambo entièrement hors ligne. Aucune connexion Internet requise, aucun coût d'API et confidentialité totale.
🤖 À propos d'Ollama
Ollama est un outil open source qui facilite l'exécution de grands modèles de langage localement sur votre Mac. Il gère toute la configuration complexe, la gestion des modèles et l'optimisation automatiquement.
- Installation automatique : La configuration automatique de Grambo installe Ollama pour vous
- Service en arrière-plan : Ollama s'exécute comme service en arrière-plan sur votre Mac
- Gestion des modèles : Ollama gère le téléchargement, le stockage et l'exécution de votre modèle choisi
- Efficace en ressources : Optimisé pour utiliser les ressources de votre Mac efficacement
💡 Remarque : Ollama continuera à s'exécuter en arrière-plan après la configuration. Vous pouvez l'arrêter à tout moment depuis les paramètres de Grambo.
📊 Comparaison des modèles
Comparez les modèles d'IA locale disponibles pour choisir le meilleur pour vos besoins :
| Fonctionnalité | Llama 3.2 3B | Qwen 3 1.7B |
|---|---|---|
| Taille du modèle | 3 milliards de paramètres | 1,7 milliard de paramètres |
| Taille de téléchargement | ~2-3 Go | ~1-1,5 Go |
| Utilisation de la RAM | ~4-6 Go | ~2-3 Go |
| Vitesse | Rapide | Très rapide |
| Qualité | Excellent | Très bon |
| Idéal pour | Utilisateurs avec plus de RAM, besoin de qualité supérieure | Utilisateurs avec RAM limitée, besoin de réponses plus rapides |
| Développeur | Meta (Facebook) | Alibaba Cloud |
Quel modèle choisir ?
Choisissez Llama 3.2 3B si :
- Vous avez 8 Go ou plus de RAM disponible
- Vous privilégiez la qualité de vérification sur la vitesse
- Vous avez suffisamment d'espace de stockage (~3 Go)
- Vous voulez les corrections grammaticales les plus précises
Choisissez Qwen 3 1.7B si :
- Vous avez une RAM limitée (4-6 Go disponibles)
- Vous voulez des temps de réponse plus rapides
- Vous voulez économiser de l'espace de stockage (~1,5 Go)
- Vous avez besoin d'une solution légère qui fournit quand même d'excellents résultats
💡 Conseil : Les deux modèles fournissent d'excellents résultats de vérification grammaticale. Si vous n'êtes pas sûr, commencez par Qwen 3 1.7B pour son efficacité.
💻 Configuration requise
Pour utiliser l'IA locale dans Grambo, votre Mac doit répondre à ces exigences :
- macOS : macOS 12.0 (Monterey) ou ultérieur
-
RAM :
- Minimum 4 Go de RAM disponible (pour Qwen 3 1.7B)
- Recommandé 8 Go+ de RAM disponible (pour Llama 3.2 3B)
-
Stockage :
- Au moins 3 Go d'espace libre pour le stockage du modèle
- Espace supplémentaire pour les fichiers du service Ollama
-
Connexion Internet :
- Requise uniquement pour la configuration initiale et le téléchargement du modèle
- Non nécessaire après la configuration
⚠️ Important : Assurez-vous d'avoir suffisamment de RAM disponible. Si votre Mac manque de mémoire, fermez d'autres applications avant d'utiliser l'IA locale.
❓ Questions fréquemment posées
Ai-je besoin d'une connexion Internet pour utiliser l'IA locale ?
Vous n'avez besoin d'une connexion Internet que lors de la configuration initiale pour télécharger le service Ollama et votre modèle choisi. Une fois la configuration terminée, l'IA locale fonctionne entièrement hors ligne !
Puis-je changer de modèle après la configuration ?
Oui ! Vous pouvez basculer entre Llama 3.2 3B et Qwen 3 1.7B à tout moment dans les paramètres de Grambo.
Combien d'espace disque les modèles occupent-ils ?
Llama 3.2 3B : Environ 2-3 Go
Qwen 3 1.7B : Environ 1-1,5 Go
Les deux modèles sont stockés localement sur votre Mac.
L'IA locale va-t-elle ralentir mon Mac ?
Les modèles d'IA locale sont optimisés pour fonctionner efficacement sur votre Mac. Si vous remarquez un ralentissement, essayez de fermer d'autres applications ou de passer au modèle plus léger Qwen 3 1.7B.
Puis-je utiliser l'IA locale avec BYOK ?
Oui ! Vous pouvez basculer entre l'IA locale et BYOK à tout moment dans les paramètres de Grambo.
Que faire si la configuration automatique échoue ?
Si la configuration automatique rencontre des problèmes, assurez-vous d'avoir : suffisamment d'espace disque, une connexion Internet active, suffisamment de RAM et des autorisations d'administrateur. Si les problèmes persistent, contactez le support.
📧 Besoin d'aide ?
Si vous rencontrez des problèmes lors de la configuration de l'IA locale ou avez des questions sur les modèles, contactez-nous à support@gramboapp.com