Guida alla configurazione dell'IA locale
Guida completa passo passo per configurare modelli di IA locale con Ollama in Grambo per il controllo grammaticale 100% offline
📖 Panoramica
La funzione IA locale di Grambo ti consente di eseguire modelli AI direttamente sul tuo Mac, garantendo privacy completa e funzionalità offline. Usando Ollama, puoi installare ed eseguire potenti modelli linguistici localmente senza connessione internet o costi API.
🔒 Privacy prima di tutto: Con l'IA locale, tutto il tuo testo viene elaborato interamente sul tuo dispositivo. Nulla viene inviato a server esterni.
⚙️ Passaggi di configurazione automatica
Segui questi semplici passaggi per configurare l'IA locale in Grambo:
- Apri le impostazioni di Grambo: Avvia Grambo sul tuo Mac e clicca sul pulsante "Impostazioni".
- Scegli IA locale come tipo di servizio: Nella finestra delle impostazioni, vai su "Tipo di servizio" e seleziona "IA locale".
-
Scegli il tuo modello preferito: Seleziona tra i modelli disponibili:
Llama 3.2 3B - A powerful 3 billion parameter model from Meta
Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model
- Scorri fino alla sezione Configurazione IA locale: Scorri verso il basso per trovare la sezione "Configurazione IA locale".
-
Clicca sul pulsante Configurazione automatica: Clicca su "Configurazione automatica". Questo:
Installerà il servizio Ollama sul tuo Mac (se non è già installato)
Avvierà automaticamente il servizio Ollama
Scaricherà il modello scelto da internet
Configurerà tutto per funzionare perfettamente con Grambo
-
Monitora il progresso del download: Puoi vedere il progresso direttamente nella finestra delle impostazioni.
Llama 3.2 3B: ~2-3 GB
Qwen 3 1.7B: ~1-1,5 GB
- Pronto all'uso: Una volta completato il download, sei pronto! Grambo utilizzerà automaticamente il tuo modello IA locale.
✅ Fatto! Una volta completata la configurazione, puoi usare Grambo completamente offline. Nessuna connessione internet richiesta, nessun costo API e privacy completa.
🤖 Informazioni su Ollama
Ollama è uno strumento open source che semplifica l'esecuzione di grandi modelli linguistici localmente sul tuo Mac. Gestisce automaticamente tutta la configurazione complessa, la gestione dei modelli e l'ottimizzazione.
- Installazione automatica: La configurazione automatica di Grambo installa Ollama per te
- Servizio in background: Ollama viene eseguito come servizio in background sul tuo Mac
- Gestione modelli: Ollama gestisce il download, l'archiviazione e l'esecuzione del modello scelto
- Efficiente nelle risorse: Ottimizzato per utilizzare le risorse del tuo Mac in modo efficiente
💡 Nota: Ollama continuerà a funzionare in background dopo la configurazione. Puoi fermarlo in qualsiasi momento dalle impostazioni di Grambo.
📊 Confronto modelli
Confronta i modelli IA locali disponibili per scegliere il migliore per le tue esigenze:
| Funzionalità | Llama 3.2 3B | Qwen 3 1.7B |
|---|---|---|
| Dimensione modello | 3 miliardi di parametri | 1,7 miliardi di parametri |
| Dimensione download | ~2-3 GB | ~1-1,5 GB |
| Utilizzo RAM | ~4-6 GB | ~2-3 GB |
| Velocità | Veloce | Molto veloce |
| Qualità | Eccellente | Molto buona |
| Ideale per | Utenti con più RAM, necessitano di qualità superiore | Utenti con RAM limitata, necessitano di risposte più veloci |
| Sviluppatore | Meta (Facebook) | Alibaba Cloud |
Quale modello dovresti scegliere?
Scegli Llama 3.2 3B se:
- Hai 8 GB o più di RAM disponibile
- Dai priorità alla qualità del controllo grammaticale rispetto alla velocità
- Hai spazio di archiviazione sufficiente (~3 GB)
- Vuoi le correzioni grammaticali più accurate
Scegli Qwen 3 1.7B se:
- Hai RAM limitata (4-6 GB disponibili)
- Vuoi tempi di risposta più veloci
- Vuoi risparmiare spazio di archiviazione (~1,5 GB)
- Hai bisogno di una soluzione leggera che fornisca comunque ottimi risultati
💡 Suggerimento: Entrambi i modelli forniscono ottimi risultati di controllo grammaticale. Se non sei sicuro, inizia con Qwen 3 1.7B per la sua efficienza.
💻 Requisiti di sistema
Per utilizzare l'IA locale in Grambo, il tuo Mac deve soddisfare questi requisiti:
- macOS: macOS 12.0 (Monterey) o successivo
-
RAM:
- Minimo 4 GB di RAM disponibile (per Qwen 3 1.7B)
- Consigliato 8 GB+ di RAM disponibile (per Llama 3.2 3B)
-
Archiviazione:
- Almeno 3 GB di spazio libero per l'archiviazione del modello
- Spazio aggiuntivo per i file del servizio Ollama
-
Connessione internet:
- Necessaria solo per la configurazione iniziale e il download del modello
- Non necessaria dopo il completamento della configurazione
⚠️ Importante: Assicurati di avere RAM sufficiente disponibile. Se il tuo Mac ha poca memoria, chiudi altre applicazioni prima di usare l'IA locale.
❓ Domande frequenti
Ho bisogno di una connessione internet per usare l'IA locale?
Hai bisogno di una connessione internet solo durante la configurazione iniziale per scaricare il servizio Ollama e il modello scelto. Una volta completata la configurazione, l'IA locale funziona completamente offline!
Posso passare da un modello all'altro dopo la configurazione?
Sì! Puoi passare tra Llama 3.2 3B e Qwen 3 1.7B in qualsiasi momento nelle impostazioni di Grambo.
Quanto spazio su disco occupano i modelli?
Llama 3.2 3B: Circa 2-3 GB
Qwen 3 1.7B: Circa 1-1,5 GB
Entrambi i modelli sono archiviati localmente sul tuo Mac.
L'IA locale rallenterà il mio Mac?
I modelli IA locali sono ottimizzati per funzionare in modo efficiente sul tuo Mac. Se noti un rallentamento, prova a chiudere altre applicazioni o passa al modello più leggero Qwen 3 1.7B.
Posso usare l'IA locale insieme a BYOK?
Sì! Puoi passare tra IA locale e BYOK in qualsiasi momento nelle impostazioni di Grambo.
Cosa succede se la configurazione automatica fallisce?
Se la configurazione automatica incontra problemi, assicurati di avere: spazio su disco sufficiente, connessione internet attiva, RAM sufficiente e autorizzazioni di amministratore. Se i problemi persistono, contatta il supporto.
📧 Hai bisogno di aiuto?
Se riscontri problemi nella configurazione dell'IA locale o hai domande sui modelli, contattaci a support@gramboapp.com