Guida alla configurazione dell'IA locale

Guida completa passo passo per configurare modelli di IA locale con Ollama in Grambo per il controllo grammaticale 100% offline

📖 Panoramica

La funzione IA locale di Grambo ti consente di eseguire modelli AI direttamente sul tuo Mac, garantendo privacy completa e funzionalità offline. Usando Ollama, puoi installare ed eseguire potenti modelli linguistici localmente senza connessione internet o costi API.

🔒 Privacy prima di tutto: Con l'IA locale, tutto il tuo testo viene elaborato interamente sul tuo dispositivo. Nulla viene inviato a server esterni.

⚙️ Passaggi di configurazione automatica

Segui questi semplici passaggi per configurare l'IA locale in Grambo:

  1. Apri le impostazioni di Grambo: Avvia Grambo sul tuo Mac e clicca sul pulsante "Impostazioni".
  2. Scegli IA locale come tipo di servizio: Nella finestra delle impostazioni, vai su "Tipo di servizio" e seleziona "IA locale".
  3. Scegli il tuo modello preferito: Seleziona tra i modelli disponibili:

      Llama 3.2 3B - A powerful 3 billion parameter model from Meta

      Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model

  4. Scorri fino alla sezione Configurazione IA locale: Scorri verso il basso per trovare la sezione "Configurazione IA locale".
  5. Clicca sul pulsante Configurazione automatica: Clicca su "Configurazione automatica". Questo:

      Installerà il servizio Ollama sul tuo Mac (se non è già installato)

      Avvierà automaticamente il servizio Ollama

      Scaricherà il modello scelto da internet

      Configurerà tutto per funzionare perfettamente con Grambo

  6. Monitora il progresso del download: Puoi vedere il progresso direttamente nella finestra delle impostazioni.

      Llama 3.2 3B: ~2-3 GB

      Qwen 3 1.7B: ~1-1,5 GB

  7. Pronto all'uso: Una volta completato il download, sei pronto! Grambo utilizzerà automaticamente il tuo modello IA locale.

✅ Fatto! Una volta completata la configurazione, puoi usare Grambo completamente offline. Nessuna connessione internet richiesta, nessun costo API e privacy completa.

🤖 Informazioni su Ollama

Ollama è uno strumento open source che semplifica l'esecuzione di grandi modelli linguistici localmente sul tuo Mac. Gestisce automaticamente tutta la configurazione complessa, la gestione dei modelli e l'ottimizzazione.

  • Installazione automatica: La configurazione automatica di Grambo installa Ollama per te
  • Servizio in background: Ollama viene eseguito come servizio in background sul tuo Mac
  • Gestione modelli: Ollama gestisce il download, l'archiviazione e l'esecuzione del modello scelto
  • Efficiente nelle risorse: Ottimizzato per utilizzare le risorse del tuo Mac in modo efficiente

💡 Nota: Ollama continuerà a funzionare in background dopo la configurazione. Puoi fermarlo in qualsiasi momento dalle impostazioni di Grambo.

📊 Confronto modelli

Confronta i modelli IA locali disponibili per scegliere il migliore per le tue esigenze:

Funzionalità Llama 3.2 3B Qwen 3 1.7B
Dimensione modello 3 miliardi di parametri 1,7 miliardi di parametri
Dimensione download ~2-3 GB ~1-1,5 GB
Utilizzo RAM ~4-6 GB ~2-3 GB
Velocità Veloce Molto veloce
Qualità Eccellente Molto buona
Ideale per Utenti con più RAM, necessitano di qualità superiore Utenti con RAM limitata, necessitano di risposte più veloci
Sviluppatore Meta (Facebook) Alibaba Cloud

Quale modello dovresti scegliere?

Scegli Llama 3.2 3B se:

  • Hai 8 GB o più di RAM disponibile
  • Dai priorità alla qualità del controllo grammaticale rispetto alla velocità
  • Hai spazio di archiviazione sufficiente (~3 GB)
  • Vuoi le correzioni grammaticali più accurate

Scegli Qwen 3 1.7B se:

  • Hai RAM limitata (4-6 GB disponibili)
  • Vuoi tempi di risposta più veloci
  • Vuoi risparmiare spazio di archiviazione (~1,5 GB)
  • Hai bisogno di una soluzione leggera che fornisca comunque ottimi risultati

💡 Suggerimento: Entrambi i modelli forniscono ottimi risultati di controllo grammaticale. Se non sei sicuro, inizia con Qwen 3 1.7B per la sua efficienza.

💻 Requisiti di sistema

Per utilizzare l'IA locale in Grambo, il tuo Mac deve soddisfare questi requisiti:

  • macOS: macOS 12.0 (Monterey) o successivo
  • RAM:
    • Minimo 4 GB di RAM disponibile (per Qwen 3 1.7B)
    • Consigliato 8 GB+ di RAM disponibile (per Llama 3.2 3B)
  • Archiviazione:
    • Almeno 3 GB di spazio libero per l'archiviazione del modello
    • Spazio aggiuntivo per i file del servizio Ollama
  • Connessione internet:
    • Necessaria solo per la configurazione iniziale e il download del modello
    • Non necessaria dopo il completamento della configurazione

⚠️ Importante: Assicurati di avere RAM sufficiente disponibile. Se il tuo Mac ha poca memoria, chiudi altre applicazioni prima di usare l'IA locale.

Domande frequenti

Ho bisogno di una connessione internet per usare l'IA locale?

Hai bisogno di una connessione internet solo durante la configurazione iniziale per scaricare il servizio Ollama e il modello scelto. Una volta completata la configurazione, l'IA locale funziona completamente offline!

Posso passare da un modello all'altro dopo la configurazione?

Sì! Puoi passare tra Llama 3.2 3B e Qwen 3 1.7B in qualsiasi momento nelle impostazioni di Grambo.

Quanto spazio su disco occupano i modelli?

Llama 3.2 3B: Circa 2-3 GB
Qwen 3 1.7B: Circa 1-1,5 GB

Entrambi i modelli sono archiviati localmente sul tuo Mac.

L'IA locale rallenterà il mio Mac?

I modelli IA locali sono ottimizzati per funzionare in modo efficiente sul tuo Mac. Se noti un rallentamento, prova a chiudere altre applicazioni o passa al modello più leggero Qwen 3 1.7B.

Posso usare l'IA locale insieme a BYOK?

Sì! Puoi passare tra IA locale e BYOK in qualsiasi momento nelle impostazioni di Grambo.

Cosa succede se la configurazione automatica fallisce?

Se la configurazione automatica incontra problemi, assicurati di avere: spazio su disco sufficiente, connessione internet attiva, RAM sufficiente e autorizzazioni di amministratore. Se i problemi persistono, contatta il supporto.

📧 Hai bisogno di aiuto?

Se riscontri problemi nella configurazione dell'IA locale o hai domande sui modelli, contattaci a support@gramboapp.com