Guia de configuração de IA local
Guia completo passo a passo para configurar modelos de IA local usando Ollama no Grambo para verificação gramatical 100% offline
📖 Visão geral
O recurso de IA local do Grambo permite executar modelos de IA diretamente no seu Mac, garantindo privacidade completa e funcionalidade offline. Usando o Ollama, você pode instalar e executar poderosos modelos de linguagem localmente sem conexão à internet ou custos de API.
🔒 Privacidade em primeiro lugar: Com IA local, todo o seu texto é processado inteiramente no seu dispositivo. Nada é enviado para servidores externos.
⚙️ Etapas de configuração automática
Siga estas etapas simples para configurar a IA local no Grambo:
- Abra as configurações do Grambo: Inicie o Grambo no seu Mac e clique no botão "Configurações".
- Escolha IA local como tipo de serviço: Na janela de configurações, navegue até "Tipo de serviço" e selecione "IA local".
-
Escolha seu modelo preferido: Selecione entre os modelos disponíveis:
Llama 3.2 3B - A powerful 3 billion parameter model from Meta
Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model
- Role até a seção Configuração de IA local: Role para baixo para encontrar a seção "Configuração de IA local".
-
Clique no botão Configuração automática: Clique em "Configuração automática". Isso irá:
Instalar o serviço Ollama no seu Mac (se ainda não estiver instalado)
Iniciar o serviço Ollama automaticamente
Baixar o modelo escolhido da internet
Configurar tudo para funcionar perfeitamente com o Grambo
-
Monitore o progresso do download: Você pode ver o progresso diretamente na janela de configurações.
Llama 3.2 3B: ~2-3 GB
Qwen 3 1.7B: ~1-1,5 GB
- Pronto para usar: Assim que o download for concluído, está tudo pronto! O Grambo usará automaticamente seu modelo de IA local.
✅ É isso! Após a conclusão da configuração, você pode usar o Grambo completamente offline. Sem conexão à internet, sem custos de API e com privacidade completa.
🤖 Sobre o Ollama
O Ollama é uma ferramenta de código aberto que facilita a execução de grandes modelos de linguagem localmente no seu Mac. Ele gerencia toda a configuração complexa, gerenciamento de modelos e otimização automaticamente.
- Instalação automática: A configuração automática do Grambo instala o Ollama para você
- Serviço em segundo plano: O Ollama é executado como serviço em segundo plano no seu Mac
- Gerenciamento de modelos: O Ollama gerencia o download, armazenamento e execução do seu modelo escolhido
- Eficiente em recursos: Otimizado para usar os recursos do seu Mac eficientemente
💡 Nota: O Ollama continuará sendo executado em segundo plano após a configuração. Você pode pará-lo a qualquer momento nas configurações do Grambo.
📊 Comparação de modelos
Compare os modelos de IA local disponíveis para escolher o melhor para suas necessidades:
| Recurso | Llama 3.2 3B | Qwen 3 1.7B |
|---|---|---|
| Tamanho do modelo | 3 bilhões de parâmetros | 1,7 bilhão de parâmetros |
| Tamanho do download | ~2-3 GB | ~1-1,5 GB |
| Uso de RAM | ~4-6 GB | ~2-3 GB |
| Velocidade | Rápido | Muito rápido |
| Qualidade | Excelente | Muito bom |
| Ideal para | Usuários com mais RAM, precisam de maior qualidade | Usuários com RAM limitada, precisam de respostas mais rápidas |
| Desenvolvedor | Meta (Facebook) | Alibaba Cloud |
Qual modelo você deve escolher?
Escolha Llama 3.2 3B se:
- Você tem 8 GB ou mais de RAM disponível
- Você prioriza qualidade de verificação sobre velocidade
- Você tem espaço de armazenamento suficiente (~3 GB)
- Você quer as correções gramaticais mais precisas
Escolha Qwen 3 1.7B se:
- Você tem RAM limitada (4-6 GB disponíveis)
- Você quer tempos de resposta mais rápidos
- Você quer economizar espaço de armazenamento (~1,5 GB)
- Você precisa de uma solução leve que ainda forneça excelentes resultados
💡 Dica: Ambos os modelos fornecem excelentes resultados de verificação gramatical. Se não tiver certeza, comece com Qwen 3 1.7B pela sua eficiência.
💻 Requisitos do sistema
Para usar IA local no Grambo, seu Mac precisa atender a estes requisitos:
- macOS: macOS 12.0 (Monterey) ou posterior
-
RAM:
- Mínimo de 4 GB de RAM disponível (para Qwen 3 1.7B)
- Recomendado 8 GB+ de RAM disponível (para Llama 3.2 3B)
-
Armazenamento:
- Pelo menos 3 GB de espaço livre para armazenamento do modelo
- Espaço adicional para arquivos do serviço Ollama
-
Conexão à internet:
- Necessária apenas para configuração inicial e download do modelo
- Não necessária após a conclusão da configuração
⚠️ Importante: Certifique-se de ter RAM suficiente disponível. Se seu Mac estiver com pouca memória, feche outros aplicativos antes de usar IA local.
❓ Perguntas frequentes
Preciso de conexão à internet para usar IA local?
Você só precisa de conexão à internet durante a configuração inicial para baixar o serviço Ollama e seu modelo escolhido. Após a configuração, a IA local funciona completamente offline!
Posso alternar entre modelos após a configuração?
Sim! Você pode alternar entre Llama 3.2 3B e Qwen 3 1.7B a qualquer momento nas configurações do Grambo.
Quanto espaço em disco os modelos ocupam?
Llama 3.2 3B: Aproximadamente 2-3 GB
Qwen 3 1.7B: Aproximadamente 1-1,5 GB
Ambos os modelos são armazenados localmente no seu Mac.
A IA local vai deixar meu Mac mais lento?
Os modelos de IA local são otimizados para funcionar eficientemente no seu Mac. Se notar lentidão, tente fechar outros aplicativos ou mudar para o modelo mais leve Qwen 3 1.7B.
Posso usar IA local junto com BYOK?
Sim! Você pode alternar entre IA local e BYOK a qualquer momento nas configurações do Grambo.
E se a configuração automática falhar?
Se a configuração automática encontrar problemas, certifique-se de ter: espaço em disco suficiente, conexão à internet ativa, RAM suficiente e permissões de administrador. Se os problemas persistirem, entre em contato com o suporte.
📧 Precisa de ajuda?
Se encontrar problemas ao configurar IA local ou tiver dúvidas sobre os modelos, entre em contato conosco em support@gramboapp.com