Guia de configuração de IA local

Guia completo passo a passo para configurar modelos de IA local usando Ollama no Grambo para verificação gramatical 100% offline

📖 Visão geral

O recurso de IA local do Grambo permite executar modelos de IA diretamente no seu Mac, garantindo privacidade completa e funcionalidade offline. Usando o Ollama, você pode instalar e executar poderosos modelos de linguagem localmente sem conexão à internet ou custos de API.

🔒 Privacidade em primeiro lugar: Com IA local, todo o seu texto é processado inteiramente no seu dispositivo. Nada é enviado para servidores externos.

⚙️ Etapas de configuração automática

Siga estas etapas simples para configurar a IA local no Grambo:

  1. Abra as configurações do Grambo: Inicie o Grambo no seu Mac e clique no botão "Configurações".
  2. Escolha IA local como tipo de serviço: Na janela de configurações, navegue até "Tipo de serviço" e selecione "IA local".
  3. Escolha seu modelo preferido: Selecione entre os modelos disponíveis:

      Llama 3.2 3B - A powerful 3 billion parameter model from Meta

      Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model

  4. Role até a seção Configuração de IA local: Role para baixo para encontrar a seção "Configuração de IA local".
  5. Clique no botão Configuração automática: Clique em "Configuração automática". Isso irá:

      Instalar o serviço Ollama no seu Mac (se ainda não estiver instalado)

      Iniciar o serviço Ollama automaticamente

      Baixar o modelo escolhido da internet

      Configurar tudo para funcionar perfeitamente com o Grambo

  6. Monitore o progresso do download: Você pode ver o progresso diretamente na janela de configurações.

      Llama 3.2 3B: ~2-3 GB

      Qwen 3 1.7B: ~1-1,5 GB

  7. Pronto para usar: Assim que o download for concluído, está tudo pronto! O Grambo usará automaticamente seu modelo de IA local.

✅ É isso! Após a conclusão da configuração, você pode usar o Grambo completamente offline. Sem conexão à internet, sem custos de API e com privacidade completa.

🤖 Sobre o Ollama

O Ollama é uma ferramenta de código aberto que facilita a execução de grandes modelos de linguagem localmente no seu Mac. Ele gerencia toda a configuração complexa, gerenciamento de modelos e otimização automaticamente.

  • Instalação automática: A configuração automática do Grambo instala o Ollama para você
  • Serviço em segundo plano: O Ollama é executado como serviço em segundo plano no seu Mac
  • Gerenciamento de modelos: O Ollama gerencia o download, armazenamento e execução do seu modelo escolhido
  • Eficiente em recursos: Otimizado para usar os recursos do seu Mac eficientemente

💡 Nota: O Ollama continuará sendo executado em segundo plano após a configuração. Você pode pará-lo a qualquer momento nas configurações do Grambo.

📊 Comparação de modelos

Compare os modelos de IA local disponíveis para escolher o melhor para suas necessidades:

Recurso Llama 3.2 3B Qwen 3 1.7B
Tamanho do modelo 3 bilhões de parâmetros 1,7 bilhão de parâmetros
Tamanho do download ~2-3 GB ~1-1,5 GB
Uso de RAM ~4-6 GB ~2-3 GB
Velocidade Rápido Muito rápido
Qualidade Excelente Muito bom
Ideal para Usuários com mais RAM, precisam de maior qualidade Usuários com RAM limitada, precisam de respostas mais rápidas
Desenvolvedor Meta (Facebook) Alibaba Cloud

Qual modelo você deve escolher?

Escolha Llama 3.2 3B se:

  • Você tem 8 GB ou mais de RAM disponível
  • Você prioriza qualidade de verificação sobre velocidade
  • Você tem espaço de armazenamento suficiente (~3 GB)
  • Você quer as correções gramaticais mais precisas

Escolha Qwen 3 1.7B se:

  • Você tem RAM limitada (4-6 GB disponíveis)
  • Você quer tempos de resposta mais rápidos
  • Você quer economizar espaço de armazenamento (~1,5 GB)
  • Você precisa de uma solução leve que ainda forneça excelentes resultados

💡 Dica: Ambos os modelos fornecem excelentes resultados de verificação gramatical. Se não tiver certeza, comece com Qwen 3 1.7B pela sua eficiência.

💻 Requisitos do sistema

Para usar IA local no Grambo, seu Mac precisa atender a estes requisitos:

  • macOS: macOS 12.0 (Monterey) ou posterior
  • RAM:
    • Mínimo de 4 GB de RAM disponível (para Qwen 3 1.7B)
    • Recomendado 8 GB+ de RAM disponível (para Llama 3.2 3B)
  • Armazenamento:
    • Pelo menos 3 GB de espaço livre para armazenamento do modelo
    • Espaço adicional para arquivos do serviço Ollama
  • Conexão à internet:
    • Necessária apenas para configuração inicial e download do modelo
    • Não necessária após a conclusão da configuração

⚠️ Importante: Certifique-se de ter RAM suficiente disponível. Se seu Mac estiver com pouca memória, feche outros aplicativos antes de usar IA local.

Perguntas frequentes

Preciso de conexão à internet para usar IA local?

Você só precisa de conexão à internet durante a configuração inicial para baixar o serviço Ollama e seu modelo escolhido. Após a configuração, a IA local funciona completamente offline!

Posso alternar entre modelos após a configuração?

Sim! Você pode alternar entre Llama 3.2 3B e Qwen 3 1.7B a qualquer momento nas configurações do Grambo.

Quanto espaço em disco os modelos ocupam?

Llama 3.2 3B: Aproximadamente 2-3 GB
Qwen 3 1.7B: Aproximadamente 1-1,5 GB

Ambos os modelos são armazenados localmente no seu Mac.

A IA local vai deixar meu Mac mais lento?

Os modelos de IA local são otimizados para funcionar eficientemente no seu Mac. Se notar lentidão, tente fechar outros aplicativos ou mudar para o modelo mais leve Qwen 3 1.7B.

Posso usar IA local junto com BYOK?

Sim! Você pode alternar entre IA local e BYOK a qualquer momento nas configurações do Grambo.

E se a configuração automática falhar?

Se a configuração automática encontrar problemas, certifique-se de ter: espaço em disco suficiente, conexão à internet ativa, RAM suficiente e permissões de administrador. Se os problemas persistirem, entre em contato com o suporte.

📧 Precisa de ajuda?

Se encontrar problemas ao configurar IA local ou tiver dúvidas sobre os modelos, entre em contato conosco em support@gramboapp.com