本地AI设置指南

在Grambo中使用Ollama设置本地AI模型以实现100%离线语法检查的完整分步指南

📖 概述

Grambo的本地AI功能允许您直接在Mac上运行AI模型,确保完全的隐私和离线功能。使用Ollama,您可以在本地安装和运行强大的语言模型,无需互联网连接或API费用。

🔒 隐私优先:使用本地AI,您的所有文本都完全在您的设备上处理。不会向外部服务器发送任何内容。

⚙️ 自动设置步骤

按照以下简单步骤在Grambo中设置本地AI:

  1. 打开Grambo设置:在Mac上启动Grambo,点击"设置"按钮。
  2. 选择本地AI作为服务类型:在设置窗口中,导航到"服务类型"并选择"本地AI"。
  3. 选择您偏好的模型:从可用模型中选择:

      Llama 3.2 3B - A powerful 3 billion parameter model from Meta

      Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model

  4. 滚动到本地AI设置部分:向下滚动找到"本地AI设置"部分。
  5. 点击自动设置按钮:点击"自动设置"。这将:

      在您的Mac上安装Ollama服务(如果尚未安装)

      自动启动Ollama服务

      从互联网下载您选择的模型

      配置一切以与Grambo无缝协作

  6. 监控下载进度:您可以直接在设置窗口中查看下载进度。

      Llama 3.2 3B: 约2-3 GB

      Qwen 3 1.7B: 约1-1.5 GB

  7. 准备使用:下载完成后,一切就绪!Grambo将自动使用您的本地AI模型。

✅ 完成!设置完成后,您可以完全离线使用Grambo。无需互联网连接,无API费用,完全隐私。

🤖 关于Ollama

Ollama是一个开源工具,使在Mac上本地运行大型语言模型变得容易。它自动处理所有复杂的设置、模型管理和优化。

  • 自动安装:Grambo的自动设置为您安装Ollama
  • 后台服务:Ollama作为后台服务在您的Mac上运行
  • 模型管理:Ollama高效处理您选择的模型的下载、存储和运行
  • 资源高效:优化以高效使用您Mac的资源

💡 注意:设置后Ollama将继续在后台运行。您可以随时从Grambo的设置中停止它。

📊 模型比较

比较可用的本地AI模型,选择最适合您需求的:

功能 Llama 3.2 3B Qwen 3 1.7B
模型大小 30亿参数 17亿参数
下载大小 约2-3 GB 约1-1.5 GB
RAM使用量 约4-6 GB 约2-3 GB
速度 快速 非常快速
质量 优秀 非常好
最适合 RAM较多的用户,需要更高质量 RAM有限的用户,需要更快响应
开发者 Meta(Facebook) 阿里云

您应该选择哪个模型?

选择Llama 3.2 3B如果:

  • 您有8GB或更多可用RAM
  • 您优先考虑语法检查质量而非速度
  • 您有足够的存储空间(约3GB)
  • 您需要最准确的语法纠正

选择Qwen 3 1.7B如果:

  • 您的RAM有限(4-6GB可用)
  • 您想要更快的响应时间
  • 您想节省存储空间(约1.5GB)
  • 您需要仍能提供出色结果的轻量级解决方案

💡 提示:两个模型都能提供出色的语法检查结果。如果不确定,从Qwen 3 1.7B开始,因为它更高效。

💻 系统要求

要在Grambo中使用本地AI,您的Mac需要满足以下要求:

  • macOS:macOS 12.0(Monterey)或更高版本
  • RAM:
    • 最低4GB可用RAM(用于Qwen 3 1.7B)
    • 推荐8GB以上可用RAM(用于Llama 3.2 3B)
  • 存储:
    • 至少3GB可用空间用于模型存储
    • Ollama服务文件的额外空间
  • 互联网连接:
    • 仅在初始设置和模型下载时需要
    • 设置完成后不需要

⚠️ 重要:确保有足够的可用RAM。如果您的Mac内存不足,请在使用本地AI之前关闭其他应用程序。

常见问题

使用本地AI需要互联网连接吗?

您只需要在初始设置期间下载Ollama服务和您选择的模型时使用互联网连接。设置完成后,本地AI完全离线工作!

设置后可以在模型之间切换吗?

可以!您可以随时在Grambo的设置中切换Llama 3.2 3B和Qwen 3 1.7B。

模型占用多少磁盘空间?

Llama 3.2 3B:约2-3 GB
Qwen 3 1.7B:约1-1.5 GB

两个模型都本地存储在您的Mac上。

本地AI会让我的Mac变慢吗?

本地AI模型经过优化,可在您的Mac上高效运行。如果您注意到速度变慢,请尝试关闭其他应用程序或切换到更轻量的Qwen 3 1.7B模型。

我可以同时使用本地AI和BYOK吗?

可以!您可以随时在Grambo的设置中切换本地AI和BYOK。

如果自动设置失败怎么办?

如果自动设置遇到问题,请确保您有:足够的磁盘空间、活跃的互联网连接、足够的RAM和管理员权限。如果问题持续,请联系支持。

📧 需要帮助?

如果您在设置本地AI时遇到问题或对模型有疑问,请随时联系我们: support@gramboapp.com