本地AI设置指南
在Grambo中使用Ollama设置本地AI模型以实现100%离线语法检查的完整分步指南
📖 概述
Grambo的本地AI功能允许您直接在Mac上运行AI模型,确保完全的隐私和离线功能。使用Ollama,您可以在本地安装和运行强大的语言模型,无需互联网连接或API费用。
🔒 隐私优先:使用本地AI,您的所有文本都完全在您的设备上处理。不会向外部服务器发送任何内容。
⚙️ 自动设置步骤
按照以下简单步骤在Grambo中设置本地AI:
- 打开Grambo设置:在Mac上启动Grambo,点击"设置"按钮。
- 选择本地AI作为服务类型:在设置窗口中,导航到"服务类型"并选择"本地AI"。
-
选择您偏好的模型:从可用模型中选择:
Llama 3.2 3B - A powerful 3 billion parameter model from Meta
Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model
- 滚动到本地AI设置部分:向下滚动找到"本地AI设置"部分。
-
点击自动设置按钮:点击"自动设置"。这将:
在您的Mac上安装Ollama服务(如果尚未安装)
自动启动Ollama服务
从互联网下载您选择的模型
配置一切以与Grambo无缝协作
-
监控下载进度:您可以直接在设置窗口中查看下载进度。
Llama 3.2 3B: 约2-3 GB
Qwen 3 1.7B: 约1-1.5 GB
- 准备使用:下载完成后,一切就绪!Grambo将自动使用您的本地AI模型。
✅ 完成!设置完成后,您可以完全离线使用Grambo。无需互联网连接,无API费用,完全隐私。
🤖 关于Ollama
Ollama是一个开源工具,使在Mac上本地运行大型语言模型变得容易。它自动处理所有复杂的设置、模型管理和优化。
- 自动安装:Grambo的自动设置为您安装Ollama
- 后台服务:Ollama作为后台服务在您的Mac上运行
- 模型管理:Ollama高效处理您选择的模型的下载、存储和运行
- 资源高效:优化以高效使用您Mac的资源
💡 注意:设置后Ollama将继续在后台运行。您可以随时从Grambo的设置中停止它。
📊 模型比较
比较可用的本地AI模型,选择最适合您需求的:
| 功能 | Llama 3.2 3B | Qwen 3 1.7B |
|---|---|---|
| 模型大小 | 30亿参数 | 17亿参数 |
| 下载大小 | 约2-3 GB | 约1-1.5 GB |
| RAM使用量 | 约4-6 GB | 约2-3 GB |
| 速度 | 快速 | 非常快速 |
| 质量 | 优秀 | 非常好 |
| 最适合 | RAM较多的用户,需要更高质量 | RAM有限的用户,需要更快响应 |
| 开发者 | Meta(Facebook) | 阿里云 |
您应该选择哪个模型?
选择Llama 3.2 3B如果:
- 您有8GB或更多可用RAM
- 您优先考虑语法检查质量而非速度
- 您有足够的存储空间(约3GB)
- 您需要最准确的语法纠正
选择Qwen 3 1.7B如果:
- 您的RAM有限(4-6GB可用)
- 您想要更快的响应时间
- 您想节省存储空间(约1.5GB)
- 您需要仍能提供出色结果的轻量级解决方案
💡 提示:两个模型都能提供出色的语法检查结果。如果不确定,从Qwen 3 1.7B开始,因为它更高效。
💻 系统要求
要在Grambo中使用本地AI,您的Mac需要满足以下要求:
- macOS:macOS 12.0(Monterey)或更高版本
-
RAM:
- 最低4GB可用RAM(用于Qwen 3 1.7B)
- 推荐8GB以上可用RAM(用于Llama 3.2 3B)
-
存储:
- 至少3GB可用空间用于模型存储
- Ollama服务文件的额外空间
-
互联网连接:
- 仅在初始设置和模型下载时需要
- 设置完成后不需要
⚠️ 重要:确保有足够的可用RAM。如果您的Mac内存不足,请在使用本地AI之前关闭其他应用程序。
❓ 常见问题
使用本地AI需要互联网连接吗?
您只需要在初始设置期间下载Ollama服务和您选择的模型时使用互联网连接。设置完成后,本地AI完全离线工作!
设置后可以在模型之间切换吗?
可以!您可以随时在Grambo的设置中切换Llama 3.2 3B和Qwen 3 1.7B。
模型占用多少磁盘空间?
Llama 3.2 3B:约2-3 GB
Qwen 3 1.7B:约1-1.5 GB
两个模型都本地存储在您的Mac上。
本地AI会让我的Mac变慢吗?
本地AI模型经过优化,可在您的Mac上高效运行。如果您注意到速度变慢,请尝试关闭其他应用程序或切换到更轻量的Qwen 3 1.7B模型。
我可以同时使用本地AI和BYOK吗?
可以!您可以随时在Grambo的设置中切换本地AI和BYOK。
如果自动设置失败怎么办?
如果自动设置遇到问题,请确保您有:足够的磁盘空间、活跃的互联网连接、足够的RAM和管理员权限。如果问题持续,请联系支持。
📧 需要帮助?
如果您在设置本地AI时遇到问题或对模型有疑问,请随时联系我们: support@gramboapp.com