ローカルAIセットアップガイド
GramboでOllamaを使用してローカルAIモデルをセットアップし、100%オフライン文法チェックを行うための完全なステップバイステップガイド
📖 概要
GramboのローカルAI機能を使用すると、Mac上でAIモデルを直接実行し、完全なプライバシーとオフライン機能を確保できます。Ollamaを使用して、インターネット接続やAPIコストなしにローカルで強力な言語モデルをインストールして実行できます。
🔒 プライバシー優先:ローカルAIを使用すると、すべてのテキストがデバイス上で完全に処理されます。外部サーバーには何も送信されません。
⚙️ 自動セットアップ手順
GramboでローカルAIをセットアップするための簡単な手順:
- Grambo設定を開く:MacでGramboを起動し、「設定」ボタンをクリックします。
- サービスタイプとしてローカルAIを選択:設定ウィンドウで「サービスタイプ」に移動し、「ローカルAI」を選択します。
-
希望のモデルを選択:利用可能なモデルから選択します:
Llama 3.2 3B - A powerful 3 billion parameter model from Meta
Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model
- ローカルAIセットアップセクションまでスクロール:「ローカルAIセットアップ」セクションを見つけるまで下にスクロールします。
-
自動セットアップボタンをクリック:「自動セットアップ」をクリックします。これにより:
MacにOllamaサービスをインストール(まだインストールされていない場合)
Ollamaサービスを自動的に起動
インターネットから選択したモデルをダウンロード
Gramboとシームレスに動作するようにすべてを設定
-
ダウンロードの進行状況を監視:設定ウィンドウで直接進行状況を確認できます。
Llama 3.2 3B: 約2〜3 GB
Qwen 3 1.7B: 約1〜1.5 GB
- 使用準備完了:ダウンロードが完了したら、準備完了です!GramboはローカルAIモデルを自動的に使用します。
✅ 完了!セットアップが完了したら、Gramboを完全にオフラインで使用できます。インターネット接続不要、APIコスト不要、完全なプライバシー。
🤖 Ollamaについて
Ollamaは、Mac上でローカルに大規模言語モデルを実行することを容易にするオープンソースツールです。複雑なセットアップ、モデル管理、最適化をすべて自動的に処理します。
- 自動インストール:Gramboの自動セットアップがOllamaをインストールします
- バックグラウンドサービス:OllamaはMacのバックグラウンドサービスとして実行されます
- モデル管理:Ollamaが選択したモデルのダウンロード、保存、実行を管理します
- リソース効率:Macのリソースを効率的に使用するよう最適化されています
💡 注意:Ollamaはセットアップ後もバックグラウンドで実行し続けます。Gramboの設定からいつでも停止できます。
📊 モデル比較
ニーズに最適なローカルAIモデルを選択するために比較してください:
| 機能 | Llama 3.2 3B | Qwen 3 1.7B |
|---|---|---|
| モデルサイズ | 30億パラメータ | 17億パラメータ |
| ダウンロードサイズ | 約2〜3 GB | 約1〜1.5 GB |
| RAM使用量 | 約4〜6 GB | 約2〜3 GB |
| 速度 | 高速 | 非常に高速 |
| 品質 | 優秀 | 非常に良い |
| 最適な用途 | RAMが多いユーザー、高品質が必要な場合 | RAMが限られているユーザー、高速応答が必要な場合 |
| 開発者 | Meta(Facebook) | Alibaba Cloud |
どのモデルを選ぶべきか?
Llama 3.2 3Bを選ぶ場合:
- 8GB以上のRAMが利用可能
- 速度より文法チェックの品質を優先する
- 十分なストレージスペースがある(約3GB)
- 最も正確な文法修正が必要
Qwen 3 1.7Bを選ぶ場合:
- RAMが限られている(4〜6GB利用可能)
- 応答時間を速くしたい
- ストレージスペースを節約したい(約1.5GB)
- 優れた結果を提供する軽量ソリューションが必要
💡 ヒント:両方のモデルとも優れた文法チェック結果を提供します。迷った場合は、効率性のためにQwen 3 1.7Bから始めてください。
💻 システム要件
GramboでローカルAIを使用するには、Macが以下の要件を満たす必要があります:
- macOS:macOS 12.0(Monterey)以降
-
RAM:
- 最低4GBの利用可能RAM(Qwen 3 1.7B用)
- 推奨8GB以上の利用可能RAM(Llama 3.2 3B用)
-
ストレージ:
- モデルストレージ用に少なくとも3GBの空き容量
- Ollamaサービスファイル用の追加スペース
-
インターネット接続:
- 初期セットアップとモデルダウンロード時のみ必要
- セットアップ完了後は不要
⚠️ 重要:十分なRAMが利用可能であることを確認してください。Macのメモリが不足している場合は、ローカルAIを使用する前に他のアプリケーションを閉じてください。
❓ よくある質問
ローカルAIを使用するにはインターネット接続が必要ですか?
Ollamaサービスとモデルをダウンロードするためにはじめのセットアップ時のみインターネット接続が必要です。セットアップ完了後は、ローカルAIは完全にオフラインで動作します!
セットアップ後にモデルを切り替えることができますか?
はい!Gramboの設定でいつでもLlama 3.2 3BとQwen 3 1.7Bを切り替えることができます。
モデルはどのくらいのディスクスペースを使用しますか?
Llama 3.2 3B:約2〜3 GB
Qwen 3 1.7B:約1〜1.5 GB
両方のモデルはMacにローカルに保存されます。
ローカルAIはMacを遅くしますか?
ローカルAIモデルはMacで効率的に動作するよう最適化されています。速度低下に気づいた場合は、他のアプリケーションを閉じるか、軽量なQwen 3 1.7Bモデルに切り替えてみてください。
ローカルAIとBYOKを一緒に使用できますか?
はい!Gramboの設定でいつでもローカルAIとBYOKを切り替えることができます。
自動セットアップが失敗した場合はどうすればよいですか?
自動セットアップで問題が発生した場合は、十分なディスクスペース、アクティブなインターネット接続、十分なRAM、管理者権限があることを確認してください。問題が続く場合はサポートにお問い合わせください。
📧 お困りですか?
ローカルAIのセットアップに問題がある場合やモデルについて質問がある場合は、こちらまでご連絡ください: support@gramboapp.com