Einrichtungsanleitung für lokale KI
Vollständige Schritt-für-Schritt-Anleitung zur Einrichtung lokaler KI-Modelle mit Ollama in Grambo für 100% offline Grammatikprüfung
📖 Übersicht
Die lokale KI-Funktion von Grambo ermöglicht es Ihnen, KI-Modelle direkt auf Ihrem Mac auszuführen und so vollständige Privatsphäre und Offline-Funktionalität zu gewährleisten. Mit Ollama können Sie leistungsstarke Sprachmodelle lokal ohne Internetverbindung oder API-Kosten installieren und ausführen.
🔒 Datenschutz zuerst: Mit lokaler KI wird Ihr gesamter Text vollständig auf Ihrem Gerät verarbeitet. Nichts wird an externe Server gesendet.
⚙️ Schritte zur automatischen Einrichtung
Folgen Sie diesen einfachen Schritten, um lokale KI in Grambo einzurichten:
- Öffnen Sie die Grambo-Einstellungen: Starten Sie Grambo auf Ihrem Mac und klicken Sie auf die Schaltfläche "Einstellungen".
- Wählen Sie lokale KI als Diensttyp: Navigieren Sie im Einstellungsfenster zu "Diensttyp" und wählen Sie "Lokale KI".
-
Wählen Sie Ihr bevorzugtes Modell: Wählen Sie aus den verfügbaren Modellen:
Llama 3.2 3B - A powerful 3 billion parameter model from Meta
Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model
- Scrollen Sie zum Abschnitt Lokale KI-Einrichtung: Scrollen Sie nach unten, um den Abschnitt "Lokale KI-Einrichtung" zu finden.
-
Klicken Sie auf die Schaltfläche Automatische Einrichtung: Klicken Sie auf "Automatische Einrichtung". Dies wird:
Den Ollama-Dienst auf Ihrem Mac installieren (falls noch nicht installiert)
Den Ollama-Dienst automatisch starten
Ihr gewähltes Modell aus dem Internet herunterladen
Alles so konfigurieren, dass es nahtlos mit Grambo funktioniert
-
Überwachen Sie den Download-Fortschritt: Sie können den Fortschritt direkt im Einstellungsfenster sehen.
Llama 3.2 3B: ~2-3 GB
Qwen 3 1.7B: ~1-1,5 GB
- Bereit zur Verwendung: Sobald der Download abgeschlossen ist, sind Sie startklar! Grambo verwendet automatisch Ihr lokales KI-Modell.
✅ Das war's! Nach Abschluss der Einrichtung können Sie Grambo vollständig offline verwenden. Keine Internetverbindung erforderlich, keine API-Kosten und vollständige Privatsphäre.
🤖 Über Ollama
Ollama ist ein Open-Source-Tool, das die lokale Ausführung großer Sprachmodelle auf Ihrem Mac erleichtert. Es verwaltet die gesamte komplexe Einrichtung, Modellverwaltung und Optimierung automatisch.
- Automatische Installation: Die automatische Einrichtung von Grambo installiert Ollama für Sie
- Hintergrunddienst: Ollama läuft als Hintergrunddienst auf Ihrem Mac
- Modellverwaltung: Ollama verwaltet das Herunterladen, Speichern und Ausführen Ihres gewählten Modells
- Ressourceneffizient: Optimiert für die effiziente Nutzung der Ressourcen Ihres Macs
💡 Hinweis: Ollama läuft nach der Einrichtung weiterhin im Hintergrund. Sie können es jederzeit in den Grambo-Einstellungen stoppen.
📊 Modellvergleich
Vergleichen Sie die verfügbaren lokalen KI-Modelle, um das beste für Ihre Bedürfnisse zu wählen:
| Funktion | Llama 3.2 3B | Qwen 3 1.7B |
|---|---|---|
| Modellgröße | 3 Milliarden Parameter | 1,7 Milliarden Parameter |
| Download-Größe | ~2-3 GB | ~1-1,5 GB |
| RAM-Nutzung | ~4-6 GB | ~2-3 GB |
| Geschwindigkeit | Schnell | Sehr schnell |
| Qualität | Ausgezeichnet | Sehr gut |
| Am besten für | Benutzer mit mehr RAM, benötigen höhere Qualität | Benutzer mit begrenztem RAM, benötigen schnellere Antworten |
| Entwickler | Meta (Facebook) | Alibaba Cloud |
Welches Modell sollten Sie wählen?
Wählen Sie Llama 3.2 3B wenn:
- Sie 8 GB oder mehr RAM verfügbar haben
- Sie Grammatikprüfungsqualität über Geschwindigkeit priorisieren
- Sie ausreichend Speicherplatz haben (~3 GB)
- Sie die genauesten Grammatikkorrekturen möchten
Wählen Sie Qwen 3 1.7B wenn:
- Sie begrenzten RAM haben (4-6 GB verfügbar)
- Sie schnellere Antwortzeiten möchten
- Sie Speicherplatz sparen möchten (~1,5 GB)
- Sie eine leichtgewichtige Lösung benötigen, die dennoch ausgezeichnete Ergebnisse liefert
💡 Tipp: Beide Modelle liefern ausgezeichnete Grammatikprüfungsergebnisse. Wenn Sie unsicher sind, beginnen Sie mit Qwen 3 1.7B für seine Effizienz.
💻 Systemanforderungen
Um lokale KI in Grambo zu verwenden, muss Ihr Mac diese Anforderungen erfüllen:
- macOS: macOS 12.0 (Monterey) oder neuer
-
RAM:
- Mindestens 4 GB verfügbarer RAM (für Qwen 3 1.7B)
- Empfohlen 8 GB+ verfügbarer RAM (für Llama 3.2 3B)
-
Speicher:
- Mindestens 3 GB freier Speicherplatz für die Modellspeicherung
- Zusätzlicher Speicherplatz für Ollama-Dienstdateien
-
Internetverbindung:
- Nur für die Ersteinrichtung und den Modell-Download erforderlich
- Nach der Einrichtung nicht mehr erforderlich
⚠️ Wichtig: Stellen Sie sicher, dass Sie genügend RAM verfügbar haben. Wenn Ihr Mac wenig Arbeitsspeicher hat, schließen Sie andere Anwendungen, bevor Sie lokale KI verwenden.
❓ Häufig gestellte Fragen
Benötige ich eine Internetverbindung für lokale KI?
Sie benötigen nur während der Ersteinrichtung eine Internetverbindung, um den Ollama-Dienst und Ihr gewähltes Modell herunterzuladen. Nach der Einrichtung funktioniert lokale KI vollständig offline!
Kann ich nach der Einrichtung zwischen Modellen wechseln?
Ja! Sie können jederzeit in den Grambo-Einstellungen zwischen Llama 3.2 3B und Qwen 3 1.7B wechseln.
Wie viel Festplattenspeicher benötigen die Modelle?
Llama 3.2 3B: Ungefähr 2-3 GB
Qwen 3 1.7B: Ungefähr 1-1,5 GB
Beide Modelle werden lokal auf Ihrem Mac gespeichert.
Wird lokale KI meinen Mac verlangsamen?
Lokale KI-Modelle sind für die effiziente Ausführung auf Ihrem Mac optimiert. Wenn Sie eine Verlangsamung bemerken, versuchen Sie, andere Anwendungen zu schließen oder zum leichteren Qwen 3 1.7B-Modell zu wechseln.
Kann ich lokale KI zusammen mit BYOK verwenden?
Ja! Sie können jederzeit in den Grambo-Einstellungen zwischen lokaler KI und BYOK wechseln.
Was passiert, wenn die automatische Einrichtung fehlschlägt?
Wenn die automatische Einrichtung auf Probleme stößt, stellen Sie sicher, dass Sie haben: ausreichend Festplattenspeicher, eine aktive Internetverbindung, genügend RAM und Administratorrechte. Wenn Probleme weiterhin bestehen, wenden Sie sich an den Support.
📧 Hilfe benötigt?
Wenn Sie Probleme bei der Einrichtung der lokalen KI haben oder Fragen zu den Modellen haben, kontaktieren Sie uns unter support@gramboapp.com