Einrichtungsanleitung für lokale KI

Vollständige Schritt-für-Schritt-Anleitung zur Einrichtung lokaler KI-Modelle mit Ollama in Grambo für 100% offline Grammatikprüfung

📖 Übersicht

Die lokale KI-Funktion von Grambo ermöglicht es Ihnen, KI-Modelle direkt auf Ihrem Mac auszuführen und so vollständige Privatsphäre und Offline-Funktionalität zu gewährleisten. Mit Ollama können Sie leistungsstarke Sprachmodelle lokal ohne Internetverbindung oder API-Kosten installieren und ausführen.

🔒 Datenschutz zuerst: Mit lokaler KI wird Ihr gesamter Text vollständig auf Ihrem Gerät verarbeitet. Nichts wird an externe Server gesendet.

⚙️ Schritte zur automatischen Einrichtung

Folgen Sie diesen einfachen Schritten, um lokale KI in Grambo einzurichten:

  1. Öffnen Sie die Grambo-Einstellungen: Starten Sie Grambo auf Ihrem Mac und klicken Sie auf die Schaltfläche "Einstellungen".
  2. Wählen Sie lokale KI als Diensttyp: Navigieren Sie im Einstellungsfenster zu "Diensttyp" und wählen Sie "Lokale KI".
  3. Wählen Sie Ihr bevorzugtes Modell: Wählen Sie aus den verfügbaren Modellen:

      Llama 3.2 3B - A powerful 3 billion parameter model from Meta

      Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model

  4. Scrollen Sie zum Abschnitt Lokale KI-Einrichtung: Scrollen Sie nach unten, um den Abschnitt "Lokale KI-Einrichtung" zu finden.
  5. Klicken Sie auf die Schaltfläche Automatische Einrichtung: Klicken Sie auf "Automatische Einrichtung". Dies wird:

      Den Ollama-Dienst auf Ihrem Mac installieren (falls noch nicht installiert)

      Den Ollama-Dienst automatisch starten

      Ihr gewähltes Modell aus dem Internet herunterladen

      Alles so konfigurieren, dass es nahtlos mit Grambo funktioniert

  6. Überwachen Sie den Download-Fortschritt: Sie können den Fortschritt direkt im Einstellungsfenster sehen.

      Llama 3.2 3B: ~2-3 GB

      Qwen 3 1.7B: ~1-1,5 GB

  7. Bereit zur Verwendung: Sobald der Download abgeschlossen ist, sind Sie startklar! Grambo verwendet automatisch Ihr lokales KI-Modell.

✅ Das war's! Nach Abschluss der Einrichtung können Sie Grambo vollständig offline verwenden. Keine Internetverbindung erforderlich, keine API-Kosten und vollständige Privatsphäre.

🤖 Über Ollama

Ollama ist ein Open-Source-Tool, das die lokale Ausführung großer Sprachmodelle auf Ihrem Mac erleichtert. Es verwaltet die gesamte komplexe Einrichtung, Modellverwaltung und Optimierung automatisch.

  • Automatische Installation: Die automatische Einrichtung von Grambo installiert Ollama für Sie
  • Hintergrunddienst: Ollama läuft als Hintergrunddienst auf Ihrem Mac
  • Modellverwaltung: Ollama verwaltet das Herunterladen, Speichern und Ausführen Ihres gewählten Modells
  • Ressourceneffizient: Optimiert für die effiziente Nutzung der Ressourcen Ihres Macs

💡 Hinweis: Ollama läuft nach der Einrichtung weiterhin im Hintergrund. Sie können es jederzeit in den Grambo-Einstellungen stoppen.

📊 Modellvergleich

Vergleichen Sie die verfügbaren lokalen KI-Modelle, um das beste für Ihre Bedürfnisse zu wählen:

Funktion Llama 3.2 3B Qwen 3 1.7B
Modellgröße 3 Milliarden Parameter 1,7 Milliarden Parameter
Download-Größe ~2-3 GB ~1-1,5 GB
RAM-Nutzung ~4-6 GB ~2-3 GB
Geschwindigkeit Schnell Sehr schnell
Qualität Ausgezeichnet Sehr gut
Am besten für Benutzer mit mehr RAM, benötigen höhere Qualität Benutzer mit begrenztem RAM, benötigen schnellere Antworten
Entwickler Meta (Facebook) Alibaba Cloud

Welches Modell sollten Sie wählen?

Wählen Sie Llama 3.2 3B wenn:

  • Sie 8 GB oder mehr RAM verfügbar haben
  • Sie Grammatikprüfungsqualität über Geschwindigkeit priorisieren
  • Sie ausreichend Speicherplatz haben (~3 GB)
  • Sie die genauesten Grammatikkorrekturen möchten

Wählen Sie Qwen 3 1.7B wenn:

  • Sie begrenzten RAM haben (4-6 GB verfügbar)
  • Sie schnellere Antwortzeiten möchten
  • Sie Speicherplatz sparen möchten (~1,5 GB)
  • Sie eine leichtgewichtige Lösung benötigen, die dennoch ausgezeichnete Ergebnisse liefert

💡 Tipp: Beide Modelle liefern ausgezeichnete Grammatikprüfungsergebnisse. Wenn Sie unsicher sind, beginnen Sie mit Qwen 3 1.7B für seine Effizienz.

💻 Systemanforderungen

Um lokale KI in Grambo zu verwenden, muss Ihr Mac diese Anforderungen erfüllen:

  • macOS: macOS 12.0 (Monterey) oder neuer
  • RAM:
    • Mindestens 4 GB verfügbarer RAM (für Qwen 3 1.7B)
    • Empfohlen 8 GB+ verfügbarer RAM (für Llama 3.2 3B)
  • Speicher:
    • Mindestens 3 GB freier Speicherplatz für die Modellspeicherung
    • Zusätzlicher Speicherplatz für Ollama-Dienstdateien
  • Internetverbindung:
    • Nur für die Ersteinrichtung und den Modell-Download erforderlich
    • Nach der Einrichtung nicht mehr erforderlich

⚠️ Wichtig: Stellen Sie sicher, dass Sie genügend RAM verfügbar haben. Wenn Ihr Mac wenig Arbeitsspeicher hat, schließen Sie andere Anwendungen, bevor Sie lokale KI verwenden.

Häufig gestellte Fragen

Benötige ich eine Internetverbindung für lokale KI?

Sie benötigen nur während der Ersteinrichtung eine Internetverbindung, um den Ollama-Dienst und Ihr gewähltes Modell herunterzuladen. Nach der Einrichtung funktioniert lokale KI vollständig offline!

Kann ich nach der Einrichtung zwischen Modellen wechseln?

Ja! Sie können jederzeit in den Grambo-Einstellungen zwischen Llama 3.2 3B und Qwen 3 1.7B wechseln.

Wie viel Festplattenspeicher benötigen die Modelle?

Llama 3.2 3B: Ungefähr 2-3 GB
Qwen 3 1.7B: Ungefähr 1-1,5 GB

Beide Modelle werden lokal auf Ihrem Mac gespeichert.

Wird lokale KI meinen Mac verlangsamen?

Lokale KI-Modelle sind für die effiziente Ausführung auf Ihrem Mac optimiert. Wenn Sie eine Verlangsamung bemerken, versuchen Sie, andere Anwendungen zu schließen oder zum leichteren Qwen 3 1.7B-Modell zu wechseln.

Kann ich lokale KI zusammen mit BYOK verwenden?

Ja! Sie können jederzeit in den Grambo-Einstellungen zwischen lokaler KI und BYOK wechseln.

Was passiert, wenn die automatische Einrichtung fehlschlägt?

Wenn die automatische Einrichtung auf Probleme stößt, stellen Sie sicher, dass Sie haben: ausreichend Festplattenspeicher, eine aktive Internetverbindung, genügend RAM und Administratorrechte. Wenn Probleme weiterhin bestehen, wenden Sie sich an den Support.

📧 Hilfe benötigt?

Wenn Sie Probleme bei der Einrichtung der lokalen KI haben oder Fragen zu den Modellen haben, kontaktieren Sie uns unter support@gramboapp.com