Guía de configuración de IA local
Guía completa paso a paso para configurar modelos de IA local usando Ollama en Grambo para corrección gramatical 100% offline
📖 Descripción general
La función de IA local de Grambo te permite ejecutar modelos de IA directamente en tu Mac, garantizando privacidad completa y funcionalidad offline. Usando Ollama, puedes instalar y ejecutar potentes modelos de lenguaje localmente sin conexión a internet ni costos de API.
🔒 Privacidad primero: Con IA local, todo tu texto se procesa completamente en tu dispositivo. Nada se envía a servidores externos.
⚙️ Pasos de configuración automática
Sigue estos sencillos pasos para configurar la IA local en Grambo:
- Abre los ajustes de Grambo: Inicia Grambo en tu Mac y haz clic en el botón "Ajustes".
- Elige IA local como tipo de servicio: En la ventana de ajustes, navega a "Tipo de servicio" y selecciona "IA local".
-
Elige tu modelo preferido: Selecciona entre los modelos disponibles:
Llama 3.2 3B - A powerful 3 billion parameter model from Meta
Qwen 3 1.7B - A compact and efficient 1.7 billion parameter model
- Desplázate a la sección de configuración de IA local: Desplázate hacia abajo para encontrar la sección "Configuración de IA local".
-
Haz clic en el botón de configuración automática: Haz clic en "Configuración automática". Esto:
Instalará el servicio Ollama en tu Mac (si no está instalado)
Iniciará el servicio Ollama automáticamente
Descargará el modelo elegido de internet
Configurará todo para funcionar perfectamente con Grambo
-
Monitorea el progreso de descarga: Puedes ver el progreso directamente en la ventana de ajustes.
Llama 3.2 3B: ~2-3 GB
Qwen 3 1.7B: ~1-1.5 GB
- Listo para usar: Una vez completada la descarga, ¡ya está todo listo! Grambo usará automáticamente tu modelo de IA local.
✅ ¡Eso es todo! Una vez completada la configuración, puedes usar Grambo completamente offline. Sin conexión a internet, sin costos de API y con privacidad completa.
🤖 Acerca de Ollama
Ollama es una herramienta de código abierto que facilita la ejecución de modelos de lenguaje grandes localmente en tu Mac. Maneja toda la configuración compleja, gestión de modelos y optimización automáticamente.
- Instalación automática: La configuración automática de Grambo instala Ollama por ti
- Servicio en segundo plano: Ollama se ejecuta como servicio en segundo plano en tu Mac
- Gestión de modelos: Ollama maneja la descarga, almacenamiento y ejecución de tu modelo elegido
- Eficiente en recursos: Optimizado para usar los recursos de tu Mac eficientemente
💡 Nota: Ollama continuará ejecutándose en segundo plano después de la configuración. Puedes detenerlo en cualquier momento desde los ajustes de Grambo.
📊 Comparación de modelos
Compara los modelos de IA local disponibles para elegir el mejor para tus necesidades:
| Característica | Llama 3.2 3B | Qwen 3 1.7B |
|---|---|---|
| Tamaño del modelo | 3 mil millones de parámetros | 1.700 millones de parámetros |
| Tamaño de descarga | ~2-3 GB | ~1-1.5 GB |
| Uso de RAM | ~4-6 GB | ~2-3 GB |
| Velocidad | Rápido | Muy rápido |
| Calidad | Excelente | Muy bueno |
| Ideal para | Usuarios con más RAM, necesitan mayor calidad | Usuarios con RAM limitada, necesitan respuestas más rápidas |
| Desarrollador | Meta (Facebook) | Alibaba Cloud |
¿Qué modelo deberías elegir?
Elige Llama 3.2 3B si:
- Tienes 8 GB o más de RAM disponible
- Priorizas la calidad de corrección sobre la velocidad
- Tienes suficiente espacio de almacenamiento (~3 GB)
- Quieres las correcciones gramaticales más precisas
Elige Qwen 3 1.7B si:
- Tienes RAM limitada (4-6 GB disponibles)
- Quieres tiempos de respuesta más rápidos
- Quieres ahorrar espacio de almacenamiento (~1.5 GB)
- Necesitas una solución ligera que aún proporcione excelentes resultados
💡 Consejo: Ambos modelos proporcionan excelentes resultados de corrección gramatical. Si no estás seguro, comienza con Qwen 3 1.7B por su eficiencia.
💻 Requisitos del sistema
Para usar IA local en Grambo, tu Mac necesita cumplir estos requisitos:
- macOS: macOS 12.0 (Monterey) o posterior
-
RAM:
- Mínimo 4 GB de RAM disponible (para Qwen 3 1.7B)
- Recomendado 8 GB+ de RAM disponible (para Llama 3.2 3B)
-
Almacenamiento:
- Al menos 3 GB de espacio libre para almacenamiento del modelo
- Espacio adicional para los archivos del servicio Ollama
-
Conexión a internet:
- Requerida solo para la configuración inicial y descarga del modelo
- No necesaria después de completar la configuración
⚠️ Importante: Asegúrate de tener suficiente RAM disponible. Si tu Mac tiene poca memoria, cierra otras aplicaciones antes de usar IA local.
❓ Preguntas frecuentes
¿Necesito conexión a internet para usar IA local?
Solo necesitas conexión a internet durante la configuración inicial para descargar el servicio Ollama y tu modelo elegido. Una vez completada la configuración, ¡la IA local funciona completamente offline!
¿Puedo cambiar entre modelos después de la configuración?
¡Sí! Puedes cambiar entre Llama 3.2 3B y Qwen 3 1.7B en cualquier momento en los ajustes de Grambo.
¿Cuánto espacio en disco ocupan los modelos?
Llama 3.2 3B: Aproximadamente 2-3 GB
Qwen 3 1.7B: Aproximadamente 1-1.5 GB
Ambos modelos se almacenan localmente en tu Mac.
¿La IA local ralentizará mi Mac?
Los modelos de IA local están optimizados para ejecutarse eficientemente en tu Mac. Si notas alguna ralentización, intenta cerrar otras aplicaciones o cambiar al modelo más ligero Qwen 3 1.7B.
¿Puedo usar IA local junto con BYOK?
¡Sí! Puedes cambiar entre IA local y BYOK en cualquier momento en los ajustes de Grambo.
¿Qué pasa si la configuración automática falla?
Si la configuración automática encuentra problemas, asegúrate de tener: suficiente espacio en disco, conexión a internet activa, suficiente RAM y permisos de administrador. Si los problemas persisten, contacta al soporte.
📧 ¿Necesitas ayuda?
Si tienes problemas configurando IA local o preguntas sobre los modelos, contáctanos en support@gramboapp.com