Ejecuta el LLM DeepSeek R1 localmente con Ollama

2025-01-29
Ejecuta el LLM DeepSeek R1 localmente con Ollama

DeepSeek R1, un LLM de código abierto que sobresale en IA conversacional, codificación y resolución de problemas, ahora se puede ejecutar localmente. Esta guía detalla el uso de Ollama, una plataforma que simplifica la implementación de LLMs, para ejecutar DeepSeek R1 en macOS, Windows y Linux. Cubre la instalación de Ollama, la extracción del modelo DeepSeek R1 (incluidas variantes más pequeñas y destiladas), y la interacción con el modelo a través de la línea de comandos. La ejecución local garantiza la privacidad de los datos y respuestas más rápidas. El artículo también explora consejos prácticos, incluyendo la automatización de la línea de comandos y la integración con IDE, y discute los beneficios de los modelos destilados para usuarios con hardware menos potente.