Ejecutando LLMs localmente en macOS: Una guía escéptica

2025-09-08

Esta entrada de blog detalla la experiencia del autor ejecutando modelos de lenguaje grandes (LLMs) localmente en su máquina macOS. Si bien expresa escepticismo sobre las exageraciones que rodean a los LLMs, el autor proporciona una guía práctica para instalar y usar herramientas como llama.cpp y LM Studio. La guía abarca la elección de modelos apropiados en función de factores como el tamaño, el tiempo de ejecución, la cuantización y las capacidades de razonamiento. El autor enfatiza los beneficios de privacidad y la menor dependencia de las empresas de IA que conlleva la implementación local de LLM, ofreciendo consejos y trucos, como utilizar MCP para ampliar la funcionalidad y gestionar la ventana de contexto para evitar la pérdida de información. La entrada también aborda las preocupaciones éticas en torno al estado actual de la industria de la IA.

Desarrollo