Ejecutando LLMs localmente en macOS: Una guía escéptica

2025-09-08

Esta entrada de blog detalla la experiencia del autor ejecutando modelos de lenguaje grandes (LLMs) localmente en su máquina macOS. Si bien expresa escepticismo sobre las exageraciones que rodean a los LLMs, el autor proporciona una guía práctica para instalar y usar herramientas como llama.cpp y LM Studio. La guía abarca la elección de modelos apropiados en función de factores como el tamaño, el tiempo de ejecución, la cuantización y las capacidades de razonamiento. El autor enfatiza los beneficios de privacidad y la menor dependencia de las empresas de IA que conlleva la implementación local de LLM, ofreciendo consejos y trucos, como utilizar MCP para ampliar la funcionalidad y gestionar la ventana de contexto para evitar la pérdida de información. La entrada también aborda las preocupaciones éticas en torno al estado actual de la industria de la IA.

Leer más
Desarrollo

Tailscale: Una alternativa a VPN sorprendentemente útil

2025-03-05

El autor comparte su experiencia con Tailscale, una alternativa a las VPN. Frustrado por el CGNAT que bloqueaba el reenvío de puertos para el acceso remoto a un Raspberry Pi, recurrió a Tailscale. Resolvió el problema con éxito, creando una red privada virtual que permite un fácil acceso a los dispositivos usando nombres de dominio simples. Además de esto, Tailscale ofrece beneficios inesperados: transferencia de archivos sin esfuerzo entre dispositivos (Taildrop), exposición de puertos de portátiles para pruebas de aplicaciones web móviles y la capacidad de funcionar como una VPN con nodos de salida, incluso integrándose con Mullvad para una privacidad mejorada. El autor utiliza el nivel gratuito y recomienda la implementación de servidor de código abierto Headscale.

Leer más
Desarrollo