Executando LLMs Localmente no macOS: Um Guia Cético

2025-09-08

Este post de blog detalha a experiência do autor executando modelos de linguagem grandes (LLMs) localmente em sua máquina macOS. Embora expressando ceticismo sobre o hype em torno de LLMs, o autor fornece um guia prático para instalar e usar ferramentas como llama.cpp e LM Studio. O guia abrange a escolha de modelos apropriados com base em fatores como tamanho, tempo de execução, quantização e capacidades de raciocínio. O autor enfatiza os benefícios de privacidade e a menor dependência de empresas de IA que vêm com a implantação local de LLM, oferecendo dicas e truques, como utilizar MCPs para expandir a funcionalidade e gerenciar a janela de contexto para evitar perda de informações. O post também aborda as preocupações éticas em torno do estado atual da indústria de IA.

Leia mais
Desenvolvimento

Tailscale: Uma Alternativa de VPN Surpreendentemente Útil

2025-03-05

O autor compartilha sua experiência com o Tailscale, uma alternativa de VPN. Frustrado com o CGNAT bloqueando o encaminhamento de portas para acesso remoto a um Raspberry Pi, ele recorreu ao Tailscale. Ele resolveu o problema com sucesso, criando uma rede privada virtual que permite acesso fácil a dispositivos usando nomes de domínio simples. Além disso, o Tailscale oferece benefícios inesperados: transferência de arquivos sem esforço entre dispositivos (Taildrop), expondo portas de laptop para teste de aplicativos web móveis e a capacidade de funcionar como uma VPN com nós de saída, até mesmo integrando-se ao Mullvad para privacidade aprimorada. O autor usa o nível gratuito e recomenda a implementação de servidor de código aberto Headscale.

Leia mais
Desenvolvimento