Exécuter des LLMs localement sur macOS : un guide sceptique

2025-09-08

Cet article de blog détaille l'expérience de l'auteur en exécutant des grands modèles de langage (LLMs) localement sur sa machine macOS. Tout en exprimant son scepticisme quant au battage médiatique autour des LLMs, l'auteur fournit un guide pratique pour installer et utiliser des outils tels que llama.cpp et LM Studio. Le guide couvre le choix de modèles appropriés en fonction de facteurs tels que la taille, le temps d'exécution, la quantification et les capacités de raisonnement. L'auteur souligne les avantages en matière de confidentialité et la réduction de la dépendance aux entreprises d'IA qui découlent du déploiement local de LLM, offrant des conseils et des astuces tels que l'utilisation de MCP pour étendre les fonctionnalités et la gestion de la fenêtre de contexte pour éviter la perte d'informations. L'article aborde également les préoccupations éthiques concernant l'état actuel de l'industrie de l'IA.

Lire plus
Développement

Tailscale : une alternative VPN étonnamment utile

2025-03-05

L'auteur partage son expérience avec Tailscale, une alternative aux VPN. Frustré par le CGNAT bloquant le transfert de port pour l'accès distant à un Raspberry Pi, il s'est tourné vers Tailscale. Il a résolu le problème avec succès, créant un réseau privé virtuel qui permet un accès facile aux appareils en utilisant des noms de domaine simples. Au-delà de cela, Tailscale offre des avantages inattendus : transfert de fichiers facile entre les appareils (Taildrop), exposition des ports d'ordinateurs portables pour les tests d'applications web mobiles et la possibilité de fonctionner comme un VPN avec des nœuds de sortie, même en s'intégrant à Mullvad pour une confidentialité accrue. L'auteur utilise le niveau gratuit et recommande l'implémentation serveur open source Headscale.

Lire plus
Développement