Le Mystérieux `@isolated(any)` de Swift 6 : Ce que vous devez savoir

2025-09-01
Le Mystérieux `@isolated(any)` de Swift 6 : Ce que vous devez savoir

Swift 6 introduit l'attribut `@isolated(any)`, qui décrit l'isolement des fonctions asynchrones, initialement source de confusion. Il nécessite toujours un argument, mais cet argument ne peut pas varier. L'article explique son introduction : pour résoudre le problème de la perte d'informations d'isolement lors de la planification des fonctions asynchrones. `@isolated(any)` donne accès à la propriété d'isolement d'une fonction, permettant une planification plus intelligente, notamment lors de l'utilisation de `Task` et `TaskGroup`, garantissant ainsi l'ordre d'exécution des tâches sur le MainActor. Bien qu'il puisse être généralement ignoré, la compréhension de `@isolated(any)` est cruciale pour écrire du code concurrent efficace et fiable lors de la gestion de l'isolement et de la planification des fonctions asynchrones.

Lire plus
Développement Fonctions asynchrones

Dire au revoir à la certitude : programmation probabiliste en Swift

2025-08-29
Dire au revoir à la certitude : programmation probabiliste en Swift

Cet article présente une nouvelle approche pour gérer les données incertaines en Swift : Uncertain. Il encode la probabilité directement dans le système de types, traitant élégamment des problèmes tels que l’imprécision des coordonnées GPS. En utilisant des distributions de probabilité et un échantillonnage de Monte-Carlo, les développeurs peuvent modéliser plus précisément les incertitudes du monde réel, créant ainsi des applications plus robustes et fiables. L’article fournit une bibliothèque Swift basée sur Uncertain et inclut des exemples montrant comment gérer diverses distributions de probabilité et effectuer des analyses statistiques.

Lire plus

Exécutez des LLMs localement sur votre Mac avec Ollama

2025-02-16
Exécutez des LLMs localement sur votre Mac avec Ollama

Apple a annoncé Apple Intelligence à la WWDC 2024, promettant une "IA pour tous", mais son arrivée semble lointaine. Entre-temps, Ollama vous permet d'exécuter des grands modèles de langage (LLMs) comme llama3.2 localement sur votre Mac. Considérez-le comme le "Docker pour les LLMs" – facile à extraire, exécuter et gérer les modèles. Alimenté par llama.cpp, Ollama utilise les Modelfiles pour la configuration et la norme OCI pour la distribution. L'exécution de modèles localement offre des avantages en termes de confidentialité, de coût, de latence et de fiabilité. Ollama expose une API HTTP pour une intégration facile dans les applications, comme le montre Nominate.app, qui l'utilise pour le renommage intelligent des fichiers PDF. L'article encourage les développeurs à construire dès maintenant la prochaine génération d'applications alimentées par l'IA avec Ollama, au lieu d'attendre les promesses d'Apple.

Lire plus
Développement