Das rätselhafte `@isolated(any)` in Swift 6: Was Sie wissen müssen

2025-09-01
Das rätselhafte `@isolated(any)` in Swift 6: Was Sie wissen müssen

Swift 6 führt das Attribut `@isolated(any)` ein, das die Isolation asynchroner Funktionen beschreibt und anfänglich verwirrend wirkt. Es benötigt immer ein Argument, aber dieses Argument kann nicht variieren. Der Artikel erklärt den Grund für seine Einführung: um das Problem des Verlusts von Isolationsinformationen während der Planung asynchroner Funktionen zu lösen. `@isolated(any)` ermöglicht den Zugriff auf die Isolationseigenschaft einer Funktion, was eine intelligentere Planung ermöglicht, insbesondere bei der Verwendung von `Task` und `TaskGroup`, und somit die Ausführungsreihenfolge von Aufgaben auf dem MainActor gewährleistet. Obwohl es in den meisten Fällen ignoriert werden kann, ist das Verständnis von `@isolated(any)` entscheidend für das Schreiben effizienten und zuverlässigen konkurrenten Codes bei der Behandlung der Isolation und Planung asynchroner Funktionen.

Mehr lesen
Entwicklung Asynchrone Funktionen

Abschied von der Gewissheit: Probabilistisches Programmieren in Swift

2025-08-29
Abschied von der Gewissheit: Probabilistisches Programmieren in Swift

Dieser Artikel stellt einen neuen Ansatz zur Behandlung unsicherer Daten in Swift vor: Uncertain. Er kodiert Wahrscheinlichkeit direkt in das Typsystem und geht elegant mit Problemen wie der Ungenauigkeit von GPS-Koordinaten um. Mithilfe von Wahrscheinlichkeitsverteilungen und Monte-Carlo-Sampling können Entwickler Unsicherheiten der realen Welt genauer modellieren und so robustere und zuverlässigere Anwendungen erstellen. Der Artikel bietet eine auf Uncertain basierende Swift-Bibliothek und enthält Beispiele, die zeigen, wie verschiedene Wahrscheinlichkeitsverteilungen behandelt und statistische Analysen durchgeführt werden.

Mehr lesen

Führe LLMs lokal auf deinem Mac mit Ollama aus

2025-02-16
Führe LLMs lokal auf deinem Mac mit Ollama aus

Apple hat auf der WWDC 2024 Apple Intelligence angekündigt und "KI für alle" versprochen, aber die Ankunft wirkt noch fern. In der Zwischenzeit ermöglicht Ollama es dir, große Sprachmodelle (LLMs) wie llama3.2 lokal auf deinem Mac auszuführen. Stell es dir vor wie "Docker für LLMs" – einfach Modelle zu ziehen, auszuführen und zu verwalten. Angetrieben von llama.cpp, verwendet Ollama Modelfiles für die Konfiguration und den OCI-Standard für die Verteilung. Die lokale Ausführung von Modellen bietet Vorteile in Bezug auf Datenschutz, Kosten, Latenz und Zuverlässigkeit. Ollama stellt eine HTTP-API für die einfache Integration in Apps bereit, wie von Nominate.app gezeigt, das sie für die intelligente Umbenennung von PDF-Dateien verwendet. Der Artikel ermutigt Entwickler, jetzt mit Ollama die nächste Generation von KI-gestützten Apps zu entwickeln, anstatt auf Apples Versprechungen zu warten.

Mehr lesen
Entwicklung