El Enigmático `@isolated(any)` de Swift 6: Lo Que Necesitas Saber

2025-09-01
El Enigmático `@isolated(any)` de Swift 6: Lo Que Necesitas Saber

Swift 6 introduce el atributo `@isolated(any)`, que describe el aislamiento de las funciones asíncronas, inicialmente pareciendo confuso. Siempre requiere un argumento, pero este argumento no puede variar. El artículo explica su introducción: para resolver el problema de la pérdida de información de aislamiento durante la programación de funciones asíncronas. `@isolated(any)` proporciona acceso a la propiedad de aislamiento de una función, permitiendo una programación más inteligente, especialmente al manejar `Task` y `TaskGroup`, garantizando el orden de ejecución de las tareas en el MainActor. Aunque puede ser ignorado en la mayoría de los casos, comprender `@isolated(any)` es crucial para escribir código concurrente eficiente y confiable al manejar el aislamiento y la programación de funciones asíncronas.

Leer más

Despidiéndonos de la Certeza: Programación Probabilística en Swift

2025-08-29
Despidiéndonos de la Certeza: Programación Probabilística en Swift

Este artículo presenta un nuevo enfoque para manejar datos inciertos en Swift: Uncertain. Codifica la probabilidad directamente en el sistema de tipos, abordando elegantemente problemas como la imprecisión de las coordenadas GPS. Usando distribuciones de probabilidad y muestreo de Monte Carlo, los desarrolladores pueden modelar con mayor precisión las incertidumbres del mundo real, creando aplicaciones más robustas y confiables. El artículo proporciona una biblioteca Swift basada en Uncertain e incluye ejemplos que muestran cómo manejar varias distribuciones de probabilidad y realizar análisis estadísticos.

Leer más

Ejecuta LLMs localmente en tu Mac con Ollama

2025-02-16
Ejecuta LLMs localmente en tu Mac con Ollama

Apple anunció Apple Intelligence en la WWDC 2024, prometiendo "IA para todos nosotros", pero su llegada se siente lejana. Mientras tanto, Ollama te permite ejecutar modelos de lenguaje grandes (LLMs) como llama3.2 localmente en tu Mac. Piénsalo como 'Docker para LLMs' – fácil de extraer, ejecutar y gestionar modelos. Impulsado por llama.cpp, Ollama usa Modelfiles para la configuración y el estándar OCI para la distribución. Ejecutar modelos localmente ofrece ventajas en privacidad, coste, latencia y fiabilidad. Ollama expone una API HTTP para una fácil integración en aplicaciones, como se demuestra con Nominate.app, que lo utiliza para el renombrado inteligente de archivos PDF. El artículo anima a los desarrolladores a construir la próxima generación de aplicaciones con IA ahora con Ollama, en lugar de esperar a las promesas de Apple.

Leer más
Desarrollo