O Enigmático `@isolated(any)` do Swift 6: O Que Você Precisa Saber

2025-09-01
O Enigmático `@isolated(any)` do Swift 6: O Que Você Precisa Saber

O Swift 6 introduz o atributo `@isolated(any)`, que descreve o isolamento de funções assíncronas, inicialmente parecendo confuso. Ele sempre requer um argumento, mas este argumento não pode variar. O artigo explica sua introdução: para resolver o problema da perda de informações de isolamento durante o agendamento de funções assíncronas. `@isolated(any)` fornece acesso à propriedade de isolamento de uma função, permitindo um agendamento mais inteligente, especialmente ao lidar com `Task` e `TaskGroup`, garantindo a ordem de execução de tarefas no MainActor. Embora possa ser ignorado na maioria das vezes, entender `@isolated(any)` é crucial para escrever código concorrente eficiente e confiável ao lidar com isolamento e agendamento de funções assíncronas.

Leia mais
Desenvolvimento Funções Assíncronas

Despedindo-se da Certeza: Programação Probabilística em Swift

2025-08-29
Despedindo-se da Certeza: Programação Probabilística em Swift

Este artigo apresenta uma nova abordagem para lidar com dados incertos em Swift: Uncertain. Ele codifica a probabilidade diretamente no sistema de tipos, abordando elegantemente problemas como a imprecisão das coordenadas de GPS. Usando distribuições de probabilidade e amostragem de Monte Carlo, os desenvolvedores podem modelar com mais precisão incertezas do mundo real, construindo aplicativos mais robustos e confiáveis. O artigo fornece uma biblioteca Swift baseada em Uncertain e inclui exemplos mostrando como lidar com várias distribuições de probabilidade e realizar análise estatística.

Leia mais

Execute LLMs Localmente no seu Mac com Ollama

2025-02-16
Execute LLMs Localmente no seu Mac com Ollama

A Apple anunciou o Apple Intelligence na WWDC 2024, prometendo "IA para todos nós", mas sua chegada parece distante. Enquanto isso, o Ollama permite que você execute modelos de linguagem grandes (LLMs) como o llama3.2 localmente no seu Mac. Pense nisso como o 'Docker para LLMs' - fácil de extrair, executar e gerenciar modelos. Impulsionado pelo llama.cpp, o Ollama usa Modelfiles para configuração e o padrão OCI para distribuição. Executar modelos localmente oferece vantagens em privacidade, custo, latência e confiabilidade. O Ollama expõe uma API HTTP para fácil integração em aplicativos, como demonstrado pelo Nominate.app, que o usa para renomeação inteligente de PDFs. O artigo incentiva os desenvolvedores a construir a próxima geração de aplicativos com IA agora com o Ollama, em vez de esperar pelas promessas da Apple.

Leia mais
Desenvolvimento