Category: IA

Família Gemini 2.0 recebe grande atualização: Desempenho aprimorado e recursos multimodais

2025-02-05
Família Gemini 2.0 recebe grande atualização: Desempenho aprimorado e recursos multimodais

O Google atualizou significativamente sua família de modelos Gemini 2.0! O modelo 2.0 Flash agora está geralmente disponível via API, permitindo que desenvolvedores criem aplicativos de produção. Uma versão experimental do 2.0 Pro, com desempenho de codificação superior e capacidade de lidar com prompts complexos, com uma janela de contexto de 2 milhões de tokens, também foi lançada. Um modelo 2.0 Flash-Lite econômico agora está em prévia pública. Todos os modelos atualmente oferecem entrada multi-modal com saída de texto, com mais modalidades chegando nos próximos meses. Esta atualização aumenta significativamente o desempenho e expande a aplicabilidade, marcando um grande passo para o Gemini no cenário de IA.

IA

O Prêmio Netflix: Um Marco e uma Lição Amarga em Machine Learning

2025-02-05
O Prêmio Netflix: Um Marco e uma Lição Amarga em Machine Learning

Em 2006, a Netflix lançou uma competição de um milhão de dólares para melhorar seu sistema de recomendação. Essa competição atraiu milhares de equipes e avançou significativamente o campo de aprendizado de máquina. Os resultados mostraram que algoritmos simples podiam surpreendentemente ter um bom desempenho, modelos maiores produziam pontuações melhores e o overfitting nem sempre era uma preocupação. No entanto, a competição também deixou uma lição amarga: preocupações com a privacidade de dados levaram a Netflix a cancelar competições futuras, limitando a pesquisa aberta em algoritmos de sistemas de recomendação, e o controle das empresas de tecnologia sobre os dados atingiu um nível sem precedentes.

IA

Modelo de IA de US$ 6 abala o cenário de LLM: Apresentando o S1

2025-02-05
Modelo de IA de US$ 6 abala o cenário de LLM: Apresentando o S1

Um novo artigo revela o S1, um modelo de IA treinado por meros US$ 6, atingindo desempenho próximo ao estado da arte, enquanto roda em um laptop padrão. O segredo está em seu método engenhoso de 'escalonamento de tempo de inferência': inserindo comandos 'Esperar' durante o processo de pensamento do LLM, ele controla o tempo de pensamento e otimiza o desempenho. Isso reflete a técnica Entropix, ambas manipulando estados internos do modelo para melhoria. A frugalidade extrema de dados do S1, usando apenas 1000 exemplos cuidadosamente selecionados, produz resultados surpreendentemente bons, abrindo novas vias para pesquisa em IA e gerando discussões sobre destilação de modelos e propriedade intelectual. O baixo custo e a alta eficiência do S1 sinalizam um ritmo mais acelerado de desenvolvimento de IA.

Toma: Construindo uma força de trabalho de IA para a indústria automobilística de US$ 1,5 trilhão

2025-02-05
Toma: Construindo uma força de trabalho de IA para a indústria automobilística de US$ 1,5 trilhão

A Toma está construindo uma força de trabalho de IA de ponta a ponta para a indústria automobilística de US$ 1,5 trilhão. Seus maiores clientes gastam mais de US$ 1,5 bilhão anualmente em processos que podem ser facilmente automatizados com IA, incluindo atendimento ao cliente, gerenciamento de ordens de reparo, processamento de garantia e vendas. A equipe da Toma possui um histórico comprovado de criação e venda de aplicativos de IA de sucesso, um produto de IA de voz de primeira classe e experiência prática profunda obtida trabalhando diretamente com e estudando concessionárias de automóveis. Eles operam com uma abordagem orientada a equipe, responsável, enfatizando decisões baseadas em dados e fornecendo autonomia significativa. Localizada no bairro Dogpatch de São Francisco, a Toma oferece um ambiente acelerado e sem enrolação onde pessoas excepcionais podem causar um impacto substancial. Trabalham no escritório cinco dias por semana.

IA

Google remove compromisso com IA para armas e vigilância

2025-02-04
Google remove compromisso com IA para armas e vigilância

O Google removeu silenciosamente esta semana, de seu site, um compromisso de não desenvolver IA para armas ou vigilância. A mudança, inicialmente relatada pela Bloomberg, gerou controvérsia. Embora o Google agora enfatize o desenvolvimento responsável de IA alinhado com o direito internacional e os direitos humanos, seus contratos com os militares dos EUA e de Israel, juntamente com alegações do Pentágono de que a IA do Google está acelerando a 'cadeia de morte' militar, levantam preocupações sobre a lacuna entre seus princípios declarados e ações. Protestos internos de funcionários e escrutínio público destacam os dilemas éticos em torno do desenvolvimento e implantação de IA.

A Alquimia do Treinamento Eficiente de LLMs: Além dos Limites de Computação

2025-02-04

Este artigo mergulha no treinamento eficiente de modelos de linguagem grandes (LLMs) em escala massiva. O autor argumenta que, mesmo com dezenas de milhares de aceleradores, princípios relativamente simples podem melhorar significativamente o desempenho do modelo. Os tópicos abordados incluem avaliação de desempenho do modelo, escolha de esquemas de paralelismo em diferentes escalas, estimativa do custo e tempo de treinamento de modelos grandes de Transformer e design de algoritmos que aproveitam vantagens de hardware específicas. Por meio de explicações detalhadas das arquiteturas de TPU e GPU e uma análise detalhada da arquitetura Transformer, os leitores obterão uma compreensão melhor dos gargalos de dimensionamento e projetarão modelos e algoritmos mais eficientes.

OmniHuman-1: Repensando a Escalabilidade de Modelos de Animação Humana Condicionada de Uma Etapa

2025-02-04

OmniHuman-1 é um modelo de IA capaz de gerar vídeos realistas de humanos. Ele suporta vários estilos visuais e de áudio, gerando vídeos em qualquer proporção e proporção corporal (retrato, meio corpo, corpo inteiro). O realismo provém de detalhes abrangentes de movimento, iluminação e textura. O modelo lida com entradas diversas, incluindo canto, fala e várias poses, mesmo de desenhos animados ou pontos de vista desafiadores. Ele utiliza sinais de condução de áudio e vídeo para controle preciso. Considerações éticas são abordadas, com imagens e áudio originários de domínios públicos ou modelos gerados.

Radiant Foam: Avanço no Ray Tracing Diferenciável em Tempo Real

2025-02-04

Pesquisadores apresentam Radiant Foam, uma nova representação de cena que combina a eficiência do rastreamento de raio de malha volumétrica com a qualidade de reconstrução dos métodos de splatting. Aproveitando diagramas de Voronoi e triangulação de Delaunay, o Radiant Foam consegue fazer rastreamento de raio em tempo real, superando até mesmo o rastreamento de raio gaussiano acelerado por hardware em velocidade, enquanto quase iguala a qualidade de reconstrução dos métodos de splatting gaussianos. Evita estruturas de aceleração complexas e hardware/APIs especiais, requerendo apenas uma GPU programável padrão. Essa descoberta promete avançar significativamente o processamento de renderização em tempo real.

OpenAI fecha acordo de US$ 3 bilhões com SoftBank e pode abrir o código-fonte de seus modelos

2025-02-04
OpenAI fecha acordo de US$ 3 bilhões com SoftBank e pode abrir o código-fonte de seus modelos

A OpenAI anunciou na segunda-feira uma joint venture com a SoftBank do Japão, com o gigante de investimentos gastando US$ 3 bilhões por ano para usar o software da OpenAI. Essa mudança de estratégia parece ser uma resposta à ascensão inesperada da DeepSeek. O modelo de inteligência artificial de ponta da empresa chinesa usa apenas uma fração da capacidade de computação do ChatGPT da OpenAI e produtos similares, subvertendo suposições generalizadas sobre os requisitos técnicos e financeiros da expansão da IA. Enquanto isso, o CEO da OpenAI, Sam Altman, disse que estava considerando tornar seus produtos open-source, como os da DeepSeek, o que potencialmente significaria que qualquer pessoa poderia usar e reutilizar os modelos da OpenAI: Altman disse no Reddit que a OpenAI estava "do lado errado da história" ao manter seu código-fonte privado.

IA

Bonobos demonstram que entendem a ignorância: Uma descoberta inovadora em pesquisa sobre Teoria da Mente

2025-02-04
Bonobos demonstram que entendem a ignorância: Uma descoberta inovadora em pesquisa sobre Teoria da Mente

Um novo estudo demonstra que bonobos possuem teoria da mente, compreendendo a falta de conhecimento de outros e agindo de acordo. Os pesquisadores projetaram um experimento em que bonobos ajudavam um experimentador a encontrar guloseimas escondidas. Os resultados mostraram que os bonobos apontavam mais rápido e com mais frequência quando percebiam que o experimentador não sabia a localização da guloseima. Isso indica que os bonobos rastreiam e respondem a perspectivas diferentes, sugerindo que a teoria da mente pode ser mais antiga do que se pensava anteriormente e potencialmente presente em nosso ancestral comum.

Auto-AVSR: Framework de Reconhecimento de Fala por Leitura Labial de Código Aberto

2025-02-03
Auto-AVSR: Framework de Reconhecimento de Fala por Leitura Labial de Código Aberto

O Auto-AVSR é um framework de código aberto para reconhecimento de fala audio-visual (AV-ASR) de ponta a ponta, com foco na fala visual (leitura labial). Ele atingiu uma taxa de erro de palavras (WER) de 20,3% para reconhecimento de fala visual (VSR) e 1,0% para reconhecimento de fala de áudio (ASR) no benchmark LRS3. Oferece código e tutoriais para treinamento, avaliação e uso da API, com suporte para treinamento em vários nós. Os usuários podem usar modelos pré-treinados ou treinar do zero, personalizando os hiperparâmetros conforme necessário.

OpenEuroLLM: A Europa Impulsiona LLMs Multilíngues de Código Aberto

2025-02-03

Um consórcio de 20 instituições de pesquisa e empresas líderes na Europa lançou o OpenEuroLLM, um projeto para construir uma família de modelos de linguagem amplos (LLMs) multilíngues de alto desempenho. A iniciativa visa impulsionar a competitividade da IA ​​na Europa, democratizando o acesso a tecnologias de IA de alta qualidade por meio de princípios de código aberto. Isso capacitará empresas e organizações públicas europeias a desenvolver produtos e serviços impactantes. O OpenEuroLLM opera dentro da estrutura regulatória da Europa e colabora com comunidades de código aberto para garantir a abertura completa de modelos, software, dados e avaliação, atendendo às diversas necessidades dos setores público e privado, preservando a diversidade linguística e cultural.

Documento de treinamento da IBM perdido: computadores não podem ser responsabilizados (1979)

2025-02-03
Documento de treinamento da IBM perdido: computadores não podem ser responsabilizados (1979)

Uma página lendária de um treinamento interno da IBM de 1979 ressurgiu online, afirmando 'Um computador nunca pode ser responsabilizado; portanto, um computador nunca deve tomar uma decisão de gerenciamento.' A fonte original foi perdida, supostamente destruída por uma inundação. Essa declaração ressoa poderosamente em nossa era impulsionada pela IA, levando à reflexão sobre a responsabilidade e a tomada de decisões da IA.

s1: Escalonamento Simples em Tempo de Teste para Raciocínio Robusto

2025-02-03
s1: Escalonamento Simples em Tempo de Teste para Raciocínio Robusto

Este artigo apresenta s1, um método simples de escalonamento em tempo de teste que alcança um desempenho de raciocínio robusto, igualando o o1-preview usando apenas 1.000 exemplos e restrição de orçamento. O método melhora significativamente o desempenho em modelos de linguagem grandes por meio de estratégias inteligentes em tempo de teste. O código e os dados são de código aberto para reprodutibilidade e exploração adicional.

Classificadores Constitucionais da Anthropic: Uma Nova Defesa Contra Jailbreaks de IA

2025-02-03
Classificadores Constitucionais da Anthropic: Uma Nova Defesa Contra Jailbreaks de IA

A equipe de pesquisa de salvaguardas da Anthropic apresenta os Classificadores Constitucionais, uma nova defesa contra jailbreaks de IA. Este sistema, treinado em dados sintéticos, filtra eficazmente saídas prejudiciais, minimizando falsos positivos. Um protótipo resistiu a milhares de horas de red teaming humano, reduzindo significativamente as taxas de sucesso de jailbreaks, embora inicialmente sofresse de altas taxas de recusa e sobrecarga computacional. Uma versão atualizada mantém a robustez com apenas um pequeno aumento na taxa de recusa e custo computacional moderado. Uma demonstração ao vivo temporária convida especialistas em segurança para testar sua resiliência, preparando o caminho para a implantação mais segura de modelos de IA cada vez mais poderosos.

Klarity: Desvendando a Incerteza em Modelos Generativos

2025-02-03
Klarity: Desvendando a Incerteza em Modelos Generativos

Klarity é uma ferramenta para analisar a incerteza nas saídas de modelos generativos. Ela combina análise de probabilidade bruta e compreensão semântica para fornecer insights profundos sobre o comportamento do modelo durante a geração de texto. A biblioteca oferece análise de entropia dupla, agrupamento semântico e saída JSON estruturada, além de análise com IA para insights legíveis por humanos. Atualmente suporta Hugging Face Transformers, com planos para suporte a frameworks e modelos mais amplos.

Mapeamento de Projeção Facial Dinâmica Alinhado Perceptualmente: Rastreamento de Alta Velocidade e Configuração Coaxial

2025-02-03
Mapeamento de Projeção Facial Dinâmica Alinhado Perceptualmente: Rastreamento de Alta Velocidade e Configuração Coaxial

Pesquisadores desenvolveram um novo sistema de mapeamento de projeção facial dinâmica (DFPM) de alta velocidade que reduz significativamente artefatos de desalinhamento. Isso é alcançado por meio de um método de rastreamento facial de alta velocidade usando uma detecção de face baseada em interpolação/extrapólação limitada a área cortada e um conjunto rápido de árvores de regressão (ERT) para detecção de pontos de referência (0,107 ms). Uma configuração de projetor-câmera coaxial com deslocamento de lente mantém o alinhamento óptico alto com erro mínimo (1,274 pixels entre 1 me 2 m). Este sistema atinge um alinhamento quase perfeito, melhorando as experiências imersivas em maquiagem e entretenimento.

Introdução à Epistemologia Bayesiana: Credibilidade, Evidência e Racionalidade

2025-02-03

Este tutorial introduz a epistemologia bayesiana, focando em suas normas centrais: probabilismo e o princípio da condicionalização. Usando a observação do eclipse solar de Eddington como um estudo de caso, ele ilustra como os métodos bayesianos atualizam a crença em hipóteses. O tutorial então explora discordâncias dentro do bayesianismo a respeito de probabilidades a priori, coerência e o escopo da condicionalização, apresentando argumentos fundamentais como argumentos de livros holandeses, argumentos de dominância de precisão e argumentos de probabilidade comparativa. Finalmente, aborda o problema da idealização e a aplicação de métodos bayesianos na ciência.

Pensamento Real vs. Pensamento Falso: Mantendo-se Desperto na Era da IA

2025-02-03
Pensamento Real vs. Pensamento Falso: Mantendo-se Desperto na Era da IA

Este ensaio explora a diferença entre 'pensamento real' e 'pensamento falso'. O autor argumenta que 'pensamento real' não é simplesmente pensar em coisas concretas, mas uma maneira de pensar mais profunda e perspicaz que se concentra em realmente entender o mundo, em vez de permanecer preso a conceitos abstratos ou estruturas preexistentes. Usando exemplos como risco de IA, filosofia e debate competitivo, o ensaio descreve várias dimensões do 'pensamento real' e sugere métodos para cultivar essa capacidade, como desacelerar, seguir a curiosidade e prestar atenção às motivações por trás do pensamento. O autor apela para manter-se desperto na era da IA, evitando as armadilhas do 'pensamento falso' e realmente entendendo e respondendo às mudanças que se aproximam.

TopoNets: Modelos de Visão e Linguagem de Alto Desempenho com Topografia Semelhante ao Cérebro

2025-02-03
TopoNets: Modelos de Visão e Linguagem de Alto Desempenho com Topografia Semelhante ao Cérebro

Pesquisadores apresentam o TopoLoss, um novo método para incorporar topografia semelhante ao cérebro em arquiteturas de IA líderes (redes convolucionais e transformadores) com perda mínima de desempenho. Os TopoNets resultantes alcançam desempenho de ponta entre as redes neurais topográficas supervisionadas. O TopoLoss é fácil de implementar, e experimentos mostram que os TopoNets mantêm alto desempenho enquanto exibem organização espacial semelhante ao cérebro. Além disso, os TopoNets produzem modelos de linguagem esparsos e eficientes em termos de parâmetros e demonstram seletividade regional semelhante ao cérebro no reconhecimento de imagens e janelas de integração temporal em modelos de linguagem, espelhando padrões observados no córtex visual e nas áreas de processamento de linguagem do cérebro.

IA

Projeto 'Strawberry' da OpenAI: Visando o Raciocínio Profundo em IA

2025-02-03
Projeto 'Strawberry' da OpenAI: Visando o Raciocínio Profundo em IA

A OpenAI está desenvolvendo secretamente um projeto com o nome de código "Strawberry", com o objetivo de superar as limitações nas capacidades de raciocínio dos modelos de IA atuais. O projeto visa permitir que a IA planeje e conduza pesquisas profundas na internet de forma autônoma, em vez de simplesmente responder a perguntas. Documentos internos revelam que o modelo "Strawberry" utilizará um método de pós-treinamento especializado, combinado com capacidades de autoaprendizagem e planejamento, para resolver problemas complexos de forma confiável. Isso é considerado um avanço significativo, com potencial para revolucionar o papel da IA na descoberta científica e no desenvolvimento de software, ao mesmo tempo em que levanta preocupações éticas sobre as capacidades futuras da IA.

Chatbot chinês DeepSeek censura foto do 'Homem do Tanque' e abala os mercados americanos

2025-02-02
Chatbot chinês DeepSeek censura foto do 'Homem do Tanque' e abala os mercados americanos

O chatbot chinês DeepSeek gerou controvérsia ao se recusar a responder perguntas sobre a icônica foto do 'Homem do Tanque' da Praça da Paz Celestial de 1989. O chatbot interrompe abruptamente as discussões sobre a imagem e outros tópicos sensíveis relacionados à China, enquanto fornece respostas detalhadas sobre líderes mundiais como o primeiro-ministro do Reino Unido. Simultaneamente, as poderosas capacidades de geração de imagens do DeepSeek (Janus-Pro-7B) e seu surpreendentemente baixo custo de desenvolvimento (relativamente apenas US$ 6 milhões) enviaram ondas de choque pelos mercados americanos, causando uma queda recorde de 17% nas ações da Nvidia e provocando preocupação de gigantes de tecnologia americanos e políticos.

Autor de Ficção Científica Ted Chiang sobre IA e o Futuro da Tecnologia

2025-02-02
Autor de Ficção Científica Ted Chiang sobre IA e o Futuro da Tecnologia

Esta entrevista com o mestre de ficção científica Ted Chiang explora sua inspiração criativa, sua perspectiva crítica sobre IA e suas preocupações sobre a direção futura da tecnologia. Chiang argumenta que a IA atual, especialmente os grandes modelos de linguagem, são mais como imagens de baixa resolução da internet, faltando confiabilidade e compreensão verdadeira. Ele enfatiza o relacionamento entre humanos e ferramentas e a tendência humana de se ver em suas ferramentas. A entrevista também aborda a natureza da linguagem, o papel da IA na criação artística e considerações éticas no desenvolvimento tecnológico. O otimismo de Chiang sobre a tecnologia é cauteloso; ele acredita que precisamos estar atentos aos potenciais impactos negativos e trabalhar para mitigar seus danos.

IA

OpenAI usa o r/ChangeMyView do Reddit para avaliar a persuasão da IA

2025-02-02
OpenAI usa o r/ChangeMyView do Reddit para avaliar a persuasão da IA

A OpenAI utilizou o subreddit r/ChangeMyView do Reddit para avaliar as habilidades persuasivas de seu novo modelo de raciocínio, o o3-mini. O subreddit, onde os usuários postam opiniões e participam de debates, forneceu um conjunto de dados único para avaliar o quão bem as respostas geradas pela IA poderiam mudar de ideia. Embora o o3-mini não tenha superado significativamente os modelos anteriores, como o o1 ou o GPT-4o, todos demonstraram fortes habilidades persuasivas, classificando-se no percentil 80-90 superior do desempenho humano. A OpenAI enfatiza que o objetivo não é criar uma IA hiperpersuasiva, mas sim mitigar os riscos associados a modelos excessivamente persuasivos. O benchmark destaca o desafio contínuo de obter conjuntos de dados de alta qualidade para o desenvolvimento de modelos de IA.

DeepSeek-R1: A Ascensão da IA na China e a Vitória do Código Aberto

2025-02-02
DeepSeek-R1: A Ascensão da IA na China e a Vitória do Código Aberto

A empresa chinesa DeepSeek lançou o DeepSeek-R1, um modelo de linguagem grande comparável aos modelos da OpenAI, sob uma licença MIT de peso aberto. Isso desencadeou uma venda no mercado de ações de empresas de tecnologia americanas, destacando várias tendências importantes: a China está rapidamente se aproximando dos EUA em IA generativa; modelos de peso aberto estão tornando a camada de modelos básicos uma commodity, criando oportunidades para desenvolvedores de aplicativos; a escalabilidade não é o único caminho para o progresso da IA, com inovações algorítmicas reduzindo rapidamente os custos de treinamento. O DeepSeek-R1 sinaliza uma mudança no cenário da IA, oferecendo novas oportunidades para o desenvolvimento de aplicativos de IA.

Limites dos LLMs: O Enigma de Einstein Expõe as Restrições da IA Baseada em Transformadores

2025-02-02
Limites dos LLMs: O Enigma de Einstein Expõe as Restrições da IA Baseada em Transformadores

Pesquisadores descobriram limitações fundamentais na capacidade dos atuais modelos de linguagem grandes (LLMs) baseados em transformadores para resolver tarefas de raciocínio composicional. Experimentos envolvendo o enigma lógico de Einstein e multiplicação de vários dígitos revelaram deficiências significativas, mesmo após extenso ajuste fino. Essas descobertas desafiam a adequação da arquitetura de transformadores para aprendizado universal e estão levando a investigações de abordagens alternativas, como dados de treinamento aprimorados e prompts de raciocínio em cadeia, para melhorar as capacidades de raciocínio do LLM.

AMA da OpenAI: Admitindo a Defasagem, Abraçando o Open Source?

2025-02-01
AMA da OpenAI: Admitindo a Defasagem, Abraçando o Open Source?

Em um amplo AMA no Reddit, o CEO da OpenAI, Sam Altman, admitiu que a liderança da OpenAI em IA está diminuindo, em parte devido a concorrentes como a DeepSeek. Ele insinuou uma mudança para uma estratégia mais open source, potencialmente lançando modelos mais antigos. A OpenAI também está navegando pela pressão de Washington, uma rodada de financiamento massiva e a necessidade de construir uma infraestrutura substancial de data centers. Para competir, a empresa planeja aumentar a transparência do modelo, revelando o processo de raciocínio por trás de suas saídas. Altman expressou otimismo sobre o potencial para o avanço rápido da IA, mas reconheceu o risco de uso indevido, particularmente no desenvolvimento de armas.

Guia de Construção de Rig de Inferência de IA Deepseek em Bare-Metal

2025-02-01

Este guia detalha a construção de um ambiente de inferência de IA Deepseek em bare-metal. Usando um sistema AMD EPYC Rome com 512 GB de RAM, ele atinge 4,25 a 3,5 TPS. O guia cobre a seleção de hardware, instalação do sistema operacional (Ubuntu 24.04), configuração do Ollama e OpenWebUI, configurações da BIOS e instruções de linha de comando. Embora complexo, é gratificante para entusiastas de tecnologia.

Codec de Áudio Interpretável Esparso: Rumos a uma Representação de Áudio Mais Intuitiva

2025-02-01

Este artigo apresenta um protótipo de codificador de áudio que visa codificar áudio como um conjunto esparso de eventos e seus tempos de ocorrência. Ele utiliza suposições rudimentares baseadas na física para modelar o ataque e a ressonância física tanto do instrumento quanto da sala, esperando-se que isso incentive uma representação esparsa, parcimoniosa e fácil de interpretar. O modelo funciona removendo iterativamente energia do espectrograma de entrada, produzindo vetores de eventos e vetores one-hot representando o tempo de ocorrência. O decodificador usa esses vetores para reconstruir o áudio. Resultados experimentais mostram a capacidade do modelo de decompor áudio, mas há espaço para melhorias, como melhorar a qualidade da reconstrução e reduzir eventos redundantes.

DeepSeek R1 traz IA para a borda em PCs Copilot+

2025-02-01
DeepSeek R1 traz IA para a borda em PCs Copilot+

A Microsoft está levando o poder da IA para a borda com o DeepSeek R1, agora otimizado para PCs Copilot+ com processadores Qualcomm Snapdragon e Intel Core Ultra. Aproveitando a Unidade de Processamento Neural (NPU), o DeepSeek R1 executa de forma eficiente no dispositivo, permitindo tempos de resposta mais rápidos e menor consumo de energia. Os desenvolvedores podem integrar facilmente o modelo usando o AI Toolkit para criar aplicativos de IA nativos. Este lançamento inicial do DeepSeek R1-Distill-Qwen-1.5B, juntamente com as variantes de 7B e 14B em breve, demonstra o potencial da IA de borda para inferência eficiente e serviços em execução contínua.

1 2 34 35 36 38 40 41 42 49 50