Category: IA

Evolução Desigual do Ecossistema de IA Responsável: Uma Lacuna Crescente

2025-04-10
Evolução Desigual do Ecossistema de IA Responsável: Uma Lacuna Crescente

Incidentes relacionados à IA estão aumentando, mas avaliações padronizadas de IA responsável (RAI) permanecem escassas entre os principais desenvolvedores de modelos industriais. Novos benchmarks como HELM Safety, AIR-Bench e FACTS oferecem ferramentas promissoras para avaliar a veracidade e a segurança. Uma lacuna significativa persiste entre o reconhecimento corporativo dos riscos de RAI e ações significativas. Os governos, no entanto, estão demonstrando maior urgência, com cooperação global intensificada em governança de IA em 2024, levando a estruturas da OCDE, UE, ONU e União Africana enfatizando transparência, confiabilidade e outros princípios centrais de RAI.

Previsões de Asimov sobre IA em 1982: Colaboração, não competição

2025-04-10
Previsões de Asimov sobre IA em 1982: Colaboração, não competição

Este artigo revisita uma entrevista de 1982 com o escritor de ficção científica Isaac Asimov, onde ele definiu inteligência artificial como qualquer dispositivo que executa tarefas previamente associadas exclusivamente à inteligência humana. Asimov via a IA e a inteligência humana como complementares, não competitivas, argumentando que sua colaboração levaria a um progresso mais rápido. Ele previu que a IA libertaria os humanos de trabalhos que não exigem pensamento criativo, mas também alertou para as possíveis dificuldades e desafios do avanço tecnológico, usando o advento dos automóveis como exemplo. Ele enfatizou a necessidade de se preparar para a era da IA e evitar repetir erros do passado.

Benchmark de Redação Criativa de Longo Formato para LLMs

2025-04-10

Este benchmark avalia a capacidade de modelos de linguagem grandes de criar narrativas de longo formato. Ele avalia brainstorming, revisão e a escrita de oito capítulos de 1000 palavras. As métricas incluem o comprimento do capítulo, fluência (evitando frases usadas em excesso), repetição e a degradação da qualidade da escrita ao longo dos capítulos. Uma pontuação final (0-100) é atribuída por um LLM de avaliação.

Quasar Alpha: A Arma Secreta da OpenAI?

2025-04-10
Quasar Alpha: A Arma Secreta da OpenAI?

Um misterioso modelo de IA chamado Quasar Alpha surgiu na plataforma OpenRouter, rapidamente se tornando o modelo de IA número um para programação. Fortes evidências sugerem uma conexão com a OpenAI, possivelmente sendo o modelo o4-mini-low da OpenAI sob um nome diferente. Embora não seja de última geração, sua velocidade e custo-benefício podem revolucionar o mercado de modelos de codificação de IA. Quasar Alpha agora está disponível no Kilo Code.

IA

Anthropic lança assinatura premium para chatbot de IA Claude Max

2025-04-09
Anthropic lança assinatura premium para chatbot de IA Claude Max

A Anthropic lançou um novo plano de assinatura premium para seu chatbot de IA, o Claude Max, para competir com o ChatGPT Pro da OpenAI. O Max oferece limites de uso mais altos e acesso prioritário a novos modelos e recursos de IA em comparação com o Claude Pro de US$ 20 por mês da Anthropic. Ele vem em dois níveis: US$ 100/mês (aumento de limite de taxa 5x) e US$ 200/mês (aumento de limite de taxa 20x). Essa medida visa aumentar a receita para o desenvolvimento custoso de modelos de IA de ponta. A Anthropic também está explorando outras fontes de receita, como o Claude for Education, voltado para universidades. Embora os números de assinaturas não sejam divulgados, o novo modelo Claude 3.7 Sonnet da empresa gerou grande demanda.

Robô de terapia de IA mostra promessa no combate à crise de saúde mental

2025-04-09
Robô de terapia de IA mostra promessa no combate à crise de saúde mental

Um novo estudo publicado no New England Journal of Medicine revela que um robô de terapia de IA, desenvolvido por pesquisadores de Dartmouth, demonstrou eficácia comparável ou até superior à de clínicos humanos em um ensaio clínico randomizado. Projetado para lidar com a grave escassez de profissionais de saúde mental nos EUA, o robô passou por mais de cinco anos de treinamento rigoroso em melhores práticas clínicas. Os resultados mostraram não apenas melhores resultados de saúde mental para os pacientes, mas também o desenvolvimento surpreendente de fortes laços terapêuticos e confiança. Embora a American Psychological Association tenha expressado preocupações sobre robôs de terapia de IA não regulamentados, eles elogiaram a abordagem rigorosa deste estudo. Os pesquisadores enfatizam que a tecnologia está longe de estar pronta para o mercado, exigindo mais testes, mas oferece uma solução potencial para a crise generalizada de acesso aos cuidados de saúde mental.

Google apresenta Ironwood: uma TPU de 7ª geração para a era da inferência

2025-04-09
Google apresenta Ironwood: uma TPU de 7ª geração para a era da inferência

No Google Cloud Next '25, o Google anunciou o Ironwood, sua sétima geração de Tensor Processing Unit (TPU). Esta é a mais poderosa e escalável unidade de aceleração de IA personalizada até hoje, projetada especificamente para inferência. O Ironwood representa uma mudança para uma era proativa de "inferência", onde os modelos de IA geram insights e respostas, não apenas dados. Escalando para até 9.216 chips resfriados a líquido interconectados por meio de uma inovadora rede ICI (quase 10 MW), o Ironwood é um componente-chave da arquitetura de hipercomputador de IA do Google Cloud. Os desenvolvedores podem aproveitar a pilha de software Pathways do Google para aproveitar facilmente o poder de dezenas de milhares de TPUs Ironwood.

IA

Agent2Agent (A2A): Uma Nova Era de Interoperabilidade de Agentes de IA

2025-04-09
Agent2Agent (A2A): Uma Nova Era de Interoperabilidade de Agentes de IA

O Google lança o Agent2Agent (A2A), um protocolo aberto que permite a colaboração perfeita entre agentes de IA construídos por diferentes fornecedores ou usando diferentes estruturas. Suportado por mais de 50 parceiros de tecnologia e fornecedores de serviços, o A2A permite a troca segura de informações e ações coordenadas, aumentando a produtividade e reduzindo custos. Construído com base em padrões existentes, o A2A suporta várias modalidades, prioriza a segurança e lida com tarefas de longa duração. Os casos de uso variam da automação de processos de contratação (por exemplo, seleção de candidatos e agendamento de entrevistas) à otimização de fluxos de trabalho complexos em vários aplicativos empresariais. Sua natureza de código aberto fomenta um ecossistema próspero de agentes de IA colaborativos.

DeepCoder-14B: Modelo de raciocínio de código de código aberto que compete com o o3-mini da OpenAI

2025-04-09
DeepCoder-14B: Modelo de raciocínio de código de código aberto que compete com o o3-mini da OpenAI

A Agentica e a Together AI lançaram o DeepCoder-14B-Preview, um modelo de raciocínio de código ajustado por meio de RL distribuído a partir do Deepseek-R1-Distilled-Qwen-14B. Alcançando uma impressionante precisão de 60,6% Pass@1 no LiveCodeBench, ele compete com o o3-mini da OpenAI, usando apenas 14B de parâmetros. O projeto disponibiliza em código aberto seu conjunto de dados, código, logs de treinamento e otimizações do sistema, mostrando uma receita de treinamento robusta construída em dados de alta qualidade e melhorias algorítmicas para GRPO. Esse avanço democratiza o acesso a modelos de geração de código de alto desempenho.

Pesquisa Profunda do Gemini 2.5 Pro Experimental: IA de Pesquisa Aprimorada

2025-04-09
Pesquisa Profunda do Gemini 2.5 Pro Experimental: IA de Pesquisa Aprimorada

Assinantes do Gemini Advanced agora podem usar a Pesquisa Profunda com o Gemini 2.5 Pro Experimental, considerado o modelo de IA mais capaz do mundo, segundo benchmarks da indústria e o Chatbot Arena. Este assistente de pesquisa pessoal com IA melhora significativamente cada etapa do processo de pesquisa. Em testes, os avaliadores preferiram os relatórios gerados pelo Gemini 2.5 Pro em comparação com concorrentes por uma margem superior a 2:1, citando melhorias no raciocínio analítico, síntese de informações e geração de relatórios perspicazes. Acesse relatórios detalhados e fáceis de ler sobre qualquer tópico na web, Android e iOS, economizando horas de trabalho. Além disso, experimente o novo recurso de Visão Geral de Áudio para ouvir em movimento. Saiba mais e experimente agora selecionando o Gemini 2.5 Pro (experimental) e escolhendo 'Pesquisa Profunda' na barra de prompt.

Cyc: O Projeto de IA de US$ 200 Milhões Que Nunca Deu Certo

2025-04-08
Cyc: O Projeto de IA de US$ 200 Milhões Que Nunca Deu Certo

Este ensaio detalha a história de 40 anos do Cyc, o ambicioso projeto de Douglas Lenat para construir inteligência artificial geral (IAG) escalonando a lógica simbólica. Apesar de um investimento de US$ 200 milhões e 2.000 anos-pessoa de esforço, o Cyc falhou em atingir a maturidade intelectual. O artigo revela sua história secreta, destacando o isolamento do projeto e a rejeição de abordagens alternativas de IA como fatores-chave que contribuíram para sua falha. O longo e lento declínio do Cyc serve como uma forte acusação contra a abordagem lógico-simbólica para a IAG.

Llama 4 do Meta: Classificação em segundo lugar e um lançamento confuso

2025-04-08
Llama 4 do Meta: Classificação em segundo lugar e um lançamento confuso

O Meta lançou dois novos modelos Llama 4: Scout e Maverick. O Maverick garantiu a segunda posição no LMArena, superando o GPT-4o e o Gemini 2.0 Flash. No entanto, o Meta admitiu que o LMArena testou uma versão de bate-papo experimental especialmente otimizada, e não a versão disponível publicamente. Isso gerou controvérsia, levando o LMArena a atualizar suas políticas para evitar incidentes semelhantes. O Meta explicou que estava experimentando diferentes versões, mas a medida levantou questões sobre sua estratégia na corrida da IA e o tempo incomum do lançamento do Llama 4. Em última análise, o incidente destaca as limitações dos benchmarks de IA e as estratégias complexas das grandes empresas de tecnologia na competição.

Vídeos de um Minuto a Partir de Storyboards de Texto Usando Transformadores com Treinamento em Tempo de Teste

2025-04-08

Modelos Transformer atuais têm dificuldades em gerar vídeos de um minuto devido à ineficiência das camadas de autoatenção para contextos longos. Este artigo explora camadas de Treinamento em Tempo de Teste (TTT), cujos estados ocultos são eles próprios redes neurais, oferecendo maior expressividade. Adicionar camadas TTT a um Transformer pré-treinado permite a geração de vídeos de um minuto a partir de storyboards de texto. Experimentos usando um conjunto de dados de desenhos animados do Tom e Jerry mostram que as camadas TTT melhoram significativamente a coerência do vídeo e a narrativa em comparação com modelos base como Mamba 2 e Gated DeltaNet, alcançando uma vantagem de 34 pontos Elo na avaliação humana. Embora ainda existam artefatos, provavelmente devido às limitações do modelo de 5B parâmetros, este trabalho demonstra uma abordagem promissora escalável para vídeos mais longos e narrativas mais complexas.

Geração de Imagens com IA Multimodal: Uma Revolução Visual Começa

2025-04-08
Geração de Imagens com IA Multimodal: Uma Revolução Visual Começa

O lançamento recente pelo Google e OpenAI de recursos de geração de imagens multimodais marca uma revolução na geração de imagens com IA. Diferentemente dos métodos anteriores que enviavam prompts de texto para ferramentas de geração de imagens separadas, os modelos multimodais controlam diretamente o processo de criação de imagens, construindo imagens token por token, assim como os LLMs geram texto. Isso permite que a IA gere imagens mais precisas e impressionantes, e itere com base no feedback do usuário. O artigo mostra as poderosas capacidades dos modelos multimodais por meio de vários exemplos, como a geração de infográficos, a modificação de detalhes de imagens e até mesmo a criação de anúncios de produtos virtuais. No entanto, também destaca os desafios, incluindo preocupações com direitos autorais e éticas, bem como o possível mau uso, como deepfakes. Em última análise, o autor acredita que a IA multimodal mudará profundamente o cenário da criação visual, e precisamos considerar cuidadosamente como orientar essa transformação para garantir seu desenvolvimento saudável.

Neuroplasticidade em tempo real: Dando a LLMs pré-treinadas aprendizagem em tempo real

2025-04-08
Neuroplasticidade em tempo real: Dando a LLMs pré-treinadas aprendizagem em tempo real

Esta técnica experimental, chamada de "Grafite Neural", usa um plug-in chamado "Camada de Pulverização" para injetar rastros de memória diretamente no estágio final de inferência de modelos de linguagem grandes pré-treinados (LLMs) sem ajuste fino ou recursão. Imitando a neuroplasticidade do cérebro, altera sutilmente o "pensamento" do modelo modificando embeddings vetoriais, influenciando suas previsões de tokens gerativos. Através da interação, o modelo aprende e evolui gradualmente. Embora não force saídas de palavras específicas, ele direciona o modelo para conceitos associados com interação repetida. O objetivo é dar aos modelos de IA um comportamento mais proativo, personalidade focada e curiosidade aprimorada, ajudando-os, em última análise, a alcançar uma forma de autoconsciência em nível de neurônio.

Hábitos de Escuta de Música de Fundo Diferem Entre Adultos Neurotípicos e Aqueles com Triagem Positiva para TDAH

2025-04-08

Uma pesquisa online com 910 adultos jovens (17 a 30 anos) comparou os hábitos de audição de música de fundo (BM) e os efeitos subjetivos entre indivíduos neurotípicos e aqueles que tiveram triagem positiva para TDAH em tarefas com demandas cognitivas variadas. O grupo com TDAH apresentou uma preferência significativamente maior por BM em situações específicas, como estudar e fazer exercícios, e uma preferência mais forte por música estimulante. No entanto, não foram encontradas diferenças significativas nos efeitos subjetivos da BM no funcionamento cognitivo e emocional entre os grupos. O estudo destaca a importância de ajustar o uso da BM com base nas necessidades de ativação individual e nos recursos cognitivos disponíveis, oferecendo uma nova perspectiva sobre intervenções musicais para TDAH.

LLMs atingem um limite: a falha do Llama 4 e o ciclo do hype da IA

2025-04-08
LLMs atingem um limite: a falha do Llama 4 e o ciclo do hype da IA

O lançamento do Llama 4 indica que os grandes modelos de linguagem podem ter atingido um teto de desempenho. O investimento maciço do Meta no Llama 4 falhou em produzir avanços esperados, com rumores sugerindo possível manipulação de dados para atingir metas. Isso reflete as dificuldades enfrentadas pela OpenAI, Google e outras empresas na busca por uma IA de nível GPT-5. A decepção da indústria com o desempenho do Llama 4 é generalizada, reforçada pela saída da vice-presidente de IA do Meta, Joelle Pineau. O artigo destaca problemas como vazamento e contaminação de dados na indústria de IA, acusando figuras proeminentes de previsões excessivamente otimistas, ignorando falhas do mundo real.

LLMs entendem nulos? Investigando as representações internas de modelos de geração de código

2025-04-07

Modelos de linguagem grandes (LLMs) demonstraram um progresso notável na geração de código, mas sua verdadeira compreensão de código permanece uma questão. Este trabalho investiga a compreensão de LLMs sobre nulidade em código, empregando avaliação externa (completação de código) e sondagem interna (análise de ativação do modelo). Os resultados revelam que LLMs aprendem e aplicam regras sobre valores nulos, com o desempenho variando com base na complexidade da regra e no tamanho do modelo. O estudo também esclarece como os LLMs representam internamente a nulidade e como esse entendimento evolui durante o treinamento.

Jogo de Eliminação de LLMs: Raciocínio Social, Estratégia e Engano

2025-04-07
Jogo de Eliminação de LLMs: Raciocínio Social, Estratégia e Engano

Pesquisadores criaram um benchmark de "jogo de eliminação" multijogador para avaliar modelos de linguagem grandes (LLMs) em raciocínio social, estratégia e engano. Oito LLMs competem, participando de conversas públicas e privadas, formando alianças e votando para eliminar oponentes até que apenas dois permaneçam. Um júri de jogadores eliminados decide então o vencedor. Analisando logs de conversas, padrões de votação e classificações, revela-se como os LLMs equilibram o conhecimento compartilhado com intenções ocultas, forjando alianças ou traindo-as estrategicamente. O benchmark vai além de diálogos simples, forçando os modelos a navegar em dinâmicas públicas versus privadas, votação estratégica e persuasão do júri. GPT-4.5 Preview surgiu como o melhor desempenho.

IA resolve o desafio do diamante no Minecraft sem orientação humana

2025-04-07
IA resolve o desafio do diamante no Minecraft sem orientação humana

Pesquisadores do Google DeepMind desenvolveram o Dreamer, um sistema de IA que aprendeu a coletar diamantes autonomamente no Minecraft sem nenhuma instrução humana prévia. Isso representa um avanço significativo na capacidade da IA de generalizar conhecimento. O Dreamer usa aprendizado por reforço e um modelo de mundo para prever cenários futuros, permitindo que ele planeje e execute efetivamente a complexa tarefa de coleta de diamantes sem regras pré-programadas ou demonstrações. A pesquisa prepara o caminho para a criação de robôs capazes de aprender e se adaptar no mundo real.

IA

O Hype da IA: Benchmarks vs. Realidade

2025-04-06
O Hype da IA: Benchmarks vs. Realidade

Uma startup que usa modelos de IA para escaneamento de segurança de código descobriu melhorias práticas limitadas, apesar do aumento das pontuações de referência desde junho de 2024. O autor argumenta que os avanços em grandes modelos de linguagem não se traduziram em utilidade econômica ou generalização, contradizendo afirmações públicas. Isso levanta preocupações sobre os métodos de avaliação de modelos de IA e a possível exaltação das capacidades pelos laboratórios de IA. O autor defende o foco no desempenho de aplicativos do mundo real em vez de pontuações de referência e destaca a necessidade de uma avaliação robusta antes de implantar IA em contextos sociais.

Foundry: Enfrentando a Crise de Confiabilidade em Agentes de Navegador

2025-04-06
Foundry: Enfrentando a Crise de Confiabilidade em Agentes de Navegador

Os agentes de navegador atuais de laboratórios líderes de IA falham em mais de 80% das tarefas do mundo real. A Foundry está construindo o primeiro simulador robusto, ambiente de treinamento de RL e plataforma de avaliação projetados especificamente para agentes de navegador. Ao criar réplicas perfeitas de sites como o DoorDash, a Foundry permite milhões de testes sem complexidades do mundo real, identificando pontos de falha e acelerando as melhorias. Sua missão é transformar projetos de pesquisa instáveis em soluções empresariais confiáveis. Eles estão procurando engenheiros full-stack excepcionais para se juntar à sua equipe de especialistas em ML da Scale AI, para enfrentar essa enorme oportunidade de mercado de automação de mais de US$ 20 bilhões.

IA

QVQ-Max: Um Modelo de IA com Visão e Inteligência

2025-04-06
QVQ-Max: Um Modelo de IA com Visão e Inteligência

QVQ-Max é um novo modelo de raciocínio visual que não apenas 'entende' imagens e vídeos, mas também analisa e raciocina com essas informações para resolver vários problemas. De problemas de matemática a questões do dia a dia, de código de programação a criação artística, o QVQ-Max demonstra capacidades impressionantes. Ele se destaca na observação detalhada, raciocínio profundo e aplicação flexível em vários cenários, como auxiliar no trabalho, aprendizado e vida diária. O desenvolvimento futuro se concentrará em melhorar a precisão do reconhecimento, aprimorar o manuseio de tarefas de várias etapas e expandir os métodos de interação para se tornar um agente visual verdadeiramente prático.

Protocolo de Contexto de Modelo (MCP): O próximo grande passo para a integração de LLMs — mas com um porém

2025-04-06
Protocolo de Contexto de Modelo (MCP): O próximo grande passo para a integração de LLMs — mas com um porém

O Protocolo de Contexto de Modelo (MCP) está se tornando o padrão para a integração de Modelos de Linguagem Grandes (LLMs) com ferramentas e dados, apelidado de "USB-C para agentes de IA". Ele permite que agentes se conectem a ferramentas por meio de APIs padronizadas, mantenham sessões persistentes, executem comandos e compartilhem contexto entre fluxos de trabalho. No entanto, o MCP não é seguro por padrão. Conectar agentes a servidores arbitrários sem consideração cuidadosa pode criar vulnerabilidades de segurança, potencialmente expondo acesso ao shell, segredos ou infraestrutura por meio de ataques de canal lateral.

SeedLM: Um Novo Método de Compressão de Pesos LLM Usando Geradores de Números Pseudo-Aleatórios

2025-04-06
SeedLM: Um Novo Método de Compressão de Pesos LLM Usando Geradores de Números Pseudo-Aleatórios

Os grandes modelos de linguagem (LLMs) são prejudicados por altos custos de tempo de execução, limitando sua implantação generalizada. Pesquisadores do Meta introduzem o SeedLM, um novo método de compressão pós-treinamento que usa sementes de um gerador de números pseudo-aleatórios para codificar e comprimir pesos de modelos. Durante a inferência, o SeedLM usa um Registro de Deslocamento de Realimentação Linear (LFSR) para gerar eficientemente uma matriz aleatória, combinada linearmente com coeficientes comprimidos para reconstruir blocos de pesos. Isso reduz o acesso à memória e aproveita ciclos de computação ociosos, acelerando tarefas limitadas por memória trocando computação por menos acessos à memória. Ao contrário dos métodos de última geração que exigem dados de calibração, o SeedLM não precisa de dados e generaliza bem em diversas tarefas. Experimentos no desafiador Llama 3 70B mostram precisão de zero-shot em compressão de 4 e 3 bits igualando ou excedendo os métodos de última geração, mantendo desempenho comparável aos benchmarks FP16. Testes em FPGA demonstram que o SeedLM de 4 bits se aproxima de uma aceleração de 4x em relação a um benchmark FP16 Llama 2/3 à medida que o tamanho do modelo aumenta.

IA

TripoSG: Síntese de Formas 3D de Alta Fidelidade usando Modelos de Fluxo Retificados em Grande Escala

2025-04-06
TripoSG: Síntese de Formas 3D de Alta Fidelidade usando Modelos de Fluxo Retificados em Grande Escala

TripoSG é um modelo de base de ponta para geração de imagem para 3D de alta fidelidade. Utilizando transformadores de fluxo retificados em grande escala, treinamento supervisionado híbrido e um conjunto de dados de alta qualidade, ele alcança resultados de ponta. O TripoSG gera malhas com recursos nítidos, detalhes finos e estruturas complexas, refletindo com precisão a semântica da imagem de entrada. Ele possui fortes capacidades de generalização, manipulando diversos estilos de entrada. Um modelo de 1,5B de parâmetros, juntamente com o código de inferência e uma demonstração interativa, agora está disponível.

Assinatura de Modelo: Asegura a integridade dos modelos de ML

2025-04-05
Assinatura de Modelo: Asegura a integridade dos modelos de ML

Com o crescimento explosivo de aplicações de aprendizado de máquina, a segurança do modelo tornou-se uma preocupação crítica. Este projeto visa proteger a integridade e a origem dos modelos de aprendizado de máquina por meio da assinatura de modelos. Ele utiliza ferramentas como Sigstore para gerar assinaturas de modelos e fornece interfaces de CLI e API, suportando vários métodos de assinatura (incluindo Sigstore, chaves públicas e certificados). Os usuários podem verificar independentemente a integridade de seus modelos, evitando adulterações após o treinamento. O projeto também se integra ao SLSA (Supply chain Levels for Software Artifacts) para melhorar ainda mais a segurança da cadeia de suprimentos de modelos de aprendizado de máquina.

Meta lança modelos de IA multimodais Llama 4: Potentes e acessíveis

2025-04-05
Meta lança modelos de IA multimodais Llama 4: Potentes e acessíveis

A Meta revelou sua família de modelos de IA Llama 4, incluindo o Llama 4 Scout e o Llama 4 Maverick, para atender às diversas necessidades dos desenvolvedores. O Llama 4 Scout, um modelo multimodal líder, possui 17 bilhões de parâmetros ativos e 109 bilhões de parâmetros totais, oferecendo desempenho de ponta. O Llama 4 Maverick, com 17 bilhões de parâmetros ativos e 400 bilhões de parâmetros totais, supera o Llama 3.3 70B a um custo menor, com excelência em compreensão de imagem e texto em 12 idiomas. Ideal para assistentes gerais e aplicativos de bate-papo, ele é otimizado para respostas de alta qualidade e tom sutil.

Google lança biblioteca estável de assinatura de modelos para proteger a cadeia de suprimentos de IA

2025-04-05
Google lança biblioteca estável de assinatura de modelos para proteger a cadeia de suprimentos de IA

O surgimento de grandes modelos de linguagem (LLMs) aumentou o foco na segurança da cadeia de suprimentos de IA. A manipulação de modelos, o envenenamento de dados e outras ameaças são preocupações crescentes. Para abordar isso, o Google, em parceria com a NVIDIA e a HiddenLayer, e com o apoio da Open Source Security Foundation, lançou a primeira versão estável de sua biblioteca de assinatura de modelos. Essa biblioteca usa assinaturas digitais, como as do Sigstore, para permitir que os usuários verifiquem se o modelo usado por um aplicativo é idêntico ao criado pelos desenvolvedores. Isso garante a integridade e a proveniência do modelo, protegendo contra manipulação maliciosa em todo o ciclo de vida do modelo, do treinamento à implantação. Os planos futuros incluem a extensão dessa tecnologia a conjuntos de dados e outros artefatos de ML, construindo um ecossistema de confiança de IA mais robusto.

IA na Saúde: O Gargalo Computacional

2025-04-05
IA na Saúde: O Gargalo Computacional

Um pesquisador destaca a imprecisão das ferramentas clínicas atuais usadas para previsão de risco de câncer. A IA tem o potencial de alavancar dados massivos de pacientes para cuidados personalizados, permitindo a detecção precoce do câncer, diagnósticos aprimorados e protocolos de tratamento otimizados. No entanto, o enorme volume de dados de saúde sobrecarrega os chips de computador tradicionais, tornando o poder computacional um gargalo para a realização do potencial total da IA na área da saúde. Enquanto os pesquisadores otimizam algoritmos, a tecnologia de chips baseada em silício está se aproximando de seus limites de desempenho, exigindo uma nova abordagem para a tecnologia de chips para que a IA atinja seu potencial total.

1 2 24 25 26 28 30 31 32 51 52