Category: IA

Construindo um Cérebro de Silício: O Futuro da Neurociência

2025-01-25
Construindo um Cérebro de Silício: O Futuro da Neurociência

Pesquisadores da UCSF estão usando IA e tecnologias de neuroimagem de ponta para construir um 'cérebro de silício' que imita a atividade cerebral humana. Ao integrar dados de várias técnicas de varredura cerebral (como fMRI e sondas neuropixel), juntamente com dados de texto, fala e comportamento, eles estão criando uma rede neural artificial que replica padrões de atividade cerebral humana. Essa pesquisa promete revolucionar as interfaces cérebro-computador, permitindo dispositivos que restauram a fala ou o movimento sem calibração extensa e abrindo novas vias para o diagnóstico e tratamento de distúrbios neuropsiquiátricos. Considerações éticas, como privacidade de dados e uso indevido potencial, também estão sendo abordadas.

DeepSeek-R1: Incentivando a capacidade de raciocínio em LLMs por meio de aprendizado por reforço

2025-01-25
DeepSeek-R1: Incentivando a capacidade de raciocínio em LLMs por meio de aprendizado por reforço

A DeepSeek-AI apresenta seus modelos de raciocínio de primeira geração, DeepSeek-R1-Zero e DeepSeek-R1. O DeepSeek-R1-Zero, um modelo treinado por meio de aprendizado por reforço (RL) em larga escala sem ajuste fino supervisionado (SFT) como etapa preliminar, demonstra notáveis capacidades de raciocínio. Através do RL, o DeepSeek-R1-Zero emerge naturalmente com diversos comportamentos de raciocínio poderosos e intrigantes. No entanto, ele encontra desafios como pouca legibilidade e mistura de idiomas. Para resolver esses problemas e melhorar ainda mais o desempenho do raciocínio, apresentamos o DeepSeek-R1, que incorpora treinamento em várias etapas e dados de inicialização a frio antes do RL. O DeepSeek-R1 alcança desempenho comparável ao OpenAI-o1-1217 em tarefas de raciocínio. Para apoiar a comunidade de pesquisa, disponibilizamos como código aberto o DeepSeek-R1-Zero, DeepSeek-R1 e seis modelos densos (1.5B, 7B, 8B, 14B, 32B, 70B) destilados do DeepSeek-R1 com base em Qwen e Llama.

Por que sua equipe de produto de IA precisa de um líder de qualidade de IA?

2025-01-25
Por que sua equipe de produto de IA precisa de um líder de qualidade de IA?

O sucesso do Help Scout destaca a necessidade crucial de um "Líder de Qualidade de IA" dentro das equipes de produtos de IA. Essa função preenche a lacuna entre a experiência em domínio e o desenvolvimento de IA, normalmente ocupada por especialistas em domínio que aprendem habilidades de IA generativa, como engenharia de prompts e avaliação. As responsabilidades incluem revisar dados de produção, definir critérios de avaliação, gerenciar conjuntos de dados de teste, melhorar prompts e treinar membros da equipe. Esse papel acelera o tempo de lançamento no mercado, aumenta a confiança nas métricas de desempenho e encurta os ciclos de feedback. Mesmo sem experiência em IA generativa, especialistas em domínio com forte compreensão do cliente, habilidades de resolução de problemas sistemáticas e habilidades de comunicação podem se destacar nessa posição.

Arsenal FC Procura Engenheiro de Pesquisa em IA para Revolucionar a Análise de Futebol

2025-01-25
Arsenal FC Procura Engenheiro de Pesquisa em IA para Revolucionar a Análise de Futebol

O Arsenal Football Club está à procura de um Engenheiro de Pesquisa altamente qualificado para utilizar IA e aprendizado profundo para análise de futebol de ponta. O candidato ideal terá experiência em técnicas de aprendizado profundo (Transformers, modelos de Difusão, etc.), lidará com conjuntos de dados diversos (imagens, vídeo, texto) e colaborará com engenheiros de software, designers UX e analistas de futebol para criar aplicativos impactantes. Essa função oferece a oportunidade de contribuir em vários aspectos do clube, desde o recrutamento de jogadores até a preparação de partidas, impulsionando o sucesso em campo por meio de uma abordagem orientada a dados.

TinyZero: Desbloqueando o raciocínio em LLMs com baixo custo

2025-01-25
TinyZero: Desbloqueando o raciocínio em LLMs com baixo custo

O projeto TinyZero demonstra como dotar modelos de linguagem grandes (LLMs) de capacidades de autoverificação e pesquisa a baixo custo, usando aprendizado por reforço. Construído sobre o veRL e experimentando com a série Qwen2.5, o TinyZero fornece instruções detalhadas para instalação, preparação de dados e treinamento. Mesmo modelos menores podem alcançar raciocínio sofisticado. O projeto mostra a viabilidade de aprimorar LLMs por meio de RL, oferecendo uma nova abordagem para pesquisa de IA eficiente em termos de custo.

Onit: Seu Assistente de Chat com IA Local

2025-01-24
Onit: Seu Assistente de Chat com IA Local

Onit é um assistente de bate-papo com IA de código aberto que reside na sua área de trabalho! É como o ChatGPT Desktop, mas com modo local e suporte para vários fornecedores de modelos (Anthropic, Google AI, xAI, etc.). É também como o Cursor Chat, mas em qualquer lugar do seu computador - não apenas no seu IDE! Recursos principais incluem modo local (via Ollama), suporte para vários fornecedores (OpenAI, Anthropic, xAI, etc.), upload de arquivos, histórico de bate-papo e atalhos personalizáveis. Planos futuros incluem autocontexto, RAG local e preenchimento automático local. Onit prioriza o acesso universal, a liberdade do fornecedor, uma abordagem local em primeiro lugar, personalização e extensibilidade.

Física descobre pontos de inflexão críticos em partidas de xadrez

2025-01-24
Física descobre pontos de inflexão críticos em partidas de xadrez

O físico Marc Barthelemy analisou mais de 20.000 partidas de xadrez de alto nível usando gráficos de interação para revelar pontos de inflexão cruciais. Tratando o xadrez como um sistema complexo, ele mediu a 'centralidade de intermediação' e as 'pontuações de fragilidade' das peças de xadrez para prever os resultados do jogo. A pontuação de fragilidade das peças-chave aumenta cerca de oito movimentos antes de um ponto de virada crítico e permanece alta por aproximadamente 15 movimentos depois, revelando um padrão universal entre jogadores e aberturas. Esta pesquisa oferece novas perspectivas sobre a dinâmica complexa do xadrez e fornece novas vias para IA e aprendizado de máquina.

IA

Construindo um Futuro Melhor com 'Ficção Plausível'

2025-01-24

Este artigo propõe uma nova abordagem chamada 'ficção plausível' para lidar com problemas do mundo real, construindo narrativas críveis que preenchem a lacuna entre o nosso presente e um futuro desejado. O autor argumenta que a participação coletiva no preenchimento das lacunas nessas narrativas pode transformar ficção em realidade. Esse processo se assemelha a uma forma de previsão e criação coletiva, potencialmente alavancando ferramentas matemáticas como a teoria de categorias aplicada. O artigo usa uma plataforma hipotética, FutureForge, para ilustrar como a gamificação e os mecanismos de incentivo podem encorajar uma participação mais ampla, levando, em última análise, a um futuro melhor.

Open WebUI: Simplificando o acesso a modelos de linguagem grandes

2025-01-23

Open WebUI é um projeto de código aberto que simplifica a interação do usuário com Modelos de Linguagem Grandes (LLMs). Ele fornece uma interface gráfica amigável, permitindo que até mesmo usuários não técnicos acessem e utilizem facilmente os poderosos recursos dos LLMs, como geração de texto, tradução de idiomas e resposta a perguntas. Sem a necessidade de operações complexas de linha de comando ou conhecimento de programação, o Open WebUI reduz a barreira de entrada para LLMs, abrindo o mundo da IA para um público mais amplo.

API do Anthropic Claude agora com citações para respostas verificáveis

2025-01-23
API do Anthropic Claude agora com citações para respostas verificáveis

A Anthropic lançou Citações, um novo recurso de API para o Claude que permite que ele cite frases e passagens específicas de documentos de origem em suas respostas. Isso aprimora significativamente a verificabilidade e a confiabilidade das saídas do Claude. Os aplicativos variam de resumo de documentos e perguntas e respostas complexas a suporte ao cliente, oferecendo maior precisão e eficiência, além de minimizar o risco de alucinações de IA. Usuários iniciais como Thomson Reuters e Endex relataram melhorias substanciais na precisão e no fluxo de trabalho.

O Último Exame da Humanidade: Um Novo Padrão para IA

2025-01-23
O Último Exame da Humanidade: Um Novo Padrão para IA

A Scale AI e o Centro para a Segurança da IA (CAIS) publicaram os resultados do "Último Exame da Humanidade", um novo teste criado para avaliar os limites do conhecimento da IA. Com mais de 3.000 perguntas de nível especialista em diversas áreas, o exame revelou que até mesmo os modelos de IA mais avançados (como GPT-4, Claude 3.5 e Gemini 1.5) responderam corretamente a menos de 10% das perguntas. Isso destaca lacunas significativas nas capacidades de raciocínio complexo. O teste aborda a 'saturação de benchmarks', onde os modelos se destacam em testes existentes, mas têm dificuldades com problemas novos. O conjunto de dados será lançado publicamente para impulsionar a pesquisa e o desenvolvimento de IA, fornecendo insights valiosos sobre o estado atual e a direção futura da IA.

IA

Erros de IA: Diferentes dos Erros Humanos, Mais Difíceis de Prever

2025-01-23

Ao contrário dos erros humanos, os erros de Modelos de Linguagem Grandes (LLMs) são aleatórios, não agrupados e cometidos com alta confiança. Este artigo explora as características únicas dos erros de LLM e propõe duas estratégias: projetar LLMs mais parecidos com humanos e construir novos sistemas de correção de erros. A pesquisa atual concentra-se em técnicas como aprendizado por reforço com feedback humano e métodos como questionamento repetido para melhorar a confiabilidade da IA. Embora algumas peculiaridades dos LLMs reflitam o comportamento humano, sua frequência e gravidade superam em muito as taxas de erro humano, exigindo o uso cauteloso de sistemas de tomada de decisão de IA e confinando sua aplicação a domínios adequados.

DeepSeek V3: Desempenho de ponta com recursos limitados

2025-01-23
DeepSeek V3: Desempenho de ponta com recursos limitados

O novo modelo V3 da DeepSeek, treinado em apenas 2.048 GPUs H800 - uma fração dos recursos usados por gigantes como OpenAI - iguala ou supera o GPT-4 e o Claude em vários benchmarks. Seu custo de treinamento de US$ 5,5 milhões é muito menor do que os estimados US$ 40 milhões para o GPT-4. Esse sucesso, em parte impulsionado pelos controles de exportação dos EUA que limitam o acesso a GPUs de alta performance, destaca o potencial de inovação arquitetônica e otimização de algoritmos em relação à pura capacidade de computação. É um argumento convincente de que restrições de recursos podem, paradoxalmente, impulsionar avanços inovadores no desenvolvimento de IA.

Catalogando Automaticamente Minha Coleção de Jogos com IA: Um Mergulho Profundo

2025-01-23
Catalogando Automaticamente Minha Coleção de Jogos com IA: Um Mergulho Profundo

O autor usa o mais recente modelo de IA de código aberto, Qwen2-VL Instruct, para catalogar automaticamente sua coleção de jogos tirando fotos. O artigo detalha todo o processo, desde tirar e enviar fotos até a identificação do jogo, extração de dados e salvamento. Ele mergulha na seleção do modelo, na troca entre a resolução da imagem e a precisão/tempo de computação e no impacto da orientação da imagem nos resultados. O autor decide usar 762x762 pixels como resolução ideal e planeja um artigo de acompanhamento sobre a correspondência de jogos identificados com dados do mundo real.

IA

Fundamentos de Modelos de Linguagem Grandes: Um Novo Livro Desvendando Conceitos Essenciais

2025-01-23
Fundamentos de Modelos de Linguagem Grandes: Um Novo Livro Desvendando Conceitos Essenciais

Um novo livro, "Fundamentos de Modelos de Linguagem Grandes", foi lançado. Em vez de buscar uma cobertura abrangente das tecnologias de ponta, ele mergulha nos conceitos fundamentais essenciais dos modelos de linguagem grandes. Estruturado em quatro capítulos que abordam pré-treinamento, modelos generativos, técnicas de prompt e métodos de alinhamento, o livro é voltado para estudantes universitários, profissionais e praticantes em processamento de linguagem natural e áreas relacionadas. Serve como uma referência valiosa para qualquer pessoa interessada em LLMs.

IA

Compressão sem perdas de IDs de vetores melhora a busca aproximada de vizinhos mais próximos

2025-01-23
Compressão sem perdas de IDs de vetores melhora a busca aproximada de vizinhos mais próximos

Pesquisadores introduzem um esquema de compressão sem perdas para IDs de vetores para resolver o alto custo de armazenamento de índices na busca aproximada de vizinhos mais próximos. Aproveitando o fato de que a ordem dos IDs é irrelevante em muitas estruturas de índice e utilizando sistemas numéricos assimétricos ou árvores wavelet, o método alcança até 7x de compressão de IDs de vetores sem impactar a precisão ou o tempo de execução da busca. Isso resulta em uma redução de 30% no tamanho do índice para conjuntos de dados em escala de bilhões. Além disso, a abordagem também pode comprimir sem perdas códigos de vetores quantizados, explorando sub-otimalidades no algoritmo de quantização original.

Resolvendo Problemas de Ciência Computacional com IA: Redes Neurais Informadas por Física (PINNs)

2025-01-22

Este artigo explora o uso de Redes Neurais Informadas por Física (PINNs) para resolver problemas desafiadores em ciência computacional, particularmente equações diferenciais parciais (EDPs). As PINNs superam as limitações dos métodos numéricos tradicionais ao incorporar leis físicas diretamente na função de perda da rede neural. Isso aborda problemas como dados insuficientes, alto custo computacional e generalização deficiente. O artigo explica EDPs, derivadas parciais e demonstra a implementação de PINNs usando a equação de calor 2D, cobrindo a arquitetura da rede, a definição da função de perda e o treinamento. Os resultados mostram que as PINNs modelam com precisão e eficiência a difusão de calor, oferecendo uma ferramenta poderosa para vários desafios científicos e de engenharia.

IA EDPs

Execute LLMs locais no seu navegador: Apresentando o BrowserAI

2025-01-22
Execute LLMs locais no seu navegador: Apresentando o BrowserAI

BrowserAI é um projeto de código aberto que permite executar modelos de linguagem grandes (LLMs) localmente no seu navegador. Priorizando a privacidade, todo o processamento acontece no seu dispositivo, eliminando custos com servidores e infraestrutura complexa. Ele suporta vários modelos, incluindo aqueles do MLC e Transformers, aproveitando o WebGPU para inferência ultrarrápida. Uma API simples permite que os desenvolvedores integrem facilmente a geração de texto, reconhecimento de fala e conversão de texto em fala. Muitos modelos já são suportados, com um roadmap delineando melhorias futuras, como recursos avançados de RAG e recursos corporativos.

IA

Infinigen: Gerador de Cenários 3D Fotorrealistas Infinitos

2025-01-22
Infinigen: Gerador de Cenários 3D Fotorrealistas Infinitos

Desenvolvido pelo Princeton Vision & Learning Lab, o Infinigen é um gerador procedural de cenas 3D, baseado no Blender e disponível gratuitamente sob a licença BSD 3-Clause. Ele gera variações ilimitadas de cenas 3D de alta qualidade usando regras matemáticas aleatorizadas, controlando tudo, desde macroestruturas até microdetalhes. O Infinigen gera automaticamente anotações para várias tarefas de visão computacional, como fluxo óptico e estimativa de profundidade, tornando-o ideal para pesquisa em visão 3D. Seu foco em geometria real garante dados de verdade terrestre precisos.

Atenção por Produto Tensorial: Tudo o que você precisa

2025-01-22
Atenção por Produto Tensorial: Tudo o que você precisa

Escalonar modelos de linguagem para lidar com sequências de entrada mais longas geralmente requer grandes caches de chave-valor (KV), resultando em grande sobrecarga de memória durante a inferência. Este artigo propõe a Atenção por Produto Tensorial (TPA), um novo mecanismo de atenção que usa decomposições tensoriais para representar consultas, chaves e valores de forma compacta, reduzindo significativamente o tamanho do cache KV durante a inferência. Ao fatorar essas representações em componentes de baixo posto contextuais (fatoração contextual) e integrando-as perfeitamente com RoPE, a TPA melhora a qualidade do modelo mantendo a eficiência de memória. Com base na TPA, os autores introduzem o Transformador de Atenção por Produto Tensorial (T6), uma nova arquitetura de modelo para modelagem de sequência. Uma avaliação empírica extensiva em tarefas de modelagem de linguagem demonstra que o T6 supera os modelos base padrão do Transformer, incluindo MHA, MQA, GQA e MLA, em várias métricas, incluindo perplexidade e uma variedade de benchmarks de avaliação conhecidos. Notavelmente, a eficiência de memória da TPA permite o processamento de sequências significativamente mais longas sob restrições de recursos fixas, abordando um desafio crítico de escalabilidade em modelos de linguagem modernos. O código está disponível.

CIO do Goldman Sachs: Gerenciar funcionários de IA será o desafio de 2025

2025-01-22
CIO do Goldman Sachs: Gerenciar funcionários de IA será o desafio de 2025

Marco Argenti, CIO do Goldman Sachs, prevê que gerenciar funcionários de IA será um grande desafio em 2025. Os modelos de IA amadurecerão para lidar com tarefas complexas, levando a equipes híbridas de humanos e IA. Isso exigirá que o RH corporativo gerencie recursos humanos e de máquinas, potencialmente incluindo 'demissões' de IA. Argenti também prevê que os principais modelos de IA serão semelhantes a graduados em PhD com conhecimento especializado da indústria, graças aos avanços na geração aumentada por recuperação e ajuste fino. Além disso, a convergência de IA e robótica permitirá que a IA compreenda e interaja melhor com o mundo físico.

Hunyuan3D 2.0 da Tencent: Geração de Ativos 3D de Alta Resolução

2025-01-21
Hunyuan3D 2.0 da Tencent: Geração de Ativos 3D de Alta Resolução

A Tencent apresenta o Hunyuan3D 2.0, um sistema avançado de síntese 3D em larga escala que gera ativos 3D texturizados de alta resolução. Ele consiste em dois componentes principais: um modelo de geração de forma em larga escala - Hunyuan3D-DiT, e um modelo de síntese de textura em larga escala - Hunyuan3D-Paint. O sistema supera os modelos de ponta existentes em detalhes de geometria, alinhamento de condições e qualidade de textura. Uma plataforma amigável ao usuário, o Hunyuan3D-Studio, simplifica a manipulação e animação. O código de inferência e os modelos pré-treinados agora estão disponíveis em código aberto, acessíveis através do Hugging Face e do site oficial.

Revolução na Navegação com IA: 'Bearings Only' supera o desafio da medição de distância

2025-01-21
Revolução na Navegação com IA: 'Bearings Only' supera o desafio da medição de distância

O sistema de IA 'Bearings Only', desenvolvido pela DeepMind do Google, navega autonomamente usando apenas informações de rumo (direção para o alvo). Isso elimina a dependência tradicional em medições de distância, mostrando excelência em ambientes complexos com falta de dados de distância, como em explorações subaquáticas ou espaciais. Aprendendo com vastos conjuntos de dados de rumo, a IA prevê a localização do alvo e planeja rotas, revolucionando a navegação de veículos subaquáticos e a exploração espacial. Essa tecnologia demonstra o potencial da IA além da navegação, sugerindo novas aplicações em ambientes desafiadores.

DeepSeek R1 Destroi OpenAI O1 em Finanças: Um Triunfo da IA Chinesa

2025-01-21
DeepSeek R1 Destroi OpenAI O1 em Finanças: Um Triunfo da IA Chinesa

Testes diretos recentes entre o DeepSeek R1 e o OpenAI O1 em aplicações financeiras revelaram uma vitória decisiva para o DeepSeek R1. O modelo de IA chinês superou significativamente a oferta da OpenAI em métricas importantes, destacando um grande avanço nas capacidades da IA chinesa no setor financeiro. Esse resultado chamou a atenção significativa, sinalizando a crescente dominância da China no cenário global de IA.

IA: A próxima computação em nuvem?

2025-01-21

Este artigo traça um paralelo entre o atual boom da IA e a onda da computação em nuvem de 20 anos atrás. O autor argumenta que, embora a IA, particularmente os Grandes Modelos de Linguagem (LLMs), mostre um potencial imenso, seu caminho de desenvolvimento permanece incerto, muito parecido com os primeiros dias da computação em nuvem, onde muitas previsões não se concretizaram. O autor destaca que o sucesso da IA depende da aprendizagem profunda, de recursos computacionais poderosos e de conjuntos de dados massivos, mas também enfrenta desafios como o tamanho do modelo, o consumo de energia, o viés dos dados e questões de direitos autorais. Ele sugere que a direção futura da IA pode ir além das expectativas atuais e requer a incorporação de pesquisas de campos como a ciência cognitiva para uma compreensão e aplicação mais abrangentes da IA.

Células Conceito: Os Blocos de Construção da Memória?

2025-01-21
Células Conceito: Os Blocos de Construção da Memória?

Neurocientistas descobriram 'células conceito' no cérebro que disparam para ideias específicas, independentemente de como essa ideia é apresentada (imagem, texto, fala, etc.). Essas células não apenas respondem a imagens; elas representam conceitos abstratos, desempenhando um papel crucial na formação da memória. Pesquisas sugerem que as células conceito se interconectam para formar redes complexas de memória. Essa descoberta desafia a neurociência tradicional, oferecendo novas perspectivas sobre a memória e a cognição humanas. A descoberta inicial dessas células, inicialmente chamadas de 'células Jennifer Aniston', foi recebida com ceticismo, mas pesquisas subsequentes solidificaram sua importância.

Pica: O Catalisador de IA Autônoma de Código Aberto

2025-01-21

Pica é um ambicioso projeto de código aberto que visa construir um sistema de IA totalmente autônomo. Diferentemente dos modelos de IA existentes, treinados para tarefas específicas, a Pica busca uma IA de propósito geral capaz de aprender e se adaptar a várias tarefas. Seu design modular permite que pesquisadores e desenvolvedores contribuam e melhorem seus componentes. O sucesso da Pica pode revolucionar a IA, potencialmente levando a sistemas de IA mais poderosos, flexíveis e gerais, abrindo novas possibilidades em diversas aplicações, ao mesmo tempo em que apresenta novos desafios e considerações éticas.

A pílula amarga da IA vertical: O surgimento da IA horizontal

2025-01-21

Este artigo explora a competição entre aplicativos de IA vertical (IA otimizada para domínios específicos) e aplicativos de IA horizontal (IA mais genérica e escalável). Usando experiência pessoal e a estrutura dos Sete Poderes de Hamilton Helmer, o autor argumenta que, à medida que o desempenho do modelo melhora, os aplicativos de IA vertical lutam para manter uma vantagem competitiva. Exceto por alguns poucos que possuem recursos exclusivos e essenciais, a maioria dos aplicativos de IA vertical será eventualmente superada por IA horizontal superior. A IA horizontal, semelhante a um funcionário remoto, é facilmente integrada, mais barata e melhora continuamente o desempenho por meio de avanços de modelo. O autor usa seu projeto AcademicGPT como um estudo de caso, mostrando como um aplicativo de IA vertical foi superado por modelos de IA horizontal mais gerais.

Amurex: Simplificando a Implantação de LLMs

2025-01-21

Amurex é um projeto de código aberto que visa simplificar a implantação de modelos de linguagem grandes (LLMs). Ele fornece uma estrutura fácil de usar, permitindo que os desenvolvedores integrem LLMs poderosos em seus aplicativos com facilidade, sem a necessidade de conhecimento profundo das tecnologias subjacentes complexas. Encontre o projeto aqui: https://github.com/thepersonalaicompany/amurex. Este projeto reduz a barreira de entrada para aplicativos de IA, acelerando a adoção da tecnologia de IA.

O Desastre do OpenAI FrontierMath: Uma Crise de Transparência na Avaliação de IA

2025-01-21
O Desastre do OpenAI FrontierMath: Uma Crise de Transparência na Avaliação de IA

O novo modelo da OpenAI, o o3, alcançou resultados impressionantes no benchmark matemático FrontierMath, mas a história por trás dele é controversa. O FrontierMath, criado pela Epoch AI, foi financiado pela OpenAI, que também teve acesso exclusivo à maioria dos problemas mais difíceis. Essa falta de transparência levanta preocupações sobre a validade do desempenho do o3 e questões mais amplas sobre a transparência e a segurança na avaliação de IA. Mesmo que a OpenAI não tenha treinado diretamente no conjunto de dados, o acesso exclusivo pode ter fornecido uma vantagem indireta. O incidente destaca a necessidade de maior transparência, acordos claros de uso de dados e consideração das implicações de segurança da IA em benchmarks futuros de IA.

1 2 37 38 39 41 43 44 45 49 50