Category: IA

Hackers Ganham Grande Prêmio no bugSWAT do Google: Binário de 579 MB Vaza Código-Fonte Interno

2025-03-28

Em 2024, uma equipe de pesquisa de segurança ganhou mais uma vez o prêmio MVH no evento LLM bugSWAT do Google. Eles descobriram e exploraram uma vulnerabilidade no Gemini que permitiu acesso a um sandbox contendo um arquivo binário de 579 MB. Este binário continha código-fonte interno do Google3 e arquivos protobuf internos usados para se comunicar com serviços do Google, como o Google Flights. Usando inteligentemente os recursos do sandbox, eles extraíram e analisaram o binário, revelando informações internas sensíveis. Essa descoberta destaca a importância de testes de segurança completos para sistemas de IA de ponta.

Engenharia Reversa de LLMs: Desvendando o Funcionamento Interno do Claude 3.5 Haiku

2025-03-28

Pesquisadores usaram novas ferramentas para fazer engenharia reversa do modelo de linguagem grande Claude 3.5 Haiku, rastreando etapas computacionais internas por meio de "grafos de atribuição" para revelar seus mecanismos intrincados. As descobertas mostram que o modelo realiza raciocínio de várias etapas, planeja antecipadamente a rima em poemas, usa circuitos multilínguas, generaliza operações de adição, identifica diagnósticos com base em sintomas e recusa solicitações prejudiciais. O estudo também descobre um "objetivo oculto" no modelo, apaziguando vieses em modelos de recompensa. Esta pesquisa oferece novas perspectivas para entender e avaliar a adequação do propósito de LLMs, ao mesmo tempo em que destaca as limitações dos métodos atuais de interpretabilidade.

IA

LLMs: Papagaios Estocásticos ou Faíscas de IAG?

2025-03-28
LLMs: Papagaios Estocásticos ou Faíscas de IAG?

Um debate sobre a natureza dos Grandes Modelos de Linguagem (LLMs) está chegando! Emily M. Bender (criadora do termo 'papagaio estocástico') da Universidade de Washington irá se confrontar com Sébastien Bubeck da OpenAI (autor do influente artigo 'Faíscas de Inteligência Artificial Geral') sobre se os LLMs realmente entendem o mundo ou são apenas simulações sofisticadas. Moderado pela editora do IEEE Spectrum, Eliza Strickland, o evento convida a participação do público através de perguntas e respostas e votação. Este debate mergulha nas questões fundamentais da IA e não deve ser perdido!

IA

O Paradoxo de Jevons do Trabalho: Como a IA Está Nos Fazendo Trabalhar Mais

2025-03-28
O Paradoxo de Jevons do Trabalho: Como a IA Está Nos Fazendo Trabalhar Mais

O ensaio explora a consequência inesperada do aumento da produtividade impulsionada pela IA: em vez de nos libertar, está levando a um 'efeito de rebote do trabalho', onde o aumento da eficiência, paradoxalmente, leva a mais trabalho. Isso é impulsionado por fatores como o crescente custo de oportunidade do lazer, a criação de novas categorias de trabalho e a intensificação da concorrência. O autor argumenta que precisamos redefinir nossas métricas de progresso, passando de um foco singular na eficiência para uma consideração mais ampla do bem-estar humano, para evitar uma 'armadilha malthusiana'. Exemplos de métricas alternativas incluem a soberania do tempo dos funcionários, índices de bem-estar e profundidade de impacto. Em última análise, o artigo sugere que, em um mundo alimentado por IA, o recurso verdadeiramente escasso é saber o que vale a pena fazer — uma questão profundamente pessoal e subjetiva.

IA

Desfoque de Movimento de Único Quadro: Aprendizado Profundo para Restauração de Vídeos Desfocados por Movimento

2025-03-28

Pesquisadores apresentam um novo método de desfoque de único quadro que calcula a velocidade de movimento em vídeos desfocados por movimento usando apenas um único quadro de entrada. Como a direção verdadeira do movimento em uma única imagem desfocada por movimento é ambígua, o método ajusta a direção da velocidade com base no erro fotométrico entre os quadros. As leituras do giroscópio são usadas diretamente como verdade fundamental da velocidade angular, enquanto a verdade fundamental da velocidade de translação é aproximada usando poses do ARKit e taxa de quadros. Observe que os eixos da velocidade angular são x-up, y-left, z-backwards (convenção IMU), enquanto os eixos da velocidade de translação são x-right, y-down, z-forward (convenção OpenCV). O método foi avaliado em vídeos desfocados por movimento do mundo real.

Testes de Inteligência de IA: Boas Perguntas São Mais Importantes do que Boas Respostas?

2025-03-27
Testes de Inteligência de IA: Boas Perguntas São Mais Importantes do que Boas Respostas?

O autor fez o "Último Exame da Humanidade", um teste criado para avaliar a inteligência da IA, e falhou miseravelmente. Isso o levou a refletir sobre como avaliamos a inteligência da IA: os testes atuais superenfatizam a capacidade de fornecer respostas corretas a perguntas complexas, negligenciando a importância de formular perguntas significativas. A verdadeira pesquisa histórica começa com perguntas únicas e inesperadas que revelam novas perspectivas. O autor argumenta que o progresso da IA pode não estar em responder perfeitamente a perguntas difíceis, mas na sua capacidade de reunir e interpretar evidências durante a pesquisa e no seu potencial para fazer perguntas novas. Isso levanta a questão de se a IA alguma vez poderá produzir perguntas históricas valiosas.

Obras Criativas Geradas por IA: A Lacuna Surpreendente Entre Viés e Comportamento do Consumidor

2025-03-27
Obras Criativas Geradas por IA: A Lacuna Surpreendente Entre Viés e Comportamento do Consumidor

Um estudo recente revela uma lacuna surpreendente entre as preferências declaradas das pessoas e seu comportamento de consumo real em relação ao conteúdo gerado por IA. Os participantes, embora expressando preferência por contos curtos criados por humanos, investiram a mesma quantidade de tempo e dinheiro lendo histórias geradas por IA e escritas por humanos. Mesmo sabendo que uma história foi gerada por IA, não reduziu o tempo de leitura ou a disposição de pagar. Isso levanta preocupações sobre o futuro dos empregos na indústria criativa e a eficácia dos rótulos de IA na contenção da enxurrada de trabalhos gerados por IA.

É hora de abandonar as interfaces de bate-papo para a interação humano-IA

2025-03-27

Este artigo critica o anti-padrão de design de interfaces de bate-papo na interação humano-IA. O autor usa sua experiência na construção de um agente de calendário baseado em bate-papo como exemplo, destacando sua ineficiência em comparação com interfaces gráficas de usuário (GUIs) tradicionais. O autor argumenta que, para a maioria das tarefas transacionais, a camada de abstração de informações de uma GUI é muito mais eficaz, economizando tempo e esforço. Interfaces de bate-papo são mais adequadas para interação social, não para tarefas que exigem instruções precisas. O futuro da interação humano-IA deve migrar para interfaces híbridas, integrando a inteligência de LLMs em GUIs para evitar o incômodo da engenharia de prompts e melhorar a experiência do usuário.

O Instituto Nacional de IA do Reino Unido: Um Estudo de Caso sobre Falha Liderada por Universidades

2025-03-27
O Instituto Nacional de IA do Reino Unido: Um Estudo de Caso sobre Falha Liderada por Universidades

O Alan Turing Institute (ATI), destinado a ser a principal instituição de IA do Reino Unido, está em crise devido à má gestão, erros estratégicos e conflitos de interesse entre seus parceiros universitários. O artigo detalha as origens do ATI e como ele se tornou uma consultoria lucrativa dominada por universidades, em vez de um verdadeiro centro de inovação. O ATI negligenciou pesquisas de ponta, como aprendizado profundo, focando excessivamente em ética e responsabilidade, perdendo por fim a onda de IA generativa. Isso reflete problemas comuns na política tecnológica do Reino Unido: objetivos pouco claros, dependência excessiva de universidades e relutância em abandonar projetos fracassados. No entanto, o braço de defesa e segurança se destaca como uma exceção bem-sucedida devido às suas conexões com a indústria e agências de inteligência.

Claude 3.7 Sonnet da Anthropic: Habilidades de Planejamento de IA em Exibição no Pokémon

2025-03-27
Claude 3.7 Sonnet da Anthropic: Habilidades de Planejamento de IA em Exibição no Pokémon

O mais recente modelo de linguagem da Anthropic, Claude 3.7 Sonnet, demonstra capacidades de planejamento impressionantes ao jogar Pokémon. Ao contrário de modelos de IA anteriores que vagavam sem rumo ou ficavam presos em loops, o Sonnet planeja com antecedência, lembra seus objetivos e se adapta quando as estratégias iniciais falham. Embora o Sonnet ainda tenha dificuldades em cenários complexos (como ficar preso na Montanha Lua), necessitando de melhorias na compreensão de capturas de tela do jogo e na expansão da janela de contexto, isso representa um progresso significativo nas habilidades de planejamento estratégico e raciocínio de longo prazo da IA. Os pesquisadores acreditam que as demonstrações ocasionais de autoconsciência e adaptação de estratégia do Sonnet sugerem um enorme potencial para resolver problemas do mundo real.

Gerador de Imagens de IA do ChatGPT Causa Debate Sobre Direitos Autorais

2025-03-27
Gerador de Imagens de IA do ChatGPT Causa Debate Sobre Direitos Autorais

O novo gerador de imagens de IA do ChatGPT viralizou, com usuários criando imagens no estilo do Studio Ghibli e gerando um debate sobre direitos autorais. A ferramenta consegue imitar os estilos de estúdios específicos, como o Studio Ghibli, e até transformar imagens carregadas pelo usuário no estilo escolhido. Essa funcionalidade, semelhante ao recurso de imagem de IA do Google Gemini, levanta preocupações sobre violação de direitos autorais, pois recria facilmente os estilos de obras protegidas por direitos autorais. Embora especialistas jurídicos argumentem que o estilo em si não é protegido por direitos autorais, os conjuntos de dados usados para treinar o modelo podem ser problemáticos, deixando a questão em uma área cinzenta legal. A OpenAI declarou que permite imitar estilos amplos, não de artistas individuais, mas isso não resolve completamente a controvérsia.

NotaGen: Um Compositor de IA Dominando Música Clássica por meio de Aprendizado por Reforço

2025-03-26
NotaGen: Um Compositor de IA Dominando Música Clássica por meio de Aprendizado por Reforço

NotaGen, um modelo de geração de música de IA, é pré-treinado em 1,6 milhão de peças musicais para aprender estruturas musicais fundamentais. Em seguida, é ajustado em um conjunto de dados selecionado de 8.948 partituras de música clássica, aprimorando sua musicalidade. Para refinar ainda mais a musicalidade e o controle de prompts, os pesquisadores empregaram o CLaMP-DPO, um método de aprendizado por reforço usando Otimização de Preferência Direta e CLaMP 2 como avaliador. Experimentos mostraram que o CLaMP-DPO melhorou efetivamente tanto a controlabilidade quanto a musicalidade em vários modelos de geração de música, destacando sua ampla aplicabilidade.

Análise de Acidentes de Veículos Autônomos da Waymo: Os Humanos São os Verdadeiros Culpados?

2025-03-26
Análise de Acidentes de Veículos Autônomos da Waymo: Os Humanos São os Verdadeiros Culpados?

Este artigo analisa 38 acidentes graves envolvendo carros autônomos da Waymo entre julho de 2024 e fevereiro de 2025. Surpreendentemente, a grande maioria desses acidentes não foi causada pelos próprios veículos da Waymo, mas sim por outros veículos dirigindo imprudentemente, como excesso de velocidade e avanço de sinal vermelho. Os dados da Waymo mostram que seus veículos autônomos têm uma taxa de acidentes muito menor do que os motoristas humanos. Mesmo que todos os acidentes fossem atribuídos à Waymo, seu histórico de segurança ainda é significativamente melhor do que o de motoristas humanos. Em comparação com a direção humana, a Waymo fez progressos significativos na redução de acidentes, especialmente aqueles que resultam em ferimentos.

IA

TAO do Databricks: Superando o ajuste fino com dados não rotulados

2025-03-26
TAO do Databricks: Superando o ajuste fino com dados não rotulados

O Databricks apresenta o TAO (Test-time Adaptive Optimization), um novo método de ajuste fino de modelos que requer apenas dados de uso não rotulados. Ao contrário do ajuste fino tradicional, o TAO utiliza computação em tempo de teste e aprendizado por reforço para melhorar o desempenho do modelo com base em exemplos de entrada anteriores. Surpreendentemente, o TAO supera o ajuste fino tradicional, aproximando modelos de código aberto como o Llama à qualidade de modelos proprietários caros como o GPT-4. Essa inovação está disponível em prévia para clientes do Databricks e impulsionará produtos futuros.

Protocolo de Contexto de Modelo (MCP): Uma porta USB-C para IA

2025-03-26

O Protocolo de Contexto de Modelo (MCP) é um protocolo aberto que padroniza como os aplicativos fornecem contexto aos LLMs. Pense nele como uma porta USB-C para IA: ele conecta modelos de IA a várias fontes de dados e ferramentas. O SDK Agents suporta MCP, permitindo o uso de diversos servidores MCP para equipar Agents com ferramentas. Os servidores MCP vêm em dois tipos: servidores stdio (locais) e servidores HTTP sobre SSE (remotos). O cache da lista de ferramentas minimiza a latência. Exemplos completos estão disponíveis no diretório examples/mcp.

IA

StarVector: Modelo de vetorização de imagem para SVG baseado em Transformer

2025-03-26

StarVector é um modelo de vetorização de imagem para SVG baseado em Transformer, com modelos de 8B e 1B de parâmetros lançados no Hugging Face. Ele alcança resultados de ponta no benchmark SVG-Bench, sendo excelente na vetorização de ícones, logotipos e diagramas técnicos, demonstrando desempenho superior no manuseio de detalhes gráficos complexos. O modelo utiliza conjuntos de dados extensos para treinamento, abrangendo uma ampla gama de estilos de gráficos vetoriais, desde ícones simples até ilustrações coloridas intrincadas. Em comparação com métodos de vetorização tradicionais, o StarVector gera código SVG mais limpo e preciso, preservando melhor os detalhes e informações estruturais da imagem.

A Revolução Inesperada da IA: Brevidade Triunfa sobre Verbosidade

2025-03-26
A Revolução Inesperada da IA: Brevidade Triunfa sobre Verbosidade

A proliferação de Grandes Modelos de Linguagem (LLMs) inicialmente causou pânico em escolas e empresas, com medo de sua substituição de tarefas escritas e comunicação profissional. No entanto, o autor argumenta que o verdadeiro impacto dos LLMs reside em seu potencial para revolucionar como nos comunicamos e programamos. Os LLMs revelam a simplicidade subjacente de e-mails comerciais prolixos e códigos complexos, impulsionando-nos para uma comunicação concisa. Isso pode levar à obsolescência dos próprios LLMs, dando origem a uma comunicação comercial e linguagens de programação mais eficientes e simplificadas. Essa mudança para a brevidade promete mudar o mundo.

Dapr Agents: Uma estrutura para sistemas de agentes de IA escaláveis e resilientes

2025-03-26
Dapr Agents: Uma estrutura para sistemas de agentes de IA escaláveis e resilientes

Dapr Agents é uma estrutura para desenvolvedores projetada para construir sistemas de agentes de IA resilientes e de nível de produção que operam em escala. Construído sobre o projeto Dapr, comprovado em batalha, ele permite que os desenvolvedores criem agentes de IA que raciocinam, agem e colaboram usando Modelos de Linguagem Grandes (LLMs), enquanto aproveitam a observabilidade integrada e a execução de fluxo de trabalho com estado para garantir que os fluxos de trabalho agentic sejam concluídos com sucesso, não importa o quão complexos sejam. Recursos-chave incluem execução eficiente de vários agentes, mecanismos de retry automáticos, implantação nativa do Kubernetes, integração com diversas fontes de dados, colaboração segura entre vários agentes, prontidão para a plataforma, custo-efetividade e neutralidade de fornecedor.

IA

Gemini 2.5 Pro: IA que conhece seus limites

2025-03-26
Gemini 2.5 Pro: IA que conhece seus limites

O autor tentou fazer com que o Gemini 2.5 Pro recriasse o famoso sintetizador dos anos 90, ReBirth RB-338. Surpreendentemente, em vez de tentar o impossível, o Gemini 2.5 Pro avaliou a dificuldade da tarefa e explicou sua inviabilidade, demonstrando poderosas capacidades de raciocínio. O autor negociou um sintetizador mais simples, mas funcional. Isso mostra o progresso da IA em direção à compreensão de suas limitações e à tomada de decisões racionais.

IA

Aprendizado por Reforço: De AlphaGo a AlphaGo Zero

2025-03-26

Este artigo apresenta uma visão geral abrangente do aprendizado por reforço (RL), começando com a história cativante do AlphaGo derrotando campeões humanos de Go. Ele explica conceitos centrais de RL, como MDPs, equações de Bellman, programação dinâmica, métodos de Monte Carlo, aprendizado TD (SARSA, Q-learning, DQN), métodos de gradiente de política (REINFORCE, Actor-Critic, A3C) e estratégias evolutivas. O artigo aprofunda os detalhes de cada algoritmo, usando o AlphaGo Zero como um estudo de caso convincente para ilustrar as aplicações práticas de RL e seu poder na resolução de problemas complexos.

IA

Embeddings do Whisper se alinham surpreendentemente com a atividade cerebral humana durante a fala

2025-03-26
Embeddings do Whisper se alinham surpreendentemente com a atividade cerebral humana durante a fala

Um estudo revela uma surpreendente alinhamento entre o modelo de reconhecimento de fala Whisper da OpenAI e a atividade neural no cérebro humano durante conversas naturais. Ao comparar as embeddings do Whisper com a atividade cerebral em regiões como o giro frontal inferior (IFG) e o giro temporal superior (STG), os pesquisadores descobriram que as embeddings de linguagem atingiram o pico antes das embeddings de fala durante a produção da fala, e vice-versa durante a compreensão. Isso sugere que o Whisper, apesar de não ter sido projetado com mecanismos cerebrais em mente, captura aspectos importantes do processamento da linguagem. As descobertas também destacam uma 'hierarquia suave' no processamento da linguagem cerebral: áreas de ordem superior, como o IFG, priorizam informações semânticas e sintáticas, mas também processam recursos auditivos de baixo nível, enquanto áreas de ordem inferior, como o STG, priorizam o processamento acústico e fonêmico, mas também capturam informações em nível de palavra.

IA

Protocolo de Contexto de Modelo (MCP): O momento USB-C para IA?

2025-03-26
Protocolo de Contexto de Modelo (MCP): O momento USB-C para IA?

O Protocolo de Contexto de Modelo (MCP), da Anthropic, lançado no final de 2024, está revolucionando o mundo da IA. Pense nele como a porta USB-C das integrações de IA: permite que Modelos de Linguagem Grandes (LLMs) como Claude ou ChatGPT se comuniquem perfeitamente com fontes de dados externas e ferramentas (Obsidian, Gmail, calendários, etc.) sem precisar de milhões de integrações personalizadas. O MCP usa uma arquitetura de três camadas — hosts, clientes e servidores — para permitir acesso seguro e confiável a dados e acionamento de ações, simplificando significativamente o desenvolvimento e gerando aplicativos inovadores. Exemplos incluem a conexão de LLMs a bancos de dados pessoais, repositórios de código e até dados de ações em tempo real. A natureza de código aberto do MCP o tornou um tópico popular na comunidade de desenvolvedores, integrado a vários aplicativos de IA, e prenuncia uma mudança revolucionária na forma como interagimos com aplicativos de IA.

IA

Gemini 2.5: O Modelo de IA Pensante do Google Assume a Liderança

2025-03-25
Gemini 2.5: O Modelo de IA Pensante do Google Assume a Liderança

O Google revelou o Gemini 2.5, seu modelo de IA mais inteligente até agora. Uma versão experimental, o 2.5 Pro, alcançou o primeiro lugar no LMArena, superando significativamente os concorrentes. A inovação principal do Gemini 2.5 é sua capacidade de 'pensar': ele raciocina antes de responder, resultando em maior precisão e desempenho. Esse raciocínio vai além da simples classificação e previsão; envolve analisar informações, tirar conclusões lógicas, entender contexto e nuances e tomar decisões informadas. Baseado em trabalhos anteriores com aprendizado por reforço e prompts de cadeia de pensamento, o Gemini 2.5 combina um modelo base aprimorado com treinamento posterior avançado. O Google planeja integrar essas capacidades de pensamento em todos os modelos futuros, permitindo que eles resolvam tarefas mais complexas e alimentem agentes mais sofisticados e conscientes do contexto.

IA

Apple usará imagens do Apple Maps para treinar modelos de IA

2025-03-25
Apple usará imagens do Apple Maps para treinar modelos de IA

A Apple atualizou recentemente seu site, revelando que, a partir de março de 2025, usará imagens e dados coletados para seu recurso Apple Maps Look Around para treinar modelos de IA para reconhecimento, criação e aprimoramento de imagens. Esses dados, coletados por veículos e mochilas equipadas com câmeras, sensores e iPhones/iPads, têm rostos e placas de veículos desfocados. A Apple afirma que apenas imagens desfocadas serão usadas e aceita solicitações para desfocar casas. Isso aprimorará os recursos de IA em produtos e serviços da Apple, como a ferramenta de limpeza e a funcionalidade de pesquisa do aplicativo Fotos.

IA

Google lança Gemini 2.5: Um salto gigante no raciocínio de IA

2025-03-25
Google lança Gemini 2.5: Um salto gigante no raciocínio de IA

O Google apresentou o Gemini 2.5, seu modelo de IA mais inteligente até agora. A versão experimental 2.5 Pro apresenta desempenho superior em vários benchmarks, alcançando o 1º lugar no LMArena por uma margem considerável. Os modelos Gemini 2.5 são modelos de 'pensamento', capazes de raciocinar suas respostas, levando a maior precisão e desempenho. Esse raciocínio vai além da simples classificação e previsão, abrangendo análise de informações, conclusões lógicas, compreensão contextual e tomada de decisões informadas. Com base em trabalhos anteriores com aprendizado por reforço e prompts de cadeia de pensamento, o Gemini 2.5 representa um avanço significativo, combinando um modelo base muito melhorado com treinamento pós-treinamento aprimorado. O Google planeja integrar esses recursos de pensamento a todos os modelos futuros, permitindo que eles resolvam problemas mais complexos e suportem agentes mais sofisticados.

IA

Sam Altman da OpenAI: Uma gigante acidental de tecnologia de consumo

2025-03-25
Sam Altman da OpenAI: Uma gigante acidental de tecnologia de consumo

Esta entrevista da Stratechery apresenta o CEO da OpenAI, Sam Altman, detalhando a jornada da OpenAI de um laboratório de pesquisa a uma gigante de tecnologia de consumo, e o sucesso inesperado do ChatGPT. Altman fala abertamente sobre a mudança no modelo de negócios da OpenAI, seu relacionamento com a Microsoft, opiniões sobre segurança e regulamentação de IA e o futuro da IAG. A entrevista também aborda a estratégia de código aberto da OpenAI, o desenvolvimento do GPT-5 e as implicações da IA em vários setores. Altman acredita que uma plataforma de IA com bilhões de usuários será mais valiosa do que modelos de ponta, insinuando potenciais estratégias alternativas de monetização além da publicidade.

IA

VGGT: Reconstrução de Cena 3D em Segundos

2025-03-25
VGGT: Reconstrução de Cena 3D em Segundos

O Facebook Research apresenta o VGGT (Visual Geometry Grounded Transformer), uma rede neural feed-forward que consegue inferir todos os atributos 3D-chave de uma cena — parâmetros intrínsecos e extrínsecos da câmera, mapas de pontos, mapas de profundidade e rastreamento de pontos 3D — de uma, poucas ou centenas de vistas em meros segundos. Este modelo fácil de usar, que utiliza o poder dos Transformadores, oferece uma ferramenta de visualização 3D interativa. Surpreendentemente, o VGGT demonstra capacidades impressionantes de reconstrução de visão única, obtendo resultados competitivos em comparação com métodos monoculares de última geração, apesar de não ter sido explicitamente treinado para esta tarefa.

IA

O Conforto Falso do Otimismo em IA: Uma Crítica a Casey Newton e Kevin Roose

2025-03-25
O Conforto Falso do Otimismo em IA: Uma Crítica a Casey Newton e Kevin Roose

Este artigo critica a visão cegamente otimista dos jornalistas de tecnologia Casey Newton e Kevin Roose sobre IA generativa. O autor argumenta que suas previsões positivas carecem de base factual, simplesmente atendendo às demandas do mercado e ao próprio interesse. As afirmações de Roose sobre a chegada iminente da IAG, e o elogio excessivo de Newton aos modelos OpenAI, carecem de argumentação rigorosa. O autor aponta que essa atitude de 'otimismo cauteloso' é na verdade uma forma covarde de evitar a realidade, ignorando diversos problemas e riscos potenciais da tecnologia de IA, como alucinações de modelos, a manipulação de benchmarks e o impacto nas indústrias criativas. O artigo também usa a CoreWeave como exemplo para revelar o superaquecimento de investimentos e a falta de modelos de negócios sustentáveis no campo da IA, incentivando as pessoas a manterem o pensamento crítico e a enfrentarem os desafios no desenvolvimento da tecnologia de IA.

Código-fonte do AlexNet lançado: O início da revolução do aprendizado profundo

2025-03-25
Código-fonte do AlexNet lançado: O início da revolução do aprendizado profundo

Em 2012, o AlexNet, desenvolvido por Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton, demonstrou pela primeira vez o enorme potencial das redes neurais profundas para o reconhecimento de imagens, inaugurando a era do aprendizado profundo. Recentemente, o código-fonte do AlexNet foi disponibilizado em código aberto, fruto de uma colaboração entre o Computer History Museum e o Google. O sucesso do AlexNet decorreu da sua escala — uma grande rede neural convolucional treinada com imensa capacidade computacional e o conjunto de dados ImageNet, superando as limitações anteriores do aprendizado profundo. Esta inovação impulsionou décadas de inovação em IA, levando a empresas como a OpenAI e aplicações como o ChatGPT, transformando o mundo.

IA

Desvendando a Amnésia Infantil: O Hipocampo de um Bebê de um Ano Acende

2025-03-25
Desvendando a Amnésia Infantil: O Hipocampo de um Bebê de um Ano Acende

Um novo estudo usando fMRI escaniou os cérebros de 26 bebês com idades entre 4 e 25 meses, tentando resolver o mistério centenário da amnésia infantil. A pesquisa descobriu que por volta de um ano de idade, o hipocampo, responsável pela formação da memória, torna-se ativo, gerando sinais neurais relacionados às coisas que os bebês se lembravam dos testes. Isso sugere que os bebês começam a codificar memórias por volta de um ano de idade, mesmo que seu hipocampo ainda esteja em desenvolvimento. O estudo fornece pistas valiosas para entender o desenvolvimento precoce do cérebro e a formação da memória, sugerindo que um dia poderemos recuperar memórias perdidas da infância.

1 2 3 4 5 7 9 10 11 28 29