Category: IA

FastVideo: Framework de código aberto acelera modelos de difusão de vídeo de grande porte

2024-12-17
FastVideo: Framework de código aberto acelera modelos de difusão de vídeo de grande porte

FastVideo é um framework de código aberto projetado para acelerar a inferência e o treinamento de grandes modelos de difusão de vídeo. Ele suporta modelos como FastMochi e FastHunyuan, alcançando até 8 vezes mais velocidade na inferência. O framework utiliza técnicas de destilação de conhecimento e suporta destilação, ajuste fino e inferência para modelos de vídeo DiT baseados em PCM. Além disso, o FastVideo possui recursos de treinamento escaláveis com FSDP, paralelismo de sequência e checkpointing de ativação seletiva, permitindo ajuste fino eficiente em termos de memória.

Atenção como Gerenciamento de Linhas de Campo Eletromagnético: Um Novo Modelo de Consciência

2024-12-17
Atenção como Gerenciamento de Linhas de Campo Eletromagnético: Um Novo Modelo de Consciência

O Instituto de Pesquisa Qualia propõe um novo modelo de atenção, conceituando-a como o gerenciamento de padrões dinâmicos no campo eletromagnético do cérebro. Simulando linhas de campo elétrico que surgem de somas ponderadas de oscilações harmônicas, os pesquisadores demonstram como a atenção controla a densidade de carga modulando os modos ressonantes subjacentes, explicando flutuações e desvios aparentemente aleatórios no comportamento da atenção. Este modelo também oferece uma explicação potencial para experiências psicodélicas, sugerindo que psicodélicos interrompem o fluxo normal da atenção alterando a configuração dos modos harmônicos. A pesquisa fornece uma nova lente para a compreensão da consciência e o desenvolvimento de novas neuro-intervenções, como induzir estados exóticos de consciência perturbando não invasivamente o travamento de fase da atenção.

Modular lança MAX 24.6: Plataforma de IA Generativa nativa para GPU

2024-12-17
Modular lança MAX 24.6: Plataforma de IA Generativa nativa para GPU

A Modular lançou o MAX 24.6, uma plataforma de IA generativa nativa para GPU, projetada para redefinir como a IA é desenvolvida e implantada. O núcleo do MAX 24.6 é o MAX GPU, uma pilha de serviço de IA generativa integrada verticalmente que elimina a dependência de bibliotecas de computação específicas de fornecedores, como a NVIDIA CUDA. Construído no compilador e tempo de execução de modelo de IA de alto desempenho MAX Engine e na camada de serviço nativa do Python MAX Serve, ele suporta todo o ciclo de vida de desenvolvimento de IA, da experimentação à implantação de produção. O MAX 24.6 suporta várias plataformas de hardware, incluindo aceleradores NVIDIA A100, L40, L4 e A10, com suporte planejado para GPUs H100, H200 e AMD. Ele é compatível com modelos Hugging Face e fornece uma API de cliente compatível com OpenAI. O MAX 24.6 alcança uma taxa de transferência de 3860 tokens de saída por segundo no modelo Llama 3.1, igualando o desempenho do vLLM com um tamanho de imagem Docker menor.

Relatório de Stanford Adverte sobre a Viabilidade e os Riscos de Bactérias Espelho

2024-12-17
Relatório de Stanford Adverte sobre a Viabilidade e os Riscos de Bactérias Espelho

Um relatório técnico da Universidade de Stanford detalha a viabilidade de criar 'bactérias espelho' e seus riscos potenciais. Bactérias espelho, com todas as moléculas quirais (proteínas, ácidos nucléicos e metabólitos) substituídas por suas imagens espelhadas, não podem evoluir naturalmente, mas estão se tornando cada vez mais sintetizáveis. Sistemas imunológicos e predação dependem de interações de moléculas quirais, o que significa que bactérias espelho podem escapar da detecção e do controle, potencialmente se espalhando sem controle e representando sérias ameaças a humanos, animais, plantas e ao meio ambiente. O relatório avalia de forma abrangente a síntese, a biosegurança, os impactos na saúde humana, as contramedidas médicas e as consequências ecológicas, instando a atenção para esse risco potencial de biosegurança.

A Duzia de Datasaurus: Expondo as Armadilhas da Estatística

2024-12-17

Treze conjuntos de dados, com estatísticas descritivas simples quase idênticas, mas com distribuições e visualizações muito diferentes! Esta é a fascinante Duzia de Datasaurus. Compreendendo um conjunto de dados em forma de dinossauro e outros doze com formas variadas, todos compartilham quase as mesmas médias, variâncias e correlações. Isso demonstra poderosamente o perigo de depender apenas de estatísticas descritivas básicas; a visualização é crucial. A Duzia de Datasaurus serve como um conto de advertência, incentivando os analistas de dados a priorizar a visualização antes da análise para evitar conclusões enganosas.

Estudo do MIT explica por que leis são escritas em estilo incompreensível

2024-12-17
Estudo do MIT explica por que leis são escritas em estilo incompreensível

Um novo estudo de cientistas cognitivos do MIT revela por que documentos legais são notoriamente difíceis de entender. Ao contrário da crença de que a complexidade decorre de edições iterativas, a pesquisa sugere que a linguagem jurídica complexa serve para transmitir autoridade, semelhante a um 'feitiço mágico'. Experimentos mostraram que mesmo não advogados instintivamente usam estruturas de linguagem complexas ao escrever leis. Essa descoberta pode inspirar legisladores a simplificar a linguagem jurídica para melhor compreensão pública.

Waymo se aventura em sua primeira viagem internacional para Tóquio

2024-12-17
Waymo se aventura em sua primeira viagem internacional para Tóquio

A Waymo anunciou sua parceria com a Nihon Kotsu e a GO para levar seus veículos autônomos para Tóquio no início de 2025. Essa é a primeira expansão internacional da Waymo, testando seu sistema de direção autônoma em um ambiente urbano denso com tráfego pela esquerda. A empresa colaborará com parceiros e autoridades locais para garantir uma implementação segura e eficiente, alinhada com a visão do governo japonês para o futuro do transporte. A Nihon Kotsu, maior empresa de táxis de Tóquio, gerenciará e dará manutenção aos veículos.

Técnica revolucionária reduz custos de memória de LLMs em até 75%

2024-12-17
Técnica revolucionária reduz custos de memória de LLMs em até 75%

A Sakana AI, uma startup sediada em Tóquio, desenvolveu uma técnica inovadora chamada "memória universal de transformador" que melhora significativamente a eficiência de memória dos grandes modelos de linguagem (LLMs). Usando módulos de memória de atenção neural (NAMMs), a técnica atua como um editor inteligente, descartando informações redundantes e retendo detalhes cruciais. Isso resulta em uma redução de até 75% nos custos de memória e melhor desempenho em vários modelos e tarefas, oferecendo benefícios substanciais para empresas que utilizam LLMs.

Analista de Pesquisa de Mercado de Ações com IA: Insights de Mercado Instantâneos da Decode Investing

2024-12-16

A Decode Investing apresenta um analista de pesquisa de mercado de ações com tecnologia de IA, fornecendo insights de mercado instantâneos. Esta ferramenta analisa dados como documentos da SEC e atas de chamadas de ganhos para ajudar os investidores a tomar decisões informadas. Os recursos incluem um assistente de bate-papo com IA e um filtro de ações, projetados para otimizar os investimentos e aumentar a eficiência.

nCompass: Solução inovadora reduz custos de inferência de IA

2024-12-16

A nCompass Technologies desenvolveu um software inovador de serviço de inferência de IA que reduz o custo de servir modelos de IA em escala em até 50%. Usando software personalizado de inferência de IA e um escalonador de solicitações com reconhecimento de hardware e dimensionamento automático do Kubernetes, a nCompass mantém um serviço de alta qualidade com menos GPUs, resultando em uma melhoria de até 4x no tempo de resposta e custos de infraestrutura de GPU significativamente reduzidos. Os usuários acessam modelos de código aberto por meio de uma API sem limites de taxa e recebem um crédito de inscrição de US$ 100. Soluções locais também estão disponíveis para empresas que exigem custo-benefício e capacidade de resposta.

Benchmark de LLM: Pelicano em uma Bicicleta

2024-12-16

Simon Willison criou um benchmark único de LLM: gerar uma imagem SVG de um pelicano andando de bicicleta. Esse prompt incomum tinha como objetivo testar as habilidades criativas dos modelos sem depender de dados de treinamento pré-existentes. Ele testou 16 modelos de OpenAI, Anthropic, Google Gemini e Meta (Llama no Cerebras), revelando variações significativas na qualidade dos SVGs gerados. Alguns modelos produziram resultados surpreendentemente bons, enquanto outros tiveram dificuldades.

IA desvenda a química da tinta dos murais do Muro de Berlim

2024-12-16
IA desvenda a química da tinta dos murais do Muro de Berlim

Cientistas italianos usaram uma rede neural para analisar dados espectrais de dispositivos de espectroscopia Raman portáteis, revelando os segredos da química da tinta dos murais do Muro de Berlim. Esta pesquisa não apenas lança luz sobre os materiais e técnicas usados nessas obras de arte historicamente significativas, mas também fornece novas abordagens tecnológicas para a preservação da arte de rua. Ao analisar lascas de tinta de fragmentos de parede e combinando espectroscopia Raman, espectroscopia de fluorescência de raios-X e espectroscopia de reflectância de fibra óptica, juntamente com um algoritmo de IA personalizado chamado SAPNet, os pesquisadores identificaram com precisão a composição do pigmento, incluindo branco de titânio e até 75% de outros pigmentos. Essa descoberta demonstra o potencial significativo da IA na preservação do patrimônio cultural.

O Programa de Ada Lovelace: Um Legado da Computação

2024-12-16
O Programa de Ada Lovelace: Um Legado da Computação

Este artigo mergulha no programa de Ada Lovelace para a Máquina Analítica de Babbage, projetado para calcular os números de Bernoulli. Ele explica o contexto matemático dos números de Bernoulli e a mecânica da Máquina Analítica de Babbage. Embora nunca tenha sido executado, o programa de Lovelace, com sua abordagem rigorosa, loops e rastreamento de estado de variáveis, é considerado o primeiro programa complexo do mundo, prenunciando muitos aspectos da programação moderna. O artigo analisa bugs encontrados no programa e discute o lugar de Lovelace na história da computação, destacando suas contribuições que vão além do mero cálculo; ela previu o vasto potencial do computador, superando seus contemporâneos.

Google DeepMind lança Veo 2: Um avanço na geração de vídeo com IA

2024-12-16
Google DeepMind lança Veo 2: Um avanço na geração de vídeo com IA

O Google DeepMind lançou recentemente seu mais novo modelo de geração de vídeo com IA, o Veo 2. Este modelo representa um avanço significativo em realismo, detalhe e precisão de movimento, capaz de produzir vídeos 4K de alta qualidade a partir de instruções complexas. O Veo 2 supera outros modelos líderes de geração de vídeo com IA, destacando-se na fidelidade à execução de prompts e na geração de resultados incrivelmente realistas. De close-ups extremos de um DJ a cenas detalhadas de preparação de alimentos mostrando física realista, o Veo 2 demonstra sua versatilidade em vários estilos e cenários, marcando um novo marco na geração de vídeo com IA.

Perplexity supera o Google como melhor mecanismo de busca

2024-12-16
Perplexity supera o Google como melhor mecanismo de busca

Um colunista de tecnologia veterano relembra a evolução dos mecanismos de busca, dos pioneiros iniciais como AltaVista à dominância do Google e, agora, à ascensão da busca impulsionada por IA. O artigo argumenta que a dependência excessiva do Google em anúncios degradou a qualidade da busca, enquanto o Perplexity, com sua abordagem impulsionada por IA, fornecimento de links de origem e foco na experiência do usuário, surgiu como uma alternativa superior. Embora reconhecendo as imperfeições das respostas de IA, o autor destaca as fontes verificáveis do Perplexity como um diferencial fundamental, fornecendo resultados de busca mais precisos e confiáveis. O futuro do Google é incerto, e sua capacidade de recuperar sua antiga glória ainda está por ser vista.

Prêmio de US$ 1 Milhão para Competição de Codificação de IA de Código Aberto

2024-12-16

Andy Konwinski lançou o Prêmio K, uma competição de US$ 1 milhão para avançar as capacidades de codificação de IA de código aberto. A competição usa uma versão reformulada do benchmark SWE-bench, eliminando a contaminação do conjunto de testes para uma avaliação mais precisa das habilidades de codificação de modelos de IA do mundo real. Inspirado no Prêmio Netflix, Konwinski acredita que a competição impulsionará a pesquisa em IA e atrairá talentos de ponta em todo o mundo.

Inteligência da Apple: Recepção Mista aos Recursos de IA do iPhone

2024-12-16
Inteligência da Apple: Recepção Mista aos Recursos de IA do iPhone

Uma pesquisa recente revela que, embora a IA seja um fator significativo para os compradores de iPhone, os recursos de IA atuais da Apple (como ferramentas de escrita e resumos de notificações) não impressionaram a maioria dos usuários. A maioria considera que eles têm pouco ou nenhum valor. No entanto, a adição da integração do Genmoji e do ChatGPT no iOS 18.2 pode mudar essa percepção.

NVIDIA Meshtron: Geração de Malhas 3D de Alta Fidelidade em Escala

2024-12-16
NVIDIA Meshtron: Geração de Malhas 3D de Alta Fidelidade em Escala

Pesquisadores da NVIDIA desenvolveram o Meshtron, um modelo inovador capaz de gerar malhas 3D de alta qualidade em escala e fidelidade sem precedentes. Usando uma arquitetura autorregressiva e atenção de janela deslizante, o Meshtron representa malhas como uma sequência de tokens e utiliza uma arquitetura Hourglass Transformer para resolver eficientemente os desafios de escalabilidade e eficiência dos métodos existentes na geração de modelos 3D complexos. Gerando malhas com detalhes semelhantes aos de artistas, o Meshtron oferece forte controlabilidade com entradas como nuvens de pontos, contagem de faces e nível de criatividade, abrindo caminho para uma geração de ativos 3D mais realistas em animação, jogos e ambientes virtuais.

IA

Estudo: Videogames Podem Aumentar o QI de Crianças

2024-12-16
Estudo: Videogames Podem Aumentar o QI de Crianças

Um estudo com quase 10.000 crianças americanas de 9 a 10 anos revelou que crianças que passavam mais tempo jogando videogame obtiveram pontuações mais altas em testes de QI. Os pesquisadores controlaram fatores genéticos e socioeconômicos, descobrindo que o aumento do tempo de jogo se correlacionou com melhores pontuações em compreensão de leitura, processamento visual-espacial e tarefas cognitivas, resultando em um aumento médio de 2,5 pontos no QI. Embora o estudo tenha se concentrado em crianças americanas e não tenha diferenciado os tipos de jogos, ele oferece insights valiosos, desafiando a crença de longa data de que jogos prejudicam as crianças. Mais pesquisas são necessárias para estabelecer a causalidade e explorar outros fatores contribuintes.

Microsoft apresenta Phi-4: novo modelo de linguagem pequeno que se destaca no raciocínio complexo

2024-12-15
Microsoft apresenta Phi-4: novo modelo de linguagem pequeno que se destaca no raciocínio complexo

A Microsoft lançou o Phi-4, seu mais recente modelo de linguagem pequeno (SLM) com 14 bilhões de parâmetros, que supera modelos maiores em tarefas de raciocínio complexo, particularmente em matemática, superando até mesmo o Gemini Pro 1.5 em problemas de competições matemáticas. Essa conquista é atribuída a conjuntos de dados sintéticos e orgânicos de alta qualidade e inovações pós-treinamento. Atualmente disponível no Azure AI Foundry sob um MSRLA, o Phi-4 será lançado no Hugging Face na próxima semana. A Microsoft enfatiza seu compromisso com o desenvolvimento responsável de IA, integrando recursos de segurança robustos ao design e implantação do Phi-4.

Ataque Best-of-N: Quebrando Sistemas de IA

2024-12-15
Ataque Best-of-N: Quebrando Sistemas de IA

Pesquisadores desenvolveram um novo algoritmo de ataque de IA chamado Best-of-N (BoN). Este algoritmo de caixa-preta modifica repetidamente prompts — embaralhando aleatoriamente ou colocando em maiúsculas texto, por exemplo — até obter uma resposta prejudicial do sistema de IA. O BoN atingiu taxas de sucesso de ataque (ASRs) impressionantemente altas em modelos de linguagem de código fechado, como GPT-4o (89%) e Claude 3.5 Sonnet (78%), contornando efetivamente as defesas existentes. Além disso, o BoN se estende perfeitamente a modelos de linguagem visual e de áudio, destacando a vulnerabilidade de até mesmo sistemas de IA avançados a variações de entrada aparentemente inócuas. Esta pesquisa destaca preocupações significativas de segurança no campo da IA.

Visualização de IA: Redes de Rodovias Urbanas Semelhantes

2024-12-15
Visualização de IA: Redes de Rodovias Urbanas Semelhantes

O site similar-cities usa IA para visualizar as relações entre cidades comparando as semelhanças de suas redes de rodovias. Ele emprega um algoritmo único de 'caminhada de bêbado', calculando a similaridade de caminhos aleatórios dentro das redes de rodovias para avaliar a similaridade estrutural. Os dados são obtidos do OpenStreetMap, abrangendo aproximadamente 2500 cidades. O projeto é de código aberto, fornecendo explicações detalhadas do algoritmo e código, e recebe mais dados de cidades para melhorar a precisão.

A Conexão Profunda entre Estimação de Máxima Verossimilhança e Funções de Perda

2024-12-15
A Conexão Profunda entre Estimação de Máxima Verossimilhança e Funções de Perda

Este artigo mergulha na relação intrínseca entre a Estimação de Máxima Verossimilhança (EMV) e as funções de perda comumente usadas. Começando com os fundamentos da EMV, o autor explica meticulosamente sua estreita conexão com a divergência KL. O artigo então usa o Erro Quadrático Médio (EQM) e a Entropia Cruzada como exemplos, demonstrando como essas funções são derivadas naturalmente da EMV, em vez de serem escolhidas arbitrariamente. Ao assumir distribuições de dados (por exemplo, Gaussiana para regressão linear, Bernoulli para regressão logística), maximizar a função de verossimilhança por meio da EMV leva diretamente às funções de perda EQM e Entropia Cruzada. Isso fornece um caminho claro para entender os fundamentos teóricos das funções de perda, indo além da mera intuição.

A Dança dos Robôs: Uma Coevolução da Tecnologia e da Arte

2024-12-15
A Dança dos Robôs: Uma Coevolução da Tecnologia e da Arte

Este artigo explora a evolução da dança robótica na arte e na tecnologia. Começando com a música da Kraftwerk "We Are the Robots", o autor traça a mudança nos estilos de dança do mecânico para o orgânico, e o fascínio humano pela estética maquínica. O autor destaca que os robôs modernos transcenderam os movimentos robóticos tradicionais, exibindo movimentos mais fluidos e semelhantes à vida. Essa mudança reflete a coevolução da tecnologia e da arte, e a percepção humana da maquinaria se transformou de medo e alienação iniciais para proximidade e aceitação.

Reflexões sobre a construção com o Protocolo de Contexto de Modelo (MCP): Uma mistura

2024-12-15
Reflexões sobre a construção com o Protocolo de Contexto de Modelo (MCP): Uma mistura

O Protocolo de Contexto de Modelo (MCP) da Anthropic visa conectar LLMs com ferramentas e dados externos, permitindo que aplicativos como o Claude Desktop acessem bancos de dados, mecanismos de busca e muito mais. Embora o MCP ofereça possibilidades interessantes para expandir a funcionalidade de aplicativos de IA, sua implementação atual apresenta deficiências. O Claude Desktop suporta apenas servidores locais, carece de tratamento robusto de entradas complexas e sofre com timeouts do lado do cliente. Além disso, são necessárias melhorias na documentação e na configuração, como um registro oficial, suporte para agendamento de tarefas assíncronas e colaboração com vários clientes, para realizar totalmente o potencial do MCP para os usuários.

Hugging Face Spaces lança ZeroGPU: Alocação dinâmica de GPU para maior eficiência de modelos de IA

2024-12-15
Hugging Face Spaces lança ZeroGPU: Alocação dinâmica de GPU para maior eficiência de modelos de IA

O Hugging Face Spaces lançou o ZeroGPU, uma infraestrutura compartilhada que aloca dinamicamente GPUs NVIDIA A100 para otimizar o uso de GPU para modelos e demonstrações de IA. O ZeroGPU oferece acesso gratuito à GPU, suporte para várias GPUs e reduz as barreiras para a implantação de modelos de IA. Os usuários simplesmente selecionam o hardware ZeroGPU ao criar um espaço Gradio e usam o decorador `@spaces.GPU` para funções dependentes de GPU. O ZeroGPU é compatível com PyTorch e otimizado para as bibliotecas transformers e diffusers do Hugging Face, mas atualmente funciona apenas com o SDK Gradio. Contas pessoais (usuários PRO) podem criar até 10 espaços ZeroGPU, enquanto contas de organização (Hub empresarial) podem criar até 50.

IA revoluciona o design de proteínas: nova ferramenta revelada

2024-12-15

Cientistas desenvolveram uma ferramenta inovadora baseada em IA, RoseTTAFold, para projetar novas proteínas. Essa ferramenta prevê a sequência de aminoácidos de uma proteína com base em uma estrutura de destino especificada pelo usuário, gerando proteínas estáveis e funcionais. Essa descoberta promete acelerar os avanços na descoberta de medicamentos, ciência de materiais e bioengenharia, oferecendo novas possibilidades para enfrentar vários desafios que a humanidade enfrenta. A tecnologia tem o potencial de revolucionar a biomedicina criando proteínas com funções específicas para tratar doenças ou desenvolver novos materiais.

Becos Sem Saída Filosóficos na Teoria da Evolução

2024-12-15
Becos Sem Saída Filosóficos na Teoria da Evolução

Esta resenha examina "O Livro Genético dos Mortos" de Richard Dawkins e "A Vida Como Ninguém Conhece: A Física do Surgimento da Vida" de Sara Imari Walker. Dawkins continua sua teoria do "gene egoísta", argumentando que os genes são a força motriz central da evolução. No entanto, a resenha aponta que essa visão está desatualizada e não consegue considerar adequadamente fatores como desenvolvimento, epigenética e construção de nicho. O livro de Walker tenta explicar a origem da vida a partir da perspectiva da teoria da montagem, mas a resenha argumenta que é excessivamente simplista e não consegue esclarecer totalmente a essência da vida. O artigo conclui que livros de ciência popular muitas vezes tendem a narrativas simplistas, ignorando a complexidade e a diversidade do campo da biologia.

O Gato de Schrödinger e o Corte de Heisenberg: O Paradoxo e as Interpretações da Mecânica Quântica

2024-12-15
O Gato de Schrödinger e o Corte de Heisenberg: O Paradoxo e as Interpretações da Mecânica Quântica

Este artigo explora o experimento mental do gato de Schrödinger e seu impacto na cultura popular. Schrödinger propôs este experimento para destacar o absurdo da superposição na mecânica quântica, não para sugerir que um gato está simultaneamente vivo e morto. O artigo explica ainda o corte de Heisenberg — o limite entre a mecânica quântica e a física clássica — e como diferentes interpretações (como a interpretação de Copenhague) abordam este corte. O autor argumenta que a mecânica quântica é uma estrutura poderosa de cálculo probabilístico, mas sua aplicabilidade ao mundo macroscópico requer mais investigação.

Um Novo Paradigma para Interação com IA: Modelos como Computadores

2024-12-15

Este artigo explora o futuro da interação com IA, propondo um novo paradigma: tratar modelos de linguagem grandes (LLMs) como 'aplicativos de computador' em vez de 'pessoas'. O autor argumenta que a abordagem antropomórfica atual é ineficiente e limita o potencial dos LLMs. Ele sugere que os LLMs devem gerar interfaces gráficas, não apenas conversas de texto, para melhorar a eficiência e a descoberta, permitindo que os usuários manipulem diretamente, como com aplicativos típicos. Este paradigma de 'modelo como computador' transformará a interação humano-computador e levará a experiências novas, como a geração dinâmica de interfaces adaptadas às necessidades do usuário, potencialmente até substituindo sistemas operacionais. O artigo cita protótipos tecnológicos existentes e olha para desenvolvimentos futuros.

1 2 41 42 43 44 45 46 48