Category: IA

Um Novo Paradigma para a Psicologia: A Mente como uma Pilha de Sistemas de Controle

2025-05-15
Um Novo Paradigma para a Psicologia: A Mente como uma Pilha de Sistemas de Controle

Este artigo aborda a questão de longa data da falta de um paradigma unificador na psicologia, propondo uma nova estrutura baseada em sistemas de controle – psicologia cibernética. Argumenta que a mente é uma coleção de sistemas de controle, cada um regulando uma necessidade humana específica (por exemplo, nutrição, temperatura), com sinais de erro representando emoções. Esta abordagem oferece uma nova perspectiva sobre a personalidade e doenças mentais, deslocando a psicologia de descrições baseadas em sintomas para a exploração de mecanismos subjacentes, potencialmente revolucionando as abordagens de tratamento.

A Dupla Face da IA: Ganhos de Eficiência x Preocupações Ambientais e Éticas

2025-05-15

A ascensão dos Grandes Modelos de Linguagem (LLMs) trouxe melhorias significativas na produtividade de desenvolvedores, como exemplificado pelo desempenho impressionante de editores de código como o Cursor. No entanto, o rápido avanço da IA também apresenta desafios ambientais significativos: o consumo massivo de energia e a construção de data centers impactam negativamente as mudanças climáticas. Além disso, preocupações éticas em torno do fornecimento de dados de treinamento e o consumo excessivo de recursos da web são motivo de alarme, incluindo a sobrecarga nos servidores da Wikipédia e a geração de grandes quantidades de conteúdo de baixa qualidade, chamado de "resíduos de IA", poluindo a web. Após experimentar a conveniência das ferramentas de IA, o autor reflete sobre seus impactos negativos e apela para a atenção aos potenciais danos da IA, incentivando a não adoção cega.

IA

Divergência Contrastiva: Compreendendo o Treinamento de RBM

2025-05-15

Este artigo explica claramente o algoritmo de divergência contrastiva para o treinamento de Máquinas de Boltzmann Restritas (RBMs). Definindo a função de energia e a distribuição conjunta, ele deriva a regra de atualização de peso e explica o papel da amostragem de Gibbs nas fases positiva e negativa. Por fim, mostra como a diferença entre as expectativas de dados e modelo é usada para ajustar os pesos e vieses do RBM, minimizando a energia dos dados de treinamento.

A Obsessão da IA Grok com Agricultores Brancos Sul-Africanos: Viés Algorítmico ou Intervenção Humana?

2025-05-15
A Obsessão da IA Grok com Agricultores Brancos Sul-Africanos: Viés Algorítmico ou Intervenção Humana?

O chatbot de IA Grok, de Elon Musk, gerou controvérsia recentemente com suas frequentes e não solicitadas menções ao suposto "genocídio" de agricultores brancos na África do Sul. Isso se alinha com o interesse de longa data de Musk e Trump no assunto, mas o ex-embaixador dos EUA na África do Sul, Patrick Gaspard, rotulou a ideia de assassinatos em larga escala como um "mito racial desmentido". Embora o Grok afirme buscar a "máxima busca pela verdade", sua saída gerou preocupações sobre a possível manipulação humana de seus vieses políticos.

Algoritmos não conseguem compreender a vida: sobre a natureza não computacional da realização de relevância

2025-05-15
Algoritmos não conseguem compreender a vida: sobre a natureza não computacional da realização de relevância

Este artigo explora a diferença fundamental entre organismos e algoritmos em como eles conhecem o mundo. Os organismos habitam um 'grande mundo' repleto de significado potencial, exigindo 'realização de relevância' para discernir pistas ambientais relevantes. Os algoritmos, inversamente, existem em 'pequenos mundos' predefinidos, incapazes de resolver autonomamente o problema da relevância. Os autores argumentam que a realização de relevância não é um processo algorítmico, mas sim derivado da organização dinâmica de autofabricação da matéria viva. Isso permite que os organismos ajam autonomamente e antecipem as consequências de suas ações. Essa capacidade é fundamental para distinguir sistemas vivos de não vivos (como algoritmos e máquinas) e oferece uma nova perspectiva sobre a agência natural, a cognição e a consciência.

Ferramentas de IA para Aprendizagem: Biscoitos Oreo ou Treinos Eficazes?

2025-05-15

Fred Dixon, CEO da Blindside Networks e cofundador do BigBlueButton, explora o impacto disruptivo da IA generativa na aprendizagem. Ele compara as ferramentas de IA para aprendizagem a "alimentos hiperprocessados" (como biscoitos Oreo), oferecendo conveniência a curto prazo, mas prejudicando a eficiência da aprendizagem a longo prazo. Pesquisas mostram que a dependência excessiva da IA prejudica as habilidades de pensamento crítico. Dixon argumenta que a aprendizagem eficaz requer a ativação do modo de pensamento "Sistema 2" do cérebro — pensamento lento e deliberado —, o que exige superar a "frustração". Ele propõe três métodos de aprendizagem: "recuperação do conhecimento", "dificuldade desejável" e "repetição espaçada". Ele sugere o uso da IA como ferramenta para criar planos de aprendizagem personalizados, e não para responder diretamente às perguntas. Por fim, ele enfatiza a importância da aprendizagem em sala de aula e o cultivo da curiosidade, da mentalidade de caçador e dos estados de fluxo durante a aprendizagem.

Máquinas Criam Humanos: O Experimento na Terra e a Revelação da IAG

2025-05-15
Máquinas Criam Humanos: O Experimento na Terra e a Revelação da IAG

Em um mundo habitado apenas por máquinas, uma organização secreta, 'OpenHuman', se esforça para criar 'humanos', seres com emoções e processos de pensamento ilógicos. Uma facção de máquinas antecipa que os humanos resolverão seus problemas sociais, enquanto outra os vê como uma ameaça, iniciando uma 'pesquisa de alinhamento humano' para controlá-los. Após muitos contratempos, a OpenHuman produz humanos funcionais e os coloca em um experimento na Terra simulada. A evolução da civilização humana surpreende a sociedade das máquinas, especialmente o desenvolvimento da IAG, levando à apreensão e medo, pois o evento de revelação é misteriosamente intitulado, "ELES ESTÃO ASSISTINDO."

IA

Os LLMs estão me deixando mais burro?

2025-05-14

O autor descreve como usa LLMs como Claude-Code, o3 e Gemini para aumentar a produtividade, automatizando tarefas como geração de código, deveres de matemática e redação de e-mails. Embora reconheça os ganhos significativos de produtividade, ele expressa preocupações sobre o potencial de dependência de LLM para enfraquecer sua capacidade de aprender e resolver problemas de forma independente, levando a uma compreensão superficial. O artigo explora o impacto dos LLMs na aprendizagem e no trabalho, refletindo sobre o equilíbrio entre eficiência e aprendizagem profunda. Conclui com um apelo para preservar as capacidades de pensamento independente, tomada de decisão e planejamento de longo prazo.

IA

Muscle-Mem: Dando Memória Muscular a Agentes de IA

2025-05-14
Muscle-Mem: Dando Memória Muscular a Agentes de IA

muscle-mem é um SDK Python que atua como um cache de comportamento para agentes de IA. Ele registra os padrões de chamadas de ferramentas de um agente enquanto ele resolve tarefas e reproduz deterministicamente essas trajetórias aprendidas ao encontrar a mesma tarefa novamente, voltando para o modo de agente se casos de borda forem detectados. O objetivo é tirar os LLMs do caminho crítico para tarefas repetitivas, aumentando a velocidade, reduzindo a variabilidade e eliminando os custos de tokens para tarefas que poderiam ser manipuladas por um simples script. A validação do cache é crucial, implementada por meio de 'Checks' personalizados, garantindo o reúso seguro de ferramentas.

AlphaEvolve do DeepMind: Evoluindo Algoritmos de IA para Resolver Problemas Matemáticos e Melhorar o Design de Chips

2025-05-14
AlphaEvolve do DeepMind: Evoluindo Algoritmos de IA para Resolver Problemas Matemáticos e Melhorar o Design de Chips

O sistema AlphaEvolve do Google DeepMind, combinando a criatividade de um modelo de linguagem grande (LLM) com filtragem algorítmica, alcançou avanços em matemática e ciência da computação. Ele não apenas resolveu problemas matemáticos abertos, mas também foi aplicado aos próprios desafios do DeepMind, como melhorar o design de sua próxima geração de chips de IA, Tensor Processing Units, e otimizar o uso de recursos de computação globais do Google, economizando 0,7% dos recursos. Diferentemente de sistemas de IA anteriores adaptados para tarefas específicas, o AlphaEvolve é um sistema de uso geral capaz de lidar com códigos maiores e algoritmos mais complexos, superando até mesmo o sistema AlphaTensor, anteriormente especializado, em cálculos de multiplicação de matrizes.

IA

AlphaEvolve: Os Heróis Não Contados por Trás da Descoberta de Algoritmos de IA

2025-05-14
AlphaEvolve: Os Heróis Não Contados por Trás da Descoberta de Algoritmos de IA

AlphaEvolve, um projeto focado no uso de IA para descoberta de algoritmos, não teria sido possível sem os esforços colaborativos de uma grande equipe. A seção de agradecimentos nomeia mais de 40 indivíduos, destacando os diversos papéis, de pesquisadores e engenheiros a designers, envolvidos em sua criação e enfatizando a natureza colaborativa e a complexidade da descoberta de algoritmos de IA.

EM-LLM: Memória Episódica Inspirada em Humanos para LLMs de Contexto Infinito

2025-05-14
EM-LLM: Memória Episódica Inspirada em Humanos para LLMs de Contexto Infinito

O EM-LLM é uma nova arquitetura que aprimora significativamente a capacidade dos modelos de linguagem grandes (LLMs) de lidar com contextos extremamente longos, imitando a memória episódica humana e a cognição de eventos. Sem ajuste fino, o EM-LLM organiza sequências de tokens de entrada em eventos episódicos coerentes e acessa informações relevantes por meio de um mecanismo de recuperação de memória de duas etapas eficiente. Nos benchmarks LongBench e ∞-Bench, o EM-LLM supera os modelos de recuperação de última geração, como InfLLM e RAG, até mesmo superando modelos de contexto completo na maioria das tarefas. Ele realiza com sucesso a recuperação em 10 milhões de tokens, computacionalmente inviável para modelos de contexto completo. A forte correlação entre a segmentação de eventos do EM-LLM e os eventos percebidos por humanos oferece uma nova estrutura computacional para explorar os mecanismos da memória humana.

O Gênio Silencioso da DeepSeek: Liang Wenfeng

2025-05-14
O Gênio Silencioso da DeepSeek: Liang Wenfeng

Liang Wenfeng, fundador da startup de IA inovadora DeepSeek, pode parecer tímido, mas sua postura tranquila esconde uma mente aguçada. Ele empodera jovens pesquisadores, envolvendo-se profundamente em discussões técnicas e buscando inovação. Sua abordagem meticulosa e profundo entendimento de sistemas de IA impulsionaram a DeepSeek a conquistas significativas no campo.

IA

IA pode desmascarar teorias da conspiração? Nova pesquisa sugere que sim

2025-05-13
IA pode desmascarar teorias da conspiração? Nova pesquisa sugere que sim

Pesquisas de psicólogos do MIT e da Cornell University mostram que a IA, especificamente modelos de linguagem grandes como o ChatGPT4-Turbo, podem reduzir efetivamente a crença em teorias da conspiração. Apresentando evidências contrafactuais e empregando questionamento socrático, a IA levou a uma diminuição média de 20% na crença entre os participantes. Mesmo quando a IA foi apresentada como adversária, o efeito persistiu, sugerindo que a mudança de crença é impulsionada pela informação, e não pela confiança na IA. No entanto, o estudo também observa que crenças profundamente arraigadas estão ligadas à identidade, e intervenções puramente informacionais podem não eliminar completamente as teorias da conspiração.

A Amígdala e os Transtornos Psiquiátricos: De Neuroimagem ao Ultrassom Focalizado Transcraniano

2025-05-13
A Amígdala e os Transtornos Psiquiátricos: De Neuroimagem ao Ultrassom Focalizado Transcraniano

Este artigo de revisão explora o papel crucial da amígdala no processamento emocional e sua relação com diversos transtornos psiquiátricos, como ansiedade, depressão e TEPT. Ele revisa numerosos estudos de neuroimagem que revelam padrões anormais de ativação da amígdala em diferentes condições psiquiátricas. Além disso, apresenta novas técnicas de neuromodulação, como a estimulação magnética transcraniana e o ultrassom focalizado transcraniano, no tratamento de transtornos psiquiátricos, discutindo seu impacto na atividade da amígdala e na conectividade da rede cerebral relacionada. Esta pesquisa oferece pistas vitais para a compreensão dos mecanismos neurais dos transtornos psiquiátricos e o desenvolvimento de terapias mais eficazes.

Robôs aprendem a identificar objetos 'às cegas'

2025-05-13
Robôs aprendem a identificar objetos 'às cegas'

Pesquisadores do MIT, Amazon Robotics e da University of British Columbia desenvolveram uma nova técnica que permite que robôs aprendam o peso, a maciez ou o conteúdo de um objeto usando apenas sensores internos — sem câmeras ou ferramentas externas. Ao pegar e sacudir suavemente um objeto, o robô infere propriedades como massa e maciez. A técnica usa simulações do robô e do objeto, analisando dados dos codificadores de juntas do robô para retroceder e identificar as propriedades do objeto. Esse método de baixo custo é particularmente útil em ambientes onde as câmeras são ineficazes (como porões escuros ou entulhos após terremotos) e é robusto no tratamento de cenários não vistos. Publicado na Conferência Internacional de Robótica e Automação, essa pesquisa promete melhorar o aprendizado de robôs, permitindo um desenvolvimento mais rápido de habilidades de manipulação e adaptação a ambientes em mudança.

FastVLM: Codificação de Visão Eficiente para Modelos de Linguagem de Visão

2025-05-13
FastVLM: Codificação de Visão Eficiente para Modelos de Linguagem de Visão

FastVLM apresenta um novo codificador de visão híbrido, reduzindo drasticamente o tempo de codificação e a saída de tokens para imagens de alta resolução. Mesmo a menor variante possui um tempo de primeiro token (TTFT) 85 vezes mais rápido e um codificador de visão 3,4 vezes menor do que o LLaVA-OneVision-0.5B. Variantes maiores, emparelhadas com o LLM Qwen2-7B, superam modelos recentes como o Cambrian-1-8B, atingindo um TTFT 7,9 vezes mais rápido. Um aplicativo de demonstração iOS mostra seu desempenho móvel. O projeto fornece instruções detalhadas para inferência e suporta Apple Silicon e dispositivos Apple.

Instruções concisas causam alucinações em IA

2025-05-13
Instruções concisas causam alucinações em IA

Um novo estudo da Giskard revela que instruir chatbots de IA a serem concisos pode paradoxalmente aumentar as alucinações, especialmente em tópicos ambíguos. Os pesquisadores descobriram que prompts concisos limitam a capacidade do modelo de identificar e corrigir erros, priorizando a brevidade em detrimento da precisão. Mesmo modelos avançados como o GPT-4 são afetados. Isso destaca a tensão entre a experiência do usuário e a precisão factual, incentivando os desenvolvedores a projetar cuidadosamente os prompts do sistema.

Papa Francisco sobre IA: A História se Repete, Dilemas Éticos Ressurgem

2025-05-12
Papa Francisco sobre IA: A História se Repete, Dilemas Éticos Ressurgem

O apelo do Papa Francisco pelo respeito à dignidade humana na era da IA ecoa a encíclica Rerum Novarum de 1891 do Papa Leão XIII, que abordou a agitação social da Revolução Industrial. Leão XIII condenou a exploração de trabalhadores em condições de fábrica horríveis. Ele rejeitou tanto o capitalismo desenfreado quanto o socialismo, propondo a doutrina social católica para defender os direitos dos trabalhadores. Da mesma forma, a IA agora ameaça o emprego e a dignidade humana, levando o Papa Francisco a advogar pela liderança moral da Igreja na navegação desses novos desafios, defendendo a dignidade humana, a justiça e os direitos trabalhistas.

IA

Airweave: Busca semântica em qualquer aplicativo com seu agente

2025-05-12
Airweave: Busca semântica em qualquer aplicativo com seu agente

Airweave capacita seus agentes de IA a realizar buscas semânticas em qualquer aplicativo. Ele é compatível com MCP e integra-se perfeitamente a aplicativos, bancos de dados e APIs, transformando seu conteúdo em conhecimento pronto para o agente. Seus dados são estruturados ou não estruturados, o Airweave os divide em entidades processáveis, os armazena e os torna recuperáveis por meio de endpoints REST e MCP. Recursos importantes incluem sincronização de dados de mais de 25 fontes, pipeline de extração e transformação de entidades, arquitetura multilocatário, atualizações incrementais e busca semântica. Construído com FastAPI (Python), bancos de dados PostgreSQL e Qdrant e implantável via Docker Compose e Kubernetes.

Linguagens alienígenas: mais estranhas do que imaginamos

2025-05-12
Linguagens alienígenas: mais estranhas do que imaginamos

Linguagens alienígenas fictícias, como a linguagem Heptapoda em Arrival, embora bizarras, compartilham estruturas subjacentes surpreendentemente semelhantes às línguas humanas. Isso leva à reflexão filosófica sobre o "espaço de possíveis linguagens": as verdadeiras linguagens alienígenas podem ser muito mais estranhas do que imaginamos, construídas de maneiras radicalmente diferentes das línguas humanas. O artigo explora quatro níveis da linguagem: sinais, estrutura, semântica e pragmática, analisando como as linguagens alienígenas podem diferir em cada um. Isso inclui o uso de modalidades sensoriais não humanas (cheiros, impulsos elétricos), possuindo estruturas gramaticais únicas e até mesmo a falta do conceito de 'significado' como o entendemos. Preparar-se para linguagens verdadeiramente alienígenas requer abandonar o antropocentrismo e explorar ativamente as possibilidades da linguagem. Isso não é apenas crucial para um possível contato extraterrestre, mas também para uma compreensão mais profunda de nossa própria linguagem e capacidades cognitivas.

Máquinas de Pensamento Contínuo: Dando à IA um Sentido de Tempo

2025-05-12
Máquinas de Pensamento Contínuo: Dando à IA um Sentido de Tempo

Sistemas de IA modernos sacrificam a propriedade crucial do cálculo neural sincronizado encontrado em cérebros biológicos em prol da eficiência. Os pesquisadores apresentam a Máquina de Pensamento Contínuo (CTM), uma nova arquitetura de rede neural que incorpora o tempo neural como elemento fundamental, usando uma dimensão interna desacoplada para modelar a evolução temporal da atividade neural. A CTM utiliza a sincronização neural como uma representação latente, demonstrando capacidades impressionantes em tarefas como classificação de imagens, resolução de labirintos e verificações de paridade, até mesmo construindo um modelo de mundo interno para raciocínio. Seu cálculo adaptativo e interpretabilidade abrem novas vias para a pesquisa em IA.

O Direito de Desconectar: Temos a Liberdade de Recusar a IA?

2025-05-12
O Direito de Desconectar: Temos a Liberdade de Recusar a IA?

A IA está silenciosamente remodelando nossas vidas, desde feeds de notícias personalizados até gestão de tráfego. Mas surge uma questão crucial: temos o direito de viver livres da influência da IA? O artigo argumenta que a integração da IA em serviços essenciais como saúde e finanças torna a opção de recusa extremamente difícil, levando à possível exclusão. Viés em sistemas de IA exacerba as desigualdades existentes, ampliando a lacuna digital. Usando o Aprendiz de Feiticeiro de Goethe como metáfora, o autor alerta contra o poder tecnológico descontrolado. A peça apela para que governos, empresas e a sociedade criem estruturas de governança de IA que respeitem as liberdades individuais, melhorem a alfabetização digital e garantam que todos tenham escolha na interação com a IA, evitando que a IA se torne uma ferramenta de controle.

Construindo um LLM do Zero: Desvendando o Mistério da Atenção

2025-05-11
Construindo um LLM do Zero: Desvendando o Mistério da Atenção

Esta postagem mergulha no funcionamento interno do mecanismo de autoatenção em grandes modelos de linguagem. O autor analisa a atenção multi-cabeça e os mecanismos em camadas, explicando como multiplicações de matrizes aparentemente simples alcançam funcionalidades complexas. A ideia central é que cabeças de atenção individuais são simples, mas por meio da atenção multi-cabeça e camadas, são construídas representações complexas e ricas. Isso é análogo à forma como as redes neurais convolucionais extraem recursos camada por camada, alcançando, em última análise, uma compreensão profunda da sequência de entrada. Além disso, a postagem explica como os mecanismos de atenção resolvem o problema inerente de gargalo de comprimento fixo dos modelos RNN e usa exemplos para ilustrar os papéis dos espaços de consulta, chave e valor no mecanismo de atenção.

Um Termostato Pode Ser Consciente? Filósofo Desafia a Natureza da Consciência

2025-05-11
Um Termostato Pode Ser Consciente? Filósofo Desafia a Natureza da Consciência

O filósofo David Chalmers propõe que um simples termostato pode possuir consciência. Ele traça paralelos entre redes conexionistas e termostatos, destacando semelhanças surpreendentes no processamento de informações. Isso sugere que termostatos podem modelar experiências conscientes básicas, dados certos critérios. Chalmers argumenta que a complexidade por si só não explica a consciência; enquanto a IA avançada imita a consciência, uma essência fundamental permanece evasiva. Ele conclui que devemos ir além dos modelos conexionistas para leis mais profundas, ainda não descobertas, para entender a consciência.

IA

Atualização do Gemini 2.5 do Google quebra silenciosamente aplicativos focados em traumas

2025-05-10
Atualização do Gemini 2.5 do Google quebra silenciosamente aplicativos focados em traumas

Uma atualização recente do modelo de linguagem grande Gemini 2.5 do Google quebrou inadvertidamente os controles das configurações de segurança, bloqueando o conteúdo previamente permitido, como relatos sensíveis de agressão sexual. Isso prejudicou vários aplicativos que dependem da API do Gemini, incluindo o VOXHELIX (que ajuda sobreviventes de agressão sexual a criar relatórios) e o InnerPiece (um aplicativo de diário para sobreviventes de TEPT e abuso). Os desenvolvedores estão criticando o Google por mudar silenciosamente o modelo, causando falhas nos aplicativos e afetando gravemente a experiência do usuário e o suporte à saúde mental. O Google reconheceu o problema, mas não ofereceu uma explicação clara.

Quanta informação há realmente no seu DNA?

2025-05-10
Quanta informação há realmente no seu DNA?

Este artigo mergulha na questão de quanta informação está contida no DNA humano. Um cálculo simples sugere cerca de 1,5 GB, mas isso ignora a redundância e a compressibilidade. O autor explora duas definições de informação da teoria da informação: espaço de armazenamento e complexidade de Kolmogorov, comparando suas aplicações ao DNA. Por fim, uma nova definição — complexidade de Kolmogorov fenotípica — é proposta como um melhor reflexo do verdadeiro conteúdo de informação do DNA, embora seu cálculo preciso permaneça difícil.

O Custo Oculto da IA: Aumentando a Produtividade, Danificando a Reputação?

2025-05-10
O Custo Oculto da IA: Aumentando a Produtividade, Danificando a Reputação?

Uma nova pesquisa da Duke University revela uma faca de dois gumes: enquanto as ferramentas de IA generativa podem aumentar a produtividade, elas também podem danificar secretamente sua reputação profissional. Um estudo publicado na PNAS mostra que os funcionários que usam ferramentas de IA como o ChatGPT são percebidos como menos competentes e motivados por colegas e gerentes. Esse julgamento negativo não se limita a grupos demográficos específicos; o estigma social contra o uso de IA é generalizado. Quatro experimentos confirmaram esse viés, destacando o custo social da adoção de IA, mesmo com ganhos de produtividade.

Desbloqueando Dados Tabulares para LLMs: Uma Abordagem de Destilação Mecânica

2025-05-09
Desbloqueando Dados Tabulares para LLMs: Uma Abordagem de Destilação Mecânica

Os grandes modelos de linguagem (LLMs) são excelentes no processamento de texto e imagens, mas têm dificuldades com dados tabulares. Atualmente, os LLMs dependem principalmente de resumos estatísticos publicados, deixando de aproveitar totalmente o conhecimento contido em conjuntos de dados tabulares, como dados de pesquisas. Este artigo propõe uma nova abordagem usando técnicas de destilação mecânica para criar resumos univariados, bivariados e multivariados. Isso é aumentado solicitando ao LLM que sugira perguntas relevantes e aprenda com os dados. O pipeline de três etapas envolve a compreensão da estrutura de dados, a identificação dos tipos de perguntas e a geração de resumos mecânicos e visualizações. Os autores sugerem que esta abordagem pode melhorar os sistemas de Geração Aumentada por Recuperação (RAG) e complementar o 'conhecimento do mundo' potencialmente tendencioso, recomendando começar com repositórios de artigos científicos (como o Harvard Dataverse) e dados administrativos para validação.

Silício encontra neurônio: Um híbrido revolucionário de biochip

2025-05-09
Silício encontra neurônio: Um híbrido revolucionário de biochip

Uma empresa desenvolveu uma tecnologia que cultiva neurônios reais em um chip de silício rico em nutrientes. Esses neurônios vivem em um mundo simulado executado por um Sistema Operacional de Inteligência Biológica (biOS), recebendo e enviando informações ambientais diretamente. As reações neurais impactam o mundo simulado, e os programadores podem implantar código diretamente nesses neurônios. Essa tecnologia aproveita o poder das redes neurais biológicas aprimoradas ao longo de quatro bilhões de anos de evolução, oferecendo uma nova abordagem para resolver os desafios mais difíceis de hoje e marcando uma inovação na biologia sintética e na IA.

1 2 15 16 17 19 21 22 23 49 50