Category: IA

Boston Dynamics e Instituto RAI se unem para aprimorar o aprendizado por reforço do robô Atlas

2025-02-06
Boston Dynamics e Instituto RAI se unem para aprimorar o aprendizado por reforço do robô Atlas

A Boston Dynamics anunciou uma parceria com seu próprio Instituto de Robótica e IA (Instituto RAI) para aproveitar o aprendizado por reforço e aprimorar as capacidades de seu robô humanoide elétrico, Atlas. A colaboração visa acelerar o aprendizado de novas tarefas pelo Atlas e melhorar sua movimentação e interação em ambientes do mundo real, como corrida dinâmica e manipulação de objetos pesados. Isso representa um avanço significativo no aprendizado por reforço para robótica e destaca a importância da integração vertical da IA de robôs, refletindo a decisão da Figure AI de abandonar sua parceria com a OpenAI.

Deconstruindo Sistemas Complexos com Meriologia: Além da Causalidade Simples

2025-02-06

Este artigo apresenta uma nova abordagem para a compreensão da estrutura de ordem superior em sistemas complexos, baseada na meriologia, um ramo da teoria dos conjuntos. Usando os anéis Borromeus como exemplo, ele ilustra como o todo pode ser mais do que a soma de suas partes. O autor propõe que, construindo a meriologia de um sistema e aplicando a fórmula de inversão de Möbius, quantidades macroscópicas podem ser decompostas em somas de contribuições microscópicas, revelando a natureza das interações de ordem superior. Exemplos de interações gênicas e informação mútua na teoria da informação demonstram a aplicação do método, com implicações promissoras para aprendizado de máquina e física.

Quatro Abordagens para Construir Modelos de Raciocínio para LLMs

2025-02-06
Quatro Abordagens para Construir Modelos de Raciocínio para LLMs

Este artigo explora quatro abordagens principais para aprimorar modelos de linguagem grandes (LLMs) com capacidades de raciocínio: escalonamento em tempo de inferência, aprendizado por reforço puro, ajuste fino supervisionado mais aprendizado por reforço e destilação de modelos. O desenvolvimento do DeepSeek R1 é usado como um estudo de caso, mostrando como esses métodos podem construir modelos de raciocínio poderosos e como até mesmo pesquisadores com orçamento limitado podem obter resultados impressionantes por meio da destilação. O artigo também compara o DeepSeek R1 com o o1 da OpenAI e discute estratégias para construir modelos de raciocínio econômicos.

Agente de IA aprende a usar computadores como um humano

2025-02-06
Agente de IA aprende a usar computadores como um humano

O projeto r1-computer-use visa treinar um agente de IA para interagir com um computador como um humano, incluindo sistemas de arquivos, navegadores da web e linhas de comando. Inspirado nas técnicas de aprendizado por reforço do DeepSeek-R1, ele abandona os verificadores codificados tradicionalmente em favor de um modelo de recompensa neural para avaliar a correção e a utilidade das ações do agente. O pipeline de treinamento envolve vários estágios, desde demonstrações de especialistas até otimização de políticas guiadas por modelos de recompensa e ajuste fino, visando, em última análise, um agente de IA seguro e confiável capaz de executar tarefas complexas.

Modelo de raciocínio de IA de menos de US$ 50 rivaliza com concorrentes de ponta

2025-02-06
Modelo de raciocínio de IA de menos de US$ 50 rivaliza com concorrentes de ponta

Pesquisadores de Stanford e da Universidade de Washington treinaram um modelo de raciocínio de IA, s1, por menos de US$ 50 usando computação em nuvem. O desempenho do s1 se compara a modelos de ponta como o o1 da OpenAI e o R1 da DeepSeek em tarefas de matemática e codificação. A equipe utilizou a destilação de conhecimento, usando o Google Gemini 2.0 Flash Thinking Experimental como modelo professor e um conjunto de dados de 1.000 perguntas cuidadosamente selecionadas. Essa replicação de baixo custo levanta questões sobre a commoditização da IA e, segundo relatos, deixou os grandes laboratórios de IA aborrecidos.

O Kinetoscópio de 1890: Um Precursor da Solidão da IA?

2025-02-05
O Kinetoscópio de 1890: Um Precursor da Solidão da IA?

Este artigo traça paralelos entre o Kinetoscópio para um único usuário da década de 1890 e a tecnologia de IA de hoje, particularmente os grandes modelos de linguagem. O artigo argumenta que ambas as tecnologias, embora ofereçam conteúdo produzido em massa, criam uma experiência simultaneamente interconectada e atomizada, resultando em um novo tipo de solidão tecnológica. O autor explora o contexto histórico da invenção de Edison e sua escolha de design surpreendentemente previdente, destacando a semelhança estranha com nossa dependência atual de feeds algorítmicos personalizados e companheiros de IA. Isso leva à reflexão sobre a direção do progresso tecnológico e seu impacto na experiência individual.

Papiro de Herculano 5: Avanço na Detecção de Tinta

2025-02-05
Papiro de Herculano 5: Avanço na Detecção de Tinta

Progresso significativo foi alcançado na detecção de tinta e segmentação do P.Herc. 172 das Bibliotecas Bodleian em Oxford (Rolo 5). O rolo apresenta tinta excepcionalmente visível, auxiliando enormemente o treinamento de modelos de detecção de tinta. Embora a segmentação requeira refinamento adicional, análises preliminares sugerem autoria de Filodemo, com palavras como 'desgosto', 'medo' e 'vida' identificadas, juntamente com símbolos que indicam uma obra finalizada. As características únicas do Rolo 5 oferecem potencial como uma 'Pedra de Roseta' para detecção de tinta em outros rolos. A equipe lançou dados extensos de segmentação para facilitar a pesquisa.

Família Gemini 2.0 recebe grande atualização: Desempenho aprimorado e recursos multimodais

2025-02-05
Família Gemini 2.0 recebe grande atualização: Desempenho aprimorado e recursos multimodais

O Google atualizou significativamente sua família de modelos Gemini 2.0! O modelo 2.0 Flash agora está geralmente disponível via API, permitindo que desenvolvedores criem aplicativos de produção. Uma versão experimental do 2.0 Pro, com desempenho de codificação superior e capacidade de lidar com prompts complexos, com uma janela de contexto de 2 milhões de tokens, também foi lançada. Um modelo 2.0 Flash-Lite econômico agora está em prévia pública. Todos os modelos atualmente oferecem entrada multi-modal com saída de texto, com mais modalidades chegando nos próximos meses. Esta atualização aumenta significativamente o desempenho e expande a aplicabilidade, marcando um grande passo para o Gemini no cenário de IA.

IA

O Prêmio Netflix: Um Marco e uma Lição Amarga em Machine Learning

2025-02-05
O Prêmio Netflix: Um Marco e uma Lição Amarga em Machine Learning

Em 2006, a Netflix lançou uma competição de um milhão de dólares para melhorar seu sistema de recomendação. Essa competição atraiu milhares de equipes e avançou significativamente o campo de aprendizado de máquina. Os resultados mostraram que algoritmos simples podiam surpreendentemente ter um bom desempenho, modelos maiores produziam pontuações melhores e o overfitting nem sempre era uma preocupação. No entanto, a competição também deixou uma lição amarga: preocupações com a privacidade de dados levaram a Netflix a cancelar competições futuras, limitando a pesquisa aberta em algoritmos de sistemas de recomendação, e o controle das empresas de tecnologia sobre os dados atingiu um nível sem precedentes.

IA

Modelo de IA de US$ 6 abala o cenário de LLM: Apresentando o S1

2025-02-05
Modelo de IA de US$ 6 abala o cenário de LLM: Apresentando o S1

Um novo artigo revela o S1, um modelo de IA treinado por meros US$ 6, atingindo desempenho próximo ao estado da arte, enquanto roda em um laptop padrão. O segredo está em seu método engenhoso de 'escalonamento de tempo de inferência': inserindo comandos 'Esperar' durante o processo de pensamento do LLM, ele controla o tempo de pensamento e otimiza o desempenho. Isso reflete a técnica Entropix, ambas manipulando estados internos do modelo para melhoria. A frugalidade extrema de dados do S1, usando apenas 1000 exemplos cuidadosamente selecionados, produz resultados surpreendentemente bons, abrindo novas vias para pesquisa em IA e gerando discussões sobre destilação de modelos e propriedade intelectual. O baixo custo e a alta eficiência do S1 sinalizam um ritmo mais acelerado de desenvolvimento de IA.

Toma: Construindo uma força de trabalho de IA para a indústria automobilística de US$ 1,5 trilhão

2025-02-05
Toma: Construindo uma força de trabalho de IA para a indústria automobilística de US$ 1,5 trilhão

A Toma está construindo uma força de trabalho de IA de ponta a ponta para a indústria automobilística de US$ 1,5 trilhão. Seus maiores clientes gastam mais de US$ 1,5 bilhão anualmente em processos que podem ser facilmente automatizados com IA, incluindo atendimento ao cliente, gerenciamento de ordens de reparo, processamento de garantia e vendas. A equipe da Toma possui um histórico comprovado de criação e venda de aplicativos de IA de sucesso, um produto de IA de voz de primeira classe e experiência prática profunda obtida trabalhando diretamente com e estudando concessionárias de automóveis. Eles operam com uma abordagem orientada a equipe, responsável, enfatizando decisões baseadas em dados e fornecendo autonomia significativa. Localizada no bairro Dogpatch de São Francisco, a Toma oferece um ambiente acelerado e sem enrolação onde pessoas excepcionais podem causar um impacto substancial. Trabalham no escritório cinco dias por semana.

IA

Google remove compromisso com IA para armas e vigilância

2025-02-04
Google remove compromisso com IA para armas e vigilância

O Google removeu silenciosamente esta semana, de seu site, um compromisso de não desenvolver IA para armas ou vigilância. A mudança, inicialmente relatada pela Bloomberg, gerou controvérsia. Embora o Google agora enfatize o desenvolvimento responsável de IA alinhado com o direito internacional e os direitos humanos, seus contratos com os militares dos EUA e de Israel, juntamente com alegações do Pentágono de que a IA do Google está acelerando a 'cadeia de morte' militar, levantam preocupações sobre a lacuna entre seus princípios declarados e ações. Protestos internos de funcionários e escrutínio público destacam os dilemas éticos em torno do desenvolvimento e implantação de IA.

A Alquimia do Treinamento Eficiente de LLMs: Além dos Limites de Computação

2025-02-04

Este artigo mergulha no treinamento eficiente de modelos de linguagem grandes (LLMs) em escala massiva. O autor argumenta que, mesmo com dezenas de milhares de aceleradores, princípios relativamente simples podem melhorar significativamente o desempenho do modelo. Os tópicos abordados incluem avaliação de desempenho do modelo, escolha de esquemas de paralelismo em diferentes escalas, estimativa do custo e tempo de treinamento de modelos grandes de Transformer e design de algoritmos que aproveitam vantagens de hardware específicas. Por meio de explicações detalhadas das arquiteturas de TPU e GPU e uma análise detalhada da arquitetura Transformer, os leitores obterão uma compreensão melhor dos gargalos de dimensionamento e projetarão modelos e algoritmos mais eficientes.

OmniHuman-1: Repensando a Escalabilidade de Modelos de Animação Humana Condicionada de Uma Etapa

2025-02-04

OmniHuman-1 é um modelo de IA capaz de gerar vídeos realistas de humanos. Ele suporta vários estilos visuais e de áudio, gerando vídeos em qualquer proporção e proporção corporal (retrato, meio corpo, corpo inteiro). O realismo provém de detalhes abrangentes de movimento, iluminação e textura. O modelo lida com entradas diversas, incluindo canto, fala e várias poses, mesmo de desenhos animados ou pontos de vista desafiadores. Ele utiliza sinais de condução de áudio e vídeo para controle preciso. Considerações éticas são abordadas, com imagens e áudio originários de domínios públicos ou modelos gerados.

Radiant Foam: Avanço no Ray Tracing Diferenciável em Tempo Real

2025-02-04

Pesquisadores apresentam Radiant Foam, uma nova representação de cena que combina a eficiência do rastreamento de raio de malha volumétrica com a qualidade de reconstrução dos métodos de splatting. Aproveitando diagramas de Voronoi e triangulação de Delaunay, o Radiant Foam consegue fazer rastreamento de raio em tempo real, superando até mesmo o rastreamento de raio gaussiano acelerado por hardware em velocidade, enquanto quase iguala a qualidade de reconstrução dos métodos de splatting gaussianos. Evita estruturas de aceleração complexas e hardware/APIs especiais, requerendo apenas uma GPU programável padrão. Essa descoberta promete avançar significativamente o processamento de renderização em tempo real.

OpenAI fecha acordo de US$ 3 bilhões com SoftBank e pode abrir o código-fonte de seus modelos

2025-02-04
OpenAI fecha acordo de US$ 3 bilhões com SoftBank e pode abrir o código-fonte de seus modelos

A OpenAI anunciou na segunda-feira uma joint venture com a SoftBank do Japão, com o gigante de investimentos gastando US$ 3 bilhões por ano para usar o software da OpenAI. Essa mudança de estratégia parece ser uma resposta à ascensão inesperada da DeepSeek. O modelo de inteligência artificial de ponta da empresa chinesa usa apenas uma fração da capacidade de computação do ChatGPT da OpenAI e produtos similares, subvertendo suposições generalizadas sobre os requisitos técnicos e financeiros da expansão da IA. Enquanto isso, o CEO da OpenAI, Sam Altman, disse que estava considerando tornar seus produtos open-source, como os da DeepSeek, o que potencialmente significaria que qualquer pessoa poderia usar e reutilizar os modelos da OpenAI: Altman disse no Reddit que a OpenAI estava "do lado errado da história" ao manter seu código-fonte privado.

IA

Bonobos demonstram que entendem a ignorância: Uma descoberta inovadora em pesquisa sobre Teoria da Mente

2025-02-04
Bonobos demonstram que entendem a ignorância: Uma descoberta inovadora em pesquisa sobre Teoria da Mente

Um novo estudo demonstra que bonobos possuem teoria da mente, compreendendo a falta de conhecimento de outros e agindo de acordo. Os pesquisadores projetaram um experimento em que bonobos ajudavam um experimentador a encontrar guloseimas escondidas. Os resultados mostraram que os bonobos apontavam mais rápido e com mais frequência quando percebiam que o experimentador não sabia a localização da guloseima. Isso indica que os bonobos rastreiam e respondem a perspectivas diferentes, sugerindo que a teoria da mente pode ser mais antiga do que se pensava anteriormente e potencialmente presente em nosso ancestral comum.

Auto-AVSR: Framework de Reconhecimento de Fala por Leitura Labial de Código Aberto

2025-02-03
Auto-AVSR: Framework de Reconhecimento de Fala por Leitura Labial de Código Aberto

O Auto-AVSR é um framework de código aberto para reconhecimento de fala audio-visual (AV-ASR) de ponta a ponta, com foco na fala visual (leitura labial). Ele atingiu uma taxa de erro de palavras (WER) de 20,3% para reconhecimento de fala visual (VSR) e 1,0% para reconhecimento de fala de áudio (ASR) no benchmark LRS3. Oferece código e tutoriais para treinamento, avaliação e uso da API, com suporte para treinamento em vários nós. Os usuários podem usar modelos pré-treinados ou treinar do zero, personalizando os hiperparâmetros conforme necessário.

OpenEuroLLM: A Europa Impulsiona LLMs Multilíngues de Código Aberto

2025-02-03

Um consórcio de 20 instituições de pesquisa e empresas líderes na Europa lançou o OpenEuroLLM, um projeto para construir uma família de modelos de linguagem amplos (LLMs) multilíngues de alto desempenho. A iniciativa visa impulsionar a competitividade da IA ​​na Europa, democratizando o acesso a tecnologias de IA de alta qualidade por meio de princípios de código aberto. Isso capacitará empresas e organizações públicas europeias a desenvolver produtos e serviços impactantes. O OpenEuroLLM opera dentro da estrutura regulatória da Europa e colabora com comunidades de código aberto para garantir a abertura completa de modelos, software, dados e avaliação, atendendo às diversas necessidades dos setores público e privado, preservando a diversidade linguística e cultural.

Documento de treinamento da IBM perdido: computadores não podem ser responsabilizados (1979)

2025-02-03
Documento de treinamento da IBM perdido: computadores não podem ser responsabilizados (1979)

Uma página lendária de um treinamento interno da IBM de 1979 ressurgiu online, afirmando 'Um computador nunca pode ser responsabilizado; portanto, um computador nunca deve tomar uma decisão de gerenciamento.' A fonte original foi perdida, supostamente destruída por uma inundação. Essa declaração ressoa poderosamente em nossa era impulsionada pela IA, levando à reflexão sobre a responsabilidade e a tomada de decisões da IA.

s1: Escalonamento Simples em Tempo de Teste para Raciocínio Robusto

2025-02-03
s1: Escalonamento Simples em Tempo de Teste para Raciocínio Robusto

Este artigo apresenta s1, um método simples de escalonamento em tempo de teste que alcança um desempenho de raciocínio robusto, igualando o o1-preview usando apenas 1.000 exemplos e restrição de orçamento. O método melhora significativamente o desempenho em modelos de linguagem grandes por meio de estratégias inteligentes em tempo de teste. O código e os dados são de código aberto para reprodutibilidade e exploração adicional.

Classificadores Constitucionais da Anthropic: Uma Nova Defesa Contra Jailbreaks de IA

2025-02-03
Classificadores Constitucionais da Anthropic: Uma Nova Defesa Contra Jailbreaks de IA

A equipe de pesquisa de salvaguardas da Anthropic apresenta os Classificadores Constitucionais, uma nova defesa contra jailbreaks de IA. Este sistema, treinado em dados sintéticos, filtra eficazmente saídas prejudiciais, minimizando falsos positivos. Um protótipo resistiu a milhares de horas de red teaming humano, reduzindo significativamente as taxas de sucesso de jailbreaks, embora inicialmente sofresse de altas taxas de recusa e sobrecarga computacional. Uma versão atualizada mantém a robustez com apenas um pequeno aumento na taxa de recusa e custo computacional moderado. Uma demonstração ao vivo temporária convida especialistas em segurança para testar sua resiliência, preparando o caminho para a implantação mais segura de modelos de IA cada vez mais poderosos.

Klarity: Desvendando a Incerteza em Modelos Generativos

2025-02-03
Klarity: Desvendando a Incerteza em Modelos Generativos

Klarity é uma ferramenta para analisar a incerteza nas saídas de modelos generativos. Ela combina análise de probabilidade bruta e compreensão semântica para fornecer insights profundos sobre o comportamento do modelo durante a geração de texto. A biblioteca oferece análise de entropia dupla, agrupamento semântico e saída JSON estruturada, além de análise com IA para insights legíveis por humanos. Atualmente suporta Hugging Face Transformers, com planos para suporte a frameworks e modelos mais amplos.

Mapeamento de Projeção Facial Dinâmica Alinhado Perceptualmente: Rastreamento de Alta Velocidade e Configuração Coaxial

2025-02-03
Mapeamento de Projeção Facial Dinâmica Alinhado Perceptualmente: Rastreamento de Alta Velocidade e Configuração Coaxial

Pesquisadores desenvolveram um novo sistema de mapeamento de projeção facial dinâmica (DFPM) de alta velocidade que reduz significativamente artefatos de desalinhamento. Isso é alcançado por meio de um método de rastreamento facial de alta velocidade usando uma detecção de face baseada em interpolação/extrapólação limitada a área cortada e um conjunto rápido de árvores de regressão (ERT) para detecção de pontos de referência (0,107 ms). Uma configuração de projetor-câmera coaxial com deslocamento de lente mantém o alinhamento óptico alto com erro mínimo (1,274 pixels entre 1 me 2 m). Este sistema atinge um alinhamento quase perfeito, melhorando as experiências imersivas em maquiagem e entretenimento.

Introdução à Epistemologia Bayesiana: Credibilidade, Evidência e Racionalidade

2025-02-03

Este tutorial introduz a epistemologia bayesiana, focando em suas normas centrais: probabilismo e o princípio da condicionalização. Usando a observação do eclipse solar de Eddington como um estudo de caso, ele ilustra como os métodos bayesianos atualizam a crença em hipóteses. O tutorial então explora discordâncias dentro do bayesianismo a respeito de probabilidades a priori, coerência e o escopo da condicionalização, apresentando argumentos fundamentais como argumentos de livros holandeses, argumentos de dominância de precisão e argumentos de probabilidade comparativa. Finalmente, aborda o problema da idealização e a aplicação de métodos bayesianos na ciência.

Pensamento Real vs. Pensamento Falso: Mantendo-se Desperto na Era da IA

2025-02-03
Pensamento Real vs. Pensamento Falso: Mantendo-se Desperto na Era da IA

Este ensaio explora a diferença entre 'pensamento real' e 'pensamento falso'. O autor argumenta que 'pensamento real' não é simplesmente pensar em coisas concretas, mas uma maneira de pensar mais profunda e perspicaz que se concentra em realmente entender o mundo, em vez de permanecer preso a conceitos abstratos ou estruturas preexistentes. Usando exemplos como risco de IA, filosofia e debate competitivo, o ensaio descreve várias dimensões do 'pensamento real' e sugere métodos para cultivar essa capacidade, como desacelerar, seguir a curiosidade e prestar atenção às motivações por trás do pensamento. O autor apela para manter-se desperto na era da IA, evitando as armadilhas do 'pensamento falso' e realmente entendendo e respondendo às mudanças que se aproximam.

TopoNets: Modelos de Visão e Linguagem de Alto Desempenho com Topografia Semelhante ao Cérebro

2025-02-03
TopoNets: Modelos de Visão e Linguagem de Alto Desempenho com Topografia Semelhante ao Cérebro

Pesquisadores apresentam o TopoLoss, um novo método para incorporar topografia semelhante ao cérebro em arquiteturas de IA líderes (redes convolucionais e transformadores) com perda mínima de desempenho. Os TopoNets resultantes alcançam desempenho de ponta entre as redes neurais topográficas supervisionadas. O TopoLoss é fácil de implementar, e experimentos mostram que os TopoNets mantêm alto desempenho enquanto exibem organização espacial semelhante ao cérebro. Além disso, os TopoNets produzem modelos de linguagem esparsos e eficientes em termos de parâmetros e demonstram seletividade regional semelhante ao cérebro no reconhecimento de imagens e janelas de integração temporal em modelos de linguagem, espelhando padrões observados no córtex visual e nas áreas de processamento de linguagem do cérebro.

IA

Projeto 'Strawberry' da OpenAI: Visando o Raciocínio Profundo em IA

2025-02-03
Projeto 'Strawberry' da OpenAI: Visando o Raciocínio Profundo em IA

A OpenAI está desenvolvendo secretamente um projeto com o nome de código "Strawberry", com o objetivo de superar as limitações nas capacidades de raciocínio dos modelos de IA atuais. O projeto visa permitir que a IA planeje e conduza pesquisas profundas na internet de forma autônoma, em vez de simplesmente responder a perguntas. Documentos internos revelam que o modelo "Strawberry" utilizará um método de pós-treinamento especializado, combinado com capacidades de autoaprendizagem e planejamento, para resolver problemas complexos de forma confiável. Isso é considerado um avanço significativo, com potencial para revolucionar o papel da IA na descoberta científica e no desenvolvimento de software, ao mesmo tempo em que levanta preocupações éticas sobre as capacidades futuras da IA.

Chatbot chinês DeepSeek censura foto do 'Homem do Tanque' e abala os mercados americanos

2025-02-02
Chatbot chinês DeepSeek censura foto do 'Homem do Tanque' e abala os mercados americanos

O chatbot chinês DeepSeek gerou controvérsia ao se recusar a responder perguntas sobre a icônica foto do 'Homem do Tanque' da Praça da Paz Celestial de 1989. O chatbot interrompe abruptamente as discussões sobre a imagem e outros tópicos sensíveis relacionados à China, enquanto fornece respostas detalhadas sobre líderes mundiais como o primeiro-ministro do Reino Unido. Simultaneamente, as poderosas capacidades de geração de imagens do DeepSeek (Janus-Pro-7B) e seu surpreendentemente baixo custo de desenvolvimento (relativamente apenas US$ 6 milhões) enviaram ondas de choque pelos mercados americanos, causando uma queda recorde de 17% nas ações da Nvidia e provocando preocupação de gigantes de tecnologia americanos e políticos.

Autor de Ficção Científica Ted Chiang sobre IA e o Futuro da Tecnologia

2025-02-02
Autor de Ficção Científica Ted Chiang sobre IA e o Futuro da Tecnologia

Esta entrevista com o mestre de ficção científica Ted Chiang explora sua inspiração criativa, sua perspectiva crítica sobre IA e suas preocupações sobre a direção futura da tecnologia. Chiang argumenta que a IA atual, especialmente os grandes modelos de linguagem, são mais como imagens de baixa resolução da internet, faltando confiabilidade e compreensão verdadeira. Ele enfatiza o relacionamento entre humanos e ferramentas e a tendência humana de se ver em suas ferramentas. A entrevista também aborda a natureza da linguagem, o papel da IA na criação artística e considerações éticas no desenvolvimento tecnológico. O otimismo de Chiang sobre a tecnologia é cauteloso; ele acredita que precisamos estar atentos aos potenciais impactos negativos e trabalhar para mitigar seus danos.

IA
1 2 36 37 38 40 42 43 44 51 52