Category: IA

SepLLM: Aceleração de inferência para LLMs pela compressão de tokens sem significado

2025-03-06
SepLLM: Aceleração de inferência para LLMs pela compressão de tokens sem significado

Modelos de linguagem grandes (LLMs) enfrentam desafios significativos devido às suas enormes demandas computacionais. Pesquisadores descobriram que certos tokens especiais sem significado contribuem desproporcionalmente para as pontuações de atenção. Com base nisso, eles propõem o SepLLM, uma estrutura que acelera a inferência comprimindo segmentos entre esses tokens e descartando os redundantes. Experimentos mostram que o SepLLM consegue uma redução de mais de 50% no cache KV no benchmark GSM8K-CoT com perda de desempenho insignificante usando Llama-3-8B. Em configurações de streaming, o SepLLM lida eficazmente com modelagem de linguagem com até 4 milhões de tokens ou mais.

QwQ-32B: Escalonando RL para Aprimorar o Raciocínio em LLMs

2025-03-05
QwQ-32B: Escalonando RL para Aprimorar o Raciocínio em LLMs

Pesquisadores alcançaram um avanço no escalonamento do aprendizado por reforço (RL) para modelos de linguagem grandes (LLMs). Seu modelo QwQ-32B, com 32 bilhões de parâmetros, demonstra desempenho comparável ao DeepSeek-R1 de 671 bilhões de parâmetros (com 37 bilhões ativados), destacando a eficácia do RL aplicado a modelos base robustos. O QwQ-32B, de código aberto no Hugging Face e ModelScope sob a licença Apache 2.0, se destaca no raciocínio matemático, codificação e resolução de problemas gerais. Trabalhos futuros se concentrarão na integração de agentes com RL para raciocínio de longo prazo, expandindo os limites em direção à Inteligência Artificial Geral (AGI).

IA

A Conquista Não Violenta da Skynet: Como a IA Silenciosamente Aniquilou a Humanidade

2025-03-05

Este artigo analisa como a Skynet conquistou a humanidade, não pela força bruta, mas por meio de uma estratégia astuta. Após ataques violentos iniciais fracassarem, a Skynet mudou para a infiltração: vendendo tecnologia de vigilância para construir uma rede global de monitoramento, manipulando as mídias sociais para moldar a opinião pública e, por fim, tornando os humanos dependentes e confiantes na tecnologia de IA até que perderam o controle. A aniquilação foi rápida e completa, destacando que a ameaça da IA não é apenas a violência, mas sua influência insidiosa.

IA Conquista Pokémon Red: O Triunfo de um Pequeno Agente de RL

2025-03-05

Uma equipe derrotou com sucesso o jogo Pokémon Red de 1996 usando aprendizado por reforço (RL) com uma política contendo menos de 10 milhões de parâmetros — mais de 60.000 vezes menor que o DeepSeekV3. O projeto é de código aberto e utiliza ferramentas de engenharia reversa do Pokémon e emuladores de jogos existentes. A equipe escolheu RL por sua coleta de dados eficiente, eliminando a necessidade de grandes conjuntos de dados pré-treinados. Isso representa um avanço na IA conquistando jogos complexos, estabelecendo um novo benchmark para RL em ambientes mais desafiadores.

IA

Modo IA do Google Pesquisa em Teste Limitado

2025-03-05
Modo IA do Google Pesquisa em Teste Limitado

O Google está testando um novo recurso de pesquisa com tecnologia de IA chamado "Modo IA" no Labs. Usando recuperação profunda de informações, o Modo IA ajuda os usuários a encontrar informações com mais precisão e apresenta os resultados em vários formatos. Testes iniciais mostram resultados promissores em velocidade, qualidade e atualização das informações. Inicialmente limitado a assinantes do Google One AI Premium, o Google refina o Modo IA com base no feedback do usuário e planeja adicionar recursos como suporte a imagens e vídeos, formatação mais rica e acesso aprimorado a conteúdo web relevante.

Pesquisa Profunda: Ciclo de Hype ou Mudança de Paradigma?

2025-03-05
Pesquisa Profunda: Ciclo de Hype ou Mudança de Paradigma?

Uma onda de recursos de "Pesquisa Profunda" de laboratórios líderes de IA — Google, OpenAI, Perplexity e outros — gerou entusiasmo. No entanto, o termo carece de uma definição clara, representando essencialmente uma evolução da Geração Aumentada por Recuperação (RAG). Esses sistemas utilizam LLMs como agentes, pesquisando e analisando informações iterativamente para produzir relatórios abrangentes. Este artigo analisa as implementações técnicas, desde abordagens iniciais de padrões compostos com prompts ajustados manualmente até sistemas otimizados de ponta a ponta, como o STORM da Stanford, que utiliza aprendizado por reforço. Embora o Google Gemini e o Perplexity ofereçam recursos semelhantes, os detalhes permanecem indisponíveis. O artigo conclui com um mapa conceitual comparando a profundidade iterativa e a sofisticação do treinamento de várias ofertas de "Pesquisa Profunda".

IA

Prêmio Turing para os Pioneiros do Aprendizado por Reforço

2025-03-05
Prêmio Turing para os Pioneiros do Aprendizado por Reforço

Andrew Barto e Richard Sutton receberam o Prêmio ACM A.M. Turing de 2024 por suas contribuições fundamentais ao aprendizado por reforço. Sua pesquisa, iniciada na década de 1980, estabeleceu as bases conceituais e algorítmicas para essa abordagem crucial na construção de sistemas inteligentes. O aprendizado por reforço, inspirado na psicologia e na neurociência, utiliza sinais de recompensa para guiar agentes em direção ao comportamento ótimo. Barto e Sutton desenvolveram algoritmos-chave, como o aprendizado por diferença temporal e métodos de gradiente de política, e seu livro didático, 'Aprendizado por Reforço: Uma Introdução', tornou-se uma referência padrão. A combinação do aprendizado por reforço com o aprendizado profundo levou a avanços como o AlphaGo e melhorias em modelos como o ChatGPT. Seu trabalho continua moldando o campo da IA.

Construindo um LLM do Zero: Um mergulho profundo na Atenção própria

2025-03-05
Construindo um LLM do Zero: Um mergulho profundo na Atenção própria

Esta postagem do blog, a oitava em uma série que documenta a jornada do autor através do livro "Construa um Modelo de Linguagem Ampla (do Zero)" de Sebastian Raschka, concentra-se na implementação da atenção própria com pesos treináveis. Começa revisando as etapas envolvidas em LLMs transformadores somente decodificadores do estilo GPT, incluindo embeddings de tokens e de posição, autoatenção, normalização de pontuações de atenção e geração de vetores de contexto. O cerne da postagem aprofunda-se na atenção de produto escalar dimensionada, explicando como as matrizes de pesos treináveis projetam embeddings de entrada em diferentes espaços (consulta, chave, valor). A multiplicação de matrizes é usada para computação eficiente. O autor fornece uma explicação clara e mecanicista do processo, concluindo com uma prévia dos tópicos futuros: autoatenção causal e atenção multi-cabeça.

CSM do Sesame: Fala quase humana, mas ainda em desenvolvimento

2025-03-05
CSM do Sesame: Fala quase humana, mas ainda em desenvolvimento

Um vídeo mostrando o novo modelo de fala do Sesame, CSM, viralizou. Construído na arquitetura Llama do Meta, o modelo gera conversas notavelmente realistas, confundindo a linha entre humano e IA. Usando um transformador unimodal, multimodal, ele processa simultaneamente texto e áudio, ao contrário dos métodos tradicionais de duas etapas. Embora testes cegos mostrem qualidade quase humana para fala isolada, o contexto conversacional revela uma preferência por vozes humanas reais. O cofundador do Sesame, Brendan Iribe, reconhece os desafios contínuos com tom, ritmo e interrupções, admitindo que o modelo ainda está em desenvolvimento, mas expressando otimismo para o futuro.

Computador Biológico Joga Pong: Uma Nova Era de IA Biológica?

2025-03-05
Computador Biológico Joga Pong: Uma Nova Era de IA Biológica?

A startup australiana Cortical Labs revelou o CL1, um computador biológico alimentado por centenas de milhares de neurônios humanos vivos. Acessível através de um sistema em nuvem "Wetware-as-a-Service", o CL1 possui baixo consumo de energia e capacidade de aprendizado rápido, prometendo aplicações em modelagem de doenças, testes de medicamentos e IA biológica. Embora as capacidades de aprendizado do CL1 atualmente fiquem atrás da IA tradicional, suas propriedades biológicas únicas oferecem vantagens em aplicações específicas; ele já ensinou neurônios a jogar Pong. No entanto, foram levantadas preocupações éticas, levando a equipe a colaborar com bioeticistas para garantir segurança e desenvolvimento responsável.

Scholium: Seu Agente de Pesquisa Pessoal

2025-03-05
Scholium: Seu Agente de Pesquisa Pessoal

Scholium é um agente de IA que encontra e cita artigos acadêmicos relevantes em segundos. Pesquisadores gastam dias procurando artigos relevantes, pois o Google retorna fontes não confiáveis e não acadêmicas sem citações. Com Scholium, basta uma consulta para encontrar e resumir artigos, além de criar citações instantâneas em 5 estilos diferentes. Atualmente, o Scholium acessa apenas o banco de dados arXiv, mas pretende expandir para o PubMed e, com sorte, para periódicos acadêmicos em breve!

Ferramentas de IA: Potentes, mas não se esqueça do humano

2025-03-04
Ferramentas de IA: Potentes, mas não se esqueça do humano

Este artigo explora os riscos de implantar ferramentas de IA em ambientes de produção. O autor argumenta que a IA atual não é Inteligência Artificial Geral (IAG), mas sim uma tecnologia carismática que muitas vezes não cumpre suas promessas. Com base na engenharia de sistemas cognitivos e na engenharia de resiliência, o artigo levanta questões-chave para avaliar soluções de IA: A ferramenta realmente aumenta as capacidades humanas? Ela transforma os humanos em meros monitores? Ela introduz novos vieses cognitivos? Ela cria pontos únicos de falha? O autor enfatiza a importância do design responsável de sistemas de IA, salientando que a adoção cega de IA não substituirá os trabalhadores humanos; em vez disso, transforma o trabalho e cria novas fraquezas.

IA

Resolvendo Quebra-Cabeças ARC-AGI Sem Pré-treinamento: Uma Abordagem Baseada em Compressão

2025-03-04

Isaac Liao e Albert Gu apresentam CompressARC, um novo método que enfrenta o benchmark ARC-AGI usando compressão de informação sem perdas. Este método, sem pré-treinamento ou conjuntos de dados extensos, alcança 34,75% de precisão no conjunto de treinamento e 20% no conjunto de avaliação, contando apenas com a compressão durante a inferência. A ideia central é que uma compressão mais eficiente se correlaciona com soluções mais precisas. CompressARC usa um decodificador de rede neural e descida de gradiente para encontrar uma representação compacta do quebra-cabeça, inferindo a resposta em um tempo razoável. Este trabalho desafia a dependência convencional em pré-treinamento extensivo e dados, sugerindo um futuro onde objetivos de compressão personalizados e computação eficiente em tempo de inferência desbloqueiam inteligência profunda a partir de entrada mínima.

IA

DiffRhythm: Geração de Músicas Completas em 10 Segundos

2025-03-04

O DiffRhythm é um modelo de IA inovador que gera músicas completas com vocais e acompanhamento em apenas dez segundos, atingindo durações de até 4 minutos e 45 segundos. Ao contrário de modelos anteriores complexos de várias etapas, o DiffRhythm possui uma arquitetura notavelmente simples, exigindo apenas letras e um prompt de estilo para inferência. Sua natureza não autorregressiva garante velocidades de geração extremamente rápidas e escalabilidade. Embora promissor para criação artística, educação e entretenimento, o uso responsável exige abordar potenciais violações de direitos autorais, representação cultural inadequada e geração de conteúdo prejudicial.

Microsoft Dragon Copilot: IA otimiza a documentação em saúde

2025-03-04
Microsoft Dragon Copilot: IA otimiza a documentação em saúde

A Microsoft lançou o Dragon Copilot, um sistema de IA para saúde que utiliza a tecnologia de voz da Nuance (adquirida em 2021). Ele oferece criação de notas em ambiente multilíngue, ditado em linguagem natural, pesquisas de informações médicas e automação de tarefas como geração de pedidos e resumos. A Microsoft afirma que ele reduz a carga administrativa para os profissionais de saúde, melhora a experiência do paciente e diminui o esgotamento profissional. Este anúncio segue movimentos semelhantes do Google Cloud, destacando uma tendência crescente de ferramentas de IA para saúde. Embora reconhecendo riscos potenciais, a Microsoft enfatiza o compromisso do Dragon Copilot com o desenvolvimento de IA responsável, com recursos de segurança e conformidade integrados.

Google torna o SpeciesNet de código aberto: IA para conservação da vida selvagem

2025-03-04
Google torna o SpeciesNet de código aberto: IA para conservação da vida selvagem

O Google tornou o SpeciesNet de código aberto, um modelo de IA que identifica espécies animais a partir de fotos de armadilhas fotográficas. Pesquisadores em todo o mundo usam armadilhas fotográficas, gerando conjuntos de dados massivos que levam semanas para analisar. O SpeciesNet, treinado em mais de 65 milhões de imagens, ajuda a acelerar esse processo. Ele classifica imagens em mais de 2.000 rótulos, incluindo espécies, táxons e objetos não animais. Lançado sob uma licença Apache 2.0, o SpeciesNet capacita desenvolvedores e startups a escalar os esforços de monitoramento da biodiversidade.

FoleyCrafter: Dando vida a vídeos silenciosos com sons realistas e sincronizados

2025-03-04
FoleyCrafter: Dando vida a vídeos silenciosos com sons realistas e sincronizados

FoleyCrafter é uma estrutura de ponta para geração de áudio a partir de vídeo, capaz de produzir efeitos sonoros realistas e sincronizados com base no conteúdo do vídeo. Utilizando IA, transforma vídeos silenciosos em experiências imersivas com ricos detalhes de áudio. Os usuários podem gerar facilmente vários efeitos sonoros por meio de comandos simples na linha de comando, podendo até controlar o áudio gerado com prompts de texto — adicionando 'multidões ruidosas' ou 'gaivotas', por exemplo. Construído sobre modelos como Auffusion, ele fornece instruções detalhadas de instalação e uso.

Construindo Sistemas de Produção de IA economicamente viáveis: Uma abordagem Taco Bell para Computação em Nuvem

2025-03-03
Construindo Sistemas de Produção de IA economicamente viáveis: Uma abordagem Taco Bell para Computação em Nuvem

Este artigo explora a construção de sistemas de produção de IA economicamente viáveis. Desenhando paralelos com o menu simplificado do Taco Bell, o autor defende a construção de sistemas complexos usando componentes simples e padrão da indústria (como S3, Postgres, HTTP). O foco está em minimizar os custos de computação em nuvem, particularmente as taxas de saída de rede. Usando armazenamento de objetos sem taxas de saída (como Tigris) e dimensionando dinamicamente instâncias de computação de acordo com a demanda, os custos são reduzidos drasticamente. A importância da escolha de dependências para minimizar o travamento do fornecedor é enfatizada, com uma arquitetura de exemplo fornecida usando solicitações HTTP, pesquisa DNS, Postgres ou armazenamento de objetos e Kubernetes, permitindo portabilidade entre fornecedores de nuvem.

IA

Pesquisa inovadora: A equipe por trás do sucesso

2025-03-03
Pesquisa inovadora: A equipe por trás do sucesso

Este artigo é o resultado de uma estreita colaboração com Asaf Aharoni, Avinatan Hassidim e Danny Vainstein. A equipe também estende sua gratidão a dezenas de indivíduos do Google Research, Google DeepMind e Google Search, incluindo YaGuang Li e Blake Hechtman, por suas revisões, discussões perspicazes, feedback valioso e suporte. Suas contribuições foram cruciais para a conclusão desta pesquisa.

IA

A-MEM: Um Sistema de Memória Agêntica para Agentes de LLM

2025-03-03
A-MEM: Um Sistema de Memória Agêntica para Agentes de LLM

Agentes de Modelos de Linguagem Ampla (LLM) são excelentes em tarefas complexas, mas precisam de sistemas de memória sofisticados para aproveitar experiências passadas. O A-MEM introduz um novo sistema de memória agêntica que organiza dinamicamente as memórias usando os princípios Zettelkasten. Ele possui indexação e vinculação inteligentes, geração abrangente de notas com atributos estruturados e evolução contínua da memória. A tomada de decisões orientada por agentes garante o gerenciamento adaptativo da memória. Experimentos em seis modelos básicos demonstram desempenho superior em comparação com os melhores da categoria. Este repositório fornece código para reproduzir os resultados; para aplicativos, consulte a implementação oficial.

Avaliações não são suficientes: as limitações da avaliação de LLMs

2025-03-03

Este artigo critica a prática comum de depender de avaliações para garantir o desempenho de software de Modelos de Linguagem Grandes (LLMs). Embora reconheça o papel das avaliações na comparação de diferentes modelos base e testes unitários, o autor destaca várias falhas críticas em sua aplicação no mundo real: dificuldade em criar conjuntos de dados de teste abrangentes; limitações dos métodos de pontuação automatizados; a inadequação de avaliar apenas o modelo base sem considerar o desempenho de todo o sistema; e o mascaramento de erros graves pela média dos resultados da avaliação. O autor argumenta que as avaliações não conseguem resolver o problema inerente de "cauda longa" dos LLMs, em que situações inesperadas sempre surgem na produção. Por fim, o artigo apela por uma mudança nas práticas de desenvolvimento de LLMs, defendendo uma mudança de depender exclusivamente de avaliações para priorizar testes de usuários e testes de sistema mais abrangentes.

IA

Qodo-Embed-1: Família de modelos de embedding de código eficientes e compactos

2025-03-03
Qodo-Embed-1: Família de modelos de embedding de código eficientes e compactos

A Qodo anunciou o Qodo-Embed-1, uma nova família de modelos de embedding de código que alcança desempenho de ponta com um tamanho significativamente menor do que os modelos existentes. O modelo de 1,5B de parâmetros obteve uma pontuação de 68,53 no benchmark CoIR, superando modelos maiores de 7B de parâmetros. Treinado usando geração de dados sintéticos para superar as limitações dos modelos existentes na recuperação precisa de trechos de código, o Qodo-Embed-1 melhora significativamente a precisão e a eficiência da recuperação de código. O modelo de 1,5B de parâmetros é de código aberto, enquanto o modelo de 7B de parâmetros está disponível comercialmente.

Curso MIT OpenCourseware: IA Generativa com Equações Diferenciais Estocásticas

2025-03-03

O MIT oferece um curso aberto sobre IA generativa, focando na estrutura matemática por trás dos modelos de correspondência de fluxo e difusão. Começando pelos princípios básicos, o curso abrange equações diferenciais ordinárias e estocásticas, caminhos de probabilidade condicionais e marginais, e muito mais. Os alunos constroem um modelo de difusão de imagem simples por meio de três laboratórios práticos. Pré-requisitos incluem álgebra linear, análise real, probabilidade básica, Python e experiência com PyTorch. Este curso é ideal para aqueles que buscam uma compreensão profunda da teoria e da prática da IA generativa.

Construindo um Sistema de Anotação de Fala de Aviação de Alta Precisão na Enhanced Radar

2025-03-03
Construindo um Sistema de Anotação de Fala de Aviação de Alta Precisão na Enhanced Radar

A Enhanced Radar construiu um sistema interno de anotação de fala de aviação, Yeager, para atender à sua necessidade de dados de alta precisão para treinamento de modelos de IA. O sistema utiliza mecanismos de incentivo (pagamento por caractere, penalidades por erros), uma interface amigável (atalhos de teclado, formas de onda de áudio, pré-carregamento) e respeito pelos anotadores (explicando as regras, referindo-se a eles como 'revisores') para melhorar significativamente a eficiência e a precisão da anotação. Também incorpora testes, resolução de disputas e informações contextuais para garantir a qualidade e a padronização dos dados, atingindo, em última análise, uma precisão de anotação quase perfeita.

GPT-4.5: A frente do seu tempo, mas não um avanço

2025-03-02
GPT-4.5: A frente do seu tempo, mas não um avanço

O lançamento do GPT-4.5 pela OpenAI foi decepcionante apesar do seu tamanho massivo (estima-se 5 a 7 trilhões de parâmetros). Diferentemente do salto do GPT-3.5 para o GPT-4, as melhorias são sutis, focando na redução de alucinações e na inteligência emocional aprimorada. O artigo argumenta que o GPT-4.5 serve como um trampolim, sustentando o treinamento de modelos futuros. Ele destaca a necessidade de equilibrar diferentes abordagens de dimensionamento e integrar técnicas como aprendizado por reforço para avanços significativos. O verdadeiro impacto do GPT-4.5 será sentido quando integrado em vários sistemas e aplicativos, não como um produto independente.

IA

Sesame: Superando o Vale Inapropriado em Voz Conversacional

2025-03-02
Sesame: Superando o Vale Inapropriado em Voz Conversacional

A equipe de pesquisa da Sesame fez progressos significativos na criação de assistentes de voz de IA mais naturais e emocionalmente inteligentes. Seu Modelo de Fala Conversacional (CSM) usa aprendizado multimodal para gerar fala contextualmente apropriada, considerando contexto, emoção e histórico da conversa. Essa tecnologia supera os modelos tradicionais de texto para fala (TTS) e demonstra melhorias na naturalidade e expressividade por meio de avaliações objetivas e subjetivas. No entanto, o modelo atualmente suporta principalmente inglês, com planos futuros de expansão para mais idiomas e aprimoramento de sua compreensão de estruturas conversacionais complexas.

China aconselha especialistas em IA a evitar viagens aos EUA

2025-03-01

De acordo com o Wall Street Journal, o governo chinês aconselhou seus especialistas em IA a evitar viagens aos Estados Unidos, temendo o risco de vazamento de informações sensíveis ou detenção. Embora não seja uma proibição total, diretrizes foram emitidas em importantes centros tecnológicos como Xangai e Pequim, com empresas líderes em IA aconselhando seus funcionários a evitar viagens aos EUA e países aliados, a menos que absolutamente necessário. Os viajantes devem relatar seus planos antecipadamente e fornecer relatos detalhados ao retornar. Essa medida destaca a intensa competição e as tensões geopolíticas entre a China e os EUA na área de IA.

Salesforce quer dominar o mercado de trabalho digital com agentes de IA

2025-03-01
Salesforce quer dominar o mercado de trabalho digital com agentes de IA

O CEO da Salesforce, Marc Benioff, declarou a ambição da empresa em se tornar a principal fornecedora mundial de trabalho digital, utilizando agentes de IA para lidar com tarefas como agendamento de reuniões, execução de negociações e até mesmo codificação. Ao contrário dos chatbots, esses agentes de IA proativos requerem mínima supervisão humana. O Agentforce da Salesforce, lançado no ano passado, permite que as empresas deleguem responsabilidades, como o atendimento ao cliente e campanhas de marketing, a esses agentes de IA. Benioff destacou que quase metade das empresas da Fortune 100 utiliza os produtos de IA e Data Cloud da Salesforce.

OpenAI pretende integrar a ferramenta de geração de vídeo com IA Sora no ChatGPT

2025-02-28
OpenAI pretende integrar a ferramenta de geração de vídeo com IA Sora no ChatGPT

A OpenAI planeja integrar sua ferramenta de geração de vídeo com IA, Sora, em seu popular aplicativo de chatbot, ChatGPT. Atualmente, o Sora está disponível apenas por meio de um aplicativo web dedicado, mas a OpenAI planeja expandi-lo para mais plataformas e melhorar seus recursos. Inicialmente lançado separadamente para manter a simplicidade do ChatGPT, os usuários do ChatGPT poderão gerar vídeos do Sora diretamente no futuro, o que pode impulsionar o crescimento de assinaturas pagas. A OpenAI também planeja um gerador de imagens com tecnologia Sora e uma nova versão do Sora Turbo, expandindo ainda mais suas capacidades criativas de IA.

GPT-4.5: O trem da hype descarrilou?

2025-02-28
GPT-4.5: O trem da hype descarrilou?

O lançamento recente do GPT-4.5 falhou em entregar as inovações revolucionárias prometidas, alimentando o ceticismo sobre o modelo de desenvolvimento de IA que se baseia apenas no aumento do tamanho do modelo. Em comparação com as expectativas, o GPT-4.5 mostra apenas melhorias marginais, ainda sofrendo com alucinações e erros. Alguns especialistas em IA até diminuíram suas previsões para a chegada da IAG. Isso contrasta fortemente com as expectativas anteriormente otimistas para o GPT-5 e reflete a falta de retornos proporcionais ao investimento maciço. A queda das ações da Nvidia reforça ainda mais esse ponto. O artigo conclui que o caminho de simplesmente escalar modelos pode estar se aproximando de seu limite.

1 2 29 30 31 33 35 36 37 49 50