Alinhando recursos polinomiais com a distribuição de dados: O problema de atenção-alinhamento em ML

2025-08-26
Alinhando recursos polinomiais com a distribuição de dados: O problema de atenção-alinhamento em ML

Esta publicação explora o alinhamento de recursos polinomiais com a distribuição de dados para melhorar o desempenho do modelo de aprendizado de máquina. Bases ortogonais produzem recursos informativos quando os dados são distribuídos uniformemente, mas os dados do mundo real não são. Duas abordagens são apresentadas: um truque de mapeamento, transformando dados em uma distribuição uniforme antes de aplicar uma base ortogonal; e multiplicando por uma função cuidadosamente escolhida para ajustar a função de peso da base ortogonal para se alinhar com a distribuição de dados. A primeira é mais prática, atingível com o QuantileTransformer do Scikit-Learn. A segunda é mais complexa, exigindo um conhecimento matemático mais profundo e ajustes finos. Experimentos no conjunto de dados de moradias da Califórnia mostram que recursos quase ortogonais do primeiro método superam o dimensionamento mínimo-máximo tradicional na regressão linear.

Leia mais

Desvendando o Mito dos Polinômios de Alto Grau na Regressão

2025-04-22
Desvendando o Mito dos Polinômios de Alto Grau na Regressão

A crença comum de que polinômios de alto grau são propensos a overfitting e difíceis de controlar na aprendizagem de máquina é questionada neste artigo. O autor argumenta que o problema não são os polinômios de alto grau em si, mas sim o uso de funções de base inadequadas, como a base padrão. Experimentos comparando as bases padrão, Chebyshev e Legendre com a base de Bernstein na adequação de dados ruidosos demonstram que a base de Bernstein, com seus coeficientes compartilhando as mesmas 'unidades' e sendo facilmente regularizadas, evita efetivamente o overfitting. Mesmo polinômios de alto grau produzem ajustes excelentes usando a base de Bernstein, exigindo ajuste mínimo de hiperparâmetros.

Leia mais