Dimensiones de incrustación: De 300 a 4096 y más allá

2025-09-08
Dimensiones de incrustación: De 300 a 4096 y más allá

Hace unos años, las incrustaciones de 200 a 300 dimensiones eran comunes. Sin embargo, con el auge de los modelos de aprendizaje profundo como BERT y GPT, y los avances en la computación GPU, la dimensionalidad de las incrustaciones ha explotado. Hemos visto una progresión de las 768 dimensiones de BERT a las 1536 de GPT-3 y ahora modelos con 4096 dimensiones o más. Esto se debe a cambios arquitectónicos (Transformadores), conjuntos de datos de entrenamiento más grandes, el auge de plataformas como Hugging Face y los avances en las bases de datos vectoriales. Si bien el aumento de la dimensionalidad ofrece ganancias de rendimiento, también introduce desafíos de almacenamiento e inferencia. Investigaciones recientes exploran representaciones de incrustaciones más eficientes, como el aprendizaje Matryoshka, buscando un mejor equilibrio entre rendimiento y eficiencia.

Leer más

Muestreo de Big Data: Muestras pequeñas, grandes respuestas

2025-05-31
Muestreo de Big Data: Muestras pequeñas, grandes respuestas

En una entrevista reciente, Hadley Wickham destacó que muchos problemas de big data son, en realidad, problemas de datos pequeños, dado el subconjunto, muestra o resumen correctos. Esta publicación profundiza en el muestreo eficiente para el análisis de big data. Utilizando el ejemplo de Goatly, una empresa que atiende cabras narcolépticas, el autor demuestra cómo calcular el tamaño de muestra apropiado para la regresión logística. La conclusión es que se necesitan aproximadamente 2345 muestras para representar con precisión 100.000 granjas. La publicación también detalla scripts de Python y herramientas online para el cálculo del tamaño de la muestra, y trata brevemente el concepto de potencia estadística.

Leer más

Hacker News: Una década de crecimiento en tecnología

2025-03-18
Hacker News: Una década de crecimiento en tecnología

Comenzando en 2011, el autor comenzó a usar Hacker News, inicialmente entendiendo muy poco de la jerga técnica y de las empresas mencionadas. Sin embargo, mediante la lectura diaria y las inmersiones profundas en conceptos desconocidos, el autor se transformó de un analista de datos en un ingeniero que confía en implementar código para millones de usuarios. Hacker News proporcionó no solo recursos de aprendizaje, sino también una comunidad de apoyo, ayudando al autor a mejorar las habilidades técnicas y la escritura, lo que llevó a un salto significativo en su carrera.

Leer más

LLM: Explorando las capacidades aritméticas en la búsqueda de la IAG

2024-12-24
LLM: Explorando las capacidades aritméticas en la búsqueda de la IAG

Este artículo explora por qué se están utilizando los modelos de lenguaje grandes (LLM) para realizar cálculos. Si bien los LLM sobresalen en el procesamiento del lenguaje natural, los investigadores están intentando que realicen operaciones matemáticas, desde la simple suma hasta la demostración de teoremas complejos. Esto no tiene como objetivo reemplazar a las calculadoras, sino explorar las capacidades de razonamiento de los LLM y, en última instancia, lograr la inteligencia artificial general (IAG). El artículo señala que los humanos siempre han intentado utilizar nuevas tecnologías para el cálculo, y probar las habilidades matemáticas de los LLM es una forma de probar sus capacidades de razonamiento. Sin embargo, el proceso de los LLM para realizar cálculos es drásticamente diferente al de las calculadoras; el primero se basa en vastas bases de conocimiento y modelos probabilísticos, mientras que el segundo se basa en algoritmos deterministas. Por lo tanto, los resultados del cálculo de LLM no siempre son precisos y fiables, lo que pone de manifiesto la compensación entre la practicidad y la investigación.

Leer más