Uma Visão Pragmática de um Cientista de Dados Sênior sobre IA Generativa

2025-05-05
Uma Visão Pragmática de um Cientista de Dados Sênior sobre IA Generativa

Um cientista de dados sênior do BuzzFeed compartilha sua abordagem pragmática para o uso de modelos de linguagem grandes (LLMs). Ele não vê os LLMs como uma solução mágica, mas sim como uma ferramenta para aumentar a eficiência, destacando a importância da engenharia de prompts. O artigo detalha seu uso bem-sucedido de LLMs para tarefas como categorização de dados, resumo de texto e geração de código, ao mesmo tempo em que reconhece suas limitações, particularmente em cenários complexos de ciência de dados onde a precisão e a eficiência podem ser prejudicadas. Ele argumenta que os LLMs não são uma panacéia, mas, quando usados ​​com sabedoria, podem aumentar significativamente a produtividade. A chave está em selecionar a ferramenta certa para o trabalho.

Leia mais
IA

Além de Bancos de Dados Vetoriais: Processamento Eficiente de Embeddings de Texto com Parquet e Polars

2025-02-24
Além de Bancos de Dados Vetoriais: Processamento Eficiente de Embeddings de Texto com Parquet e Polars

Este artigo apresenta um método para processamento eficiente de embeddings de texto sem depender de bancos de dados vetoriais. O autor usa arquivos Parquet para armazenar dados tabulares contendo embeddings de cartas de Magic: The Gathering e seus metadados, e utiliza a biblioteca Polars para busca de similaridade rápida e filtragem de dados. O recurso de cópia zero do Polars e o excelente suporte para dados aninhados tornam essa abordagem mais rápida e eficiente do que os métodos tradicionais de CSV ou Pickle, mantendo alto desempenho mesmo ao filtrar o conjunto de dados. O autor compara outros métodos de armazenamento, como CSV, Pickle e NumPy, concluindo que Parquet combinado com Polars é a escolha ideal para lidar com embeddings de texto de tamanho médio, sendo bancos de dados vetoriais necessários apenas para conjuntos de dados extremamente grandes.

Leia mais
Desenvolvimento embeddings de texto

LLMs podem escrever código melhor se você continuar pedindo para eles “escreverem um código melhor”?

2025-01-03
LLMs podem escrever código melhor se você continuar pedindo para eles “escreverem um código melhor”?

Esta postagem de blog detalha um experimento explorando se solicitar repetidamente a um Modelo de Linguagem Grande (LLM) para “escrever um código melhor” melhora a qualidade do código. Usando o Claude 3.5 Sonnet, o autor começa com um problema simples de codificação Python e solicita iterativamente o LLM. O desempenho melhora dramaticamente, atingindo uma aceleração de 100x. No entanto, solicitações iterativas simples levam à superengenharia. A engenharia de prompts precisa produz código muito mais eficiente. O experimento mostra que os LLMs podem auxiliar na otimização de código, mas a intervenção humana e a experiência permanecem cruciais para a qualidade e eficiência.

Leia mais