Ein pragmatischer Blick eines Senior Data Scientists auf generative KI

2025-05-05
Ein pragmatischer Blick eines Senior Data Scientists auf generative KI

Ein Senior Data Scientist bei BuzzFeed teilt seinen pragmatischen Ansatz zur Nutzung großer Sprachmodelle (LLMs). Er sieht LLMs nicht als Allheilmittel, sondern als Werkzeug zur Effizienzsteigerung und betont die Bedeutung von Prompt Engineering. Der Artikel beschreibt die erfolgreiche Anwendung von LLMs für Aufgaben wie Datenkategorisierung, Textzusammenfassung und Codegenerierung, räumt aber auch deren Grenzen ein, insbesondere in komplexen Data-Science-Szenarien, wo Genauigkeit und Effizienz beeinträchtigt sein können. Er argumentiert, dass LLMs keine Allzwecklösung sind, aber bei kluger Anwendung die Produktivität deutlich steigern können. Der Schlüssel liegt in der Auswahl des richtigen Werkzeugs für die jeweilige Aufgabe.

Mehr lesen
KI

Jenseits von Vektor-Datenbanken: Effiziente Verarbeitung von Textelementen mit Parquet und Polars

2025-02-24
Jenseits von Vektor-Datenbanken: Effiziente Verarbeitung von Textelementen mit Parquet und Polars

Dieser Artikel präsentiert eine Methode zur effizienten Verarbeitung von Textelementen ohne Vektor-Datenbanken. Der Autor verwendet Parquet-Dateien, um tabellarische Daten zu speichern, die Textelement-Einbettungen von Magic: The Gathering-Karten und deren Metadaten enthalten, und nutzt die Bibliothek Polars für eine schnelle Ähnlichkeitssuche und Datenfilterung. Die Zero-Copy-Funktion von Polars und die hervorragende Unterstützung für verschachtelte Daten machen diesen Ansatz schneller und effizienter als traditionelle CSV- oder Pickle-Methoden und erhalten eine hohe Leistung, selbst beim Filtern des Datensatzes. Der Autor vergleicht andere Speichermethoden wie CSV, Pickle und NumPy und kommt zu dem Schluss, dass Parquet in Kombination mit Polars die optimale Wahl für die Verarbeitung mittelgroßer Textelement-Einbettungen ist, wobei Vektor-Datenbanken nur für extrem große Datensätze erforderlich sind.

Mehr lesen

Können LLMs besseren Code schreiben, wenn man sie immer wieder bittet, „besseren Code zu schreiben“?

2025-01-03
Können LLMs besseren Code schreiben, wenn man sie immer wieder bittet, „besseren Code zu schreiben“?

Dieser Blogbeitrag beschreibt ein Experiment, das untersucht, ob die wiederholte Aufforderung an ein Large Language Model (LLM), „besseren Code zu schreiben“, die Codequalität verbessert. Mit Claude 3.5 Sonnet beginnt der Autor mit einem einfachen Python-Codierproblem und fordert das LLM iterativ auf. Die Leistung verbessert sich drastisch und erreicht eine 100-fache Beschleunigung. Einfache iterative Aufforderungen führen jedoch zu Overengineering. Präzises Prompt Engineering erzeugt einen deutlich effizienteren Code. Das Experiment zeigt, dass LLMs die Codeoptimierung unterstützen können, aber menschliches Eingreifen und Fachwissen bleiben für Qualität und Effizienz unerlässlich.

Mehr lesen
Entwicklung Codeoptimierung