Anthropic enthüllt den „Ultradenken“-Modus von Claude Code

2025-04-20

Anthropic hat eine umfangreiche Dokumentation zu den Best Practices für sein Claude Code CLI-Coding-Agent-Tool veröffentlicht. Ein faszinierender Tipp enthüllt, dass die Verwendung von Wörtern wie „think“, „think hard“ usw. erweiterte Denkmodi auslöst. Diese Phrasen korrelieren direkt mit unterschiedlichen Denkbudgets; „ultrathink“ weist 31999 Token zu, während „think“ nur 4000 verwendet. Die Codeanalyse zeigt, dass diese Keywords Funktionen auslösen, die variable Token-Anzahl zuweisen, was sich auf die Denktiefe und die Ausgabe von Claude auswirkt. Dies deutet darauf hin, dass „ultrathink“ keine Funktion des Claude-Modells selbst ist, sondern eher eine spezifische Verbesserung von Claude Code.

Mehr lesen
KI

Verbesserter Ollama-Modell-Atom-Feed-Scraper mit Gemini 2.5 Pro

2025-03-26

Dieser Beitrag beschreibt die Erstellung eines von GitHub Actions und GitHub Pages betriebenen Atom-Feeds, der aktuelle Modelldaten von der Seite mit den neuesten Modellen von Ollama scrapet. Ursprünglich mit Claude erstellt, um HTML in Atom zu konvertieren, wurde das Skript mit Googles Gemini 2.5 Pro verfeinert. Das Update teilt die Ausgabe in zwei Feeds auf: einen mit allen Modellen und einen mit nur den 20 neuesten, wodurch Effizienz und Benutzerfreundlichkeit verbessert werden.

Mehr lesen
Entwicklung Modell-Scraping

Open-Source-Modell OLMo-2 übertrifft GPT-3.5? Einfache Einrichtung für Mac!

2025-03-18
Open-Source-Modell OLMo-2 übertrifft GPT-3.5? Einfache Einrichtung für Mac!

Das Open-Source-Sprachmodell OLMo-2 mit 32 Milliarden Parametern behauptet, GPT-3.5-Turbo und GPT-4 mini zu übertreffen. Alle Daten, der Code, die Gewichte und Details sind frei verfügbar. Dieser Beitrag beschreibt eine einfache Einrichtung für die Ausführung auf einem Mac mit dem llm-mlx-Plugin. Laden Sie das 17 GB große Modell mit wenigen Befehlen herunter und führen Sie interaktive Chats oder generieren Sie Bilder. Das Beispiel zeigt die Generierung eines SVG-Bildes eines Pelikans auf einem Fahrrad.

Mehr lesen
KI

Aiders clevere Installation: Virtuelle Umgebungen umgehen

2025-03-06

Paul Gauthier's Aider Kommandozeilen-Tool bietet eine innovative Installationsmethode, die die Komplexität virtueller Umgebungen für Endbenutzer umgeht. Ein einfacher Befehl `pip install aider-install && aider-install` nutzt das uv-Tool, um eine eigenständige Python 3.12 Umgebung zu installieren, Aider darin zu installieren und die PATH-Umgebungsvariable automatisch zu konfigurieren. Dies bietet eine sichere und einfache Installation für Python-Anfänger und eliminiert komplexe Einrichtungsschritte.

Mehr lesen
Entwicklung

LLM-Code-Halluzinationen: Nicht das Ende der Welt

2025-03-02

Eine häufige Beschwerde von Entwicklern, die LLMs für Code verwenden, ist das Auftreten von „Halluzinationen“ – das LLM erfindet nicht existierende Methoden oder Bibliotheken. Der Autor argumentiert jedoch, dass dies kein fataler Fehler ist. Code-Halluzinationen sind leicht durch Compiler-/Interpreter-Fehler erkennbar und können behoben werden, manchmal sogar automatisch durch fortschrittlichere Systeme. Das eigentliche Risiko liegt in nicht erkannten Fehlern, die erst zur Laufzeit auftreten und robuste manuelle Tests und QA-Fähigkeiten erfordern. Der Autor rät Entwicklern, ihre Fähigkeiten im Lesen, Verstehen und Überprüfen von Code zu verbessern und bietet Tipps zur Reduzierung von Halluzinationen, wie das Ausprobieren verschiedener Modelle, die effektive Nutzung des Kontexts und die Wahl etablierter Technologien. Die Fähigkeit, von LLMs generierten Code zu überprüfen, wird als wertvolle Kompetenzentwicklung dargestellt.

Mehr lesen
Entwicklung

LLM-Modell unter 100 MB jetzt per pip installierbar: Vorstellung von llm-smollm2

2025-02-07
LLM-Modell unter 100 MB jetzt per pip installierbar: Vorstellung von llm-smollm2

Ein neues Plugin, llm-smollm2, enthält ein quantisiertes SmolLM2-135M-Instruct LLM-Modell von unter 100 MB, wodurch es per pip installierbar ist. Der Autor beschreibt den Erstellungsprozess, von der Suche nach einem geeigneten Modell unter 100 MB (begrenzt durch die Größenbeschränkungen von PyPI) bis zur Unterdrückung der ausführlichen Protokollierung von llama-cpp-python und der Verpackung für PyPI. Obwohl die Fähigkeiten des Modells begrenzt sind, wird es als wertvolles Lernwerkzeug zum Verständnis der LLM-Technologie präsentiert.

Mehr lesen
Entwicklung Modellquantisierung

Verlorenes IBM-Schulungsdokument: Computer können nicht zur Rechenschaft gezogen werden (1979)

2025-02-03
Verlorenes IBM-Schulungsdokument: Computer können nicht zur Rechenschaft gezogen werden (1979)

Eine legendäre Seite aus einer internen IBM-Schulung von 1979 tauchte online wieder auf und erklärte: „Ein Computer kann niemals zur Rechenschaft gezogen werden; daher darf ein Computer niemals eine Managemententscheidung treffen.“ Die Originalquelle ist verloren gegangen, angeblich durch eine Überschwemmung zerstört. Diese Aussage findet in unserem von KI geprägten Zeitalter starken Widerhall und regt zur Reflexion über Verantwortung und Entscheidungsfindung von KI an.

Mehr lesen

Anthropic-Bewerbung: Keine KI-Assistenten erlaubt

2025-02-03

Das Bewerbungsformular von Anthropic verbietet ausdrücklich die Verwendung von KI-Assistenten während des Bewerbungsprozesses. Das Unternehmen möchte das genuine Interesse der Bewerber an Anthropic und deren Kommunikationsfähigkeiten ohne KI-Vermittlung bewerten. Dies gewährleistet eine faire und authentische Bewertung der Fähigkeiten und Denkprozesse der Bewerber.

Mehr lesen
Startup Bewerbung

OpenAIs o3-mini: Ein leistungsstarkes und kostengünstiges LLM

2025-02-01

OpenAI hat das neue Sprachmodell o3-mini veröffentlicht, das im Codeforces-Benchmark für wettbewerbsfähiges Programmieren hervorragend abschneidet und GPT-4o und o1 deutlich übertrifft. Obwohl es nicht in allen Bereichen überlegen ist, zeichnet es sich durch seinen niedrigen Preis (1,10 $ pro Million Eingabe-Tokens, 4,40 $ pro Million Ausgabe-Tokens) und eine außergewöhnlich hohe Ausgabegrenze für Tokens (100.000 Tokens) aus. OpenAI plant die Integration in ChatGPT für Websuche und Zusammenfassung, und die Unterstützung ist bereits in LLM 0.21 verfügbar, derzeit jedoch auf Benutzer der Stufe 3 beschränkt (mindestens 100 $ für die API ausgegeben). o3-mini bietet Entwicklern eine leistungsstarke und kostengünstige LLM-Option.

Mehr lesen
KI

llama.cpp WASM: 2x schnellere Geschwindigkeit durch optimiertes SIMD

2025-01-28

Simon Willisons Blogbeitrag hebt eine signifikante Verbesserung von llama.cpp hervor: eine Verdoppelung der Geschwindigkeit für die WASM-Version durch Optimierung von SIMD-Instruktionen. Überraschenderweise wurden 99% des Codes vom KI-gestützten Programmierwerkzeug DeepSeek R1 generiert. DeepSeek R1 verbrachte 3-5 Minuten mit dem „Nachdenken“ über jede Eingabeaufforderung und half dem Entwickler letztendlich, das llm_groq.py-Plugin zu verbessern und das model_map elegant zu entfernen, wodurch der Code vereinfacht wurde. Dies zeigt das immense Potenzial von KI bei der Codeoptimierung und -refactorisierung.

Mehr lesen

Alibabas Qwen 2.5: Ein LLM mit 1 Million Token Kontextlänge

2025-01-26

Alibaba hat ein wichtiges Update für sein Open-Source Large Language Model Qwen 2.5 veröffentlicht, das ein beeindruckendes Kontextfenster von 1 Million Token bietet! Dies wird durch eine neue Technik namens Dual Chunk Attention erreicht. Zwei Modelle sind auf Hugging Face verfügbar: 7B und 14B Parameterversionen, die beide viel VRAM benötigen – mindestens 120 GB für das 7B-Modell und 320 GB für das 14B-Modell. Obwohl sie für kürzere Aufgaben verwendet werden können, empfiehlt Alibaba die Verwendung seines benutzerdefinierten vLLM-Frameworks. GGUF-quantisierte Versionen erscheinen, die kleinere Größen bieten, aber Kompatibilitätsprobleme mit vollständigen Kontextlängen könnten bestehen. Ein Blogger hat versucht, die GGUF-Version mit Ollama auf einem Mac auszuführen, wobei einige Herausforderungen auftraten und ein zukünftiges Update versprochen wurde.

Mehr lesen

KI/LLM-Vorhersagen: in 1, 3 und 6 Jahren

2025-01-11

Simon Willison teilte seine Vorhersagen zur Entwicklung von KI/LLM in den nächsten 1, 3 und 6 Jahren im Podcast Oxide and Friends. Er erwartet, dass allgemeine KI-Agenten nicht so schnell Realität werden, aber Code- und Research-Assistenten florieren werden. Innerhalb von drei Jahren könnte ein KI-unterstützter investigativer Bericht einen Pulitzer-Preis gewinnen, zusammen mit strengeren Datenschutzgesetzen. In sechs Jahren könnte KI erstaunliche Kunstwerke hervorbringen, aber auch zu weit verbreiteten zivilen Unruhen führen, abhängig von der Entwicklung und den wirtschaftlichen Auswirkungen von AGI/ASI. Willison betont sein geringes Vertrauen in diese Vorhersagen und bietet sie als interessanten Punkt für zukünftige Reflexionen an.

Mehr lesen

Mein Ansatz für einen Linkblog: Über 7600 Beiträge!

2025-01-06
Mein Ansatz für einen Linkblog: Über 7600 Beiträge!

Simon Willison teilt seinen Ansatz für die Führung eines erfolgreichen Linkblogs über mehr als zwei Jahrzehnte. Er beschreibt seine Methoden zum Kuratieren und Präsentieren von Links und betont den Wert des Hinzufügens von tiefgründigen Kommentaren, der richtigen Anerkennung der Urheber und der Verwendung von Technologie (Django, Markdown, Claude) zur Verbesserung des Erlebnisses. Er argumentiert, dass Linkblogging eine einfache und effektive Möglichkeit ist, sinnvoll zum Online-Diskurs beizutragen, und ermutigt andere, diese Praxis anzunehmen.

Mehr lesen

Apples 95-Millionen-Dollar-Siri-Einigung: Mehr Fehlinformation als Mikrofon-Spionage?

2025-01-03

Apple hat einen Rechtsstreit über 95 Millionen Dollar wegen des Vorwurfs beigelegt, Siri-Aufnahmen für gezielte Werbung verwendet zu haben, obwohl es Fehlverhalten bestreitet. Der Autor argumentiert, dass die Genauigkeit des Anzeigentargetings eher auf die Datenerfassung durch Apps als auf Mikrofon-Spionage zurückzuführen ist. Anekdotische Beweise für Anzeigen, die mit Konversationen übereinstimmen, werden jedoch wahrscheinlich Verschwörungstheorien über die Mikrofonüberwachung befeuern, unabhängig von der Wahrheit.

Mehr lesen
Technologie gezielte Werbung

LLMs im Jahr 2024: Fortschritte und Herausforderungen

2024-12-31
LLMs im Jahr 2024: Fortschritte und Herausforderungen

2024 war ein Jahr bemerkenswerter Entwicklungen bei großen Sprachmodellen (LLMs). Mehrere Organisationen übertrafen die Leistung von GPT-4, was zu einer drastischen Effizienzsteigerung führte – LLMs konnten sogar auf privaten Laptops laufen. Multimodale Modelle wurden zum Standard, mit aufkommenden Sprach- und Videofunktionen. Die promptgesteuerte App-Generierung wurde zur Commodity, doch der universelle Zugriff auf die besten Modelle dauerte nur wenige Monate. Obwohl „Agents“ weiterhin schwer fassbar blieben, gewann die Bedeutung von Evaluierungen an Bedeutung. Apples MLX-Bibliothek übertraf die Erwartungen, im Gegensatz zu den enttäuschenden „Apple Intelligence“-Funktionen. Inferenz-skalierende Modelle entstanden, senkten die Kosten und verbesserten die Umweltbilanz, warfen aber gleichzeitig Bedenken hinsichtlich der Umweltbelastung neuer Infrastrukturen auf. Synthetische Trainingsdaten erwiesen sich als äußerst effektiv, doch die Benutzerfreundlichkeit von LLMs blieb eine Herausforderung, die Wissensverteilung war ungleichmäßig und bessere kritische Bewertungen sind notwendig.

Mehr lesen
KI

Alibaba präsentiert QvQ: Ein neues visuelles Reasonierungsmodell

2024-12-25
Alibaba präsentiert QvQ: Ein neues visuelles Reasonierungsmodell

Alibaba hat kürzlich QvQ-72B-Preview veröffentlicht, ein neues visuelles Reasonierungsmodell unter der Apache 2.0-Lizenz. Entwickelt, um die Fähigkeiten des visuellen Reasonierens von KI zu verbessern, baut QvQ auf dem Inferencing-Skalierungsmodell QwQ auf, indem es Bildverarbeitung hinzufügt. Es akzeptiert Bilder und Prompts und generiert detaillierte, schrittweise Reasonierungsprozesse. Der Blogger Simon Willison hat QvQ getestet und festgestellt, dass es bei Aufgaben wie dem Zählen von Pelikanen erfolgreich ist, aber bei komplexeren Reasonierungsproblemen weniger genau ist. Derzeit auf Hugging Face Spaces verfügbar, sind zukünftige Pläne die lokale Bereitstellung und breitere Plattformunterstützung.

Mehr lesen

LLM-Benchmark: Pelikan auf dem Fahrrad

2024-12-16

Simon Willison hat einen einzigartigen LLM-Benchmark entwickelt: die Generierung einer SVG-Grafik eines Pelikans, der Fahrrad fährt. Dieser ungewöhnliche Prompt zielte darauf ab, die kreativen Fähigkeiten der Modelle zu testen, ohne auf bereits vorhandene Trainingsdaten zurückzugreifen. Er testete 16 Modelle von OpenAI, Anthropic, Google Gemini und Meta (Llama auf Cerebras) und stellte dabei erhebliche Unterschiede in der Qualität der generierten SVGs fest. Einige Modelle lieferten überraschend gute Ergebnisse, während andere Schwierigkeiten hatten.

Mehr lesen

Speicherung von Zeiten für menschliche Ereignisse: Best Practices und Herausforderungen

2024-12-12
Speicherung von Zeiten für menschliche Ereignisse: Best Practices und Herausforderungen

Dieser Blogbeitrag befasst sich mit Best Practices für die Speicherung von Ereigniszeiten auf Event-Websites. Der Autor argumentiert, dass die direkte Speicherung der UTC-Zeit wichtige Informationen verliert, wie die ursprüngliche Absicht des Benutzers und den Standort. Ein besserer Ansatz besteht darin, die vom Benutzer beabsichtigte Zeit und den Ereignisort zu speichern und dann die UTC-Zeit abzuleiten. Beispiele wie Benutzerfehler, internationale Zeitzonenanpassungen und das DST-Update von Microsoft Exchange 2007 veranschaulichen die Bedeutung der Speicherung der vom Benutzer beabsichtigten Zeit. Der Autor empfiehlt, eine klare und benutzerfreundliche Benutzeroberfläche zu entwerfen, um Benutzern zu helfen, die Zeiten und Orte von Ereignissen präzise festzulegen, und betont die Bedeutung der Beibehaltung der ursprünglichen Absicht des Benutzers, um Fehler zu vermeiden, die durch Zeitzonenänderungen verursacht werden.

Mehr lesen
2 Next →