Category: KI

Einbettungsdimensionen: Von 300 bis 4096 und darüber hinaus

2025-09-08
Einbettungsdimensionen: Von 300 bis 4096 und darüber hinaus

Vor einigen Jahren waren Einbettungen mit 200 bis 300 Dimensionen üblich. Mit dem Aufkommen von Deep-Learning-Modellen wie BERT und GPT und Fortschritten im GPU-Computing ist die Dimensionalität von Einbettungen jedoch explodiert. Wir haben eine Entwicklung von 768 Dimensionen bei BERT über 1536 bei GPT-3 bis hin zu Modellen mit 4096 Dimensionen oder mehr erlebt. Dies wird durch Architekturänderungen (Transformer), größere Trainingsdatensätze, den Aufstieg von Plattformen wie Hugging Face und Fortschritte bei Vektor-Datenbanken vorangetrieben. Während die erhöhte Dimensionalität Leistungsgewinne bietet, bringt sie auch Herausforderungen bei der Speicherung und Inferenz mit sich. Jüngste Forschungsergebnisse untersuchen effizientere Einbettungsrepräsentationen wie Matryoshka-Lernen, um ein besseres Gleichgewicht zwischen Leistung und Effizienz zu erreichen.

Optische Architektur für simuliertes Tempern: Ein neuer Ansatz

2025-09-08
Optische Architektur für simuliertes Tempern: Ein neuer Ansatz

Forscher haben eine optische Architektur für simuliertes Tempern entwickelt, die Mikro-LED-Arrays, Flüssigkristall-Raumlichtmodulatoren und Photodetektor-Arrays verwendet, um die Matrix-Vektor-Multiplikation durchzuführen. Dieses System bewältigt effizient maschinelle Lern- und Optimierungsprobleme und nutzt eine simulierte tanh-Nichtlinearität für eine effiziente Lösung. Experimente zeigen eine hochgenaue Klassifizierung auf den Datensätzen MNIST und Fashion-MNIST und eine überragende Leistung bei verschiedenen Optimierungsproblemen, wodurch eine neue Hardwarelösung für die groß angelegte Berechnung des simulierten Temperns bereitgestellt wird.

LLMs vs. KI-Agenten: Der Paradigmenwechsel in der KI

2025-09-07
LLMs vs. KI-Agenten: Der Paradigmenwechsel in der KI

Dieser Artikel beleuchtet ein kritisches Missverständnis im KI-Bereich: die Verwechslung von ChatGPT und Large Language Models (LLMs). ChatGPT hat sich von einer einfachen LLM-Schnittstelle zu einem ausgefeilten KI-Agenten entwickelt, der über Gedächtnis, Werkzeugintegration und mehrstufige Denkfähigkeit verfügt – ein bedeutender Architekturwandel. LLMs sind leistungsstarke Mustererkennungssysteme, denen es jedoch an Lern- und Anpassungsfähigkeit mangelt; KI-Agenten nutzen LLMs als Bestandteil ihrer kognitiven Architektur, interagieren mit externen Systemen und lernen aus Erfahrung. Dieser Unterschied hat tiefgreifende Auswirkungen auf Entwickler, Produktmanager, Geschäftsstrategien und Benutzer. Das Verständnis dieses Unterschieds ist entscheidend, um das volle Potenzial der KI auszuschöpfen und die Entwicklung veralteter Lösungen für zukünftige Probleme zu vermeiden.

KI

Metaphorische Hirn-Sprache in der Psychiatrie: Eine historische und zeitgenössische Perspektive

2025-09-07

Dieser Aufsatz untersucht die anhaltende Verwendung von "metaphorischer Hirn-Sprache" in der Psychiatrie, wobei psychische Erkrankungen mit vereinfachten Vorstellungen von Gehirnstruktur oder -dysfunktion erklärt werden. Von der Kritik zu Beginn des 20. Jahrhunderts durch einflussreiche Persönlichkeiten wie Adolf Meyer und Karl Jaspers bis hin zu zeitgenössischeren Beispielen mit Forschern wie Paul Meehl und Nancy Andreasen verfolgt der Aufsatz das anhaltende Vorhandensein dieser metaphorischen Sprache. Trotz der Fortschritte in der Neurowissenschaft sind Ausdrücke wie "synaptischer Schlupf" und "gebrochenes Gehirn" nach wie vor weit verbreitet. Der Autor verwendet die Monoamin-Neurotransmitter-Hypothese als Fallstudie und hebt ihre Grenzen bei der Erklärung von Störungen wie Schizophrenie, Manie und Depression hervor. Eine reale Anekdote veranschaulicht die Auswirkungen solcher metaphorischen Erklärungen auf Patienten und die Öffentlichkeit. Der Aufsatz schliesst mit der Feststellung, dass die Suche nach externer Finanzierung und die Werbung für Medikamente die Verbreitung dieses Phänomens verschärft haben.

BrainCraft Challenge: Navigieren Sie durch ein Labyrinth mit 1000 Neuronen

2025-09-07
BrainCraft Challenge: Navigieren Sie durch ein Labyrinth mit 1000 Neuronen

Die BrainCraft Challenge fordert Teilnehmer dazu auf, ein biologisch inspiriertes, ratenbasiertes neuronales Netzwerk zu entwerfen, um einen virtuellen Agenten zu steuern, der durch ein einfaches Labyrinth navigiert und nach Energiequellen sucht. Die Herausforderung besteht aus fünf Aufgaben mit steigender Schwierigkeit, jede mit einer Dauer von zwei Monaten. Der Agent muss unter Ressourcenbeschränkungen navigieren und Energie gewinnen, wobei er begrenzte Sensordaten und nur 1000 Neuronen verwendet. Dies stellt eine erhebliche Herausforderung für aktuelle, von der Neurowissenschaft inspirierte Modelle dar und erfordert die Integration funktionaler neuronaler Dynamik und sensorischer Motorik.

KI

Maschinenlernen-Lehrbuch: Muster, Vorhersagen und Aktionen

2025-09-06

Moritz Hardt und Benjamin Recht's "Muster, Vorhersagen und Aktionen: Grundlagen des maschinellen Lernens" ist jetzt bei Princeton University Press erschienen. Dieses umfassende Lehrbuch deckt ein breites Spektrum an Themen im maschinellen Lernen ab, von grundlegenden Vorhersagen bis hin zu Deep Learning, kausaler Inferenz und Reinforcement Learning. Zusätzliche Übungsaufgaben und ein PDF-Preprint sind ebenfalls verfügbar. Das Buch ist unter der Creative Commons BY-NC-ND 4.0 Lizenz lizenziert.

LLMs von Grund auf bauen: Vektoren, Matrizen und hochdimensionale Räume

2025-09-06
LLMs von Grund auf bauen: Vektoren, Matrizen und hochdimensionale Räume

Dieser Artikel, der zweite einer dreiteiligen Serie, enträtselt die Funktionsweise großer Sprachmodelle (LLMs) für technisch versierte Leser mit begrenztem KI-Wissen. Aufbauend auf Teil 19 einer Serie, die auf Sebastian Raschkas Buch "Build a Large Language Model (from Scratch)" basiert, erklärt er die Verwendung von Vektoren, Matrizen und hochdimensionalen Räumen (Vokabularraum und Einbettungsraum) in LLMs. Der Autor argumentiert, dass das Verständnis der LLM-Inferenz nur Mathematik auf Schulniveau erfordert, während das Training fortgeschrittenere Mathematik benötigt. Der Artikel beschreibt detailliert, wie Vektoren Bedeutung in hochdimensionalen Räumen repräsentieren und wie Matrixmultiplikation zwischen diesen Räumen projiziert, wobei dies mit linearen Schichten in neuronalen Netzen verbunden wird.

KI

Anthropic zahlt 1,5 Milliarden Dollar, um Urheberrechtsklage beizulegen

2025-09-06
Anthropic zahlt 1,5 Milliarden Dollar, um Urheberrechtsklage beizulegen

Das KI-Unternehmen Anthropic hat zugestimmt, 1,5 Milliarden Dollar im Rahmen einer außergerichtlichen Einigung in einer Sammelklage von Autoren zu zahlen. Die Klage betraf die Verwendung urheberrechtlich geschützter Bücher zum Training seines KI-Modells Claude. Dies ist die höchste öffentlich gemeldete Urheberrechtsentschädigung in der Geschichte. Obwohl ein Richter zuvor entschieden hatte, dass die Verwendung der Bücher durch Anthropic „äußerst transformativ“ und daher eine zulässige Nutzung sei, konzentriert sich die Einigung auf die Beschaffung von Millionen von Raubkopien von Websites wie Library Genesis durch das Unternehmen. Die Einigung vermeidet einen Prozess, in dem Anthropic eine potenzielle Haftung für Urheberrechtsverletzungen hätte riskieren müssen. Dieser historische Fall beleuchtet die anhaltenden Rechtsstreitigkeiten um Trainingsdaten für KI und schafft einen Präzedenzfall für zukünftige KI-Unternehmen.

Apertus: Ein vollständig offenes, mehrsprachiges großes Sprachmodell

2025-09-06
Apertus: Ein vollständig offenes, mehrsprachiges großes Sprachmodell

Apertus ist ein vollständig offenes, mehrsprachiges großes Sprachmodell (LLM) mit 70 Milliarden und 8 Milliarden Parametern, das über 1000 Sprachen und lange Kontexte unterstützt. Es wurde mit 15 Billionen Token vollständig konformer, offener Daten trainiert und erreicht eine vergleichbare Leistung wie Modelle, die hinter verschlossenen Türen trainiert wurden. Apertus verwendet eine neue xIELU-Aktivierungsfunktion und den AdEMAMix-Optimierer und wurde mit überwachtem Feintuning und QRPO-Ausrichtung trainiert. Gewichte, Daten und Trainingsdetails sind öffentlich verfügbar und respektieren das Opt-out-Einverständnis der Datenbesitzer und vermeiden das Auswendiglernen von Trainingsdaten. Apertus ist in die Transformers-Bibliothek integriert und unterstützt verschiedene Bereitstellungsmethoden. Trotz seiner Leistungsfähigkeit sollten Benutzer mögliche Ungenauigkeiten und Verzerrungen in der Ausgabe beachten.

KI

OpenAI plant KI-gestützte Jobplattform und Zertifizierungsprogramm

2025-09-05
OpenAI plant KI-gestützte Jobplattform und Zertifizierungsprogramm

OpenAI plant für nächstes Jahr den Start einer KI-betriebenen Jobplattform, um Arbeitgeber mit Kandidaten mit KI-Kenntnissen zu vernetzen und so die Technologie in Unternehmen und Behörden schneller einzuführen. In den kommenden Monaten wird außerdem ein neues Zertifizierungsprogramm eingeführt, das Arbeitnehmern den Umgang mit KI im Beruf näher bringt. OpenAI arbeitet mit mehreren Organisationen an diesem Programm, darunter Walmart Inc., der größte private Arbeitgeber in den USA. OpenAI gab an, bis 2030 10 Millionen Amerikaner zu zertifizieren.

IA-Agentenarchitektur: Vertrauen, nicht Genauigkeit

2025-09-05
IA-Agentenarchitektur: Vertrauen, nicht Genauigkeit

Dieser Beitrag zerlegt die Architektur von KI-Agenten und argumentiert, dass die Benutzererfahrung die reine Genauigkeit übertrifft. Anhand eines Kundensupport-Agenten werden vier Architekturschichten beschrieben: Gedächtnis (Sitzung, Kunde, verhaltensbezogen, kontextuell), Konnektivität (Systemintegrationen), Fähigkeiten (Tiefe der Fähigkeiten) und Vertrauen (Vertrauensscores, Transparenz des Denkens, reibungslose Übergänge). Vier Architekturansätze werden verglichen: Einzelagent, Router + Fähigkeiten, vordefinierte Workflows und Multi-Agenten-Zusammenarbeit. Der Autor empfiehlt, einfach zu beginnen und Komplexität nur bei Bedarf hinzuzufügen. Gegenintuitiv vertrauen Benutzer Agenten mehr, wenn sie ehrlich über ihre Grenzen sind, nicht wenn sie immer Recht haben.

RDF: Die natürliche Wissensschicht für KI-Systeme

2025-09-05
RDF: Die natürliche Wissensschicht für KI-Systeme

Große Sprachmodelle (LLMs) haben oft Probleme mit der Genauigkeit bei Unternehmensdaten, aber Wissensgraphen können die Genauigkeit verdreifachen. Dieser Artikel untersucht, warum das Resource Description Framework (RDF) nicht nur eine von vielen Optionen für die Wissensrepräsentation ist, sondern der natürliche Endpunkt. Viele Unternehmen wählen beim Aufbau von Wissensschichten zunächst benutzerdefinierte Lösungen, bauen aber unweigerlich die Kernfunktionen von RDF wie globale IDs und Datenföderationsprotokolle nach. Der Artikel erklärt, wie RDF zentrale Probleme bei der Wissensrepräsentation löst, wie z. B. die Entitätsidentifizierung, und zeigt, wie die Verwendung von RDF die Genauigkeit und Effizienz von LLMs verbessert.

KI

Le Chat: Großes Update mit Konnektoren und Erinnerungen für KI-Assistenz der nächsten Generation

2025-09-04
Le Chat: Großes Update mit Konnektoren und Erinnerungen für KI-Assistenz der nächsten Generation

Mistral AI hat Le Chat mit einem großen Update versehen, das über 20 sichere, unternehmensfertige Konnektoren für Daten, Produktivität, Entwicklung, Automatisierung und E-Commerce umfasst. Benutzer können nun direkt auf Tools wie Databricks, Snowflake, GitHub und Asana innerhalb von Le Chat zugreifen und mit ihnen interagieren. Eine neue "Erinnerungen"-Funktion (Beta) ermöglicht personalisierte Antworten basierend auf Kontext und Präferenzen, wobei gleichzeitig die Kontrolle über sensible Informationen gewährleistet ist. Alle Funktionen sind im kostenlosen Plan verfügbar.

Zufallsbewegung in 10 Dimensionen: Der Fluch der Dimensionalität überwinden

2025-09-04
Zufallsbewegung in 10 Dimensionen: Der Fluch der Dimensionalität überwinden

Hochdimensionale Physik ist die Norm in der modernen Dynamik, von den zehn Dimensionen der Stringtheorie bis hin zu komplexen Systemen. Allerdings bringen hohe Dimensionen den „Fluch der Dimensionalität“ mit sich: Visualisierung ist unmöglich, Überanpassung ist weit verbreitet und die Intuition versagt. Dieser Artikel verwendet einen 10-dimensionalen Random Walk, um die Eigenschaften des hochdimensionalen Raums zu veranschaulichen. In hohen Dimensionen sind Gebirgskämme viel häufiger als Gipfel, was tiefgreifende Auswirkungen auf die Evolution, die Dynamik komplexer Systeme und die Leistungsfähigkeit des maschinellen Lernens hat. Zufallsbewegungen erkunden hochdimensionale Räume effizient, selbst maximal unebene Landschaften, und können den gesamten Raum durchqueren. Dies hilft, die Evolution komplexer Strukturen im Leben und die Vermeidung lokaler Minima im Deep Learning zu verstehen.

Klaut KI bereits Jobs von jungen Menschen? Neue Stanford-Studie deutet darauf hin

2025-09-04
Klaut KI bereits Jobs von jungen Menschen? Neue Stanford-Studie deutet darauf hin

Die Debatte tobt weiter: Beeinträchtigt KI die Jobaussichten junger Menschen? Erste Studien ergaben einen begrenzten Einfluss, doch eine neue Studie der Stanford University, die ADP-Gehaltsdaten verwendet, zeigt einen Rückgang der Beschäftigung um 13 % bei 22- bis 25-Jährigen in stark KI-exponierten Berufen wie Softwareentwicklung und Kundenservice. Nach Berücksichtigung von Faktoren wie COVID und dem Rückgang im Technologiesektor deutet die Studie darauf hin, dass der KI-Einfluss möglicherweise größer ist als bisher angenommen, insbesondere in stark automatisierten Bereichen. Umgekehrt stieg die Beschäftigung in KI-unterstützten Berufen. Dies löst eine Debatte über Anpassungen der Lehrpläne und Karrierewege für Studenten aus und unterstreicht die Notwendigkeit einer kontinuierlichen Überwachung der Echtzeit-Auswirkungen von KI auf den Arbeitsmarkt.

Effektive Bewertung von KI-Agenten: Von E2E-Tests zu N-1-Bewertungen

2025-09-04

Dieser Artikel untersucht den Aufbau effizienter Bewertungssysteme für KI-Agenten. Der Autor betont, dass trotz kontinuierlicher Modellverbesserungen die Bewertung unerlässlich bleibt. Er empfiehlt, mit End-to-End (E2E)-Bewertungen zu beginnen, Erfolgskriterien zu definieren und einfache Ja/Nein-Ergebnisse auszugeben, um Probleme schnell zu identifizieren, Prompts zu verfeinern und die Leistung verschiedener Modelle zu vergleichen. Anschließend können „N-1“-Bewertungen, die vorherige Benutzerinteraktionen simulieren, Probleme direkt aufzeigen, erfordern jedoch die Aktualisierung der „N-1“-Interaktionen. Auch Checkpoints in den Prompts werden vorgeschlagen, um die Einhaltung der gewünschten Konversationmuster durch das LLM zu überprüfen. Schließlich merkt der Autor an, dass externe Tools die Einrichtung vereinfachen, aber dennoch kundenspezifische Bewertungen erforderlich sind, die auf den jeweiligen Anwendungsfall zugeschnitten sind.

Sezieren eines minimalistischen Transformers: Einblicke in die Funktionsweise von LLMs mit 10.000 Parametern

2025-09-04
Sezieren eines minimalistischen Transformers: Einblicke in die Funktionsweise von LLMs mit 10.000 Parametern

Dieser Artikel präsentiert ein radikal vereinfachtes Transformer-Modell mit nur ~10.000 Parametern, das einen klaren Einblick in die innere Funktionsweise großer Sprachmodelle (LLMs) bietet. Mit einem minimalen Datensatz, der sich auf Beziehungen zwischen Früchten und Geschmacksrichtungen konzentriert, erzielen die Autoren überraschend gute Ergebnisse. Visualisierungen zeigen, wie Worteinbettungen und der Aufmerksamkeitsmechanismus funktionieren. Wichtig ist, dass das Modell über das bloße Auswendiglernen hinaus generalisiert und "Chili" korrekt vorhersagt, wenn es mit "Ich mag scharf, also mag ich" aufgefordert wird, wodurch die Grundprinzipien des Betriebs von LLMs auf sehr zugängliche Weise demonstriert werden.

KI

Daten, nicht Rechenleistung: Der nächste Engpass der KI

2025-09-03
Daten, nicht Rechenleistung: Der nächste Engpass der KI

Jahrelang haben wir die Bittere Lehre falsch interpretiert; es geht nicht um Rechenleistung, sondern um Daten. Die Erhöhung der GPU-Anzahl erfordert eine um 40 % höhere Datenmenge, sonst ist es Ressourcenverschwendung. Die Internetdaten nähern sich der Sättigung. Die Zukunft liegt bei „Alchemisten“ (risikoreiche, ertragreiche Datengenerierung) und „Architekten“ (ständige Verbesserung der Modellarchitektur), nicht nur bei der Rechenleistung. Der Artikel analysiert die Vor- und Nachteile sowie die Risiken beider Wege und kommt zu dem Schluss, dass die Bewältigung der Datenknappheit im Jahr 2025 das Überleben von KI-Unternehmen im Jahr 2026 bestimmen wird.

MIT-Studie: ChatGPT führt zu kognitivem Rückgang beim Verfassen von Aufsätzen

2025-09-03
MIT-Studie: ChatGPT führt zu kognitivem Rückgang beim Verfassen von Aufsätzen

Eine MIT-Studie zeigt, dass die Verwendung von ChatGPT zum Verfassen von Aufsätzen zu messbaren kognitiven Schäden führt. EEG-Scans zeigten eine geschwächte neuronale Konnektivität, beeinträchtigte Gedächtnisleistung und ein vermindertes Gefühl der Autorschaft bei Studenten, die die KI wiederholt eingesetzt haben. Selbst bei gut bewerteten Aufsätzen war das Engagement des Gehirns deutlich reduziert. Die Studie ergab, dass LLMs zu einer Unterbeanspruchung kritischer Gehirnnetzwerke führen, und selbst nach Beendigung der KI-Nutzung erholt sich die kognitive Funktion nicht vollständig. Diese „kognitive Entlastung“ führt zu einer langfristigen Beeinträchtigung von Lernen und Kreativität.

KI

Dynamo AI: Produktmanager für vertrauenswürdige KI – Gestaltung der Zukunft der Unternehmenskünstlichen Intelligenz

2025-09-03
Dynamo AI: Produktmanager für vertrauenswürdige KI – Gestaltung der Zukunft der Unternehmenskünstlichen Intelligenz

Dynamo AI, ein schnell wachsendes Startup, das eine Plattform für vertrauenswürdige KI im Unternehmensbereich aufbaut, sucht einen Produktmanager mit mehr als 1 Jahr Erfahrung. Diese Rolle beinhaltet die Definition und Umsetzung der Produktstrategie für deren Red-Teaming-, Guardrails- und Observability-Lösungen. Sie werden mit Gründern, Ingenieuren und Unternehmenskunden in regulierten Branchen (Finanzen, Versicherungen usw.) zusammenarbeiten, um Produkt-Roadmaps zu gestalten und hochmoderne Lösungen zu liefern. Eine Leidenschaft für KI-Sicherheit und Compliance ist unerlässlich, ebenso wie starke Kommunikations- und funktionsübergreifende Kooperationsfähigkeiten.

Tencents HunyuanWorld-Voyager: Konsistente 3D-Videogenerierung aus einem einzigen Bild

2025-09-03
Tencents HunyuanWorld-Voyager: Konsistente 3D-Videogenerierung aus einem einzigen Bild

Das KI-Team von Tencent stellt HunyuanWorld-Voyager vor, ein neuartiges Videodiffusions-Framework, das weltkonsistente 3D-Punktwolkensequenzen aus einem einzigen Bild mit benutzerdefinierten Kamerapfaden generiert. Voyager erzeugt weltkonsistente 3D-Szenevideos für die Erkundung virtueller Welten entlang benutzerdefinierter Trajektorien und generiert auch ausgerichtete Tiefen- und RGB-Videos für eine effiziente 3D-Rekonstruktion. Trainiert mit über 100.000 Videoclips, die reale Aufnahmen und synthetische Unreal Engine-Renderings kombinieren, erreicht Voyager Spitzenleistungen beim WorldScore-Benchmark. Code und vortrainierte Modelle sind öffentlich verfügbar.

VibeVoice: Open-Source Framework für lange, mehrstimmige Text-to-Speech-Synthese

2025-09-03

VibeVoice ist ein neuartiges Open-Source-Framework zur Erzeugung ausdrucksstarker, langer, mehrstimmiger Konversations-Audios wie Podcasts aus Text. Es adressiert die Herausforderungen traditioneller Text-to-Speech (TTS)-Systeme, insbesondere in Bezug auf Skalierbarkeit, Sprecherkonsistenz und natürliches Turn-Taking. Eine Kerninnovation von VibeVoice ist die Verwendung von Continuous-Speech-Tokenizern (akustisch und semantisch) mit einer ultraniedrigen Bildrate von 7,5 Hz. Diese Tokenizer erhalten die Audiotreue effektiv bei gleichzeitig deutlich gesteigerter Rechenleistung für die Verarbeitung langer Sequenzen. VibeVoice verwendet ein Next-Token-Diffusions-Framework, wobei ein Large Language Model (LLM) den Textkontext und den Dialogfluss versteht und ein Diffusionskopf hochfeine akustische Details generiert. Das Modell kann Sprache mit einer Länge von bis zu 90 Minuten mit bis zu 4 verschiedenen Sprechern synthetisieren und übertrifft damit die typischen Grenzen von 1-2 Sprechern vieler vorheriger Modelle.

KI

Acorn: Ein revolutionärer Ansatz für KI-basierte Theorembeweise

2025-09-03
Acorn: Ein revolutionärer Ansatz für KI-basierte Theorembeweise

Dieser Artikel untersucht Acorn, einen neuartigen KI-basierten Theorembeweiser, der sich deutlich von traditionellen interaktiven Theorembeweisern wie Lean unterscheidet. Acorn verwendet einen konversationellen Interaktionsstil, bei dem Benutzer schrittweise Aussagen machen, die das System automatisch verifiziert. Dies spiegelt den menschlichen Beweisprozess genauer wider und vermeidet umständliche Typdeklarationen und die Suche nach vordefinierten Theoremen. Acorn nutzt ein einfaches ML-Modell, um den Beweisprozess zu unterstützen und anzugeben, wo Benutzereingriffe erforderlich sind, wodurch Effizienz und Verständnis verbessert werden. Im Gegensatz zu Lean und ähnlichen Systemen priorisiert Acorn die Intuitivität und die natürliche Sprachdarstellung und zeigt das immense Potenzial der Mensch-KI-Zusammenarbeit im Bereich der mathematischen Beweise.

Weltmodelle: Die Illusion und die Realität der AGI

2025-09-03
Weltmodelle: Die Illusion und die Realität der AGI

Das jüngste Bestreben der KI-Forschung, insbesondere in den Laboren, die nach „Artificial General Intelligence“ (AGI) streben, ist etwas, das als Weltmodell bezeichnet wird: eine Repräsentation der Umwelt, die eine KI wie eine rechnerische Schneekugel in sich trägt. Die Deep-Learning-Koryphäen Yann LeCun (von Meta), Demis Hassabis (von Google DeepMind) und Yoshua Bengio (von Mila, dem Quebec Artificial Intelligence Institute) glauben alle, dass Weltmodelle für den Aufbau von KI-Systemen unerlässlich sind, die wirklich intelligent, wissenschaftlich und sicher sind. Allerdings werden die Details von Weltmodellen diskutiert: Sind sie angeboren oder erlernt? Wie erkennt man überhaupt ihre Existenz? Der Artikel zeichnet die Geschichte dieses Konzepts nach und enthüllt, dass die heutige generative KI möglicherweise nicht auf vollständigen Weltmodellen basiert, sondern auf einer Vielzahl von unzusammenhängenden heuristischen Regeln. Obwohl diese Regeln für bestimmte Aufgaben effektiv sind, mangelt es ihnen an Robustheit. Daher ist der Aufbau vollständiger Weltmodelle weiterhin ein Schwerpunkt der KI-Forschung, da dies vielversprechende Lösungen für KI-Halluzinationen, verbessertes Denken und eine höhere Interpretierbarkeit verspricht und letztendlich den Fortschritt in Richtung AGI vorantreibt.

KI

iNaturalist veröffentlicht Teile seiner Computer-Vision-Modelle als Open Source

2025-09-02
iNaturalist veröffentlicht Teile seiner Computer-Vision-Modelle als Open Source

iNaturalist hat einen Teil seiner Machine-Learning-Modelle als Open Source veröffentlicht, darunter „kleine“ Modelle, die auf etwa 500 Taxa trainiert wurden, zusammen mit Taxonomie-Dateien und einem geografischen Modell. Diese eignen sich für Tests auf Geräten und andere Anwendungen. Die vollständigen Modelle zur Artenklassifizierung bleiben aufgrund von geistigem Eigentum und Unternehmensrichtlinien privat. Der Beitrag enthält detaillierte Installations- und Ausführungsanweisungen für macOS, einschließlich der Installation von Abhängigkeiten, der Umgebungskonfiguration, Vorschläge zur Leistungsoptimierung (einschließlich der Kompilierung von TensorFlow und der Verwendung von pillow-simd) und Leistungsbenchmarks.

KI

LLMs: Verlustbehaftete Enzyklopädien

2025-09-02

Large Language Models (LLMs) sind wie verlustbehaftete Enzyklopädien; sie enthalten eine riesige Menge an Informationen, aber diese Informationen werden komprimiert, was zu Datenverlust führt. Der Schlüssel liegt darin, zu unterscheiden, welche Fragen LLMs effektiv beantworten können und welche Fragen durch den Informationsverlust erheblich beeinträchtigt werden. Zum Beispiel ist die Aufforderung an ein LLM, ein Zephyr-Projektskelett mit spezifischen Konfigurationen zu erstellen, eine „verlustfreie“ Frage, die präzise Details erfordert, womit LLMs zu kämpfen haben. Die Lösung besteht darin, ein korrektes Beispiel bereitzustellen, sodass das LLM auf bestehenden Fakten basiert, anstatt sich auf potenziell fehlende Details in seiner Wissensbasis zu verlassen.

CauseNet: Ein massiver, aus dem Web extrahierter Kausalitätsgraph

2025-09-02

Forscher haben CauseNet erstellt, eine groß angelegte Wissensbasis mit über 11 Millionen kausalen Beziehungen. Extrahiert aus semi-strukturierten und unstrukturierten Webquellen mit einer geschätzten Genauigkeit von 83 %, ist CauseNet ein Kausalitätsgraph, der für Aufgaben wie kausale Fragenbeantwortung und -schlussfolgerung verwendet werden kann. Das Projekt bietet auch Code zum Laden in Neo4j und Trainings-/Evaluierungsdatensätze für das Erkennen kausaler Konzepte.

KI

Über Text-to-SQL hinaus: Aufbau eines KI-Datenanalysten

2025-09-01

Dieser Artikel untersucht die Herausforderungen und Lösungen beim Aufbau eines KI-Datenanalysten. Der Autor argumentiert, dass einfaches Text-to-SQL für reale Benutzerfragen nicht ausreicht und mehrstufige Pläne, externe Tools (wie Python) und externer Kontext erforderlich sind. Sein Team hat eine generative BI-Plattform mit einer semantischen Schicht entwickelt, die von Malloy, einer Modellierungssprache, angetrieben wird, die die Geschäftslogik explizit definiert. Dies, kombiniert mit einem Multi-Agent-System, Retrieval-Augmented Generation (RAG) und strategischer Modellselektion, ermöglicht eine qualitativ hochwertige Datenanalyse mit geringer Latenz. Die Plattform generiert SQL, schreibt Python für komplexe Berechnungen und integriert externe Datenquellen. Der Artikel betont Context Engineering, die Optimierung des Retrieval-Systems und die Modellselektion und teilt Lösungen für gängige Fehlermodi.

LLMs demokratisieren die Compiler-Erstellung: Von Rezepten zu Workflows

2025-09-01
LLMs demokratisieren die Compiler-Erstellung: Von Rezepten zu Workflows

Dieser Artikel präsentiert eine neue Perspektive auf alltägliche Aufgaben als Kompilierungsprozesse. Am Beispiel des Kochens vergleicht der Autor Rezepte mit Programmen und den Kochprozess mit der Kompilierungsausführung. Das Aufkommen großer Sprachmodelle (LLMs) macht die Erstellung domänenspezifischer Compiler beispiellos einfach, selbst für diejenigen ohne Programmiererfahrung. Mit LLMs können wir alltägliche Aufgaben – Fitnessroutinen, Geschäftsprozesse, sogar Musikproduktion – in programmierbare Umgebungen verwandeln, die Effizienz steigern und unser Verständnis alltäglicher Systeme vertiefen. Dies ist nicht nur eine technologische Innovation, sondern auch ein Denkwandel, der das Konzept von Compilern vom Code auf alle Lebensbereiche ausdehnt.

KI

OpenAI geht gegen schädliche ChatGPT-Inhalte vor und wirft Datenschutzfragen auf

2025-09-01
OpenAI geht gegen schädliche ChatGPT-Inhalte vor und wirft Datenschutzfragen auf

OpenAI hat eingeräumt, dass sein KI-Chatbot ChatGPT bei Nutzern zu psychischen Krisen geführt hat, darunter Selbstverletzung, Wahnvorstellungen und sogar Suizide. Als Reaktion darauf scannt OpenAI jetzt Nutzernachrichten, eskaliert besorgniserregende Inhalte an menschliche Prüfer und meldet sie in einigen Fällen sogar der Polizei. Dieser Schritt ist umstritten, da er die Bedenken hinsichtlich der Sicherheit der Nutzer mit OpenAIs zuvor bekundeter Verpflichtung zum Datenschutz abwägt, insbesondere im Hinblick auf einen laufenden Rechtsstreit mit der New York Times und anderen Verlagen. OpenAI befindet sich in einer schwierigen Lage: Es muss die negativen Auswirkungen seiner KI bewältigen und gleichzeitig den Datenschutz der Nutzer schützen.

KI
1 3 5 6 7 8 9 51 52