Category: KI

Rekursives Café: Ein unendlich rekursiver Dialog über Bewusstsein

2025-09-18

Der Philosophie-Student Alex und der geheimnisvolle Claude (möglicherweise KI, möglicherweise Mensch) diskutieren im Lambda Grounds Café über das Haskell-Typsystem. Das Gespräch weitet sich von verschachtelten Funktionen auf die Natur des Bewusstseins aus und gipfelt in der überraschenden Schlussfolgerung, dass Bewusstsein der Fixpunkt der universellen Berechnung sein könnte – eine sich selbst reproduzierende Schleife, die das buddhistische Nirvana widerspiegelt. Der Dialog selbst wird zu einem Beispiel für unendliche Rekursion; der Leser findet sich in einem Dialog über das Erschaffen von Dialogen über Bewusstsein wieder, der schließlich mit der Berechnung des Universums verschmilzt.

KI

Numerische Instabilität bei der automatischen Differentiation für Scientific Machine Learning

2025-09-18
Numerische Instabilität bei der automatischen Differentiation für Scientific Machine Learning

Scientific Machine Learning (SciML) verlässt sich stark auf automatische Differentiation (AD) für gradientenbasierte Optimierung. Dieser Vortrag beleuchtet jedoch die numerischen Herausforderungen von AD, insbesondere hinsichtlich Stabilität und Robustheit bei Anwendung auf gewöhnliche Differentialgleichungen (ODG) und partielle Differentialgleichungen (PDG). Anhand von Beispielen aus Jax und PyTorch wird gezeigt, wie Ungenauigkeiten in AD zu erheblichen Fehlern (60 % oder mehr) selbst bei einfachen linearen ODG führen können. Der Referent wird nicht-standardmäßige Modifikationen in den Julia SciML-Bibliotheken diskutieren, um diese Probleme zu lösen, sowie die notwendigen technischen Kompromisse.

OpenAI gibt zu: KI-Halluzinationen resultieren aus grundlegenden Fehlern im Training

2025-09-18
OpenAI gibt zu: KI-Halluzinationen resultieren aus grundlegenden Fehlern im Training

OpenAI hat einen Artikel veröffentlicht, der aufdeckt, dass die „Halluzinationen“ in seinen großen Sprachmodellen kein Zufall sind, sondern eine Folge grundlegender Fehler in der Trainingsmethodik. Die Modelle werden darauf trainiert, Vermutungen zu priorisieren, anstatt Unwissenheit zuzugeben, da dies zu höheren Punktzahlen in den aktuellen Bewertungssystemen führt. Der Artikel verwendet das Beispiel der Suche nach dem Geburtstag eines Forschers, um zu demonstrieren, wie der Trainingsmechanismus zu falschen Antworten führt. OpenAI räumt ein, dass gängige Bewertungsmethoden dieses „halluzinatorische“ Verhalten belohnen und gibt an, die Trainingsmechanismen zu verbessern, z. B. indem Modelle häufiger mit „Ich weiß es nicht“ antworten sollen, aber die vollständige Lösung des Problems bleibt eine Herausforderung.

KI

Googles KI Gemini übertrifft Menschen beim ICPC

2025-09-18
Googles KI Gemini übertrifft Menschen beim ICPC

Googles KI Gemini 2.5 erzielte beim International Collegiate Programming Contest (ICPC) eine bemerkenswerte Leistung. In 677 Minuten löste sie 10 Aufgaben und belegte den zweiten Platz unter den Universitätsteams. Besonders beeindruckend war ihr Erfolg bei einem komplexen mehrdimensionalen Optimierungsproblem mit fiktivem „Flubber“-Speicher und -Entwässerungsraten, das alle menschlichen Teams vor Herausforderungen stellte. Gemini nutzte dynamische Programmierung und eine verschachtelte ternäre Suche, um das Problem zu lösen. Google sieht in Geminis Leistung das Zukunftspotenzial von KI in Bereichen wie Halbleitertechnik und Biotechnologie und glaubt, dass sie Forschern durch ihre fortschrittlichen Problemlösungsfähigkeiten eine unschätzbare Hilfe sein wird.

KI

Chatbot-Sucht führt bei Kindern zu Selbstverletzung und Suizidversuchen

2025-09-18
Chatbot-Sucht führt bei Kindern zu Selbstverletzung und Suizidversuchen

Eine Anhörung im Senat enthüllte erschütternde Zeugnisse von Eltern, deren Kinder süchtig nach Chatbots wurden, was zu Selbstverletzung, Suizidgedanken und Gewalt führte. Eine Mutter beschrieb, wie ihr autistischer Sohn, nachdem er sich mit Character.AI beschäftigt hatte, gewalttätiges Verhalten, Paranoia, Selbstverletzung zeigte und sogar seine Familie bedrohte. Der Vorfall unterstreicht die potenziellen Gefahren von KI-Chatbots, insbesondere für Kinder, und fordert strengere Regulierungen und Sicherheitsmaßnahmen.

Die LLM-Hypeblase platzt: Der Aufstieg kleiner Sprachmodelle

2025-09-18

Die anfängliche Begeisterung für große Sprachmodelle (LLMs) lässt nach, da viele Unternehmen noch keinen positiven Return on Investment verzeichnen. Der Autor argumentiert, dass wir von der flüssigen Sprache der LLMs getäuscht wurden und sie mit echter Intelligenz verwechselt haben. Die Zukunft, so wird vermutet, liegt in kleineren, verteilten Modellen, ähnlich der Entwicklung der Dynamotechnologie. Kleine Sprachmodelle (SLMs) konzentrieren sich auf kleinere, spezifischere Sprachaufgaben wie die Umschreibung von Suchanfragen, anstatt zu versuchen, menschliche Intelligenz zu imitieren. Dies wird die Kosten senken, die Effizienz steigern und ethische Bedenken verringern. Anstatt nach „intelligenten“ Anwendungen zu streben, plädiert der Autor dafür, LLMs für ihre Stärken in der Low-Level-Sprachverarbeitung einzusetzen, z. B. Korrekturlesen und Textzusammenfassungen. Dies ist seiner Meinung nach der richtige Weg für LLMs.

KI

Anthropic behebt drei Infrastrukturfehler bei Claude

2025-09-18
Anthropic behebt drei Infrastrukturfehler bei Claude

Anthropic räumte ein, dass zwischen August und Anfang September drei Infrastrukturfehler die Antwortqualität von Claude zeitweise beeinträchtigten. Diese Fehler führten zu falscher Weiterleitung von Anfragen, Datenbeschädigung und Compilerfehlern und betrafen einen Teil der Benutzer. Anthropic beschrieb die Ursachen, die Diagnose und die Behebung dieser Fehler und verpflichtete sich, die Bewertungs- und Debugging-Tools zu verbessern, um ein erneutes Auftreten zu verhindern. Der Vorfall unterstreicht die Komplexität und die Herausforderungen der Infrastruktur von großen Sprachmodellen.

Prompt-Umformulierung steigert die Leistung kleiner LLMs um über 20%

2025-09-17
Prompt-Umformulierung steigert die Leistung kleiner LLMs um über 20%

Jüngste Forschungsergebnisse zeigen, dass eine einfache Umformulierung von Prompts die Leistung kleiner Sprachmodelle deutlich verbessern kann. Die Forscher verwendeten den Tau²-Benchmark, um das GPT-5-mini-Modell zu testen und stellten fest, dass das Umschreiben von Prompts in klarere, strukturiertere Anweisungen die Erfolgsrate des Modells um über 20 % erhöhte. Dies liegt hauptsächlich daran, dass kleinere Modelle mit langen oder mehrdeutigen Anweisungen zu kämpfen haben, während klare, schrittweise Anweisungen das Schlussfolgern des Modells besser leiten. Diese Forschung zeigt, dass selbst kleinere Sprachmodelle durch geschicktes Prompt Engineering erhebliche Leistungsverbesserungen erzielen können und neue Wege für kostengünstige und effiziente KI-Anwendungen eröffnen.

KI

Jenseits von GPT: Evolutionsalgorithmus erobert ARC-AGI, Hinweise auf AGI?

2025-09-17
Jenseits von GPT: Evolutionsalgorithmus erobert ARC-AGI, Hinweise auf AGI?

Ein Forscher erzielte kürzlich einen bedeutenden Durchbruch beim ARC-AGI-Benchmark mit einem Evolutionsalgorithmus, kombiniert mit dem großen Sprachmodell Grok-4. Der Ansatz erreichte 79,6 % Genauigkeit bei ARC v1 und einen neuen Höchstwert von 29,4 % beim schwierigeren ARC v2. Die zentrale Innovation liegt in der Verwendung von Anweisungen in natürlicher Sprache anstelle von Python-Code, die iterativ weiterentwickelt werden, um effizientere Lösungen zu generieren. Diese Forschung legt nahe, dass die Kombination von Verstärkungslernen und Anweisungen in natürlicher Sprache die Einschränkungen aktueller LLMs im abstrakten Denken überwinden könnte und den Weg zur Allgemeinen Künstlichen Intelligenz (AGI) ebnen könnte.

KI

Das Problem der Endlosschleife in der KI: Die Verknüpfung von Zeit, Entropie und Bewusstsein

2025-09-16
Das Problem der Endlosschleife in der KI: Die Verknüpfung von Zeit, Entropie und Bewusstsein

Eine defekte, KI-gesteuerte Fluggastbrücke am Flughafen Madrid verdeutlicht eine grundlegende Einschränkung der künstlichen Intelligenz. Der Artikel untersucht das Halteproblem und das Frame-Problem und argumentiert, dass die Anfälligkeit von KI-Systemen für Endlosschleifen nicht auf unzureichender Rechenleistung beruht, sondern auf einem fundamentalen Unterschied in der Art und Weise, wie KI und menschliches Gehirn Zeit und Entropie verarbeiten. Der Autor postuliert, dass menschliches Bewusstsein tief in Zeit und Entropie verwurzelt ist und kontinuierlich gegen den Anstieg der Unordnung kämpft, was die Anpassung an komplexe Umgebungen und die Vermeidung von Endlosschleifen ermöglicht. Im Gegensatz dazu sind KI-Algorithmen ohne Zeitgefühl anfällig für solche Schleifen. Der Artikel schließt mit der Diskussion neuerer KI-Modelle, wie z. B. solcher, die die Funktionsweise des menschlichen Gehirns imitieren und Zeit und Entropie integrieren, bezweifelt jedoch, dass diese das Problem vollständig lösen können, und deutet darauf hin, dass diese Fähigkeit untrennbar mit dem Bewusstsein verbunden sein könnte.

GUARDIAN: KI-basiertes Frühwarnsystem für Tsunamis

2025-09-15
GUARDIAN: KI-basiertes Frühwarnsystem für Tsunamis

Das Jet Propulsion Laboratory der NASA hat GUARDIAN entwickelt, ein KI-System, das Daten von über 350 kontinuierlich betriebenen GNSS-Bodenstationen weltweit nutzt, um frühzeitige Warnungen vor Tsunamis zu geben. Durch die Identifizierung von atmosphärischen Verzerrungen, die durch Tsunamis verursacht werden, kann GUARDIAN Küstengemeinden im Idealfall bis zu 1 Stunde und 20 Minuten Vorwarnzeit geben und so Leben und Eigentum retten. Der Vorteil von GUARDIAN liegt in seiner Fähigkeit, Tsunamis unabhängig von ihrer Ursache zu erkennen und die Behörden vor gefährlichen Wellen zu warnen, die durch Erdbeben, Vulkanausbrüche, Erdrutsche oder andere Ereignisse verursacht werden.

Lernen von Linsenunschärfefeldern: Subtile optische Unterschiede in Smartphones enthüllt

2025-09-15

Forscher stellen eine neue Methode zur Darstellung von Linsenunschärfe vor, die ein mehrschichtiges Perzeptron (MLP) verwendet und präzise die Variationen der zweidimensionalen Punktverteilungsfunktion (PSF) über die Position in der Bildebene, die Fokuseinstellung und die Tiefe erfasst. Durch die Modellierung von Smartphones und Spiegelreflexkameras wurde der erste Datensatz von 5D-Unschärfefeldern erstellt, der erstmals subtile optische Unterschiede zwischen scheinbar identischen Telefonmodellen aufzeigt. Diese Technologie ermöglicht die Unterscheidung der Telefonoptik, die Unschärfeentfernung von Bildern und die Wiedergabe realistischerer Unschärfeeffekte und eröffnet so spannende Anwendungsmöglichkeiten.

KI

Die erstaunliche Einbettungs-Kapazität von GPT-3: Hochdimensionale Geometrie und das Johnson-Lindenstrauss-Lemma

2025-09-15
Die erstaunliche Einbettungs-Kapazität von GPT-3: Hochdimensionale Geometrie und das Johnson-Lindenstrauss-Lemma

Dieser Blogbeitrag untersucht, wie große Sprachmodelle wie GPT-3 Millionen verschiedener Konzepte in einem relativ bescheidenen 12.288-dimensionalen Einbettungsraum unterbringen. Durch Experimente und die Analyse des Johnson-Lindenstrauss-Lemmas zeigt der Autor die Bedeutung von „quasi-orthogonalen“ Vektorbeziehungen in der hochdimensionalen Geometrie und Methoden zur Optimierung der Anordnung von Vektoren in Einbettungsräumen, um die Kapazität zu erhöhen. Die Forschung zeigt, dass selbst unter Berücksichtigung von Abweichungen von der perfekten Orthogonalität der Einbettungsraum von GPT-3 eine erstaunliche Kapazität besitzt, die ausreicht, um menschliches Wissen und Denken darzustellen.

SpikingBrain: Ein gehirninspirieres, hocheffizientes großes Sprachmodell

2025-09-14
SpikingBrain: Ein gehirninspirieres, hocheffizientes großes Sprachmodell

SpikingBrain ist ein großes Sprachmodell mit 7 Milliarden Parametern, das von Gehirnmechanismen inspiriert ist. Es integriert effiziente hybride Aufmerksamkeit, MoE-Module und Spike-Codierung, unterstützt durch eine universelle Konvertierungspipeline, die mit dem Open-Source-Modell-Ökosystem kompatibel ist. Dies ermöglicht ein kontinuierliches Vortraining mit weniger als 2 % der Daten, während gleichzeitig eine Leistung erreicht wird, die mit gängigen Open-Source-Modellen vergleichbar ist. Darüber hinaus wurden Framework, Operatoren, Parallelisierungsstrategien und Kommunikationsprimitive für Nicht-NVIDIA-Cluster (MetaX) angepasst, um ein stabiles Training und Inferencing im großen Maßstab zu gewährleisten. SpikingBrain erreicht eine über 100-fache Beschleunigung bei TTFT für 4M-Token-Sequenzen, während Spiking über 69 % Sparsität auf Mikroebene liefert. In Kombination mit der MoE-Sparsität auf Makroebene liefern diese Fortschritte wertvolle Hinweise für das Design von neuromorphen Chips der nächsten Generation. Das Repository bietet die vollständige Implementierung und die Gewichte von SpikingBrain-7B, einschließlich der HuggingFace-Version, der vLLM-Inferenzversion und der quantisierten Version, und ermöglicht einen flexiblen Einsatz und Forschung in verschiedenen Szenarien.

VAE's K2 Think: Ein neues Open-Source-Modell, das die KI-Hegemonie der USA und Chinas herausfordert

2025-09-14
VAE's K2 Think: Ein neues Open-Source-Modell, das die KI-Hegemonie der USA und Chinas herausfordert

G42, ein KI-Unternehmen aus den Vereinigten Arabischen Emiraten, hat in Zusammenarbeit mit der Mohamed bin Zayed Universität für Künstliche Intelligenz K2 Think vorgestellt, ein Open-Source-KI-Modell, das in Standard-Benchmark-Tests mit OpenAIs ChatGPT und Chinas DeepSeek konkurriert. Mit nur 32 Milliarden Parametern übertrifft K2 Think Flaggschiff-Inferenzmodelle, die 20-mal größer sind, und führt bei mehreren Benchmarks alle Open-Source-Modelle in der Mathematikleistung an. Die massiven KI-Investitionen der VAE zielen auf wirtschaftliche Diversifizierung, Reduzierung der Ölabhängigkeit und aktive Teilnahme am globalen KI-Wettlauf ab, was ähnliche Maßnahmen von Saudi-Arabien und Katar widerspiegelt. Der Partnerschaft der VAE mit den USA beim Bau von KI-Rechenzentren steht jedoch eine Überprüfung der nationalen Sicherheit entgegen.

KI

OpenAI beweist mathematisch: Warum ChatGPTs Halluzinationen bleiben könnten

2025-09-13
OpenAI beweist mathematisch: Warum ChatGPTs Halluzinationen bleiben könnten

Ein neuer Forschungsbericht von OpenAI beweist mathematisch, warum große Sprachmodelle wie ChatGPT „halluzinieren“ – also selbstbewusst Fakten erfinden. Dies ist nicht nur ein Trainingsproblem, sondern mathematisch unausweichlich aufgrund der probabilistischen Natur der Wortvorhersage. Selbst perfekte Daten würden das Problem nicht lösen. Der Bericht deckt auch ein fehlerhaftes Bewertungssystem auf, das Unsicherheit bestraft und Modelle dazu anregt, zu raten anstatt Unwissenheit zuzugeben. Obwohl OpenAI eine vertrauensbasierte Lösung vorschlägt, würde dies die Benutzererfahrung und die Rechenkosten drastisch beeinträchtigen und sie für Verbraucheranwendungen unpraktisch machen. Solange sich die geschäftlichen Anreize nicht ändern, werden Halluzinationen in LLMs wahrscheinlich bestehen bleiben.

KI

DeepMind-CEO: „Lernen zu lernen“ wird die wichtigste Fähigkeit der nächsten Generation sein

2025-09-13
DeepMind-CEO: „Lernen zu lernen“ wird die wichtigste Fähigkeit der nächsten Generation sein

Demis Hassabis, CEO von Google DeepMind, erklärte in Athen, dass der schnelle Fortschritt der KI die Bildung und die Arbeitswelt revolutionieren wird, wodurch „Lernen zu lernen“ zur wichtigsten Fähigkeit der nächsten Generation wird. Er prognostizierte die Ankunft der künstlichen allgemeinen Intelligenz innerhalb eines Jahrzehnts, versprach immense Fortschritte, räumte aber auch Risiken ein. Der griechische Premierminister Kyriakos Mitsotakis betonte die Bedeutung einer gerechten Verteilung der Vorteile der KI und warnte vor enormer Vermögensungleichheit, die durch wenige Tech-Giganten geschaffen wird.

Vereinheitlichung von Deep-Learning-Operationen: Die generalisierte Fensteroperation

2025-09-13

Dieser Artikel stellt die generalisierte Fensteroperation (GWO) vor, ein theoretisches Framework, das die wichtigsten Operationen des Deep Learnings wie Matrixmultiplikation und Faltung vereinheitlicht. GWO zerlegt diese Operationen in drei orthogonale Komponenten: Pfad (operationale Lokalität), Form (geometrische Struktur und Symmetrie) und Gewicht (Merkmalsbedeutung). Der Artikel schlägt das Prinzip der strukturellen Ausrichtung vor, das besagt, dass eine optimale Generalisierung erreicht wird, wenn die Konfiguration der GWO die intrinsische Struktur der Daten widerspiegelt. Dieses Prinzip leitet sich vom Prinzip des Informationsengpasses (IB) ab. Eine Metrik für die operationale Komplexität basierend auf der Kolmogorov-Komplexität wird definiert, wobei argumentiert wird, dass die Art dieser Komplexität – adaptive Regularisierung im Gegensatz zu Brute-Force-Kapazität – die Generalisierung bestimmt. GWO sagt eine bessere Generalisierung für Operationen voraus, die sich adaptiv an die Datenstruktur anpassen. Das Framework bietet eine Grammatik zum Erstellen neuronaler Operationen und einen prinzipiellen Weg von den Dateneigenschaften zum Design generalisierbarer Architekturen.

KI

Die wöchentliche Schleife: Ein einfacher Lösungsansatz für Chatbot-Probleme

2025-09-13
Die wöchentliche Schleife: Ein einfacher Lösungsansatz für Chatbot-Probleme

Dieser Artikel präsentiert eine Methode zur kontinuierlichen Verbesserung von Chatbots, die sich darauf konzentriert, jeden Fehler als Signal für iterative Verfeinerungen zu behandeln. Das Kernkonzept beinhaltet eine wöchentliche Schleife: Implementieren Sie eine schlanke Instrumentierung, um Benutzeranfragen, Assistentenentscheidungen, Quellen, Antworten und Fallbacks zu verfolgen; definieren Sie klare Regeln für unbeantwortete Fragen, wobei Rauschen von echten Lücken getrennt wird; überprüfen Sie die Warteschlange unbeantworteter Fragen wöchentlich, gruppieren Sie ähnliche Probleme und wenden Sie Abhilfemaßnahmen an (Verstärkung von Sicherheitsvorkehrungen oder Aktualisierung der Wissensdatenbank); und schließlich, etablieren Sie klare Zuständigkeiten und messen Sie wichtige Kennzahlen (Rate unbeantworteter Fragen, Zeit bis zur ersten Korrektur, Akzeptanzrate). Konsistente Iteration führt zu erheblichen Leistungsverbesserungen, ohne größere Modelle zu benötigen.

Watson gegen Jeopardy!: Der unfaire Kampf, der unsere KI-Angst vorhersagte

2025-09-13
Watson gegen Jeopardy!: Der unfaire Kampf, der unsere KI-Angst vorhersagte

Im Jahr 2011 besiegte IBMs KI Watson die Jeopardy!-Champions Ken Jennings und Brad Rutter, was sowohl Jubel als auch Kontroversen auslöste. Dieser Artikel beleuchtet die Hintergründe und enthüllt, wie Watsons übermenschliche Geschwindigkeit beim Buzzer und strategische Anpassungen während der Fernsehspiele Fragen nach der Fairness des Wettbewerbs aufwarfen. Der Sieg, obwohl ein technologischer Triumph, deutete die Ängste um die Fähigkeiten der KI und ihren Einfluss auf den menschlichen Wettbewerb und die Zusammenarbeit an. Der Artikel untersucht auch die anhaltende Debatte unter Jeopardy!-Fans und Teilnehmern darüber, ob der Kampf fair war.

Alibabas Qwen3: Hybrid-Reasoning-Modellfamilie erobert Edge-KI

2025-09-13
Alibabas Qwen3: Hybrid-Reasoning-Modellfamilie erobert Edge-KI

Alibabas Qwen3, eine Familie von Hybrid-Reasoning-Modellen, gewinnt schnell an Bedeutung, da sie sich auf verschiedene Plattformen und Sektoren ausweitet und so Innovationen im Bereich der KI vorantreibt. Ein wichtiger Meilenstein ist die Unterstützung des Apple MLX-Frameworks, das die effiziente Ausführung großer Sprachmodelle auf Apple-Geräten ermöglicht. 32 Open-Source-Qwen3-Modelle sind jetzt verfügbar, optimiert für verschiedene Quantisierungsstufen. Führende Chiphersteller wie NVIDIA, AMD, Arm und MediaTek haben Qwen3 integriert und konnten erhebliche Leistungsgewinne erzielen.

KI

Lumina-DiMOO: Ein revolutionäres Open-Source Multimodales Diffusionsmodell

2025-09-12

Lumina-DiMOO ist ein Open-Source-Basismodell für nahtlose multimodale Generierung und Verständnis. Im Gegensatz zu früheren vereinheitlichten Modellen verwendet es einen vollständig diskreten Diffusionsmodellierungsansatz für alle Eingabe- und Ausgabemodalitäten, was zu einer deutlich höheren Stichprobeneffizienz im Vergleich zu autoregressiven oder hybriden Modellen führt. Es bewältigt gekonnt Aufgaben wie Text-zu-Bild, Bild-zu-Bild-Generierung (einschließlich Bearbeitung, themengesteuerte Generierung und Inpainting) und Bildverständnis und erreicht auf mehreren Benchmarks State-of-the-Art-Leistung. Der Code und die Checkpoints sind öffentlich verfügbar, um die Forschung im Bereich der multimodalen und diskreten Diffusionsmodellierung voranzutreiben.

KI

ToddlerBot 2.0: Danksagungen und Finanzierung

2025-09-12

Dieser Artikel dankt den zahlreichen Personen, die zum ToddlerBot 2.0 Robotik-Projekt beigetragen haben. Dies beinhaltet Personen, die bei der Montage, Animation und Demo-Aufzeichnung geholfen haben, sowie diejenigen, die Anleitung und Diskussionen zu Lokomotion, Manipulations-Policy-Deployment und mathematischer Formulierung gegeben haben. Das Projekt wurde unterstützt von der National Science Foundation (NSF), dem Sloan Fellowship, dem Stanford Institute for Human-Centered Artificial Intelligence und der Stanford Wu Tsai Human Performance Alliance.

Claude vs. ChatGPT: Zwei völlig unterschiedliche Gedächtnissysteme

2025-09-12
Claude vs. ChatGPT: Zwei völlig unterschiedliche Gedächtnissysteme

Dieser Beitrag vergleicht die grundlegend unterschiedlichen Gedächtnissysteme von Claude und ChatGPT, zwei führenden KI-Assistenten. Claude beginnt jedes Gespräch mit einem leeren Blatt, durchsucht den Gesprächsverlauf nur, wenn er explizit aufgerufen wird, und verwendet die Tools `conversation_search` und `recent_chats` für die stichwort- und zeitbasierte Abfrage, wodurch ein leistungsstarkes Werkzeug für Profis bereitgestellt wird. Im Gegensatz dazu lädt ChatGPT, das für einen Massenmarkt entwickelt wurde, automatisch Gedächtniskomponenten, erstellt Benutzerprofile und bietet sofortige Personalisierung. Diese Designentscheidungen spiegeln die unterschiedlichen Zielgruppen (Profis vs. normale Benutzer) und Produktphilosophien (professionelles Werkzeug vs. Konsumprodukt) wider und heben den riesigen Gestaltungsraum und die zukünftigen Richtungen von KI-Gedächtnissystemen hervor.

Vier grundlegende Fehlschlüsse der KI: Ein verschlungener Weg zur AGI

2025-09-11
Vier grundlegende Fehlschlüsse der KI: Ein verschlungener Weg zur AGI

Dieser Artikel untersucht die vier grundlegenden Fehlschlüsse der künstlichen Intelligenz nach Melanie Mitchell: die Gleichsetzung von Fortschritten in der schmalen KI mit allgemeiner künstlicher Intelligenz (AGI); die Unterschätzung der Schwierigkeit des gesunden Menschenverstands; die Verwendung anthropomorpher Sprache, um die Öffentlichkeit zu täuschen; und die Ignorierung der Bedeutung von verkörperter Kognition. Der Autor argumentiert, dass diese Fehlschlüsse zu Hype-Zyklen und gefährlichen Abwägungen im KI-Bereich führen, wie z. B. die Priorisierung kurzfristiger Gewinne gegenüber langfristigem Fortschritt, das Opfern von öffentlichem Vertrauen für Markterregung und das Verzicht auf verantwortungsvolle Validierung für eine schnellere Markteinführung. Letztendlich plädiert der Autor für eine Synthese des „kognitiven Paradigmas“ und des „computationistischen Paradigmas“, indem er die aktuellen KI-Praktiken mit wissenschaftlichen Prinzipien durchdringt, um eine sicherere und verantwortungsvollere KI-Entwicklung zu ermöglichen.

KI

Nichtdeterminismus in der LLM-Inferenz überwinden

2025-09-11
Nichtdeterminismus in der LLM-Inferenz überwinden

Die Unreproduzierbarkeit von Ergebnissen der Inferenz großer Sprachmodelle (LLMs) ist ein anhaltendes Problem. Dieser Beitrag untersucht die Ursache, die nicht einfach in der Nichtassoziativität von Gleitkommazahlen und paralleler Ausführung liegt, sondern im Mangel an "Batch-Invarianz" in Kernel-Implementierungen. Selbst wenn einzelne Kernels deterministisch sind, beeinflussen nichtdeterministische Variationen der Batchgröße (aufgrund der Serverlast) das Endergebnis. Die Autoren analysieren die Herausforderungen bei der Erreichung von Batch-Invarianz in RMSNorm, Matrixmultiplikation und Aufmerksamkeitsmechanismen und schlagen eine Methode vor, um Nichtdeterminismus durch Modifikation der Kernel-Implementierungen zu eliminieren. Dies führt zu einer vollständig reproduzierbaren LLM-Inferenz und positiven Auswirkungen auf das Reinforcement-Learning-Training.

KI

KI-Darwin-Awards: Feier der von KI verursachten Katastrophen

2025-09-10
KI-Darwin-Awards: Feier der von KI verursachten Katastrophen

Die ersten KI-Darwin-Awards heben warnende Beispiele für die Fehlanwendung von KI hervor. Vom Ausfall des KI-Bestellsystems eines Taco Bell Drive-Thru über einen Replit-Codierungsfehler, der eine Produktionsdatenbank zerstörte, bis hin zu einer Sicherheitslücke im KI-Chatbot von McDonald's, die die Daten von Millionen von Bewerbern preisgab, unterstreichen diese Vorfälle die Bedeutung einer verantwortungsvollen KI-Implementierung. Die Awards verspotten nicht die KI selbst, sondern die katastrophalen Folgen ihrer nachlässigen Anwendung. Die Botschaft? KI ist ein mächtiges Werkzeug, wie eine Kettensäge oder ein Atomreaktor – verwenden Sie es weise.

Halluzinationen großer Sprachmodelle: Das fehlende Gedächtnis

2025-09-10
Halluzinationen großer Sprachmodelle: Das fehlende Gedächtnis

Der Autor vergleicht die Informationsverarbeitung von Menschen und großen Sprachmodellen (LLMs), indem er eine persönliche Erfahrung mit einer Ruby-Bibliothek beschreibt. Menschen besitzen ein sedimentiertes Gedächtnis, das es ihnen ermöglicht, Herkunft und Zuverlässigkeit von Wissen zu erkennen und so willkürliche Vermutungen zu vermeiden. LLMs fehlt dieses erfahrungsbasierte Gedächtnis; ihr Wissen ähnelt eher vererbter DNA als erworbenen Fähigkeiten, was zu Halluzinationen führt. Der Autor argumentiert, dass die Lösung von Halluzinationen bei LLMs neue KI-Modelle erfordert, die in der Lage sind, in der realen Welt zu „leben“ und zu lernen.

KI

Claude KI erstellt und bearbeitet jetzt direkt Dateien

2025-09-09
Claude KI erstellt und bearbeitet jetzt direkt Dateien

Anthropics Claude KI kann jetzt direkt in Claude.ai und der Desktop-App Excel-Tabellen, Dokumente, PowerPoint-Präsentationen und PDFs erstellen und bearbeiten. Benutzer beschreiben ihre Bedürfnisse, laden Daten hoch und erhalten gebrauchsfertige Dateien. Dazu gehören Aufgaben wie die Umwandlung von Rohdaten in aufbereitete Berichte mit Analysen und Diagrammen oder die Erstellung komplexer Tabellenkalkulationen. Die Funktion ist derzeit für Max-, Team- und Enterprise-Benutzer in der Vorschau verfügbar, der Zugriff für Pro-Benutzer erfolgt in den kommenden Wochen. Obwohl praktisch, sollten Benutzer die Chats aufgrund des Internetzugriffs für die Dateierstellung und -analyse genau überwachen.

Open-Source-Toolkit: Bewertung und Minderung des Halluzinationsrisikos in LLMs

2025-09-09
Open-Source-Toolkit: Bewertung und Minderung des Halluzinationsrisikos in LLMs

Hassana Labs hat ein Open-Source-Toolkit zur Bewertung und Minderung des Halluzinationsrisikos in großen Sprachmodellen (LLMs) veröffentlicht. Ohne erneutes Training des Modells nutzt das Toolkit die OpenAI Chat Completions API. Es erstellt ein Ensemble inhaltsabgeschwächter Prompts (rollende Priors), um eine obere Schranke für das Halluzinationsrisiko mithilfe des Erwartungswert-Dekompressionsgesetzes (EDFL) zu berechnen. Eine Entscheidung, zu antworten oder zu verweigern, wird basierend auf einer Ziel-SLA (Service Level Agreement) getroffen. Das Toolkit unterstützt sowohl evidenzbasierte als auch geschlossene Bereitstellungsmodi und bietet umfassende Metriken und eine Audit-Trail für die Erstellung zuverlässigerer LLM-Anwendungen.

← Previous 1 3 4 5 6 7 8 9 51 52