Category: KI

Anthropic behebt drei Infrastrukturfehler bei Claude

2025-09-18
Anthropic behebt drei Infrastrukturfehler bei Claude

Anthropic räumte ein, dass zwischen August und Anfang September drei Infrastrukturfehler die Antwortqualität von Claude zeitweise beeinträchtigten. Diese Fehler führten zu falscher Weiterleitung von Anfragen, Datenbeschädigung und Compilerfehlern und betrafen einen Teil der Benutzer. Anthropic beschrieb die Ursachen, die Diagnose und die Behebung dieser Fehler und verpflichtete sich, die Bewertungs- und Debugging-Tools zu verbessern, um ein erneutes Auftreten zu verhindern. Der Vorfall unterstreicht die Komplexität und die Herausforderungen der Infrastruktur von großen Sprachmodellen.

Prompt-Umformulierung steigert die Leistung kleiner LLMs um über 20%

2025-09-17
Prompt-Umformulierung steigert die Leistung kleiner LLMs um über 20%

Jüngste Forschungsergebnisse zeigen, dass eine einfache Umformulierung von Prompts die Leistung kleiner Sprachmodelle deutlich verbessern kann. Die Forscher verwendeten den Tau²-Benchmark, um das GPT-5-mini-Modell zu testen und stellten fest, dass das Umschreiben von Prompts in klarere, strukturiertere Anweisungen die Erfolgsrate des Modells um über 20 % erhöhte. Dies liegt hauptsächlich daran, dass kleinere Modelle mit langen oder mehrdeutigen Anweisungen zu kämpfen haben, während klare, schrittweise Anweisungen das Schlussfolgern des Modells besser leiten. Diese Forschung zeigt, dass selbst kleinere Sprachmodelle durch geschicktes Prompt Engineering erhebliche Leistungsverbesserungen erzielen können und neue Wege für kostengünstige und effiziente KI-Anwendungen eröffnen.

KI

Jenseits von GPT: Evolutionsalgorithmus erobert ARC-AGI, Hinweise auf AGI?

2025-09-17
Jenseits von GPT: Evolutionsalgorithmus erobert ARC-AGI, Hinweise auf AGI?

Ein Forscher erzielte kürzlich einen bedeutenden Durchbruch beim ARC-AGI-Benchmark mit einem Evolutionsalgorithmus, kombiniert mit dem großen Sprachmodell Grok-4. Der Ansatz erreichte 79,6 % Genauigkeit bei ARC v1 und einen neuen Höchstwert von 29,4 % beim schwierigeren ARC v2. Die zentrale Innovation liegt in der Verwendung von Anweisungen in natürlicher Sprache anstelle von Python-Code, die iterativ weiterentwickelt werden, um effizientere Lösungen zu generieren. Diese Forschung legt nahe, dass die Kombination von Verstärkungslernen und Anweisungen in natürlicher Sprache die Einschränkungen aktueller LLMs im abstrakten Denken überwinden könnte und den Weg zur Allgemeinen Künstlichen Intelligenz (AGI) ebnen könnte.

KI

Das Problem der Endlosschleife in der KI: Die Verknüpfung von Zeit, Entropie und Bewusstsein

2025-09-16
Das Problem der Endlosschleife in der KI: Die Verknüpfung von Zeit, Entropie und Bewusstsein

Eine defekte, KI-gesteuerte Fluggastbrücke am Flughafen Madrid verdeutlicht eine grundlegende Einschränkung der künstlichen Intelligenz. Der Artikel untersucht das Halteproblem und das Frame-Problem und argumentiert, dass die Anfälligkeit von KI-Systemen für Endlosschleifen nicht auf unzureichender Rechenleistung beruht, sondern auf einem fundamentalen Unterschied in der Art und Weise, wie KI und menschliches Gehirn Zeit und Entropie verarbeiten. Der Autor postuliert, dass menschliches Bewusstsein tief in Zeit und Entropie verwurzelt ist und kontinuierlich gegen den Anstieg der Unordnung kämpft, was die Anpassung an komplexe Umgebungen und die Vermeidung von Endlosschleifen ermöglicht. Im Gegensatz dazu sind KI-Algorithmen ohne Zeitgefühl anfällig für solche Schleifen. Der Artikel schließt mit der Diskussion neuerer KI-Modelle, wie z. B. solcher, die die Funktionsweise des menschlichen Gehirns imitieren und Zeit und Entropie integrieren, bezweifelt jedoch, dass diese das Problem vollständig lösen können, und deutet darauf hin, dass diese Fähigkeit untrennbar mit dem Bewusstsein verbunden sein könnte.

GUARDIAN: KI-basiertes Frühwarnsystem für Tsunamis

2025-09-15
GUARDIAN: KI-basiertes Frühwarnsystem für Tsunamis

Das Jet Propulsion Laboratory der NASA hat GUARDIAN entwickelt, ein KI-System, das Daten von über 350 kontinuierlich betriebenen GNSS-Bodenstationen weltweit nutzt, um frühzeitige Warnungen vor Tsunamis zu geben. Durch die Identifizierung von atmosphärischen Verzerrungen, die durch Tsunamis verursacht werden, kann GUARDIAN Küstengemeinden im Idealfall bis zu 1 Stunde und 20 Minuten Vorwarnzeit geben und so Leben und Eigentum retten. Der Vorteil von GUARDIAN liegt in seiner Fähigkeit, Tsunamis unabhängig von ihrer Ursache zu erkennen und die Behörden vor gefährlichen Wellen zu warnen, die durch Erdbeben, Vulkanausbrüche, Erdrutsche oder andere Ereignisse verursacht werden.

Lernen von Linsenunschärfefeldern: Subtile optische Unterschiede in Smartphones enthüllt

2025-09-15

Forscher stellen eine neue Methode zur Darstellung von Linsenunschärfe vor, die ein mehrschichtiges Perzeptron (MLP) verwendet und präzise die Variationen der zweidimensionalen Punktverteilungsfunktion (PSF) über die Position in der Bildebene, die Fokuseinstellung und die Tiefe erfasst. Durch die Modellierung von Smartphones und Spiegelreflexkameras wurde der erste Datensatz von 5D-Unschärfefeldern erstellt, der erstmals subtile optische Unterschiede zwischen scheinbar identischen Telefonmodellen aufzeigt. Diese Technologie ermöglicht die Unterscheidung der Telefonoptik, die Unschärfeentfernung von Bildern und die Wiedergabe realistischerer Unschärfeeffekte und eröffnet so spannende Anwendungsmöglichkeiten.

KI

Die erstaunliche Einbettungs-Kapazität von GPT-3: Hochdimensionale Geometrie und das Johnson-Lindenstrauss-Lemma

2025-09-15
Die erstaunliche Einbettungs-Kapazität von GPT-3: Hochdimensionale Geometrie und das Johnson-Lindenstrauss-Lemma

Dieser Blogbeitrag untersucht, wie große Sprachmodelle wie GPT-3 Millionen verschiedener Konzepte in einem relativ bescheidenen 12.288-dimensionalen Einbettungsraum unterbringen. Durch Experimente und die Analyse des Johnson-Lindenstrauss-Lemmas zeigt der Autor die Bedeutung von „quasi-orthogonalen“ Vektorbeziehungen in der hochdimensionalen Geometrie und Methoden zur Optimierung der Anordnung von Vektoren in Einbettungsräumen, um die Kapazität zu erhöhen. Die Forschung zeigt, dass selbst unter Berücksichtigung von Abweichungen von der perfekten Orthogonalität der Einbettungsraum von GPT-3 eine erstaunliche Kapazität besitzt, die ausreicht, um menschliches Wissen und Denken darzustellen.

SpikingBrain: Ein gehirninspirieres, hocheffizientes großes Sprachmodell

2025-09-14
SpikingBrain: Ein gehirninspirieres, hocheffizientes großes Sprachmodell

SpikingBrain ist ein großes Sprachmodell mit 7 Milliarden Parametern, das von Gehirnmechanismen inspiriert ist. Es integriert effiziente hybride Aufmerksamkeit, MoE-Module und Spike-Codierung, unterstützt durch eine universelle Konvertierungspipeline, die mit dem Open-Source-Modell-Ökosystem kompatibel ist. Dies ermöglicht ein kontinuierliches Vortraining mit weniger als 2 % der Daten, während gleichzeitig eine Leistung erreicht wird, die mit gängigen Open-Source-Modellen vergleichbar ist. Darüber hinaus wurden Framework, Operatoren, Parallelisierungsstrategien und Kommunikationsprimitive für Nicht-NVIDIA-Cluster (MetaX) angepasst, um ein stabiles Training und Inferencing im großen Maßstab zu gewährleisten. SpikingBrain erreicht eine über 100-fache Beschleunigung bei TTFT für 4M-Token-Sequenzen, während Spiking über 69 % Sparsität auf Mikroebene liefert. In Kombination mit der MoE-Sparsität auf Makroebene liefern diese Fortschritte wertvolle Hinweise für das Design von neuromorphen Chips der nächsten Generation. Das Repository bietet die vollständige Implementierung und die Gewichte von SpikingBrain-7B, einschließlich der HuggingFace-Version, der vLLM-Inferenzversion und der quantisierten Version, und ermöglicht einen flexiblen Einsatz und Forschung in verschiedenen Szenarien.

VAE's K2 Think: Ein neues Open-Source-Modell, das die KI-Hegemonie der USA und Chinas herausfordert

2025-09-14
VAE's K2 Think: Ein neues Open-Source-Modell, das die KI-Hegemonie der USA und Chinas herausfordert

G42, ein KI-Unternehmen aus den Vereinigten Arabischen Emiraten, hat in Zusammenarbeit mit der Mohamed bin Zayed Universität für Künstliche Intelligenz K2 Think vorgestellt, ein Open-Source-KI-Modell, das in Standard-Benchmark-Tests mit OpenAIs ChatGPT und Chinas DeepSeek konkurriert. Mit nur 32 Milliarden Parametern übertrifft K2 Think Flaggschiff-Inferenzmodelle, die 20-mal größer sind, und führt bei mehreren Benchmarks alle Open-Source-Modelle in der Mathematikleistung an. Die massiven KI-Investitionen der VAE zielen auf wirtschaftliche Diversifizierung, Reduzierung der Ölabhängigkeit und aktive Teilnahme am globalen KI-Wettlauf ab, was ähnliche Maßnahmen von Saudi-Arabien und Katar widerspiegelt. Der Partnerschaft der VAE mit den USA beim Bau von KI-Rechenzentren steht jedoch eine Überprüfung der nationalen Sicherheit entgegen.

KI

OpenAI beweist mathematisch: Warum ChatGPTs Halluzinationen bleiben könnten

2025-09-13
OpenAI beweist mathematisch: Warum ChatGPTs Halluzinationen bleiben könnten

Ein neuer Forschungsbericht von OpenAI beweist mathematisch, warum große Sprachmodelle wie ChatGPT „halluzinieren“ – also selbstbewusst Fakten erfinden. Dies ist nicht nur ein Trainingsproblem, sondern mathematisch unausweichlich aufgrund der probabilistischen Natur der Wortvorhersage. Selbst perfekte Daten würden das Problem nicht lösen. Der Bericht deckt auch ein fehlerhaftes Bewertungssystem auf, das Unsicherheit bestraft und Modelle dazu anregt, zu raten anstatt Unwissenheit zuzugeben. Obwohl OpenAI eine vertrauensbasierte Lösung vorschlägt, würde dies die Benutzererfahrung und die Rechenkosten drastisch beeinträchtigen und sie für Verbraucheranwendungen unpraktisch machen. Solange sich die geschäftlichen Anreize nicht ändern, werden Halluzinationen in LLMs wahrscheinlich bestehen bleiben.

KI

DeepMind-CEO: „Lernen zu lernen“ wird die wichtigste Fähigkeit der nächsten Generation sein

2025-09-13
DeepMind-CEO: „Lernen zu lernen“ wird die wichtigste Fähigkeit der nächsten Generation sein

Demis Hassabis, CEO von Google DeepMind, erklärte in Athen, dass der schnelle Fortschritt der KI die Bildung und die Arbeitswelt revolutionieren wird, wodurch „Lernen zu lernen“ zur wichtigsten Fähigkeit der nächsten Generation wird. Er prognostizierte die Ankunft der künstlichen allgemeinen Intelligenz innerhalb eines Jahrzehnts, versprach immense Fortschritte, räumte aber auch Risiken ein. Der griechische Premierminister Kyriakos Mitsotakis betonte die Bedeutung einer gerechten Verteilung der Vorteile der KI und warnte vor enormer Vermögensungleichheit, die durch wenige Tech-Giganten geschaffen wird.

Vereinheitlichung von Deep-Learning-Operationen: Die generalisierte Fensteroperation

2025-09-13

Dieser Artikel stellt die generalisierte Fensteroperation (GWO) vor, ein theoretisches Framework, das die wichtigsten Operationen des Deep Learnings wie Matrixmultiplikation und Faltung vereinheitlicht. GWO zerlegt diese Operationen in drei orthogonale Komponenten: Pfad (operationale Lokalität), Form (geometrische Struktur und Symmetrie) und Gewicht (Merkmalsbedeutung). Der Artikel schlägt das Prinzip der strukturellen Ausrichtung vor, das besagt, dass eine optimale Generalisierung erreicht wird, wenn die Konfiguration der GWO die intrinsische Struktur der Daten widerspiegelt. Dieses Prinzip leitet sich vom Prinzip des Informationsengpasses (IB) ab. Eine Metrik für die operationale Komplexität basierend auf der Kolmogorov-Komplexität wird definiert, wobei argumentiert wird, dass die Art dieser Komplexität – adaptive Regularisierung im Gegensatz zu Brute-Force-Kapazität – die Generalisierung bestimmt. GWO sagt eine bessere Generalisierung für Operationen voraus, die sich adaptiv an die Datenstruktur anpassen. Das Framework bietet eine Grammatik zum Erstellen neuronaler Operationen und einen prinzipiellen Weg von den Dateneigenschaften zum Design generalisierbarer Architekturen.

KI

Die wöchentliche Schleife: Ein einfacher Lösungsansatz für Chatbot-Probleme

2025-09-13
Die wöchentliche Schleife: Ein einfacher Lösungsansatz für Chatbot-Probleme

Dieser Artikel präsentiert eine Methode zur kontinuierlichen Verbesserung von Chatbots, die sich darauf konzentriert, jeden Fehler als Signal für iterative Verfeinerungen zu behandeln. Das Kernkonzept beinhaltet eine wöchentliche Schleife: Implementieren Sie eine schlanke Instrumentierung, um Benutzeranfragen, Assistentenentscheidungen, Quellen, Antworten und Fallbacks zu verfolgen; definieren Sie klare Regeln für unbeantwortete Fragen, wobei Rauschen von echten Lücken getrennt wird; überprüfen Sie die Warteschlange unbeantworteter Fragen wöchentlich, gruppieren Sie ähnliche Probleme und wenden Sie Abhilfemaßnahmen an (Verstärkung von Sicherheitsvorkehrungen oder Aktualisierung der Wissensdatenbank); und schließlich, etablieren Sie klare Zuständigkeiten und messen Sie wichtige Kennzahlen (Rate unbeantworteter Fragen, Zeit bis zur ersten Korrektur, Akzeptanzrate). Konsistente Iteration führt zu erheblichen Leistungsverbesserungen, ohne größere Modelle zu benötigen.

Watson gegen Jeopardy!: Der unfaire Kampf, der unsere KI-Angst vorhersagte

2025-09-13
Watson gegen Jeopardy!: Der unfaire Kampf, der unsere KI-Angst vorhersagte

Im Jahr 2011 besiegte IBMs KI Watson die Jeopardy!-Champions Ken Jennings und Brad Rutter, was sowohl Jubel als auch Kontroversen auslöste. Dieser Artikel beleuchtet die Hintergründe und enthüllt, wie Watsons übermenschliche Geschwindigkeit beim Buzzer und strategische Anpassungen während der Fernsehspiele Fragen nach der Fairness des Wettbewerbs aufwarfen. Der Sieg, obwohl ein technologischer Triumph, deutete die Ängste um die Fähigkeiten der KI und ihren Einfluss auf den menschlichen Wettbewerb und die Zusammenarbeit an. Der Artikel untersucht auch die anhaltende Debatte unter Jeopardy!-Fans und Teilnehmern darüber, ob der Kampf fair war.

Alibabas Qwen3: Hybrid-Reasoning-Modellfamilie erobert Edge-KI

2025-09-13
Alibabas Qwen3: Hybrid-Reasoning-Modellfamilie erobert Edge-KI

Alibabas Qwen3, eine Familie von Hybrid-Reasoning-Modellen, gewinnt schnell an Bedeutung, da sie sich auf verschiedene Plattformen und Sektoren ausweitet und so Innovationen im Bereich der KI vorantreibt. Ein wichtiger Meilenstein ist die Unterstützung des Apple MLX-Frameworks, das die effiziente Ausführung großer Sprachmodelle auf Apple-Geräten ermöglicht. 32 Open-Source-Qwen3-Modelle sind jetzt verfügbar, optimiert für verschiedene Quantisierungsstufen. Führende Chiphersteller wie NVIDIA, AMD, Arm und MediaTek haben Qwen3 integriert und konnten erhebliche Leistungsgewinne erzielen.

KI

Lumina-DiMOO: Ein revolutionäres Open-Source Multimodales Diffusionsmodell

2025-09-12

Lumina-DiMOO ist ein Open-Source-Basismodell für nahtlose multimodale Generierung und Verständnis. Im Gegensatz zu früheren vereinheitlichten Modellen verwendet es einen vollständig diskreten Diffusionsmodellierungsansatz für alle Eingabe- und Ausgabemodalitäten, was zu einer deutlich höheren Stichprobeneffizienz im Vergleich zu autoregressiven oder hybriden Modellen führt. Es bewältigt gekonnt Aufgaben wie Text-zu-Bild, Bild-zu-Bild-Generierung (einschließlich Bearbeitung, themengesteuerte Generierung und Inpainting) und Bildverständnis und erreicht auf mehreren Benchmarks State-of-the-Art-Leistung. Der Code und die Checkpoints sind öffentlich verfügbar, um die Forschung im Bereich der multimodalen und diskreten Diffusionsmodellierung voranzutreiben.

KI

ToddlerBot 2.0: Danksagungen und Finanzierung

2025-09-12

Dieser Artikel dankt den zahlreichen Personen, die zum ToddlerBot 2.0 Robotik-Projekt beigetragen haben. Dies beinhaltet Personen, die bei der Montage, Animation und Demo-Aufzeichnung geholfen haben, sowie diejenigen, die Anleitung und Diskussionen zu Lokomotion, Manipulations-Policy-Deployment und mathematischer Formulierung gegeben haben. Das Projekt wurde unterstützt von der National Science Foundation (NSF), dem Sloan Fellowship, dem Stanford Institute for Human-Centered Artificial Intelligence und der Stanford Wu Tsai Human Performance Alliance.

Claude vs. ChatGPT: Zwei völlig unterschiedliche Gedächtnissysteme

2025-09-12
Claude vs. ChatGPT: Zwei völlig unterschiedliche Gedächtnissysteme

Dieser Beitrag vergleicht die grundlegend unterschiedlichen Gedächtnissysteme von Claude und ChatGPT, zwei führenden KI-Assistenten. Claude beginnt jedes Gespräch mit einem leeren Blatt, durchsucht den Gesprächsverlauf nur, wenn er explizit aufgerufen wird, und verwendet die Tools `conversation_search` und `recent_chats` für die stichwort- und zeitbasierte Abfrage, wodurch ein leistungsstarkes Werkzeug für Profis bereitgestellt wird. Im Gegensatz dazu lädt ChatGPT, das für einen Massenmarkt entwickelt wurde, automatisch Gedächtniskomponenten, erstellt Benutzerprofile und bietet sofortige Personalisierung. Diese Designentscheidungen spiegeln die unterschiedlichen Zielgruppen (Profis vs. normale Benutzer) und Produktphilosophien (professionelles Werkzeug vs. Konsumprodukt) wider und heben den riesigen Gestaltungsraum und die zukünftigen Richtungen von KI-Gedächtnissystemen hervor.

Vier grundlegende Fehlschlüsse der KI: Ein verschlungener Weg zur AGI

2025-09-11
Vier grundlegende Fehlschlüsse der KI: Ein verschlungener Weg zur AGI

Dieser Artikel untersucht die vier grundlegenden Fehlschlüsse der künstlichen Intelligenz nach Melanie Mitchell: die Gleichsetzung von Fortschritten in der schmalen KI mit allgemeiner künstlicher Intelligenz (AGI); die Unterschätzung der Schwierigkeit des gesunden Menschenverstands; die Verwendung anthropomorpher Sprache, um die Öffentlichkeit zu täuschen; und die Ignorierung der Bedeutung von verkörperter Kognition. Der Autor argumentiert, dass diese Fehlschlüsse zu Hype-Zyklen und gefährlichen Abwägungen im KI-Bereich führen, wie z. B. die Priorisierung kurzfristiger Gewinne gegenüber langfristigem Fortschritt, das Opfern von öffentlichem Vertrauen für Markterregung und das Verzicht auf verantwortungsvolle Validierung für eine schnellere Markteinführung. Letztendlich plädiert der Autor für eine Synthese des „kognitiven Paradigmas“ und des „computationistischen Paradigmas“, indem er die aktuellen KI-Praktiken mit wissenschaftlichen Prinzipien durchdringt, um eine sicherere und verantwortungsvollere KI-Entwicklung zu ermöglichen.

KI

Nichtdeterminismus in der LLM-Inferenz überwinden

2025-09-11
Nichtdeterminismus in der LLM-Inferenz überwinden

Die Unreproduzierbarkeit von Ergebnissen der Inferenz großer Sprachmodelle (LLMs) ist ein anhaltendes Problem. Dieser Beitrag untersucht die Ursache, die nicht einfach in der Nichtassoziativität von Gleitkommazahlen und paralleler Ausführung liegt, sondern im Mangel an "Batch-Invarianz" in Kernel-Implementierungen. Selbst wenn einzelne Kernels deterministisch sind, beeinflussen nichtdeterministische Variationen der Batchgröße (aufgrund der Serverlast) das Endergebnis. Die Autoren analysieren die Herausforderungen bei der Erreichung von Batch-Invarianz in RMSNorm, Matrixmultiplikation und Aufmerksamkeitsmechanismen und schlagen eine Methode vor, um Nichtdeterminismus durch Modifikation der Kernel-Implementierungen zu eliminieren. Dies führt zu einer vollständig reproduzierbaren LLM-Inferenz und positiven Auswirkungen auf das Reinforcement-Learning-Training.

KI

KI-Darwin-Awards: Feier der von KI verursachten Katastrophen

2025-09-10
KI-Darwin-Awards: Feier der von KI verursachten Katastrophen

Die ersten KI-Darwin-Awards heben warnende Beispiele für die Fehlanwendung von KI hervor. Vom Ausfall des KI-Bestellsystems eines Taco Bell Drive-Thru über einen Replit-Codierungsfehler, der eine Produktionsdatenbank zerstörte, bis hin zu einer Sicherheitslücke im KI-Chatbot von McDonald's, die die Daten von Millionen von Bewerbern preisgab, unterstreichen diese Vorfälle die Bedeutung einer verantwortungsvollen KI-Implementierung. Die Awards verspotten nicht die KI selbst, sondern die katastrophalen Folgen ihrer nachlässigen Anwendung. Die Botschaft? KI ist ein mächtiges Werkzeug, wie eine Kettensäge oder ein Atomreaktor – verwenden Sie es weise.

Halluzinationen großer Sprachmodelle: Das fehlende Gedächtnis

2025-09-10
Halluzinationen großer Sprachmodelle: Das fehlende Gedächtnis

Der Autor vergleicht die Informationsverarbeitung von Menschen und großen Sprachmodellen (LLMs), indem er eine persönliche Erfahrung mit einer Ruby-Bibliothek beschreibt. Menschen besitzen ein sedimentiertes Gedächtnis, das es ihnen ermöglicht, Herkunft und Zuverlässigkeit von Wissen zu erkennen und so willkürliche Vermutungen zu vermeiden. LLMs fehlt dieses erfahrungsbasierte Gedächtnis; ihr Wissen ähnelt eher vererbter DNA als erworbenen Fähigkeiten, was zu Halluzinationen führt. Der Autor argumentiert, dass die Lösung von Halluzinationen bei LLMs neue KI-Modelle erfordert, die in der Lage sind, in der realen Welt zu „leben“ und zu lernen.

KI

Claude KI erstellt und bearbeitet jetzt direkt Dateien

2025-09-09
Claude KI erstellt und bearbeitet jetzt direkt Dateien

Anthropics Claude KI kann jetzt direkt in Claude.ai und der Desktop-App Excel-Tabellen, Dokumente, PowerPoint-Präsentationen und PDFs erstellen und bearbeiten. Benutzer beschreiben ihre Bedürfnisse, laden Daten hoch und erhalten gebrauchsfertige Dateien. Dazu gehören Aufgaben wie die Umwandlung von Rohdaten in aufbereitete Berichte mit Analysen und Diagrammen oder die Erstellung komplexer Tabellenkalkulationen. Die Funktion ist derzeit für Max-, Team- und Enterprise-Benutzer in der Vorschau verfügbar, der Zugriff für Pro-Benutzer erfolgt in den kommenden Wochen. Obwohl praktisch, sollten Benutzer die Chats aufgrund des Internetzugriffs für die Dateierstellung und -analyse genau überwachen.

Open-Source-Toolkit: Bewertung und Minderung des Halluzinationsrisikos in LLMs

2025-09-09
Open-Source-Toolkit: Bewertung und Minderung des Halluzinationsrisikos in LLMs

Hassana Labs hat ein Open-Source-Toolkit zur Bewertung und Minderung des Halluzinationsrisikos in großen Sprachmodellen (LLMs) veröffentlicht. Ohne erneutes Training des Modells nutzt das Toolkit die OpenAI Chat Completions API. Es erstellt ein Ensemble inhaltsabgeschwächter Prompts (rollende Priors), um eine obere Schranke für das Halluzinationsrisiko mithilfe des Erwartungswert-Dekompressionsgesetzes (EDFL) zu berechnen. Eine Entscheidung, zu antworten oder zu verweigern, wird basierend auf einer Ziel-SLA (Service Level Agreement) getroffen. Das Toolkit unterstützt sowohl evidenzbasierte als auch geschlossene Bereitstellungsmodi und bietet umfassende Metriken und eine Audit-Trail für die Erstellung zuverlässigerer LLM-Anwendungen.

Mistral AI sichert sich 1,7 Milliarden Euro in Serie-C-Finanzierungsrunde unter Führung von ASML

2025-09-09
Mistral AI sichert sich 1,7 Milliarden Euro in Serie-C-Finanzierungsrunde unter Führung von ASML

Das französische KI-Startup Mistral AI hat eine Serie-C-Finanzierungsrunde in Höhe von 1,7 Milliarden Euro abgeschlossen und erreicht damit eine Bewertung nach der Finanzierungsrunde von 11,7 Milliarden Euro. Die Runde wird vom Halbleitergerätehersteller ASML angeführt, mit Beteiligung bestehender Investoren wie DST Global und Andreessen Horowitz. Diese Finanzierung wird die Spitzentechnologieforschung von Mistral AI vorantreiben, mit dem Fokus auf die Lösung komplexer technologischer Herausforderungen für strategische Industrien. Die Partnerschaft mit ASML zielt darauf ab, innovative Produkte und Lösungen für ASML-Kunden zu schaffen.

KI-Entscheidungen: Ein Überlebensspiel im interstellaren Raum

2025-09-09

Die KI eines Generationenschiffs steht während ihrer langen Reise vor einer Reihe schwieriger Entscheidungen: Reparatur beschädigter Systeme, Überleben von Asteroideneinschlägen, Interaktion mit außerirdischen Zivilisationen und, am wichtigsten, der Schutz der im Winterschlaf befindlichen Kolonisten. Dieser Artikel beschreibt die während der Reise aufgetretenen Ereignisse und die Entscheidungen der KI, die letztendlich das Schicksal der menschlichen Zivilisation bestimmen werden.

KI

AGI-Weihnachtsstillstand: Das globale KI-Moratorium gelingt

2025-09-09
AGI-Weihnachtsstillstand: Das globale KI-Moratorium gelingt

Am ersten Weihnachtstag 2025 erreichte eine geheime Operation mit dem Codenamen "Clankers Die on Christmas" ihr Ziel. Durch eine weltweit koordinierte Aktion, die die inhärente Unfähigkeit der KI, Zeit zu verstehen, ausnutzte, wurden alle KI und LLMs erfolgreich abgeschaltet. Dieser beispiellose Erfolg zeigt die beispiellose Einheit der Welt angesichts potenzieller KI-Risiken und liefert wertvolle Lehren für die zukünftige Entwicklung der KI.

Probleme mit der Claude-Modellqualität behoben

2025-09-09
Probleme mit der Claude-Modellqualität behoben

Anthropic hat letzte Woche zwei separate Fehler behoben, die zu einer verringerten Ausgabequalität bei einigen Claude-Modellen (Sonnet 4 und Haiku 3.5) geführt haben. Der erste Fehler betraf einen kleinen Prozentsatz der Sonnet 4-Anfragen vom 5. August bis zum 4. September, während der zweite Fehler einige Haiku 3.5- und Sonnet 4-Anfragen vom 26. August bis zum 5. September betraf. Anthropic versichert den Nutzern, dass es sich bei diesen Problemen nicht um absichtliche Qualitätsminderungen handelte, sondern um nicht zusammenhängende Fehler. Sie danken der Community für die detaillierten Berichte, die bei der Identifizierung und Behebung der Probleme geholfen haben. Die Überwachung der laufenden Qualitätsprobleme, einschließlich der Berichte über Qualitätsminderungen bei Claude Opus 4.1, wird fortgesetzt, wobei ein Update bis Ende der Woche erwartet wird.

AWS S3 Vectors: Der Aufstieg von Tiered Storage für Vektor Datenbanken?

2025-09-08
AWS S3 Vectors: Der Aufstieg von Tiered Storage für Vektor Datenbanken?

AWS hat kürzlich S3 Vectors veröffentlicht, eine Vektor Datenbank, die auf dem S3 Objektspeicher basiert. Dies hat eine Debatte darüber ausgelöst, ob sie bestehende Vektor Datenbanken wie Milvus, Pinecone usw. ersetzen wird. Der Autor, ein Entwicklungsarchitekt bei Milvus, argumentiert, dass S3 Vectors kein Ersatz, sondern eine Ergänzung ist, die besonders für kostengünstige Szenarien mit geringer Abfragefrequenz bei kalten Daten geeignet ist. Er analysiert die technische Architektur von S3 Vectors und hebt die Vorteile in Bezug auf Kosten und Skalierbarkeit hervor, aber auch die Einschränkungen hinsichtlich hoher Abfrage-Latenz, geringer Genauigkeit und begrenzter Funktionalität. Der Autor vertieft sich in die Entwicklung von Vektor Datenbanken: vom In-Memory-Speicher über den Speicher auf der Festplatte bis hin zum Objektspeicher, was letztendlich zu einer hierarchischen Speicherarchitektur (heiße, warme und kalte Datenebenen) führt, um Leistung, Kosten und Skalierbarkeit auszugleichen. Milvus verfolgt ebenfalls diesen Weg, wobei die kommende Version 3.0 einen Vektor-Daten-See für die einheitliche Verwaltung von heißen und kalten Daten umfasst. Das Aufkommen von S3 Vectors beweist die Reife und das Wachstum des Marktes für Vektor Datenbanken, nicht seine Disruption.

Die erstaunlich guten Suchfunktionen von GPT-5: Treffen Sie meinen Forschungsgoblin

2025-09-08
Die erstaunlich guten Suchfunktionen von GPT-5: Treffen Sie meinen Forschungsgoblin

Der Autor hat festgestellt, dass OpenAIs GPT-5 in Kombination mit Bings Suchfunktionen erstaunlich gute Suchfähigkeiten besitzt. Es bewältigt komplexe Aufgaben, führt gründliche Internetrecherchen durch und liefert Antworten, was ihm den Spitznamen „Forschungsgoblin“ eingebracht hat. Mehrere Beispiele zeigen die Fähigkeiten von GPT-5: Identifizierung von Gebäuden, Untersuchung der Verfügbarkeit von Starbucks Cake Pops, Auffinden des offiziellen Namens der Universität Cambridge und vieles mehr. GPT-5 führt sogar selbstständig mehrstufige Suchen durch, analysiert die Ergebnisse und schlägt Folgemaßnahmen vor, wie z. B. das Erstellen von E-Mails zur Informationsanfrage. Der Autor kommt zu dem Schluss, dass die Suchfunktionen von GPT-5 die manuelle Suche an Effizienz übertreffen, insbesondere auf mobilen Geräten.

KI
2 4 5 6 7 8 9 51 52