Category: KI

ViTs vs. CNNs: Geschwindigkeits-Benchmarks widerlegen Mythen zur Auflösung

2025-05-04

Dieser Artikel hinterfragt die weit verbreitete Annahme, dass Vision Transformers (ViTs) für die Verarbeitung von hochauflösenden Bildern ineffizient sind. Anhand gründlicher Benchmarks auf verschiedenen GPUs vergleicht der Autor die Inferenzgeschwindigkeit, FLOPs und die Speichernutzung von ViTs und Convolutional Neural Networks (CNNs). Die Ergebnisse zeigen, dass ViTs bis einschließlich 1024x1024 Pixel eine außergewöhnliche Leistung erbringen und moderne GPUs oft sowohl in Geschwindigkeit als auch in Bezug auf die Speichereffizienz übertreffen. Der Autor kritisiert auch die übermäßige Betonung hoher Auflösungen und schlägt vor, dass niedrigere Auflösungen oft ausreichen. Schließlich stellt der Artikel lokale Aufmerksamkeitsmechanismen vor, die die Effizienz von ViTs bei hohen Auflösungen weiter verbessern.

KI

Codds zellulärer Automat: Eine vereinfachte selbstreplizierende Maschine

2025-05-04
Codds zellulärer Automat: Eine vereinfachte selbstreplizierende Maschine

1968 entwickelte der britische Informatiker Edgar F. Codd einen zellulären Automaten (CA) mit nur 8 Zuständen, der von Neumanns 29-Zustands-Selbstreplikationsmaschine vereinfachte. Codd zeigte die Möglichkeit einer selbstreplizierenden Maschine innerhalb seines CA, aber eine vollständige Implementierung gelang erst 2009 durch Tim Hutton. Codds Arbeit regte weitere Forschung zur notwendigen logischen Organisation für Selbstreplikation in Automaten an und inspirierte spätere Verfeinerungen durch Forscher wie Devore und Langton, die zu weniger komplexen selbstreplizierenden Designs führten.

TScale: Training von LLMs auf Consumer-Hardware

2025-05-04
TScale: Training von LLMs auf Consumer-Hardware

TScale ist ein Framework zum Trainieren und Inferieren von Transformer-Modellen, geschrieben in C++ und CUDA, das für die Ausführung auf Consumer-Hardware entwickelt wurde. Es erreicht signifikante Kosten- und Zeitreduzierungen durch optimierte Architektur, Low-Precision-Computing (fp8 und int8), CPU-Offloading und synchrones und asynchrones verteiltes Training. Selbst ein Modell mit 1T Parametern wird durch clevere Indexierungstechniken handhabbar, wodurch das Training auf normalen Heimcomputern ermöglicht wird. TScale zeigt ein immenses Potenzial bei der Senkung der Einstiegshürde für das Training von LLMs.

Fehlerhafte KI-Prognose-Grafik geht viral: Eine Mahnung

2025-05-04
Fehlerhafte KI-Prognose-Grafik geht viral: Eine Mahnung

METR, ein gemeinnütziges Forschungslabor, veröffentlichte einen Bericht, der den schnellen Fortschritt großer Sprachmodelle bei Softwareaufgaben zeigt und virale Diskussionen auslöste. Die Prämisse des Diagramms ist jedoch fehlerhaft: Es verwendet die menschliche Lösungsdauer, um die Schwierigkeit des Problems zu messen, und die Zeit der 50%igen Erfolgsrate der KI als Maß für die Fähigkeit. Dies ignoriert die verschiedenen Komplexitäten von Problemen und führt zu willkürlichen Ergebnissen, die sich nicht für Vorhersagen eignen. Obwohl der Datensatz von METR und die Diskussionen über die aktuellen Grenzen der KI wertvoll sind, ist die Verwendung des Diagramms für Vorhersagen der zukünftigen KI-Fähigkeiten irreführend. Seine virale Verbreitung unterstreicht die Tendenz, das zu glauben, was man glauben möchte, anstatt sich auf die Gültigkeit zu konzentrieren.

KI

Zehn neue Wörter für das Zeitalter der KI-Kommunikation

2025-05-03
Zehn neue Wörter für das Zeitalter der KI-Kommunikation

Der Aufstieg der KI hat unsere Kommunikationsweise grundlegend verändert. Dieser Artikel stellt humorvoll zehn neue Begriffe vor, um diesen Wandel zu beschreiben, wie z. B. „chatjacked“ (KI-Entführung von Gesprächen), „prasted“ (einfaches Einfügen von KI-Ausgaben), „prompt ponged“ (KI-gesteuertes Hin und Her) und „AI'm a Writer Now“ (KI-gestützte Schriftstellerei). Er veranschaulicht anschaulich den Einfluss der KI auf die Kommunikation und regt zum Nachdenken über Autorschaft, Aufrichtigkeit und die Bedeutung authentischer Verbindungen an. Ein unterhaltsamer, aber auch zum Nachdenken anregender Beitrag, der uns dazu auffordert, zu überlegen, wie wir im Zeitalter der KI authentisch kommunizieren können.

KI

KI-generierte Literatur: Vorurteile und Flüssigkeit

2025-05-03
KI-generierte Literatur: Vorurteile und Flüssigkeit

Dieser Essay untersucht die Vorurteile gegen von großen Sprachmodellen (LLMs) generierte Literaturwerke, ein Vorurteil, das den historischen Vorurteilen gegenüber Schriftstellerinnen ähnelt. Der Autor argumentiert, dass es ungerechtfertigt ist, KI-Schreiben als von Natur aus fehlerhaft zu bezeichnen, nur weil es nicht menschlich ist. Der Artikel vertieft das Verhältnis zwischen sprachlicher Flüssigkeit und Denken und zeigt, dass ein Großteil der menschlichen Sprache gewohnheitsmäßig und nicht reflexiv ist, nicht grundlegend anders als von KI generierter Text. Letztendlich plädiert der Autor für einen unvoreingenommenen Ansatz beim Lesen von KI-generierten Werken, da diese unerwartete und innovative Formen sprachlicher Ausdrucksfähigkeit offenbaren können.

Der Einfluss von KI auf Wissenschaft und Mathematik: Experten prognostizieren das nächste Jahrzehnt

2025-05-03
Der Einfluss von KI auf Wissenschaft und Mathematik: Experten prognostizieren das nächste Jahrzehnt

Das Quanta Magazine interviewte fast 100 Wissenschaftler und Mathematiker über die Auswirkungen der künstlichen Intelligenz auf ihre Gebiete. Fast alle berichteten von den disruptiven Auswirkungen der KI, egal ob sie direkt an ihrer Entwicklung beteiligt waren oder indirekt von ihrem Potenzial beeinflusst wurden. Viele passen ihre experimentellen Ansätze an, suchen neue Kooperationen oder formulieren völlig neue Forschungsfragen. Der Artikel endet mit einer herausfordernden Frage: Wohin wird das alles in den nächsten 5 bis 10 Jahren führen? Die Experten sind sich einig, dass der rasche Fortschritt der KI genaue Vorhersagen schwierig macht, und ihre Auswirkungen werden noch viele Jahre anhalten.

KI

Google Family Link ermöglicht Kindern Zugriff auf Gemini AI

2025-05-03
Google Family Link ermöglicht Kindern Zugriff auf Gemini AI

Google erweitert den Zugriff auf seine Gemini AI-Apps für Kinder über die Kindersicherung Family Link auf Android-Geräten. Während Gemini bei Hausaufgaben und Geschichten helfen kann, warnt Google Eltern davor, dass die KI Fehler machen kann und Kinder unangemessene Inhalte sehen könnten. Google versichert, dass Kinderdaten nicht zum Training der KI verwendet werden. Eltern sollten mit ihren Kindern besprechen, dass Gemini kein Mensch ist und keine sensiblen Informationen mit dem Chatbot geteilt werden sollten. Eltern behalten die Kontrolle über Family Link, erhalten Benachrichtigungen beim ersten Zugriff ihres Kindes auf Gemini und können den Zugriff vollständig deaktivieren.

KI

DeepMind-Roboter erreicht menschliches Wettbewerbsniveau im Tischtennis

2025-05-02
DeepMind-Roboter erreicht menschliches Wettbewerbsniveau im Tischtennis

Ein Team von Google DeepMind hat einen Roboter entwickelt, der im Tischtennis auf menschlichem Expertenniveau mithalten kann. Die Forschung, detailliert in einer veröffentlichten Arbeit und begleitenden Videos, zeigt die beeindruckende Leistung des Roboters in einer komplexen, dynamischen Umgebung und stellt einen bedeutenden Fortschritt in der KI-gestützten Robotik dar. An dem Projekt waren zahlreiche DeepMind-Forscher beteiligt, was die Kraft der kollaborativen Forschung unterstreicht.

GPT-2 Inferenz-Demo im Browser mit WebGL2

2025-05-02
GPT-2 Inferenz-Demo im Browser mit WebGL2

Dieses beeindruckende Projekt bringt den vollständigen Vorwärtsdurchlauf des GPT-2 Small-Modells (117 Millionen Parameter) mithilfe von WebGL2 in den Browser. Durch die Nutzung von WebGL2-Shadern für die GPU-Berechnung und js-tiktoken für die BPE-Tokenisierung (kein WASM erforderlich) wird GPT-2 direkt im Browser ausgeführt. Ein Python-Skript lädt die vortrainierten Gewichte herunter, und das Frontend wird mit Vite für Hot Module Replacement erstellt. Dies ist ein fantastisches Beispiel dafür, wie man fortschrittliche KI-Modelle in den Browser bringt und die Spitzentechnologien des Web demonstriert.

KI

KI generiert über 500 bizarre Musikgenre-Mashups

2025-05-02
KI generiert über 500 bizarre Musikgenre-Mashups

Ein mysteriöses KI-Programm hat über 500 ungewöhnliche Kombinationen von Musikgenres generiert, wie zum Beispiel "Gothischer arabischer Reggae" und "Saxophon Tuareg". Diese Kombinationen vermischen kühn verschiedene Kulturen und Musikstile und zeigen die unbegrenzten Möglichkeiten von KI in der Musikproduktion. Dies regt zum Nachdenken über die Zukunft der Musikkomposition an und bietet Musikern neue kreative Inspiration.

KI

KI-basierte Schreibassistenten homogenisieren Schreibstile im globalen Süden

2025-05-02
KI-basierte Schreibassistenten homogenisieren Schreibstile im globalen Süden

Eine Studie der Cornell University zeigt, dass KI-basierte Schreibassistenten Schreibstile in Richtung westlicher Normen homogenisieren können, was insbesondere Milliarden von Nutzern im globalen Süden betrifft. Die Studie ergab, dass das Schreiben von indischen und amerikanischen Nutzern ähnlicher wurde, wenn sie einen KI-Assistenten verwendeten, hauptsächlich auf Kosten indischer Schreibstile. Während beide Gruppen eine erhöhte Schreibgeschwindigkeit erlebten, verzeichneten Inder einen geringeren Produktivitätsgewinn aufgrund der häufigen Korrektur von KI-Vorschlägen. Die KI schlug oft amerikanische Speisen und Feiertage vor und ersetzte sogar indische Prominente durch westliche. Die Forscher bezeichnen dies als „KI-Kolonialismus“ und fordern Technologieunternehmen auf, sich auf kulturelle Nuancen zu konzentrieren, um inklusivere KI-Tools zu schaffen.

KI

Dopamin: Das „Alles klar“-Signal des Gehirns für die Angstlöschung

2025-05-01

Neurowissenschaftler des MIT haben entdeckt, dass die Freisetzung von Dopamin entlang eines spezifischen Schaltkreises im Gehirn als „Alles klar“-Signal wirkt und dem Gehirn beibringt, Angst zu löschen. Ihre Forschung an Mäusen zeigt, dass Dopamin verschiedene Neuronenpopulationen in der Amygdala ansteuert und eine Erinnerung an die Angstlöschung kodiert. Dieser Mechanismus stellt, wenn er richtig funktioniert, die Ruhe wieder her; wenn er gestört ist, kann er zu Angstzuständen oder PTBS beitragen. Die Studie identifiziert ein potenzielles therapeutisches Ziel für angstbedingte Störungen und legt nahe, dass Interventionen Dopaminrezeptoren oder spezifische Neuronen modulieren könnten, um die Bildung und Löschung von Angsterinnerungen zu beeinflussen.

Googles KI-Modus Suchmaschine geht in die öffentliche Betaphase

2025-05-01
Googles KI-Modus Suchmaschine geht in die öffentliche Betaphase

Google rollt seine KI-Modus Suchmaschine für einen kleinen Prozentsatz von Nutzern in den USA aus. Diese KI-gestützte Suche wird Anfragen mit KI-generierten Antworten beantworten, die auf dem Google-Index basieren, im Gegensatz zu traditionellen Suchergebnissen. Der KI-Modus ist prominent im Such-Tab platziert und konkurriert mit ähnlichen Angeboten von Perplexity und OpenAI. Google hat die Warteliste entfernt und Funktionen wie gespeicherte Suchen und anklickbare Karten für Produkte und Orte hinzugefügt, um die Benutzererfahrung zu verbessern.

KI

Emotions-Audio-Datensatz: Sieben verschiedene Emotionen

2025-05-01

Dieser Datensatz enthält Audio-Samples, die sieben verschiedene Emotionen repräsentieren: neutral, glücklich, ruhig, traurig, wütend, ängstlich, angewidert und überrascht. Die große Anzahl an Audio-Clips bietet wertvolle Ressourcen zum Trainieren und Testen von Emotionserkennungsmodellen und trägt so maßgeblich zum Bereich des affektiven Computings in der KI bei.

Waypoint: Automatisierung der Stadtplanung mit KI – Einstellung des ersten Ingenieurs

2025-05-01
Waypoint: Automatisierung der Stadtplanung mit KI – Einstellung des ersten Ingenieurs

Waypoint revolutioniert die Stadtplanung durch KI-Automatisierung und behebt die Ineffizienzen und hohen Kosten herkömmlicher Beratungsunternehmen. Sie suchen ihren ersten Ingenieur, um ihre Ingenieursysteme von Grund auf neu zu entwickeln. Zu den Projekten gehören das Feintuning von YOLO-Modellen zur Gehwegsegmentierung, die Entwicklung eines Systems zur Verarbeitung von Stadtplanungsdokumenten und die Automatisierung der Erstellung von Sicherheitsempfehlungen für Kreuzungen. Der ideale Kandidat ist ein erfahrener Programmierer, ein schneller Lerner, ein Problemlöser und begeistert von der Verbesserung der Stadtplanung.

KI

Claude-Integrationen und erweiterte Recherche: Ein leistungsstarkes Upgrade

2025-05-01
Claude-Integrationen und erweiterte Recherche: Ein leistungsstarkes Upgrade

Anthropic hat wichtige Updates für Claude angekündigt, darunter Integrationen, die es Entwicklern ermöglichen, verschiedene Apps und Tools zu verbinden, und erweiterte Recherchefunktionen. Im erweiterten Forschungsmodus kann Claude das Web, Google Workspace und jetzt auch verbundene Integrationen durchsuchen und bis zu 45 Minuten lang recherchieren, wobei umfassende Berichte mit Zitaten erstellt werden. Die Websuche ist jetzt weltweit für alle zahlenden Claude-Benutzer verfügbar. Diese Updates verbessern die Funktionalität und Effizienz von Claude erheblich und machen es zu einem leistungsstärkeren Collaboration-Tool.

Die „Verständniskriege“: Skalierung vs. Bedeutung im Zeitalter der LLMs

2025-05-01
Die „Verständniskriege“: Skalierung vs. Bedeutung im Zeitalter der LLMs

Als Transformer-Modelle die menschlichen Leistungen bei NLP-Benchmarks übertrafen, entbrannte eine Debatte über ihre Fähigkeiten, die in den „Verständniskriegen“ von 2020-22 gipfelte. Der „Oktopus-Test“ von Bender et al. argumentierte, dass Modelle, die Sprache statistisch imitieren, die Bedeutung nicht erfassen können. Die Ankunft von GPT-3 verschärfte den Konflikt, dessen Leistungsfähigkeit Forscher schockierte und gleichzeitig Sicherheits- und ethische Bedenken aufwarf. Die Debatte hob Meinungsverschiedenheiten in Methodik und Ausrichtung zwischen Wissenschaft und Industrie hervor und führte zu einem internen „Bürgerkrieg“ im NLP-Bereich.

KI

Besorgniserregender Trend: Hochschulabsolventen kämpfen mit dem Arbeitsmarkt

2025-05-01
Besorgniserregender Trend: Hochschulabsolventen kämpfen mit dem Arbeitsmarkt

Der Arbeitsmarkt für junge Hochschulabsolventen in den USA ist deutlich schlechter als in den letzten Jahrzehnten. Die Arbeitslosenquote liegt bei besorgniserregenden 5,8 %, und selbst Absolventen von Elite-MBA-Programmen haben Schwierigkeiten, eine Stelle zu finden. Drei mögliche Erklärungen werden genannt: die anhaltenden Auswirkungen der Pandemie und der Großen Rezession; ein geringerer Return on Investment für einen Hochschulabschluss; und das disruptive Potenzial von KI, die Aufgaben automatisieren kann, die früher von Berufseinsteigern im Büro erledigt wurden. Obwohl die Auswirkungen von KI auf die Beschäftigung noch unklar sind, stellen die Schwierigkeiten von Hochschulabsolventen eine Warnung dar, die auf kurzfristige wirtschaftliche Probleme, eine Veränderung des Wertes eines Hochschulabschlusses oder die langfristigen Auswirkungen von KI auf den Arbeitsmarkt hinweisen könnte.

Digitale Fossilien in KI: Wie unsinnige Begriffe in unser Wissen gelangen

2025-05-01
Digitale Fossilien in KI: Wie unsinnige Begriffe in unser Wissen gelangen

Wissenschaftler haben den unsinnigen Begriff "vegetative Elektronenmikroskopie" entdeckt, der sich in KI-Modellen verbreitet. Er entstand durch Digitalisierungsfehler in Artikeln aus den 1950er Jahren und wurde durch Übersetzungsfehler verstärkt, wodurch er in große Sprachmodelle integriert wurde. Dies unterstreicht die Herausforderungen großer Trainingsdatensätze, mangelnder Transparenz und sich selbst verstärkender Fehler in der KI. Der Vorfall wirft ernste Probleme für die akademische Forschung und das Verlagswesen auf und regt zum Nachdenken über den Erhalt zuverlässiger Wissenssysteme an.

Das Missverständnis von „Vibe Coding“: Eine verpasste Chance

2025-05-01
Das Missverständnis von „Vibe Coding“: Eine verpasste Chance

Zwei Verlage und drei Autoren haben die Bedeutung von „Vibe Coding“ grundlegend falsch verstanden und es mit KI-unterstützter Programmierung verwechselt. Der Autor argumentiert, dass echtes Vibe Coding, wie von Andrej Karpathy definiert, die Verwendung von KI zum Generieren von Code beinhaltet, ohne sich auf die Details des Codes zu konzentrieren; es ist ein Low-Code-Ansatz für Nicht-Programmierer. Der Autor drückt seine Enttäuschung darüber aus, dass die Verlage und Autoren Karpathys Definition nicht vollständig verstanden haben und somit eine große Chance verpasst haben, ein wertvolles Buch darüber zu schreiben, wie Nicht-Programmierer befähigt werden können, benutzerdefinierte Software mithilfe von KI zu erstellen, ohne traditionelle Programmierung lernen zu müssen.

KI

Hyperparam: Die fehlende Benutzeroberfläche für KI-Daten, jetzt Open Source

2025-05-01

Hyperparam begegnet einer großen Herausforderung im Machine Learning: dem Mangel an benutzerfreundlichen Werkzeugen zur Exploration massiver Datensätze. Die Open-Source-Suite umfasst Hyparquet (Parquet-Leser im Browser), Hyparquet-Writer (Parquet-Exporter), HighTable (skalierbare React-Tabelle), Icebird (Iceberg-Leser), Hyllama (LLaMA-Modell-Metadaten-Parser) und die Hyperparam-CLI. Sie ermöglicht interaktive Datenexploration und -kuratierung direkt im Browser. Durch die Nutzung effizienter Datenformate und performanten JavaScript können Data Scientists mit Terabyte-großen Datensätzen lokal und privat arbeiten, ohne komplexe Serverinfrastruktur. Dieser lokale Ansatz priorisiert Datensicherheit und Compliance.

KI

KI-Benchmarking-Skandal: Haben Big-Tech-Unternehmen Chatbot Arena manipuliert?

2025-05-01
KI-Benchmarking-Skandal: Haben Big-Tech-Unternehmen Chatbot Arena manipuliert?

Ein neuer Bericht von Cohere, Stanford, MIT und Ai2 wirft LM Arena, der Organisation hinter dem beliebten KI-Benchmark Chatbot Arena, vor, große KI-Unternehmen wie Meta, OpenAI, Google und Amazon unfair bevorzugt zu haben. Die Forscher behaupten, dass diese Unternehmen private Tests mit mehreren Modellvarianten durchführen durften und schlechte Ergebnisse unterdrückt haben, um ihre Platzierung in der Rangliste zu verbessern. Die Analyse von über 2,8 Millionen Schlachten ergab Hinweise auf erhöhte Abtastraten, die diesen Unternehmen einen unfairen Vorteil verschafften. LM Arena bestreitet die Ergebnisse, verweist auf Ungenauigkeiten und plant, seinen Abtastungsalgorithmus zu verbessern, bestreitet aber die Manipulation der Rangliste. Die Kontroverse wirft Bedenken hinsichtlich der Fairness und Transparenz beim KI-Benchmarking auf und beleuchtet die wettbewerbsorientierten Taktiken, die von großen Technologieunternehmen im KI-Wettlauf eingesetzt werden.

Qwen3 kostenlos lokal auf Ihrem Mac ausführen: Eine agentenbasierte Schleife mit Localforge

2025-05-01
Qwen3 kostenlos lokal auf Ihrem Mac ausführen: Eine agentenbasierte Schleife mit Localforge

Dieser Beitrag beschreibt, wie man das leistungsstarke Large Language Model Qwen3 kostenlos lokal auf einem Mac ausführt und es mithilfe von Localforge in einen Agenten integriert. Der Autor führt den Leser Schritt für Schritt durch die Installation der MLX-Bibliothek, die Einrichtung des Modellservers und die Konfiguration von Localforge, wobei sowohl die Methoden Ollama als auch MLX zum Ausführen von Qwen3 gezeigt werden. Der Autor verwendet den Qwen3-Agenten erfolgreich, um Aufgaben wie das Auflisten von Dateien auszuführen, und zeigt sogar eine vom Agenten erstellte Website. Der Beitrag unterstreicht die Machbarkeit, leistungsstarke LLMs lokal auszuführen und Agenten kostenlos zu erstellen.

KI

Phi Silica: Ein hocheffizientes kleines Sprachmodell für Windows 11 Copilot+ PCs

2025-05-01
Phi Silica: Ein hocheffizientes kleines Sprachmodell für Windows 11 Copilot+ PCs

Das Microsoft Applied Sciences Team erzielte mit einem multidisziplinären Ansatz einen Durchbruch in der KI-Effizienz auf Windows 11 Copilot+ PCs (mit Snapdragon X-Serie Prozessoren). Ihr kleines Sprachmodell, Phi Silica, verbessert die Energieeffizienz, Inferenzgeschwindigkeit und Speichereffizienz deutlich. Phi Silica unterstützt mehrere Copilot+ PC-Funktionen, darunter Click to Do, gerätebasierte Umschreibung und Zusammenfassung in Word und Outlook, und bietet Entwicklern ein voroptimiertes SLM. Techniken wie 4-Bit-Gewichtsquantisierung, speicherabgebildete Einbettungen und QuaRot (eine neue 4-Bit-Quantisierungsmethode) reduzieren den Speicherbedarf drastisch und ermöglichen eine hochgenaue 4-Bit-quantisierte Inferenz. Es erreicht eine Zeit bis zum ersten Token von 230 ms bei kurzen Eingabeaufforderungen und einen Durchsatz von bis zu 20 Token/Sekunde.

Microsoft enthüllt Phi-4 Reasoning: Kleine Sprachmodelle mit großer Rechenleistung

2025-05-01
Microsoft enthüllt Phi-4 Reasoning: Kleine Sprachmodelle mit großer Rechenleistung

Microsoft hat seine neue Phi-4 Reasoning-Familie kleiner Sprachmodelle (LLMs) vorgestellt, darunter Phi-4-reasoning, Phi-4-reasoning-plus und Phi-4-mini-reasoning. Diese Modelle zeigen beeindruckende Fähigkeiten im logischen Denken, insbesondere im mathematischen Bereich, und übertreffen in einigen Benchmarks sogar größere Modelle. Phi-4-mini-reasoning ist für ressourcenbeschränkte Umgebungen wie mobile Geräte und Edge Computing optimiert. Microsoft betont sein Engagement für verantwortungsvolle KI und setzt mehrere Sicherheitsmaßnahmen ein, um potenzielle Risiken zu mindern. Diese Modelle sind auf Azure AI Foundry und Hugging Face verfügbar, einige sind in die Copilot+ PCs von Windows 11 integriert.

DeepSeek-Prover-V2: Fortschritt im formalen mathematischen Schließen durch Reinforcement Learning

2025-04-30
DeepSeek-Prover-V2: Fortschritt im formalen mathematischen Schließen durch Reinforcement Learning

DeepSeek-Prover-V2 ist ein Open-Source-Großes Sprachmodell, das für das formale Beweisverfahren in Lean 4 entwickelt wurde. Es nutzt eine rekursive Beweispipeline, die von DeepSeek-V3 angetrieben wird, und Reinforcement Learning, um sowohl informelles als auch formales mathematisches Schließen zu integrieren. Das Modell beginnt damit, komplexe Probleme mit Hilfe von DeepSeek-V3 in Teilziele zu zerlegen, und synthetisiert die Beweise dieser Teilziele, um anfängliche Daten für das Reinforcement Learning zu erstellen. DeepSeek-Prover-V2-671B erreicht einen state-of-the-art-Performance, erreicht eine Erfolgsrate von 88,9 % beim MiniF2F-Test und löst 49 Probleme aus PutnamBench. Ein neuer Benchmark-Datensatz, ProverBench, der 325 formalisierte Probleme aus Highschool-Wettbewerben und Lehrbüchern enthält, wird ebenfalls vorgestellt.

MiMo-7B: 7 Milliarden Parameter großes Sprachmodell für das logische Schließen übertrifft 32 Milliarden Parameter Modelle

2025-04-30
MiMo-7B: 7 Milliarden Parameter großes Sprachmodell für das logische Schließen übertrifft 32 Milliarden Parameter Modelle

Xiaomi stellt MiMo-7B vor, ein 7 Milliarden Parameter großes Sprachmodell, das auf logisches Schließen ausgelegt ist. Durch optimierte Pre-Training-Daten und -Strategien sowie innovative Reinforcement-Learning-Techniken erzielt MiMo-7B außergewöhnliche Ergebnisse bei mathematischen und Code-Reasoning-Aufgaben und übertrifft sogar größere Modelle mit 32 Milliarden Parametern. Das Open-Source-Modell umfasst Checkpoints für das Basismodell, das SFT-Modell und die RL-trainierten Modelle und bietet wertvolle Ressourcen für die Entwicklung leistungsstarker Reasoning-LLMs.

IA-Modell-Explosion: Das Rennen an die Spitze 2024-2025

2025-04-30

Die Jahre 2024 und 2025 erlebten einen beispiellosen Boom in der Entwicklung von KI-Modellen. Von Stable Diffusion 3 bis GPT-4o, von Gemini bis Claude 3, brachten Technologiekonzerne und Startups eine Flut neuer Modelle hervor, die einen intensiven Wettbewerb in den Bereichen Bilderzeugung, Videoerzeugung, Texterzeugung und Multimodalität auslösten. Der Aufstieg von Open-Source-Modellen trieb den rasanten Fortschritt und die Zugänglichkeit der KI-Technologie weiter voran. Dieser „Modell-Krieg“ entwickelt sich weiter, mit immer größer werdenden Parameterzahlen und Fähigkeiten, die letztendlich die zukünftige Landschaft der KI prägen werden.

KI

LLM-Zufälligkeitstest enthüllt unerwartete Verzerrung

2025-04-30

Dieses Experiment testete die Zufälligkeit verschiedener großer Sprachmodelle (LLMs) von OpenAI und Anthropic. Indem die Modelle eine Münze werfen und Zufallszahlen zwischen 0 und 10 vorhersagen ließen, entdeckten die Forscher eine signifikante Verzerrung in ihren Ergebnissen, was zeigt, dass sie nicht wirklich zufällig sind. Beispielsweise zeigte im Münzwurfexperiment jedes Modell eine Präferenz für „Kopf“, wobei GPT-o1 die extremste Verzerrung mit 49 % aufwies. Bei der Vorhersage von geraden/ungeraden Zahlen bevorzugten die meisten Modelle ungerade Zahlen, wobei Claude 3.7 Sonnet die stärkste Verzerrung mit 47 % zeigte. Die Ergebnisse unterstreichen, dass selbst fortschrittliche LLMs unerwartete Muster aufweisen können, die von den Verteilungen ihrer Trainingsdaten beeinflusst werden.

1 2 19 20 21 23 25 26 27 51 52