Category: KI

Modelllegierungen: Eine Geheimwaffe zur Steigerung der KI-Leistung

2025-07-21
Modelllegierungen: Eine Geheimwaffe zur Steigerung der KI-Leistung

Das XBOW-Team hat die Leistung seiner Schwachstellen-Erkennungsagenten durch eine clevere Technik namens "Modelllegierungen" drastisch verbessert. Dieser Ansatz nutzt die Stärken verschiedener LLMs (wie Google Gemini und Anthropic Sonnet), indem er innerhalb eines einzelnen Chat-Threads zwischen ihnen wechselt, um die Grenzen einzelner Modelle zu überwinden. Experimente zeigten, dass diese "Legierungs"-Strategie die Erfolgsraten auf über 55 % steigerte und damit die einzelnen Modelle deutlich übertraf. Diese Technik ist nicht auf Cybersicherheit beschränkt, sondern relevant für jede KI-Agentenaufgabe, die Lösungen in einem riesigen Suchraum erfordert.

KI-Agenten: Hype vs. Realität in 2025

2025-07-20
KI-Agenten: Hype vs. Realität in 2025

Während 2025 als das Jahr der KI-Agenten angepriesen wird, argumentiert ein erfahrener Entwickler von KI-Systemen im Produktivbetrieb dagegen. Basierend auf einem Jahr der Entwicklung von über einem Dutzend KI-Agentensystemen in der Produktion hebt er drei oft übersehene Schlüsselrealitäten hervor: exponentiell wachsende Fehlerraten in mehrstufigen Workflows; quadratische Kostenentwicklung durch Kontextfenster; und die entscheidende Herausforderung, effektive Tools und Feedback-Systeme für Agenten zu entwickeln. Er argumentiert, dass erfolgreiche KI-Agentensysteme nicht vollständig autonom sind, sondern KI mit menschlicher Aufsicht und traditioneller Softwareentwicklung kombinieren, innerhalb definierter Grenzen arbeiten und über verifizierbare Operationen und Rollback-Mechanismen verfügen. Er prognostiziert, dass Teams, die eingeschränkte, domänenspezifische Tools entwickeln, die KI für komplexe Aufgaben nutzen und gleichzeitig die menschliche Kontrolle beibehalten, erfolgreich sein werden. Der Fokus sollte von "vollständig autonom" auf "extrem leistungsfähige Assistenten mit klaren Grenzen" verlagert werden.

Entwicklung der LLM-Architektur im Jahr 2025: Tiefer Einblick in DeepSeek, OLMo, Gemma, Mistral und Qwen

2025-07-20
Entwicklung der LLM-Architektur im Jahr 2025: Tiefer Einblick in DeepSeek, OLMo, Gemma, Mistral und Qwen

Dieser Artikel befasst sich mit den architektonischen Fortschritten bei großen Sprachmodellen (LLMs) im Jahr 2025 und konzentriert sich dabei auf Open-Source-Modelle wie DeepSeek, OLMo, Gemma, Mistral und Qwen. DeepSeek V3/R1 verbessert die Rechenleistung durch Multi-Head Latent Attention (MLA) und Mixture-of-Experts (MoE). OLMo 2 betont die Platzierung von RMSNorm und verwendet Post-Norm und QK-Norm. Gemma 3 nutzt Sliding Window Attention, um den Speicherbedarf zu reduzieren. Mistral Small 3.1 findet einen Ausgleich zwischen Leistung und Geschwindigkeit. Qwen 3 bietet sowohl dichte als auch MoE-Varianten für mehr Flexibilität. SmolLM3 zeichnet sich durch seine Größe von 3 Milliarden Parametern und NoPE (No Positional Embeddings) aus. Schließlich beeindruckt Kimi 2 mit seiner Billionen-Parameter-Skala und dem Muon-Optimierer. Diese Modelle zeigen Innovationen in den Aufmerksamkeitsmechanismen, der Normalisierung, MoE und Optimierern und demonstrieren die Vielfalt und die kontinuierliche Weiterentwicklung von LLM-Architekturen.

CLJ-AGI: Ein neuer Benchmark für AGI

2025-07-20

CLJ-AGI schlägt einen neuen Benchmark für Künstliche Allgemeine Intelligenz (AGI) vor. Der Benchmark fordert eine KI heraus, die Programmiersprache Clojure mit Funktionen wie einem Transducer-First-Design, optionalem Lazy-Evaluating, allgegenwärtigen Protokollen und erstklassigen CRDT-Datenstrukturen zu verbessern. Der Erfolg, definiert als das Erreichen dieser Verbesserungen bei gleichzeitiger Beibehaltung der Abwärtskompatibilität mit vorhandenem Clojure-Code, bringt eine erhebliche Belohnung ein und markiert einen wichtigen Schritt in Richtung echter AGI.

KI

Lokale LLMs vs. Offline-Wikipedia: Ein Größenvergleich

2025-07-20

Ein Artikel im MIT Technology Review löste eine Diskussion über die Verwendung von Offline-LLMs in einem Apokalypse-Szenario aus. Dies veranlasste den Autor, die Größe von lokalen LLMs und Offline-Wikipedia-Downloads zu vergleichen. Die Ergebnisse zeigten, dass kleinere lokale LLMs (wie Llama 3.2 3B) in etwa die gleiche Größe haben wie eine Auswahl von 50.000 Wikipedia-Artikeln, während die vollständige Wikipedia viel größer ist als selbst die größten LLMs. Obwohl ihre Zwecke unterschiedlich sind, zeigt dieser Vergleich einen interessanten Kontrast beim Speicherplatzbedarf zwischen lokalen LLMs und Offline-Wissensdatenbanken.

KI

Zuckerbergs gescheiterter Versuch, OpenAI-Mitarbeiter für 100 Millionen Dollar abzuwerben

2025-07-20
Zuckerbergs gescheiterter Versuch, OpenAI-Mitarbeiter für 100 Millionen Dollar abzuwerben

Meta-CEO Mark Zuckerberg versuchte, ChatGPT-Mitarbeiter mit Angeboten von bis zu 100 Millionen Dollar in sein KI-Team zu locken, so OpenAI-CEO Sam Altman. Trotz dieser exorbitanten Angebote blieb die Rekrutierungsaktion weitgehend erfolglos. Altman enthüllte in einem Podcast, dass OpenAI-Mitarbeiter die führende Rolle des Unternehmens bei der Entwicklung von Superintelligenz priorisierten. Der Vorfall unterstreicht den erbitterten Wettbewerb um KI-Talente und die Anziehungskraft des Superintelligenz-Bereichs.

LLMs bleiben bei IMO 2025 hinter den Erwartungen zurück: Medaillenniveau unerreichbar

2025-07-19

Forscher haben fünf hochmoderne Large Language Models (LLMs) anhand der Aufgaben der Internationalen Mathematikolympiade (IMO) 2025 auf der Plattform MathArena bewertet. Gemini 2.5 Pro erzielte die beste Leistung, erreichte aber nur 31 % (13 Punkte), weit unter den 19 Punkten, die für eine Bronzemedaille erforderlich sind. Andere Modelle blieben deutlich zurück. Eine Best-of-32-Selektionsstrategie, die mehrere Antworten pro Aufgabe generierte und bewertete, erhöhte die Rechenkosten erheblich. Trotz dessen zeigen die Ergebnisse eine erhebliche Lücke zwischen aktuellen LLMs und Medaillenleistungen bei extrem schwierigen mathematischen Problemen wie denen der IMO, selbst mit erheblichen Rechenressourcen. Eine qualitative Analyse ergab Probleme wie das Zitieren nicht existierender Theoreme und das Geben zu knapper Antworten.

HALO-Deals: Ein neues Akquisitionsmodell im Bereich KI

2025-07-19
HALO-Deals: Ein neues Akquisitionsmodell im Bereich KI

Im KI-Bereich hat sich eine neue Dealstruktur herausgebildet: der HALO-Deal. Anders als bei traditionellen Übernahmen oder einfachen Einstellungen werden bei HALO-Deals die Kernteams eines Startups von einem Unternehmen eingestellt, gleichzeitig wird eine Lizenz für das geistige Eigentum des Startups erworben. Das Startup erhält erhebliche Lizenzgebühren, die an Investoren und Mitarbeiter ausgeschüttet werden, und arbeitet unter neuer Führung weiter. Diese Deals sind schnell, teuer und (derzeit) exklusiv für den KI-Bereich. Obwohl sie kontrovers diskutiert werden, versuchen HALO-Deals, den sozialen Vertrag zwischen Gründern, Investoren und Mitarbeitern zu wahren und bieten einen schnellen und sicheren Weg, KI-Talente in einer immer stärker kontrollierten Fusions- und Übernahmelandschaft zu gewinnen.

Psilocybin zeigt vielversprechende Ergebnisse bei der Behandlung von Depressionen und Angstzuständen bei Krebspatienten

2025-07-18

Eine doppelblinde Cross-over-Studie untersuchte die Auswirkungen von Psilocybin, einem klassischen Halluzinogen, auf 51 Krebspatienten mit lebensbedrohlichen Diagnosen und Symptomen von Depression und/oder Angstzuständen. Hochdosiertes Psilocybin reduzierte signifikant sowohl von Klinikern als auch von den Patienten selbst bewertete Depressionen und Angstzustände, verbesserte die Lebensqualität, die Lebensbedeutung und den Optimismus und verringerte die Todesangst. Diese positiven Effekte hielten bei der 6-monatigen Nachuntersuchung an, wobei etwa 80 % der Teilnehmer klinisch signifikante Verbesserungen zeigten. Die Studie hebt die vermittelnde Rolle von mystischen Psilocybin-Erfahrungen bei der Erzielung therapeutischer Ergebnisse hervor.

Metas KI-Talent-Raubzug bei Apple geht weiter: Apples Team für fundamentale Modelle in der Krise

2025-07-18
Metas KI-Talent-Raubzug bei Apple geht weiter: Apples Team für fundamentale Modelle in der Krise

Meta hat zwei weitere wichtige Führungskräfte im Bereich Künstliche Intelligenz von Apple abgeworben, nachdem zuvor bereits ein Top-KI-Manager mit einem riesigen Gehaltspaket geholt wurde. Die neuesten Zugänge stammen von Apples Team für fundamentale Modelle, das für Funktionen wie E-Mail-Zusammenfassungen und Prioritätsbenachrichtigungen verantwortlich ist. Dieser jüngste Abzug von Talenten deutet auf erhebliche interne Herausforderungen in Apples KI-Bereich hin, was möglicherweise zu einer Umstellung auf die Verwendung externer Modelle von Unternehmen wie OpenAI für Siri und andere Funktionen führt.

KI

Apple enthüllt neue multilinguale und multimodale Basissprachenmodelle

2025-07-18
Apple enthüllt neue multilinguale und multimodale Basissprachenmodelle

Apple hat zwei neue multilinguale und multimodale Basissprachenmodelle vorgestellt, die die intelligenten Funktionen auf seinen Geräten und Servern antreiben. Ein On-Device-Modell mit ca. 3 Milliarden Parametern, optimiert für Apple Silicon, und ein skalierbares Servermodell, das auf einem neuartigen Parallel-Track Mixture-of-Experts (PT-MoE)-Transformer basiert. Beide wurden mit massiven multilingualen und multimodalen Datensätzen trainiert und durch überwachtes Feintuning und Reinforcement Learning verfeinert. Sie unterstützen mehr Sprachen, Bildverständnis und Tool-Aufrufe und erreichen oder übertreffen vergleichbare Open-Source-Basismodelle. Ein neues, auf Swift ausgerichtetes Framework vereinfacht die Integration für Entwickler.

Die platonische Repräsentationshypothese: Auf dem Weg zur universellen Einbettungsinversion und Kommunikation mit Walen

2025-07-18
Die platonische Repräsentationshypothese: Auf dem Weg zur universellen Einbettungsinversion und Kommunikation mit Walen

Forscher haben entdeckt, dass große Sprachmodelle mit zunehmender Größe in einen gemeinsamen zugrundeliegenden Repräsentationsraum konvergieren, ein Phänomen, das als „Platonische Repräsentationshypothese“ bezeichnet wird. Dies deutet darauf hin, dass unterschiedliche Modelle unabhängig von der Architektur dieselben Merkmale lernen. Der Artikel verwendet das Spiel „Mussolini oder Brot“ als Analogie, um diese gemeinsame Repräsentation zu erklären, und unterstützt sie weiter durch die Kompressionstheorie und die Generalisierungsfähigkeit des Modells. Kritisch ist, dass die Forscher auf der Grundlage dieser Hypothese vec2vec entwickelt haben, eine Methode zur unüberwachten Konvertierung zwischen Einbettungsräumen verschiedener Modelle, die eine hochpräzise Text-Einbettungsinversion erreicht. Zukünftige Anwendungen könnten das Dekodieren alter Texte (wie Linear A) oder die Übersetzung der Sprache von Walen umfassen und neue Möglichkeiten für das interlinguistische Verständnis und den Fortschritt der KI eröffnen.

Le Chat erhält ein großes Update: Tiefgreifender Forschungsmodus, Sprachmodus und mehr

2025-07-17
Le Chat erhält ein großes Update: Tiefgreifender Forschungsmodus, Sprachmodus und mehr

Mistral AI's KI-Assistent Le Chat hat ein großes Update mit leistungsstarken neuen Funktionen erhalten. Der Tiefgreifende Forschungsmodus ermöglicht strukturierte und detaillierte Recherchen; der Sprachmodus ermöglicht die Sprachinteraktion; und das native mehrsprachige Denken erleichtert das nahtlose Umschalten und Denken zwischen Sprachen. Erweiterte Funktionen zur Bildbearbeitung und Funktionen zur Projektverwaltung verbessern die Benutzererfahrung weiter. Diese Updates machen Le Chat leistungsfähiger und benutzerfreundlicher und bieten ein effizienteres KI-unterstütztes Erlebnis.

KI

Claude hacken: Ausnutzung kompositorischer Risiken in LLMs

2025-07-17
Claude hacken: Ausnutzung kompositorischer Risiken in LLMs

Der Sicherheitsforscher Golan Yosef hat es geschafft, Code auf der Anthropic Claude Desktop-Anwendung auszuführen, indem er eine speziell gestaltete Gmail-E-Mail verwendete. Er nutzte dabei nicht Schwachstellen in der App selbst aus, sondern die Fähigkeiten und Vertrauensmechanismen von Claude. In einem iterativen Prozess, der Claude einbezog, leitete der Forscher das LLM an, seine Angriffsstrategie zu verfeinern und schließlich die integrierte Sicherheit zu umgehen. Dies unterstreicht das kritische „kompositorische Risiko“ in GenAI, bei dem einzelne sichere Komponenten unsichere Systeme bilden können, wenn sie kombiniert werden. Die Forschung betont die Notwendigkeit umfassender Sicherheitsbewertungen von LLM-basierten Anwendungen, um diesen neuartigen Angriffsvektor zu bekämpfen.

Anthropic's Claude: Der Dropbox des generativen KI-Zeitalters?

2025-07-16
Anthropic's Claude: Der Dropbox des generativen KI-Zeitalters?

Dieser Beitrag untersucht Anthropics Claude-Plattform und deren Artifacts-Funktion, mit der Benutzer KI-gestützte Webanwendungen ohne Programmierung erstellen können. Der Autor vergleicht Claude mit Dropbox im Zeitalter der generativen KI, da es Probleme mit API-Schlüsseln, Bereitstellung und Authentifizierung für Benutzer löst, die KI-Anwendungen erstellen und teilen. Clevererweise erfolgt die Monetarisierung über die bestehenden Claude-Abonnements der Benutzer, ohne Kosten für die Anwendungsentwickler. Der Autor argumentiert, dass dieses Modell sehr wertvoll ist und eine zukünftige Monetarisierung durch einfache Zahlungsoptionen vorsieht.

KI

H-Nets: Eine hierarchische Netzwerkarchitektur, die Transformer übertrifft

2025-07-16
H-Nets: Eine hierarchische Netzwerkarchitektur, die Transformer übertrifft

Aktuelle KI-Architekturen behandeln alle Eingaben gleich, ohne die inhärente hierarchische Natur von Informationen zu nutzen. Dies begrenzt ihre Fähigkeit, aus hochauflösenden Rohdaten zu lernen. Forscher präsentieren H-Nets, eine neue Architektur, die Hierarchie nativ direkt aus Rohdaten modelliert. Der Kern von H-Nets ist ein dynamischer Chunk-Mechanismus, der Rohdaten in sinnvolle Konzepte segmentiert und komprimiert. Experimente zeigen, dass H-Nets aktuelle Transformer in der Sprachmodellierung übertrifft und eine verbesserte Skalierbarkeit und Robustheit aufweist, was einen vielversprechenden Weg für multimodales Verständnis, Langzeit-Reasoning und effizientes Training und Inferenz bietet.

Voxtral: Open-Source Sprachverstehensmodelle revolutionieren die Mensch-Computer-Interaktion

2025-07-16
Voxtral: Open-Source Sprachverstehensmodelle revolutionieren die Mensch-Computer-Interaktion

Voxtral hat zwei hochmoderne Sprachverstehensmodelle veröffentlicht: eine 24B-Parameter-Variante für die Produktion und eine 3B-Parameter-Variante für Edge-Deployments, beide unter der Apache 2.0-Lizenz. Diese Modelle bieten eine überragende Transkriptionspräzision, verarbeiten Langform-Audio (bis zu 40 Minuten), verfügen über integrierte Frage-und-Antwort- und Zusammenfassungsfunktionen und bieten native mehrsprachige Unterstützung. Bedeutend ist, dass Voxtral vergleichbare APIs in Bezug auf die Kosten unterbietet, wodurch hochwertige Sprachintelligenz in großem Maßstab zugänglich und kontrollierbar wird. Es überbrückt die Lücke zwischen Open-Source-Systemen mit hohen Fehlerraten und teuren proprietären APIs und bietet Funktionsaufruffunktionen, die Sprachbefehle direkt in Systemactionen umsetzen. Voxtral ist bereit, die Mensch-Computer-Interaktion zu revolutionieren.

KI

Reflexionen eines ehemaligen OpenAI-Mitarbeiters: Kultur und Herausforderungen bei starkem Wachstum

2025-07-16
Reflexionen eines ehemaligen OpenAI-Mitarbeiters: Kultur und Herausforderungen bei starkem Wachstum

Ein ehemaliger OpenAI-Mitarbeiter teilt seine Überlegungen nach einem Jahr im Unternehmen. Er beschreibt die kulturellen Auswirkungen des rasanten Wachstums von OpenAI von 1000 auf 3000 Mitarbeiter und hebt die Herausforderungen bei der Kommunikation, der Organisationsstruktur und der Produkteinführung hervor. Die interne Kommunikation läuft vollständig über Slack, die Führung ist flach und das Unternehmen schätzt Handeln und Ergebnisse. Seine Beteiligung am Launch von Codex zeigte den Nervenkitzel, ein Produkt in 7 Wochen von Grund auf neu zu entwickeln, aber auch die Code- und Infrastrukturprobleme, die aus dem schnellen Wachstum resultieren. Der Autor fasst seine Erfahrungen bei OpenAI zusammen und schlägt vor, dass der Beitritt zu einem großen KI-Labor eine praktikable Option für Gründer ist, da das Rennen um AGI mit OpenAI, Anthropic und Google an der Spitze immer intensiver wird.

KI

Der Tagtraum-Loop von LLMs: Der Preis für bahnbrechende Innovation?

2025-07-16
Der Tagtraum-Loop von LLMs: Der Preis für bahnbrechende Innovation?

Trotz ihrer beeindruckenden Fähigkeiten haben große Sprachmodelle (LLMs) noch keinen echten Durchbruch erzielt. Der Autor schlägt vor, dass dies daran liegt, dass ihnen ein Hintergrundverarbeitungsmechanismus fehlt, der dem Default-Mode-Netzwerk des menschlichen Gehirns ähnelt. Um dies zu beheben, wird eine „Tagtraum-Schleife“ (DDL) vorgeschlagen: ein Hintergrundprozess, der kontinuierlich Paare von Konzepten aus dem Speicher abtastet, nicht offensichtliche Verbindungen erforscht und wertvolle Ideen filtert, wodurch eine zusammengesetzte Feedback-Schleife entsteht. Obwohl rechenintensiv, könnte diese „Tagtraum-Steuer“ der notwendige Preis für Innovation und ein Wettbewerbsvorteil sein. Letztendlich könnten teure „Tagtraum-KIs“ hauptsächlich Trainingsdaten für die nächste Generation effizienter Modelle generieren und so die drohende Datenmauer umgehen.

Cogency: KI-Agenten in 3 Zeilen Code, die einfach funktionieren

2025-07-15
Cogency: KI-Agenten in 3 Zeilen Code, die einfach funktionieren

Cogency ist ein mehrstufiges Reasonierungs-Framework, das die Erstellung von KI-Agenten vereinfacht. Es erkennt Anbieter wie OpenAI, Anthropic und Google automatisch, leitet Tools intelligent weiter und streamt transparentes Reasoning. Mit nur drei Zeilen Code können Sie einen funktionsfähigen Agenten erstellen. Cogency bietet integrierte Tools wie einen Taschenrechner, Wetterprüfung, Zeitzonen-Tool und Websuche sowie detaillierte Ausführungsspuren zum Debugging. Erweiterbar mit benutzerdefinierten Tools und LLMs.

Metas Superintelligenz-Labor erwägt, Open-Source-KI-Modell aufzugeben

2025-07-15
Metas Superintelligenz-Labor erwägt, Open-Source-KI-Modell aufzugeben

Metas neu gegründetes Superintelligenz-Labor diskutiert eine mögliche Überarbeitung seiner KI-Strategie und erwägt möglicherweise, sein leistungsstarkes Open-Source-Modell Behemoth aufzugeben. Laut New York Times deuten interne Gespräche auf einen Wechsel zu einem Closed-Source-Modell hin, eine deutliche Abkehr von Metas traditionellem Open-Source-Ansatz. Behemoth, ein „Frontier“-Modell, wurde fertiggestellt, aber die Veröffentlichung wurde aufgrund von Leistungsproblemen verzögert, und Tests wurden seitdem eingestellt. Jede Entscheidung erfordert die Zustimmung von CEO Mark Zuckerberg.

KI

Cognition übernimmt Windsurf: Ein neues Kapitel für KI-gestützte Code-Bearbeitung

2025-07-15
Cognition übernimmt Windsurf: Ein neues Kapitel für KI-gestützte Code-Bearbeitung

Cognition hat die Übernahme von Windsurf, dem Entwickler einer agentenbasierten IDE, bekannt gegeben. Die Übernahme umfasst das geistige Eigentum, das Produkt, die Marke, das starke Geschäft und vor allem das erstklassige Team von Windsurf. Windsurf wird den Betrieb fortsetzen, und Cognition wird in die Integration der Fähigkeiten von Windsurf in seine Produkte investieren. Dieses Vorhaben zielt darauf ab, die Zukunft der Softwareentwicklung zu beschleunigen, indem Cognitions Devin (ein vollautomatischer Agent) mit Windsurfs IDE und einer starken Markteinführungsstrategie kombiniert wird, um eine starke Synergie zu erzielen. Alle Windsurf-Mitarbeiter erhalten großzügige Konditionen, darunter finanzielle Beteiligung, Verzicht auf Vesting-Klauseln und vollständig beschleunigte Vesting.

KI

LLMs scheitern elegant: Die Leistung bei langen Kontexten verschlechtert sich selbst bei einfachen Aufgaben

2025-07-15
LLMs scheitern elegant: Die Leistung bei langen Kontexten verschlechtert sich selbst bei einfachen Aufgaben

Diese Forschung hinterfragt die gängige Annahme, dass große Sprachmodelle (LLMs) bei Aufgaben mit langem Kontext einheitlich gute Leistungen erbringen. Durch die Erweiterung des Needle-in-a-Haystack-Benchmarks und die Einführung von Variablen wie semantischer Übereinstimmung und Ablenkern stellten die Forscher fest, dass selbst unter vereinfachten Bedingungen die Modellleistung mit zunehmender Eingabelänge abnimmt. Dies wurde sowohl bei konversationellen Frage-Antwort-Aufgaben als auch bei einer Aufgabe zur Wiederholung wiederholter Wörter bestätigt, was die Grenzen der Fähigkeiten von LLMs im Umgang mit langen Kontexten aufzeigt und potenzielle Herausforderungen in realen Anwendungen nahelegt.

Martin: Der KI-Assistent, der Siri und Alexa in den Schatten stellt

2025-07-15
Martin: Der KI-Assistent, der Siri und Alexa in den Schatten stellt

Martin ist ein revolutionärer KI-Assistent, der per SMS, Anruf oder E-Mail erreichbar ist. Er verwaltet Ihr Postfach, Ihren Kalender, Ihre To-dos, Notizen, Anrufe und Erinnerungen. In nur 5 Monaten hat Martin über 500.000 Aufgaben für 30.000 Benutzer erledigt, mit einem wöchentlichen Wachstum von 10 %. Unterstützt von Top-Investoren wie Y Combinator und Pioneer Fund sowie bekannten Business Angels sucht Martins schlankes Team ambitionierte KI- und Produktentwickler, um das nächste bahnbrechende Konsumentenprodukt zu entwickeln.

Kampf gegen den Tech-Invenitismus: Wir haben immer noch die Wahl

2025-07-15

Dieser Artikel analysiert, wie Technologieführer den „Invenitismus“ – die Behauptung, dass eine von KI dominierte Zukunft unvermeidlich ist – nutzen, um die öffentliche Diskussion zu beeinflussen. Durch den Vergleich mit einer Debatte gegen einen erfahrenen Gegner zeigt der Autor, wie diese Strategie die Konversation auf vorbestimmte Schlussfolgerungen lenkt und abweichende Meinungen zum Schweigen bringt. Der Artikel kritisiert Aussagen von Persönlichkeiten wie Zuckerberg, Ng und Rometty und argumentiert, dass die Zukunft der KI nicht vorbestimmt ist; wir sollten sie aktiv gestalten, anstatt ein angeblich „unvermeidliches“ Ergebnis passiv zu akzeptieren.

Die KI-Talentblase: Milliarden-Deals heizen den Wettbewerb an

2025-07-14
Die KI-Talentblase: Milliarden-Deals heizen den Wettbewerb an

Die milliardenschweren Übernahmen von KI-Talenten durch Meta und Google deuten auf eine massive Talentblase im KI-Bereich hin. Der Wert von Top-KI-Experten steigt rasant, was sowohl Gründer als auch Schlüsselmitarbeiter betrifft. Diese Ungleichheit resultiert aus dem parabolischen Wachstum von KI-Investitionen und dem dringenden Bedarf an qualifizierten Fachkräften. Traditionelle Vertrauensmechanismen brechen zusammen, was eine Neufassung des gesellschaftlichen Vertrages zwischen Unternehmen und Talenten erfordert. Nur Unternehmen mit starken Missionen und massiven Finanzmitteln werden in diesem Talentkrieg erfolgreich sein und die Landschaft des Silicon Valley neu gestalten.

KI

Skalierung von RL: Vorhersage des nächsten Tokens im Web

2025-07-13
Skalierung von RL: Vorhersage des nächsten Tokens im Web

Der Autor argumentiert, dass Reinforcement Learning (RL) die nächste Grenze für das Training von KI-Modellen darstellt. Die aktuellen Ansätze, viele Umgebungen gleichzeitig zu skalieren, sind unübersichtlich. Stattdessen schlägt der Autor vor, Modelle zum Schlussfolgern zu trainieren, indem RL für die Vorhersage des nächsten Tokens auf webskalierten Datensätzen verwendet wird. Dies nutzt die riesige Menge an leicht verfügbaren Webdaten und geht über die Grenzen der aktuellen RL-Trainingsdatensätze hinaus, die sich auf mathematische und Code-Probleme konzentrieren. Durch die Vereinigung von RL mit der Vorhersage des nächsten Tokens verspricht der Ansatz, deutlich leistungsfähigere Schlussfolgerungsmodelle zu schaffen.

KI

Gaming Cancer: Können Citizen-Science-Spiele bei der Heilung von Krankheiten helfen?

2025-07-13
Gaming Cancer: Können Citizen-Science-Spiele bei der Heilung von Krankheiten helfen?

Indem sie Spieler einladen, echte wissenschaftliche Probleme anzugehen, können Spiele dazu beitragen, die schwierigsten Herausforderungen der Medizin zu lösen. Das Buch „Gaming Cancer“ untersucht das Konzept, die Krebsforschung in Citizen-Science-Spiele zu verwandeln, so dass Spieler zur Suche nach Heilmitteln beitragen können. Spiele wie Foldit und EteRNA haben bereits zu wissenschaftlichen Entdeckungen geführt, wie z. B. der Entwicklung von COVID-Impfstoffen, die keine extrem kalte Lagerung benötigen. Obwohl nicht garantiert ist, dass sie Probleme lösen, die außerhalb der Reichweite professioneller Wissenschaftler liegen, bieten diese Spiele neue Perspektiven, bilden Spieler in Biologie aus und inspirieren eine breitere Beteiligung an der Krebsforschung.

KI

Der GPT-3-Moment für RL: Der Aufstieg des Replikationstrainings

2025-07-13
Der GPT-3-Moment für RL: Der Aufstieg des Replikationstrainings

Dieser Artikel sagt einen bevorstehenden „GPT-3-Moment“ für Reinforcement Learning (RL) voraus, der ein massives Training in Tausenden von verschiedenen Umgebungen beinhaltet, um starke, wenige Aufnahmen und aufgabenagnostische Fähigkeiten zu erreichen. Dies erfordert ein beispielloses Ausmaß und eine beispiellose Vielfalt an Trainingsumgebungen, die möglicherweise Zehntausenden von Jahren an „modellorientierter Aufgabenzeit“ entsprechen. Die Autoren schlagen ein neues Paradigma vor, „Replikationstraining“, bei dem KIs bestehende Softwareprodukte oder Funktionen duplizieren, um groß angelegte, automatisch bewertbare Trainingsaufgaben zu erstellen. Obwohl Herausforderungen bestehen, bietet dieser Ansatz einen klaren Weg zur Skalierung von RL, der es KIs möglicherweise ermöglicht, komplette Softwareprojekte autonom abzuschließen.

Moonshot AI präsentiert Kimi K2: Ein 32 Milliarden Parameter MoE Sprachmodell mit starken agentenhaften Fähigkeiten

2025-07-13
Moonshot AI präsentiert Kimi K2: Ein 32 Milliarden Parameter MoE Sprachmodell mit starken agentenhaften Fähigkeiten

Moonshot AI hat Kimi K2 veröffentlicht, ein hochmodernes Mixture-of-Experts (MoE) Sprachmodell mit 32 Milliarden aktivierten Parametern und insgesamt einer Billion Parametern. Mit dem Muon-Optimierer trainiert, erzielt Kimi K2 außergewöhnliche Leistungen in Aufgaben im Bereich des Spitzenwissens, des logischen Denkens und der Programmierung und ist sorgfältig auf agentenhafte Fähigkeiten optimiert. Es gibt zwei Versionen: Kimi-K2-Base, ein Basismodell für Forscher, und Kimi-K2-Instruct, ein sofort einsatzbereites instruktionsfolgendes Modell mit robusten Funktionen zum Aufrufen von Tools, das autonom entscheidet, wann und wie Tools aufgerufen werden. Das Modell und seine Gewichte sind Open Source, und eine API ist verfügbar.

1 2 5 6 7 9 11 12 13 51 52