Category: KI

Ungleichmäßige Entwicklung des Ökosystems für verantwortungsvolle KI: Eine wachsende Lücke

2025-04-10
Ungleichmäßige Entwicklung des Ökosystems für verantwortungsvolle KI: Eine wachsende Lücke

KI-bedingte Vorfälle nehmen stark zu, doch standardisierte Bewertungen verantwortungsvoller KI (Responsible AI, RAI) bleiben bei großen Entwicklern industrieller Modelle selten. Neue Benchmarks wie HELM Safety, AIR-Bench und FACTS bieten vielversprechende Werkzeuge zur Bewertung von Fakten und Sicherheit. Zwischen der Anerkennung von RAI-Risiken durch Unternehmen und dem Ergreifen sinnvoller Maßnahmen besteht eine erhebliche Lücke. Regierungen hingegen zeigen eine zunehmende Dringlichkeit: 2024 intensivierte sich die globale Zusammenarbeit bei der KI-Governance, was zu Rahmenwerken der OECD, der EU, der UN und der Afrikanischen Union führte, die Transparenz, Vertrauenswürdigkeit und andere zentrale Prinzipien verantwortungsvoller KI betonen.

Asimovs KI-Vorhersagen von 1982: Kooperation, kein Wettbewerb

2025-04-10
Asimovs KI-Vorhersagen von 1982: Kooperation, kein Wettbewerb

Dieser Artikel befasst sich mit einem Interview aus dem Jahr 1982 mit dem Science-Fiction-Autor Isaac Asimov, in dem er Künstliche Intelligenz als jedes Gerät definierte, das Aufgaben ausführt, die zuvor ausschließlich mit menschlicher Intelligenz in Verbindung gebracht wurden. Asimov sah KI und menschliche Intelligenz als komplementär, nicht als konkurrierend an und argumentierte, dass ihre Zusammenarbeit zu schnellerem Fortschritt führen würde. Er prognostizierte, dass KI die Menschheit von Arbeiten befreien würde, die kein kreatives Denken erfordern, warnte aber auch vor möglichen Schwierigkeiten und Herausforderungen des technologischen Fortschritts und verwies auf das Aufkommen des Automobils als Beispiel. Er betonte die Notwendigkeit, sich auf das KI-Zeitalter vorzubereiten und vergangene Fehler zu vermeiden.

Benchmark für Longform Creative Writing für LLMs

2025-04-10

Dieser Benchmark bewertet die Fähigkeit großer Sprachmodelle, lange Geschichten zu schreiben. Er bewertet Brainstorming, Überarbeitung und das Schreiben von acht Kapiteln à 1000 Wörtern. Metriken umfassen die Kapitellänge, die Flüssigkeit (Vermeidung überstrapazierter Phrasen), Wiederholungen und den Qualitätsabfall des Schreibens über die Kapitel hinweg. Eine endgültige Punktzahl (0-100) wird von einem Bewertungs-LLM vergeben.

Quasar Alpha: OpenAIs Geheimwaffe?

2025-04-10
Quasar Alpha: OpenAIs Geheimwaffe?

Ein mysteriöses KI-Modell namens Quasar Alpha ist auf der OpenRouter-Plattform aufgetaucht und schnell zum beliebtesten KI-Modell für Programmierung geworden. Starke Hinweise deuten auf eine Verbindung zu OpenAI hin, möglicherweise ist es sogar OpenAIs o4-mini-low-Modell unter einem anderen Namen. Obwohl es nicht das fortschrittlichste Modell ist, könnte seine Geschwindigkeit und sein Preis-Leistungs-Verhältnis den Markt für KI-Programmiermodelle aufmischen. Quasar Alpha ist jetzt auf Kilo Code verfügbar.

KI

Anthropic bringt Premium-Abo für KI-Chatbot Claude Max heraus

2025-04-09
Anthropic bringt Premium-Abo für KI-Chatbot Claude Max heraus

Anthropic hat einen neuen, teuren Abonnementsplan für seinen KI-Chatbot Claude Max vorgestellt, um mit OpenAIs ChatGPT Pro zu konkurrieren. Max bietet höhere Nutzungsgrenzen und priorisierten Zugriff auf neueste KI-Modelle und Funktionen im Vergleich zu Anthropics 20-Dollar-Claude-Pro-Abo. Es gibt zwei Stufen: 100 Dollar pro Monat (5-fache Ratenbegrenzung) und 200 Dollar pro Monat (20-fache Ratenbegrenzung). Dieses Vorgehen zielt darauf ab, die Einnahmen für die kostspielige Entwicklung von KI-Spitzenmodellen zu steigern. Anthropic erforscht auch weitere Einnahmequellen, wie Claude for Education, das sich an Universitäten richtet. Die Anzahl der verkauften Claude-Abonnements wurde nicht bekannt gegeben, aber das neue Modell Claude 3.7 Sonnet hat laut Anthropic eine hohe Nachfrage erzeugt.

KI

KI-Therapieroboter zeigt vielversprechende Ergebnisse in der Bekämpfung der psychischen Gesundheitskrise

2025-04-09
KI-Therapieroboter zeigt vielversprechende Ergebnisse in der Bekämpfung der psychischen Gesundheitskrise

Eine neue im New England Journal of Medicine veröffentlichte Studie zeigt, dass ein von Dartmouth-Forschern entwickelter KI-Therapieroboter in einer randomisierten klinischen Studie eine vergleichbare oder sogar bessere Wirksamkeit als menschliche Kliniker aufwies. Der Roboter wurde entwickelt, um die schwere Unterversorgung an psychischen Gesundheitsdienstleistern in den USA zu bekämpfen, und wurde über fünf Jahre lang rigoros in klinischen Best Practices geschult. Die Ergebnisse zeigten nicht nur verbesserte psychische Gesundheits-Outcomes bei den Patienten, sondern auch die überraschende Entwicklung starker therapeutischer Bindungen und Vertrauen. Obwohl die American Psychological Association Bedenken hinsichtlich unregulierter KI-Therapieroboter geäußert hat, lobt sie den rigorosen Ansatz dieser Studie. Die Forscher betonen, dass die Technologie noch lange nicht marktreif ist und weitere Tests benötigt werden, aber sie bietet eine potenzielle Lösung für die weit verbreitete Krise des Zugangs zur psychischen Gesundheitsversorgung.

Google präsentiert Ironwood: Eine TPU der 7. Generation für das Zeitalter der Inferenz

2025-04-09
Google präsentiert Ironwood: Eine TPU der 7. Generation für das Zeitalter der Inferenz

Auf der Google Cloud Next '25 hat Google Ironwood vorgestellt, seine siebte Generation der Tensor Processing Unit (TPU). Dies ist Googles bisher leistungsstärkster und skalierbarster, kundenspezifischer KI-Beschleuniger, der speziell für Inferenz entwickelt wurde. Ironwood markiert einen Wandel hin zu einem proaktiven „Zeitalter der Inferenz“, in dem KI-Modelle Erkenntnisse und Antworten generieren, nicht nur Daten. Mit bis zu 9.216 flüssigkeitsgekühlten Chips, die über ein bahnbrechendes ICI-Netzwerk (fast 10 MW) miteinander verbunden sind, ist Ironwood ein Kernbestandteil der KI-Hypercomputer-Architektur von Google Cloud. Entwickler können den Pathways-Software-Stack von Google nutzen, um die Rechenleistung von Zehntausenden von Ironwood-TPUs einfach zu nutzen.

Agent2Agent (A2A): Ein neues Zeitalter der Interoperabilität von KI-Agenten

2025-04-09
Agent2Agent (A2A): Ein neues Zeitalter der Interoperabilität von KI-Agenten

Google präsentiert Agent2Agent (A2A), ein offenes Protokoll, das eine nahtlose Zusammenarbeit zwischen KI-Agenten ermöglicht, die von verschiedenen Anbietern entwickelt wurden oder unterschiedliche Frameworks verwenden. Unterstützt von über 50 Technologiepartnern und Dienstleistern, ermöglicht A2A einen sicheren Informationsaustausch und koordinierte Aktionen, wodurch die Produktivität gesteigert und die Kosten gesenkt werden. Auf bestehenden Standards aufgebaut, unterstützt A2A verschiedene Modalitäten, priorisiert Sicherheit und bewältigt lang laufende Aufgaben. Anwendungsfälle reichen von der Automatisierung von Rekrutierungsprozessen (z. B. Kandidatenfindung und Terminplanung von Interviews) bis zur Optimierung komplexer Workflows in verschiedenen Unternehmensanwendungen. Seine Open-Source-Natur fördert ein florierendes Ökosystem kollaborativer KI-Agenten.

DeepCoder-14B: Open-Source Code-Reasoning-Modell erreicht Leistung von OpenAIs o3-mini

2025-04-09
DeepCoder-14B: Open-Source Code-Reasoning-Modell erreicht Leistung von OpenAIs o3-mini

Agentica und Together AI haben DeepCoder-14B-Preview veröffentlicht, ein Code-Reasoning-Modell, das durch verteiltes RL aus Deepseek-R1-Distilled-Qwen-14B feinabgestimmt wurde. Mit einer beeindruckenden Genauigkeit von 60,6 % Pass@1 auf LiveCodeBench konkurriert es mit OpenAIs o3-mini und verwendet dabei nur 14 B Parameter. Das Projekt veröffentlicht seinen Datensatz, Code, Trainingslogs und Systemoptimierungen als Open Source und zeigt ein robustes Trainingsrezept, das auf hochwertigen Daten und algorithmischen Verbesserungen von GRPO basiert. Dieser Fortschritt demokratisiert den Zugang zu leistungsstarken Code-Generierungsmodellen.

Gemini 2.5 Pro Experimental: Tiefgreifende Forschung wird deutlich intelligenter

2025-04-09
Gemini 2.5 Pro Experimental: Tiefgreifende Forschung wird deutlich intelligenter

Gemini Advanced-Abonnenten können jetzt auf die Tiefgreifende Forschung zugreifen, die von Gemini 2.5 Pro Experimental unterstützt wird, das laut Branchen-Benchmarks und Chatbot Arena als leistungsfähigstes KI-Modell der Welt gilt. Dieser persönliche KI-Forschungsassistent verbessert jede Phase des Forschungsprozesses deutlich. In Tests bevorzugten die Bewerter die von Gemini 2.5 Pro generierten Berichte gegenüber den Berichten der Konkurrenz mit einer Marge von mehr als 2:1 und nannten Verbesserungen im analytischen Denken, der Informationssynthese und der Generierung aufschlussreicher Berichte. Greifen Sie auf detaillierte, leicht lesbare Berichte zu jedem Thema im Web, auf Android und iOS zu und sparen Sie Stunden Arbeit. Probieren Sie außerdem die neue Funktion Audio-Überblicke für das Hören unterwegs aus. Erfahren Sie mehr und probieren Sie es jetzt aus, indem Sie Gemini 2.5 Pro (experimentell) auswählen und in der Eingabeaufforderungsleiste „Tiefgreifende Forschung“ auswählen.

Cyc: Das 200 Millionen Dollar teure KI-Projekt, das nie funktionierte

2025-04-08
Cyc: Das 200 Millionen Dollar teure KI-Projekt, das nie funktionierte

Dieser Essay beschreibt die 40-jährige Geschichte von Cyc, Douglas Lenats ehrgeizigem Projekt, künstliche allgemeine Intelligenz (AGI) durch Skalierung der symbolischen Logik zu schaffen. Trotz einer Investition von 200 Millionen Dollar und 2000 Personenjahren scheiterte Cyc daran, intellektuelle Reife zu erlangen. Der Artikel enthüllt die geheime Geschichte des Projekts und hebt die Isolation des Projekts und die Ablehnung alternativer KI-Ansätze als Schlüsselfaktoren hervor, die zu seinem Scheitern beitrugen. Cycs langer, langsamer Niedergang dient als starke Anklage gegen den symbolisch-logischen Ansatz für AGI.

Metas Llama 4: Platz zwei im Ranking und ein chaotischer Launch

2025-04-08
Metas Llama 4: Platz zwei im Ranking und ein chaotischer Launch

Meta hat zwei neue Llama 4-Modelle veröffentlicht: Scout und Maverick. Maverick erreichte den zweiten Platz auf LMArena und übertraf damit GPT-4o und Gemini 2.0 Flash. Meta gab jedoch zu, dass auf LMArena eine speziell optimierte „experimentelle Chat-Version“ getestet wurde, nicht die öffentlich verfügbare Version. Dies führte zu Kontroversen, und LMArena aktualisierte seine Richtlinien, um ähnliche Vorfälle zu verhindern. Meta erklärte, dass es verschiedene Versionen testete, aber dieser Schritt wirft Fragen nach seiner Strategie im KI-Wettbewerb und dem ungewöhnlichen Zeitpunkt der Veröffentlichung von Llama 4 auf. Letztendlich unterstreicht der Vorfall die Grenzen von KI-Benchmarks und die komplexen Strategien großer Technologieunternehmen im Wettbewerb.

KI

Eiminütige Videos aus Text-Storyboards mithilfe von Testzeit-Trainings-Transformatoren

2025-04-08

Aktuelle Transformer-Modelle haben Schwierigkeiten, einminütige Videos zu generieren, da die Selbstaufmerksamkeits-Schichten für lange Kontexte ineffizient sind. Dieser Artikel untersucht Testzeit-Trainings-(TTT)-Schichten, deren versteckte Zustände selbst neuronale Netze sind und daher ausdrucksstärker sind. Das Hinzufügen von TTT-Schichten zu einem vorab trainierten Transformer ermöglicht die Generierung einminütiger Videos aus Text-Storyboards. Experimente mit einem Datensatz von Tom-und-Jerry-Cartoons zeigen, dass TTT-Schichten die Kohärenz des Videos und das Storytelling im Vergleich zu Basislinien wie Mamba 2 und Gated DeltaNet deutlich verbessern und einen Vorteil von 34 Elo-Punkten in der menschlichen Bewertung erzielen. Obwohl Artefakte verbleiben, wahrscheinlich aufgrund der Einschränkungen des 5B-Parameter-Modells, zeigt diese Arbeit einen vielversprechenden Ansatz, der auf längere Videos und komplexere Geschichten skalierbar ist.

Multimodale KI-Bildgenerierung: Der Beginn einer visuellen Revolution

2025-04-08
Multimodale KI-Bildgenerierung: Der Beginn einer visuellen Revolution

Die kürzlich von Google und OpenAI veröffentlichten Fähigkeiten zur multimodalen Bildgenerierung markieren eine Revolution im Bereich der KI-Bildgenerierung. Anders als bei früheren Methoden, die Textaufforderungen an separate Bildgenerierungswerkzeuge schickten, steuern multimodale Modelle den Bildgenerierungsprozess direkt, indem sie Bilder Token für Token erstellen, ähnlich wie LLMs Text generieren. Dies ermöglicht es der KI, präzisere und beeindruckendere Bilder zu generieren und basierend auf dem Feedback des Benutzers zu iterieren. Der Artikel zeigt die leistungsstarken Fähigkeiten multimodaler Modelle anhand verschiedener Beispiele, wie der Generierung von Infografiken, der Änderung von Bilddetails und sogar der Erstellung von virtuellen Produktwerbungen. Er hebt jedoch auch Herausforderungen hervor, darunter Urheberrechts- und ethische Bedenken sowie das potenzielle Missbrauchsrisiko, wie z. B. Deepfakes. Letztendlich ist der Autor der Meinung, dass multimodale KI die Landschaft der visuellen Gestaltung grundlegend verändern wird, und wir müssen sorgfältig überlegen, wie wir diesen Wandel lenken können, um eine gesunde Entwicklung zu gewährleisten.

Echtzeit-Neuroplastizität: Pre-trainierte LLMs mit Echtzeit-Lernfähigkeit ausstatten

2025-04-08
Echtzeit-Neuroplastizität: Pre-trainierte LLMs mit Echtzeit-Lernfähigkeit ausstatten

Diese experimentelle Technik, „Neural Graffiti“ genannt, verwendet ein Plug-in namens „Spray-Layer“, um Gedächtnisspuren direkt in die letzte Inferenzstufe vortrainierter Large Language Models (LLMs) einzuschleusen, ohne Feintuning oder Retraining. Sie ahmt die Neuroplastizität des Gehirns nach und verändert subtil das „Denken“ des Modells, indem sie Vektoreinbettungen modifiziert und so seine Vorhersagen für generierte Token beeinflusst. Durch Interaktion lernt und entwickelt sich das Modell schrittweise weiter. Es erzwingt keine spezifischen Wort-Outputs, lenkt das Modell aber durch wiederholte Interaktion auf assoziierte Konzepte. Ziel ist es, KI-Modellen ein proaktiveres Verhalten, eine fokussiertere Persönlichkeit und gesteigerte Neugier zu verleihen und ihnen letztendlich zu einer Form von Selbstbewusstsein auf neuronaler Ebene zu verhelfen.

KI

Unterschiede im Umgang mit Hintergrundmusik bei neurotypischen Erwachsenen und Personen mit positivem ADHD-Screening

2025-04-08

Eine Online-Umfrage unter 910 jungen Erwachsenen (17–30 Jahre) verglich die Gewohnheiten beim Hören von Hintergrundmusik (HM) und die subjektiven Auswirkungen bei neurotypischen Personen und solchen mit positivem ADHD-Screening bei Aufgaben mit unterschiedlichem kognitiven Anspruch. Die ADHD-Gruppe zeigte eine deutlich höhere Präferenz für HM in bestimmten Situationen, wie z. B. beim Lernen und Sport, und eine stärkere Vorliebe für stimulierende Musik. Es wurden jedoch keine signifikanten Unterschiede in den subjektiven Auswirkungen von HM auf die kognitive und emotionale Funktion zwischen den Gruppen festgestellt. Die Studie unterstreicht die Bedeutung der Anpassung der HM-Nutzung an die individuellen Erregungsbedürfnisse und die verfügbaren kognitiven Ressourcen und bietet einen neuen Blickwinkel auf musikbasierte Interventionen bei ADHD.

LLMs stoßen an ihre Grenzen: Das Scheitern von Llama 4 und der Hype-Zyklus der KI

2025-04-08
LLMs stoßen an ihre Grenzen: Das Scheitern von Llama 4 und der Hype-Zyklus der KI

Die Veröffentlichung von Llama 4 deutet darauf hin, dass große Sprachmodelle möglicherweise ihre Leistungsgrenze erreicht haben. Metas massive Investition in Llama 4 brachte keine erwarteten Durchbrüche, wobei Gerüchte auf eine mögliche Datenmanipulation zur Erreichung der Ziele hindeuten. Dies spiegelt die Schwierigkeiten wider, denen OpenAI, Google und andere Unternehmen bei der Entwicklung einer KI auf GPT-5-Niveau begegnen. Die Enttäuschung der Branche über die Leistung von Llama 4 ist weit verbreitet, verstärkt durch den Weggang von Metas KI-Vizepräsidentin Joelle Pineau. Der Artikel hebt Probleme wie Datenlecks und Datenkontamination in der KI-Branche hervor und beschuldigt prominente Persönlichkeiten, übermäßig optimistische Vorhersagen zu treffen und reale Misserfolge zu ignorieren.

Verstehen LLMs Nullwerte? Untersuchung der internen Repräsentationen von Code-generierenden Modellen

2025-04-07

Große Sprachmodelle (LLMs) haben bemerkenswerte Fortschritte in der Codegenerierung gezeigt, aber ihr tatsächliches Verständnis von Code bleibt eine offene Frage. Diese Arbeit untersucht das Verständnis von LLMs für Nullwerte in Code, indem sowohl eine externe Evaluierung (Code-Vervollständigung) als auch eine interne Untersuchung (Analyse der Modell-Aktivierungen) verwendet werden. Die Ergebnisse zeigen, dass LLMs Regeln über Nullwerte lernen und anwenden, wobei die Leistung je nach Komplexität der Regel und der Größe des Modells variiert. Die Studie beleuchtet auch, wie LLMs Nullwerte intern repräsentieren und wie sich dieses Verständnis während des Trainings entwickelt.

LLM-Eliminierungsspiel: Soziales Denken, Strategie und Täuschung

2025-04-07
LLM-Eliminierungsspiel: Soziales Denken, Strategie und Täuschung

Forscher haben einen Multiplayer-„Eliminierungsspiel“-Benchmark entwickelt, um große Sprachmodelle (LLMs) in Bezug auf soziales Denken, Strategie und Täuschung zu bewerten. Acht LLMs treten gegeneinander an, führen öffentliche und private Gespräche, bilden Allianzen und stimmen ab, um Gegner zu eliminieren, bis nur noch zwei übrig sind. Eine Jury aus ausgeschiedenen Spielern bestimmt dann den Gewinner. Die Analyse von Gesprächsprotokollen, Abstimmungsmustern und Ranglisten zeigt, wie LLMs geteiltes Wissen mit verborgenen Absichten in Einklang bringen, Allianzen schmieden oder diese strategisch verraten. Der Benchmark geht über einfache Dialoge hinaus und zwingt die Modelle, zwischen öffentlichen und privaten Dynamiken, strategischem Abstimmen und der Überzeugung der Jury zu navigieren. GPT-4.5 Preview war das leistungsstärkste Modell.

KI-Agent löst Minecraft-Diamanten-Herausforderung ohne menschliche Anleitung

2025-04-07
KI-Agent löst Minecraft-Diamanten-Herausforderung ohne menschliche Anleitung

Forscher von Google DeepMind haben Dreamer entwickelt, ein KI-System, das gelernt hat, in Minecraft Diamanten autonom zu sammeln, ohne vorherige menschliche Anweisungen. Dies stellt einen bedeutenden Fortschritt in der Fähigkeit der KI dar, Wissen zu verallgemeinern. Dreamer nutzt Reinforcement Learning und ein Weltmodell, um zukünftige Szenarien vorherzusagen und so die komplexe Aufgabe des Diamantensammelns effizient zu planen und auszuführen, ohne vorprogrammierte Regeln oder Demonstrationen. Die Forschung ebnet den Weg für die Entwicklung von Robotern, die im realen Umfeld lernen und sich anpassen können.

KI

Der große LLM-Hype: Benchmarks vs. Realität

2025-04-06
Der große LLM-Hype: Benchmarks vs. Realität

Ein Startup, das KI-Modelle für die Code-Sicherheitsanalyse verwendet, hat trotz steigender Benchmark-Ergebnisse seit Juni 2024 nur begrenzte praktische Verbesserungen festgestellt. Der Autor argumentiert, dass die Fortschritte bei großen Sprachmodellen sich nicht in wirtschaftlicher Nützlichkeit oder Generalisierbarkeit niederschlagen, was den öffentlichen Behauptungen widerspricht. Dies wirft Bedenken hinsichtlich der Bewertungsmethoden für KI-Modelle und einer möglichen Übertreibung der Fähigkeiten durch KI-Labore auf. Der Autor plädiert dafür, sich auf die Leistung realer Anwendungen zu konzentrieren, anstatt auf Benchmark-Ergebnisse, und betont die Notwendigkeit einer robusten Bewertung, bevor KI in sozialen Kontexten eingesetzt wird.

Foundry: Die Zuverlässigkeitskrise bei Browser-Agenten bewältigen

2025-04-06
Foundry: Die Zuverlässigkeitskrise bei Browser-Agenten bewältigen

Aktuelle Browser-Agenten führender KI-Labore scheitern bei über 80 % der realen Aufgaben. Foundry baut den ersten robusten Simulator, die RL-Trainingsumgebung und die Evaluierungsplattform, die speziell für Browser-Agenten entwickelt wurden. Durch die Erstellung perfekter Repliken von Websites wie DoorDash ermöglicht Foundry Millionen von Tests ohne die Komplexitäten der realen Welt, wodurch Fehlerpunkte identifiziert und Verbesserungen beschleunigt werden. Ihre Mission ist es, instabile Forschungsprojekte in zuverlässige Unternehmenslösungen umzuwandeln. Sie suchen außergewöhnliche Full-Stack-Ingenieure, die sich ihrem Team von ML-Experten von Scale AI anschließen, um diese enorme Marktchance im Bereich Automatisierung von über 20 Milliarden Dollar zu nutzen.

KI

QVQ-Max: Ein KI-Modell mit Sehvermögen und Intellekt

2025-04-06
QVQ-Max: Ein KI-Modell mit Sehvermögen und Intellekt

QVQ-Max ist ein neuartiges visuelles Vernunftmodell, das nicht nur Bilder und Videos „versteht“, sondern diese Informationen auch analysiert und mit ihnen argumentiert, um verschiedene Probleme zu lösen. Von mathematischen Problemen bis hin zu alltäglichen Fragen, von Programmcode bis hin zur künstlerischen Gestaltung zeigt QVQ-Max beeindruckende Fähigkeiten. Es zeichnet sich durch detaillierte Beobachtung, tiefes Denken und flexible Anwendung in verschiedenen Szenarien aus, z. B. Unterstützung bei der Arbeit, beim Lernen und im täglichen Leben. Die zukünftige Entwicklung wird sich auf die Verbesserung der Erkennungsgenauigkeit, die Verbesserung der Bearbeitung mehrstufiger Aufgaben und die Erweiterung der Interaktionsmethoden konzentrieren, um ein wirklich praktikables visuelles Agent zu werden.

Modellkontextprotokoll (MCP): Der nächste große Schritt für die LLM-Integration – aber mit einem Haken

2025-04-06
Modellkontextprotokoll (MCP): Der nächste große Schritt für die LLM-Integration – aber mit einem Haken

Das Modellkontextprotokoll (MCP) entwickelt sich zum Standard für die Integration von großen Sprachmodellen (LLMs) mit Tools und Daten und wird als „USB-C für KI-Agenten“ bezeichnet. Es ermöglicht Agenten, über standardisierte APIs eine Verbindung zu Tools herzustellen, persistente Sitzungen zu verwalten, Befehle auszuführen und Kontext über Workflows hinweg zu teilen. MCP ist jedoch standardmäßig nicht sicher. Die Verbindung von Agenten zu beliebigen Servern ohne sorgfältige Prüfung kann Sicherheitslücken schaffen und potenziell Shell-Zugriff, Geheimnisse oder Infrastruktur über Side-Channel-Angriffe preisgeben.

SeedLM: Eine neue Methode zur Komprimierung von LLM-Gewichten mithilfe von Pseudozufallszahlengeneratoren

2025-04-06
SeedLM: Eine neue Methode zur Komprimierung von LLM-Gewichten mithilfe von Pseudozufallszahlengeneratoren

Große Sprachmodelle (LLMs) sind durch hohe Laufzeitkosten behindert, was ihren breiten Einsatz einschränkt. Forscher von Meta stellen SeedLM vor, eine neue Methode zur Komprimierung nach dem Training, die Seeds eines Pseudozufallszahlengenerators verwendet, um Modellgewichte zu kodieren und zu komprimieren. Während der Inferenz verwendet SeedLM ein lineares Rückkopplungs-Shift-Register (LFSR), um effizient eine Zufallsmatrix zu generieren, die linear mit komprimierten Koeffizienten kombiniert wird, um Gewichtsblöcke zu rekonstruieren. Dies reduziert den Speicherzugriff und nutzt ungenutzte Rezyklen, wodurch speichergebundene Aufgaben beschleunigt werden, indem Rechenleistung gegen weniger Speicherzugriffe eingetauscht wird. Im Gegensatz zu den besten aktuellen Methoden, die Kalibrierungsdaten benötigen, ist SeedLM datenfrei und verallgemeinert gut über verschiedene Aufgaben hinweg. Experimente mit dem herausfordernden Llama 3 70B zeigen eine Zero-Shot-Genauigkeit bei 4- und 3-Bit-Komprimierung, die mit oder besser als die besten aktuellen Methoden ist, während die Leistung mit FP16-Basislinien vergleichbar bleibt. FPGA-Tests zeigen, dass SeedLM mit 4 Bit mit zunehmendem Modellumfang eine 4-fache Beschleunigung gegenüber einer FP16 Llama 2/3-Basislinie erreicht.

KI

TripoSG: Hochgenaue 3D-Form-Synthese mit großskaligen rektifizierten Flussmodellen

2025-04-06
TripoSG: Hochgenaue 3D-Form-Synthese mit großskaligen rektifizierten Flussmodellen

TripoSG ist ein hochmodernes Basismodell für die hochgenaue Bild-zu-3D-Generierung. Durch die Nutzung von großskaligen rektifizierten Fluss-Transformatoren, hybridem überwachten Training und einem hochwertigen Datensatz erzielt es State-of-the-Art-Ergebnisse. TripoSG generiert Netze mit scharfen Merkmalen, feinen Details und komplexen Strukturen und spiegelt die Semantik des Eingabebildes präzise wider. Es verfügt über starke Generalisierungsfähigkeiten und verarbeitet verschiedene Eingabestile. Ein Modell mit 1,5 Milliarden Parametern sowie Inferenzcode und eine interaktive Demo sind jetzt verfügbar.

Modellsignatur: Sicherung der Integrität von ML-Modellen

2025-04-05
Modellsignatur: Sicherung der Integrität von ML-Modellen

Mit dem explosionsartigen Wachstum von Machine-Learning-Anwendungen ist die Modell-Sicherheit zu einem kritischen Anliegen geworden. Dieses Projekt zielt darauf ab, die Integrität und Herkunft von Machine-Learning-Modellen durch Modellsignatur zu sichern. Es nutzt Tools wie Sigstore, um Modellsignaturen zu generieren, und bietet CLI- und API-Schnittstellen, die verschiedene Signaturmethoden unterstützen (einschließlich Sigstore, öffentlicher Schlüssel und Zertifikate). Benutzer können die Integrität ihrer Modelle unabhängig überprüfen und so Manipulationen nach dem Training verhindern. Das Projekt integriert sich auch in SLSA (Supply chain Levels for Software Artifacts), um die Sicherheit der Machine-Learning-Modell-Supply-Chain weiter zu verbessern.

Metas Llama 4: Leistungsstarke multimodale KI-Modelle

2025-04-05
Metas Llama 4: Leistungsstarke multimodale KI-Modelle

Meta hat seine Llama 4 Familie von KI-Modellen vorgestellt, darunter Llama 4 Scout und Llama 4 Maverick, um den unterschiedlichen Bedürfnissen von Entwicklern gerecht zu werden. Llama 4 Scout, ein führendes multimodales Modell, verfügt über 17 Milliarden aktive Parameter und 109 Milliarden Parameter insgesamt und liefert State-of-the-art-Leistung. Llama 4 Maverick mit 17 Milliarden aktiven Parametern und 400 Milliarden Parametern insgesamt übertrifft Llama 3.3 70B zu geringeren Kosten und zeichnet sich durch exzellente Bild- und Textverständniss in 12 Sprachen aus. Ideal für allgemeine Assistenten und Chatanwendungen, ist es für hochwertige Antworten und einen nuancierten Ton optimiert.

Google veröffentlicht stabile Modell-Signatur-Bibliothek zur Sicherung der KI-Lieferkette

2025-04-05
Google veröffentlicht stabile Modell-Signatur-Bibliothek zur Sicherung der KI-Lieferkette

Der Aufstieg großer Sprachmodelle (LLMs) hat die Bedeutung der Sicherheit der KI-Lieferkette hervorgehoben. Modellmanipulation, Datenvergiftung und andere Bedrohungen sind wachsende Probleme. Um dem entgegenzuwirken, hat Google in Zusammenarbeit mit NVIDIA und HiddenLayer und unterstützt von der Open Source Security Foundation die erste stabile Version seiner Modell-Signatur-Bibliothek veröffentlicht. Diese Bibliothek verwendet digitale Signaturen, wie sie von Sigstore verwendet werden, um Benutzern die Überprüfung zu ermöglichen, ob das von einer Anwendung verwendete Modell identisch mit dem vom Entwickler erstellten Modell ist. Dies gewährleistet die Integrität und Herkunft des Modells und schützt es vor böswilliger Manipulation während seines gesamten Lebenszyklus, vom Training bis zum Einsatz. Zukünftige Pläne umfassen die Erweiterung dieser Technologie auf Datensätze und andere ML-Artefakte, um ein robusteres KI-Vertrauensökosystem aufzubauen.

KI im Gesundheitswesen: Der Rechenleistungs-Engpass

2025-04-05
KI im Gesundheitswesen: Der Rechenleistungs-Engpass

Ein Forscher hebt die Ungenauigkeit der derzeit für die Krebsrisikoprognose verwendeten klinischen Instrumente hervor. KI hat das Potenzial, massive Patientendaten für personalisierte Versorgung zu nutzen, was eine frühere Krebsfrüherkennung, verbesserte Diagnostik und optimierte Behandlungsprotokolle ermöglicht. Das enorme Volumen an Gesundheitsdaten überfordert jedoch traditionelle Computerchips, wodurch die Rechenleistung zum Engpass für die volle Entfaltung des KI-Potenzials im Gesundheitswesen wird. Während Forscher Algorithmen optimieren, nähert sich die siliziumbasierte Chiptechnologie ihren Leistungsgrenzen, sodass ein neuer Ansatz für die Chiptechnologie erforderlich ist, damit KI ihr volles Potenzial ausschöpfen kann.

1 2 24 25 26 28 30 31 32 51 52