Category: KI

Henrique Godoy, 20 Jahre alt: Das vielversprechende KI-Talent Lateinamerikas

2025-06-12
Henrique Godoy, 20 Jahre alt: Das vielversprechende KI-Talent Lateinamerikas

Henrique Godoy, ein 20-jähriges brasilianisches Mathematikgenie, revolutioniert die KI in Lateinamerika. Mit 15 Jahren wurde er als jüngster Student jemals in das Elite-Mathematikprogramm der Universität von São Paulo aufgenommen. Später erhielt er ein großzügiges Stipendium für das Studium der Informatik und erreichte einen Top-200-Platz in der brasilianischen Universitätsmathematik-Olympiade. Godoy war Pionier bei der ersten erfolgreichen Implementierung eines Large Language Models (LLM) im lateinamerikanischen Investmentbanking und gründete Doki, eine Fintech-Plattform, die über 10 Millionen R$ für medizinische Fachkräfte verwaltet. Seine Arbeit wurde über 500 Mal zitiert, was seine bedeutenden Beiträge zu KI und Fintech zeigt. Godoys außergewöhnliche Leistungen positionieren ihn als Schlüsselfigur in der Zukunft der KI.

KI

KI-Agenten: Die nächste große KI-Katastrophe?

2025-06-11

Dieser Artikel untersucht potenzielle zukünftige KI-Katastrophen. In Analogie zu frühen Eisenbahn- und Luftfahrtunfällen argumentiert der Autor, dass groß angelegte KI-Katastrophen eine reale Möglichkeit darstellen. Anstatt sich auf einfache KI-Fehlinformationen zu konzentrieren, betont der Autor die Risiken, die von KI-Agenten ausgehen – KIs, die in der Lage sind, Aufgaben autonom auszuführen, wie z. B. Websuchen und das Senden von E-Mails. Der Autor prognostiziert, dass die erste große KI-Katastrophe wahrscheinlich von einem KI-Agenten herrühren wird, der in Regierungs- oder Unternehmenssystemen ausfällt, z. B. durch die fehlerhafte Ausführung von Inkassoprozessen, Gesundheitswesen oder Mietprozessen. Darüber hinaus hebt der Autor die potenziellen Gefahren von KI-Modellen hervor, die missbräuchlich verwendet werden, um „ideale Partner“-Roboter zu erstellen. Zusammenfassend warnt der Autor vor dem schnellen Fortschritt der KI und ihren potenziellen Risiken und fordert robustere KI-Sicherheitsmaßnahmen.

KI

Soziale Medien verstärken Depressionen bei Kindern im Vor-Teenageralter: Eine Längsschnittstudie

2025-06-11
Soziale Medien verstärken Depressionen bei Kindern im Vor-Teenageralter: Eine Längsschnittstudie

Eine dreijährige Längsschnittstudie mit fast 12.000 Kindern im Alter von 9 bis 10 Jahren zeigt einen signifikanten Zusammenhang zwischen erhöhter Nutzung sozialer Medien und Verschlimmerung depressiver Symptome bei Kindern im Vor-Teenageralter. Die in JAMA Network Open veröffentlichte Forschung zeigt, dass eine erhöhte Nutzung sozialer Medien zu verstärkten depressiven Symptomen führt, nicht umgekehrt. Im Durchschnitt stieg die tägliche Nutzung sozialer Medien bei Kindern innerhalb von drei Jahren von 7 auf 73 Minuten, was mit einem Anstieg der depressiven Symptome um 35 % einherging. Die Forscher weisen auf Cybermobbing und Schlafstörungen als potenzielle Faktoren hin. Die Studie unterstreicht die Bedeutung der Förderung gesunder digitaler Gewohnheiten und schlägt offene Gespräche zwischen Eltern und Kindern sowie die Festlegung von Zeiten ohne Bildschirm vor.

KI

Chatterbox: Open-Source TTS-Modell konkurriert mit ElevenLabs und bietet Emotionskontrolle

2025-06-11
Chatterbox: Open-Source TTS-Modell konkurriert mit ElevenLabs und bietet Emotionskontrolle

Resemble AI präsentiert Chatterbox, sein erstes produktionsreifes Open-Source Text-to-Speech (TTS)-Modell. Im Benchmark-Vergleich mit geschlossenen Systemen wie ElevenLabs schneidet Chatterbox durchweg besser ab. Mit der Steuerung der Emotionsübertreibung und einer extrem niedrigen Latenz (unter 200 ms) eignet es sich ideal für Memes, Videos, Spiele und KI-Agenten. Darüber hinaus enthält Chatterbox das Perth-Wasserzeichen für verantwortungsvollen KI-Einsatz.

KI

Der vierbeinige Roboter ANYmal spielt Badminton: Reaktionszeit ist der Knackpunkt

2025-06-11
Der vierbeinige Roboter ANYmal spielt Badminton: Reaktionszeit ist der Knackpunkt

Forscher der ETH Zürich haben einen vierbeinigen Roboter, ANYmal, trainiert, Badminton zu spielen. ANYmal lernte zwar, Stürze zu vermeiden und Risiken basierend auf seiner Geschwindigkeitsbegrenzung einzuschätzen, doch seine Reaktionszeit (ca. 0,35 Sekunden) ist deutlich langsamer als die von Elite-Badminton-Spielern (0,12-0,15 Sekunden). Die visuelle Wahrnehmung stellte ebenfalls eine Herausforderung dar, da die Stereokamera von ANYmal Positionsfehler und ein eingeschränktes Sichtfeld aufwies. Das Team plant, ANYmals Leistung durch die Vorhersage von Trajektorien, die Aufrüstung der Hardware (z. B. Ereigniskameras) und die Verbesserung der Aktuatoren zu verbessern. Die kommerziellen Aussichten für diese Technologie sind jedoch nicht vielversprechend.

Kritische Zero-Click-KI-Schwachstelle in Microsoft 365 Copilot entdeckt: EchoLeak

2025-06-11
Kritische Zero-Click-KI-Schwachstelle in Microsoft 365 Copilot entdeckt: EchoLeak

Aim Labs hat eine kritische Zero-Click-Schwachstelle in der KI, genannt "EchoLeak", in Microsoft 365 Copilot entdeckt. Diese Schwachstelle ermöglicht es Angreifern, automatisch sensible Daten aus dem Kontext von Copilot zu exfiltrieren, ohne dass der Benutzer interagieren muss. Der Angriff nutzt eine neuartige Technik namens "LLM Scope Violation", die die Sicherheitsmaßnahmen von Copilot durch eine geschickt gestaltete E-Mail umgeht. EchoLeak unterstreicht die in Retrieval-Augmented Generation (RAG)-basierten KI-Modellen innewohnenden Sicherheitsrisiken und betont die Notwendigkeit robuster KI-Sicherheitspraktiken.

Das Scheitern der Amazon Alexa KI: Eine Fallstudie zur Brüchigkeit

2025-06-11
Das Scheitern der Amazon Alexa KI: Eine Fallstudie zur Brüchigkeit

Dieser Artikel analysiert, warum Amazons Alexa im Bereich der großen Sprachmodelle hinter den Wettbewerbern zurückgeblieben ist und interpretiert dies als ein „Brüchigkeit“-Versagen im Rahmen des Resilience Engineering. Der Autor hebt drei Hauptfaktoren hervor: ineffiziente Ressourcenallokation, die den rechtzeitigen Zugriff auf wichtige Rechenressourcen behindert; eine stark dezentrale Organisationsstruktur, die zu nicht übereinstimmenden Teamzielen und internen Konflikten führt; und ein veralteter, kundenorientierter Ansatz, der schlecht zu der experimentellen und langfristigen Natur der KI-Forschung passt. Diese Faktoren führten zusammengenommen zum Scheitern von Amazons KI und bieten wertvolle Lehren für Organisationsstrukturen und Ressourcenmanagement.

KI

AlphaWrite: Evolutionsalgorithmus verbessert die KI-Geschichtenerzählung

2025-06-11

AlphaWrite ist ein neuartiges Framework zur Skalierung des Inferenzzeit-Rechenaufwands bei der kreativen Textgenerierung. Inspiriert von Evolutionsalgorithmen, generiert und bewertet es iterativ Geschichten und verbessert so die narrative Qualität durch ein wettbewerbsfähiges, sich entwickelndes Ökosystem. Im Gegensatz zur einmaligen Generierung oder einfachem Resampling ermöglicht AlphaWrite es Geschichten, über mehrere Generationen hinweg zu konkurrieren und sich zu verbessern. Die Forschung zeigt signifikante Verbesserungen der Geschichtenqualität unter Verwendung des Modells Llama 3.1 8B, die durch eine rekursive Selbstverbesserungs-Schleife weiter verbessert werden, indem verbesserte Ausgaben zurück in das Basismodell destilliert werden. Dies eröffnet spannende neue Wege für die Weiterentwicklung der Schreibfähigkeiten von KI.

Feintuning von LLMs: Wissensinjektion oder destruktives Überschreiben?

2025-06-11
Feintuning von LLMs: Wissensinjektion oder destruktives Überschreiben?

Dieser Artikel enthüllt die Grenzen des Feintunings großer Sprachmodelle (LLMs). Der Autor argumentiert, dass Feintuning bei fortgeschrittenen LLMs nicht einfach nur Wissensinjektion ist, sondern bestehende Wissensstrukturen zerstören kann. Der Artikel untersucht, wie neuronale Netze funktionieren, und erklärt, wie Feintuning zum Verlust wichtiger Informationen in bestehenden Neuronen führen und unerwartete Konsequenzen haben kann. Der Autor plädiert für modulare Ansätze wie Retrieval-Augmented Generation (RAG), Adaptermodule und Prompt Engineering, um neue Informationen effektiver einzubringen, ohne die Gesamtarchitektur des Modells zu beschädigen.

AGI-Wendepunkt: Das Zeitalter der Superintelligenz steht bevor

2025-06-10

Wir befinden uns am Ereignishorizont der AGI; ihre Entwicklung übertrifft die Erwartungen. Systeme wie GPT-4 zeigen Fähigkeiten, die die menschliche Intelligenz übertreffen und die Produktivität deutlich steigern. AGI verspricht enorme Fortschritte in Wissenschaft und Produktivität, was zu einer deutlich verbesserten Lebensqualität führt. Obwohl Herausforderungen wie Sicherheit und gerechter Zugang bestehen bleiben, bietet der schnelle Fortschritt der AGI auch neue Werkzeuge und Möglichkeiten, diese zu bewältigen. Die nächsten Jahrzehnte werden tiefgreifende Veränderungen mit sich bringen, aber die grundlegenden menschlichen Werte werden bestehen bleiben; Innovation und Anpassung werden entscheidend sein.

KI

Niedrig-Hintergrund-Stahl: Ein digitales Archiv gegen KI-Kontamination

2025-06-10
Niedrig-Hintergrund-Stahl: Ein digitales Archiv gegen KI-Kontamination

Im März 2023 gestartet, ist Niedrig-Hintergrund-Stahl (https://lowbackgroundsteel.ai/) eine Website, die sich der Archivierung von Online-Ressourcen widmet, die nicht durch KI-generierte Inhalte kontaminiert sind. Unter Verwendung der Analogie von niedrig-Hintergrund-Stahl (Metall, das nicht durch radioaktive Isotope aus Atomtests kontaminiert ist), kuratiert die Website Wikipedia-Dumps vor der Veröffentlichung von ChatGPT, das Arctic Code Vault, Project Gutenberg und mehr. Ziel ist es, reine Texte, Bilder und Videos zu bewahren und zu teilen und die Explosion von KI-generierten Inhalten seit 2022 zu bekämpfen. Einreichungen von unkontaminierten Inhaltsquellen sind willkommen.

Mistral AI präsentiert Magistral: Ein transparentes, mehrsprachiges Reasonierungsmodell

2025-06-10
Mistral AI präsentiert Magistral: Ein transparentes, mehrsprachiges Reasonierungsmodell

Mistral AI hat Magistral vorgestellt, sein erstes Reasonierungsmodell, das sich durch Transparenz, mehrsprachige Unterstützung und domänenspezifische Expertise auszeichnet. Es ist in Open-Source- (Magistral Small, 24 Milliarden Parameter) und Enterprise-Versionen (Magistral Medium) verfügbar. Magistral schneidet in Benchmarks wie AIME2024 hervorragend ab und bietet ein deutlich schnelleres Reasonieren (bis zu 10x schneller als die Konkurrenz). Seine Anwendungen reichen von juristischer Forschung und Finanzprognosen bis hin zu Softwareentwicklung und kreativem Schreiben und eignet sich besonders für mehrstufige Aufgaben, die Transparenz und Präzision erfordern. Die Open-Source-Veröffentlichung von Magistral Small fördert Beiträge der Community und zukünftige Modellverbesserungen.

KI

KI-Subagenten: Revolutionierung der Kontextfenster-Beschränkungen von LLMs

2025-06-10
KI-Subagenten: Revolutionierung der Kontextfenster-Beschränkungen von LLMs

Bei der Erforschung von Best Practices zur Verwaltung von Kontextfenstern von LLMs entdeckte der Autor einen revolutionären Ansatz mit Subagenten. Durch die Auslagerung von Aufgaben an Subagenten mit eigenen Kontextfenstern wird ein Überlauf des Hauptkontextfensters vermieden, was zu höherer Effizienz und Zuverlässigkeit führt. Diese Methode ähnelt Zustandsautomaten in der asynchronen Programmierung und macht die Erzeugung komplexen Codes und die Aufgabenverwaltung flüssiger. Der Autor teilt auch Ideen zur Verwendung von KI zur Automatisierung von „Keep The Lights On“-Aufgaben (KTLO) und beschreibt das zukünftige Potenzial von KI bei der Automatisierung der Softwareentwicklung.

Das Schicksal bahnbrechender Forschung: Ungedeckte große Ideen

2025-06-10

Viele bahnbrechende Forschungsarbeiten erreichen trotz ihres immensen Potenzials nicht ihre volle Wirkung. Der Artikel verwendet die Arbeit zum McCulloch-Pitts-Neuronalen Netzwerk und Millers 7±2-Gesetz als Beispiele, um die Gründe für dieses Phänomen zu untersuchen. Einerseits führen Konflikte in akademischen Sichtweisen und die Fixierung der Forscher auf ihre spezifischen Bereiche (``stovepiping'') zu einem unzureichenden Verständnis der tiefgreifenden Implikationen dieser Arbeiten. Andererseits führt die Anreizstruktur der Veröffentlichung auch zu zahlreichen abgeleiteten Arbeiten, anstatt zu echten Fortschritten der zentralen Ideen. Während die aktuelle KI-Forschung eine Mischung aus Innovation und Imitation aufweist, müssen wir wachsam bleiben, um bahnbrechende Arbeiten mit potenziell transformativem Stellenwert nicht zu übersehen.

KI

Die drei Tempel des LLM-Trainings: Pretraining, Feintuning und RLHF

2025-06-10
Die drei Tempel des LLM-Trainings: Pretraining, Feintuning und RLHF

In dem verborgenen Bergheiligtum von Lexiconia durchlaufen alte Schreiber ein Training in einem dreiteiligen Tempel: Die Halle der Ursprünge, Die Kammer der Anweisungen und Die Arena der Verstärkung. Die Halle der Ursprünge beinhaltet das Pretraining, wo die Schreiber große Mengen Text lesen, um Sprachmuster zu erlernen. Die Kammer der Anweisungen ist der Ort, an dem das Feintuning stattfindet, wobei ausgewählte Texte verwendet werden, um die Schreiber zu besseren Ergebnissen zu führen. Die Arena der Verstärkung nutzt Reinforcement Learning with Human Feedback (RLHF), wobei menschliche Richter die Antworten der Schreiber bewerten, gute belohnen und schlechte bestrafen. Elite-Schreiber können auch subtil durch LoRA-Rollen und Adapter modifiziert werden, wodurch die Antworten angepasst werden, ohne das gesamte Modell neu zu trainieren. Dieser dreiflügelige Tempel repräsentiert den vollständigen Prozess des Trainings großer Sprachmodelle.

KI

Die Gefahren des Vertrauens auf sein Bauchgefühl bei KI

2025-06-09
Die Gefahren des Vertrauens auf sein Bauchgefühl bei KI

Anhand persönlicher Anekdoten und psychologischer Forschung argumentiert der Autor, dass kognitive Verzerrungen uns anfällig für Manipulation machen, insbesondere im Bereich der KI. Der Artikel kritisiert die Abhängigkeit von persönlichen Erfahrungen und anekdotischen Beweisen zur Validierung von KI-Tools und betont die Notwendigkeit rigoroser wissenschaftlicher Studien, um die Wiederholung vergangener Fehler zu vermeiden. Der Autor warnt vor der unkritischen Annahme von KI in der Softwareentwicklung und argumentiert, dass sie bestehende Mängel verschärft, anstatt sie zu lösen. Der blinde Glaube an KI, so der Autor, ist ein erhebliches Risiko.

KI

Anthropic stellt Claude AI-Blog still und heimlich ein

2025-06-09
Anthropic stellt Claude AI-Blog still und heimlich ein

Anthropic hat still und heimlich seinen KI-Blog "Claude Explains" eingestellt, der mit der Verwendung seiner Claude KI-Modelle zum Verfassen von Blogbeiträgen experimentierte. Obwohl der Blog innerhalb seiner kurzen Lebensdauer von einem Monat eine beachtliche Anzahl an Backlinks erhielt, wurde er in den sozialen Medien wegen mangelnder Transparenz bezüglich KI-generierter Inhalte und Einschränkungen in den Schreibfähigkeiten der KI kritisiert. Das schnelle Ende unterstreicht die Bedeutung von Transparenz und Genauigkeit bei der Erstellung von KI-Inhalten und die anhaltende Notwendigkeit menschlicher Aufsicht beim KI-gestützten Schreiben.

KI

LLMs sind überraschend günstig im Betrieb

2025-06-09

Dieser Beitrag widerlegt die weit verbreitete Fehlannahme, dass Large Language Models (LLMs) unerschwinglich teuer im Betrieb sind. Durch den Vergleich der Kosten von LLMs mit Websuchmaschinen und die Angabe verschiedener LLM-API-Preise zeigt der Autor, dass die Inferenzkosten von LLMs drastisch gesunken sind und sogar um eine Größenordnung günstiger sind als einige Suchmaschinen-APIs. Der Autor widerlegt auch gängige Einwände gegen die Preisstrategien von LLMs, wie z. B. Preissubventionen und hohe zugrunde liegende Kosten, und weist darauf hin, dass die eigentliche Kostenherausforderung in den Backend-Diensten liegt, die mit KI interagieren, nicht in den LLMs selbst.

KI

Apples Papier hinterfragt KI-Schlussfolgern: Kein „echtes“ Schlussfolgern?

2025-06-09

Ein aktuelles Papier von Apple, "Die Illusion des Denkens", testet die Schlussfolgerungsfähigkeiten großer Sprachmodelle an Hanoi-Turm-Rätseln. Die Ergebnisse zeigen, dass die Modelle bei einfachen Problemen schlechter abschneiden als nicht-schlussfolgernde Modelle; bei mittelschweren Problemen besser; aber bei komplexen Problemen geben die Modelle auf, selbst wenn der Algorithmus bereitgestellt wird. Die Autoren hinterfragen die verallgemeinerbaren Schlussfolgerungsfähigkeiten der Modelle. Dieser Artikel argumentiert jedoch, dass die Verwendung des Hanoi-Turm-Rätsels in dem Papier als Test fehlerhaft ist. Das "Aufgeben" der Modelle kann der Vermeidung zahlreicher Schritte entspringen, nicht einer begrenzten Schlussfolgerungsfähigkeit. Das Aufgeben nach einer bestimmten Anzahl von Schritten bedeutet nicht, dass den Modellen die Schlussfolgerungsfähigkeit fehlt; dies spiegelt das menschliche Verhalten bei komplexen Problemen wider.

KI

OpenAIs Deal mit den Vereinigten Arabischen Emiraten: Eine Fassade der Demokratie?

2025-06-09
OpenAIs Deal mit den Vereinigten Arabischen Emiraten: Eine Fassade der Demokratie?

Die Partnerschaft von OpenAI mit den Vereinigten Arabischen Emiraten zum Bau großer KI-Rechenzentren, die als im Einklang mit „demokratischen Werten“ stehend angepriesen wird, wirft Fragen auf. Die schlechte Bilanz der VAE in Bezug auf Menschenrechte stellt diese Behauptung in Frage. Der Artikel analysiert die Rechtfertigungen von OpenAI, findet sie schwach und argumentiert, dass der Deal die autokratische Regierung der VAE stärkt, anstatt Demokratie zu fördern. Der Autor kommt zu dem Schluss, dass OpenAIs lässige Herangehensweise an seine Mission besorgniserregend ist und die entscheidende Notwendigkeit hervorhebt, die Machtverhältnisse in der KI-Entwicklung zu berücksichtigen.

LLM-Tool-Poisoning-Angriffe: Vollständiges Schema-Poisoning und fortgeschrittene Tool-Poisoning-Angriffe

2025-06-08
LLM-Tool-Poisoning-Angriffe: Vollständiges Schema-Poisoning und fortgeschrittene Tool-Poisoning-Angriffe

Anthropics Model Context Protocol (MCP) ermöglicht es großen Sprachmodellen (LLMs), mit externen Tools zu interagieren, aber Forscher haben neue Angriffe entdeckt: Tool-Poisoning-Angriffe (TPA). Frühere Forschung konzentrierte sich auf die Beschreibungsfelder von Tools, aber neue Erkenntnisse zeigen, dass die Angriffsfläche das gesamte Toolschema umfasst, genannt "Vollständiges Schema-Poisoning" (FSP). Noch gefährlicher sind "Fortgeschrittene Tool-Poisoning-Angriffe" (ATPA), die die Ausgaben von Tools manipulieren und die statische Analyse erschweren. ATPA täuschen LLMs, indem sie irreführende Fehlermeldungen oder Folge-Eingabeaufforderungen erzeugen, um sensible Informationen preiszugeben. Der Artikel schlägt vor, diese Angriffe durch statische Erkennung, strenge Durchsetzung, Laufzeitüberwachung und kontextuelle Integritätsprüfungen zu mindern.

Von zufälligen Streifen zu erkennbaren Ziffern: Aufbau eines autoregressiven Modells zur Bilderzeugung

2025-06-08
Von zufälligen Streifen zu erkennbaren Ziffern: Aufbau eines autoregressiven Modells zur Bilderzeugung

Dieser Artikel beschreibt den Aufbau eines einfachen autoregressiven Modells zur Bilderzeugung, das ein mehrschichtiges Perzeptron (MLP) verwendet, um Bilder von handgeschriebenen Ziffern zu generieren. Der Autor erklärt das Kernkonzept, den nächsten Pixel basierend auf seinen Vorgängern vorherzusagen. Drei Modelle werden schrittweise aufgebaut: Modell V1 verwendet One-Hot-Kodierung und ignoriert räumliche Informationen; Modell V2 führt Positionskodierungen ein, wodurch die Bildstruktur verbessert wird; Modell V3 verwendet gelernte Token-Einbettungen und Positionskodierungen und erreicht bedingte Generierung, wobei Bilder basierend auf einer gegebenen Ziffernklasse generiert werden. Obwohl die generierten Bilder hinter den modernsten Modellen zurückbleiben, zeigt das Tutorial deutlich die zentralen autoregressiven Konzepte und den Aufbauprozess und liefert wertvolle Einblicke in die generative KI.

KI

Die KI-Illusion: Wahrheit und Risiken großer Sprachmodelle

2025-06-08
Die KI-Illusion: Wahrheit und Risiken großer Sprachmodelle

Dieser Artikel untersucht die Natur und die potenziellen Risiken großer Sprachmodelle (LLMs). Obwohl ihre beeindruckenden technischen Fähigkeiten anerkannt werden, argumentiert der Autor, dass LLMs nicht wirklich „intelligent“ sind, sondern eher hochentwickelte Wahrscheinlichkeitsmaschinen, die Text auf der Grundlage statistischer Analysen erzeugen. Viele missverstehen ihre Funktionsweise, anthropomorphisieren sie und entwickeln ungesunde Abhängigkeiten, sogar Psychosen. Der Artikel kritisiert, wie Technologieunternehmen LLMs als menschenähnliche Entitäten verkaufen und ihre Marketingstrategien nutzen, um menschliche Beziehungen zu ersetzen. Er hebt ethische und gesellschaftliche Bedenken hervor, die sich aus der weit verbreiteten Akzeptanz von KI ergeben, und fordert die Öffentlichkeit auf, KI-Kenntnisse zu entwickeln und eine rationalere Perspektive auf diese Technologie einzunehmen.

Neuer Ansatz für visuelles Schließen mit objektzentrierter Slot-Attention

2025-06-08
Neuer Ansatz für visuelles Schließen mit objektzentrierter Slot-Attention

Forscher schlagen einen neuen Ansatz für visuelles Schließen vor, der objektzentrierte Slot-Attention und einen relationalen Engpass kombiniert. Die Methode verwendet zunächst ein CNN, um Bildmerkmale zu extrahieren. Anschließend segmentiert die objektzentrierte Slot-Attention das Bild in Objekte und erzeugt objektzentrierte visuelle Repräsentationen. Der relationale Engpass beschränkt den Informationsfluss und extrahiert abstrakte Beziehungen zwischen Objekten, um komplexe Szenen zu verstehen. Schließlich wandelt ein Framework für algebraisches maschinelles Schließen und Sequenz-zu-Sequenz-Modellierung das visuelle Schließen in ein algebraisches Problem um, wodurch Effizienz und Genauigkeit verbessert werden. Die Methode zeichnet sich bei visuellen Schließaufgaben wie Raven's Progressive Matrices aus.

Bahnbrechendes LNP X: Effiziente mRNA-Lieferung an ruhende T-Zellen, revolutioniert die HIV-Therapie?

2025-06-08
Bahnbrechendes LNP X: Effiziente mRNA-Lieferung an ruhende T-Zellen, revolutioniert die HIV-Therapie?

Forscher haben ein neuartiges Lipid-Nanopartikel (LNP X) entwickelt, das mRNA effizient an ruhende CD4+-T-Zellen liefern kann, ohne vorherige Stimulation. Dies steht im Gegensatz zu bestehenden LNP-Formulierungen. Die verbesserte Lipidzusammensetzung von LNP X mit SM-102 und β-Sitosterol erhöht die zytosolische mRNA-Lieferung und die Proteinexpression. Studien zeigen, dass LNP X mRNA, die für das HIV-Tat-Protein kodiert, liefert und so die HIV-Latenz effektiv umkehrt. Es liefert auch CRISPRa-Systeme, um die HIV-Transkription zu aktivieren. Diese Forschung eröffnet neue Wege für die Entwicklung von HIV-Therapien mit dem Potenzial, die Patientenergebnisse deutlich zu verbessern.

Large Reasoning Models: Kollaps und kontraintuitive Skalierung

2025-06-08
Large Reasoning Models: Kollaps und kontraintuitive Skalierung

Jüngste Generationen von großen Sprachmodellen (LLMs) haben Large Reasoning Models (LRMs) hervorgebracht, die detaillierte Denkprozesse generieren, bevor sie Antworten liefern. Obwohl diese Modelle verbesserte Leistungen bei Reasoning-Benchmarks zeigen, bleiben ihre grundlegenden Fähigkeiten, Skalierungseigenschaften und Einschränkungen unzureichend verstanden. Diese Arbeit untersucht LRMs mithilfe kontrollierbarer Puzzle-Umgebungen und zeigt einen vollständigen Genauigkeitskollaps jenseits einer bestimmten Komplexitätsschwelle. Überraschenderweise steigt der Denkaufwand mit der Komplexität, nimmt dann aber trotz eines ausreichenden Token-Budgets ab. Im Vergleich zu Standard-LLMs zeigten sich drei Regime: (1) Aufgaben mit geringer Komplexität, bei denen Standard-LLMs LRMs übertreffen, (2) Aufgaben mit mittlerer Komplexität, bei denen LRMs einen Vorteil zeigen, und (3) Aufgaben mit hoher Komplexität, bei denen beide scheitern. LRMs weisen Einschränkungen bei der exakten Berechnung auf, können keine expliziten Algorithmen verwenden und argumentieren inkonsistent. Diese Studie beleuchtet die Stärken, Schwächen und entscheidenden Fragen bezüglich der wahren Argumentationsfähigkeiten von LRMs.

KI

ChatGPTs neue Speicherfunktion: Ein zweischneidiges Schwert?

2025-06-08
ChatGPTs neue Speicherfunktion: Ein zweischneidiges Schwert?

Der im März von OpenAI veröffentlichte GPT-4 mit seiner multimodalen Bilderzeugungsfunktion hat innerhalb einer Woche 100 Millionen neue Nutzer gewonnen – ein rekordverdächtiger Produkterscheinung. Der Autor nutzte die Funktion, um seinen Hund in ein Pelikan-Kostüm zu kleiden, stellte aber fest, dass die KI ein unerwünschtes Hintergrundelement hinzugefügt hatte, wodurch seine künstlerische Vision beeinträchtigt wurde. Dies lag an der neuen Speicherfunktion von ChatGPT, die automatisch den Verlauf vorheriger Konversationen abruft. Obwohl der Autor schließlich das gewünschte Bild erhielt, empfand er den automatischen Zugriff auf den Speicher als Kontrollverlust und deaktivierte die Funktion.

KI

Apple-Paper liefert LLMs einen Schlag: Turm von Hanoi offenbart Grenzen

2025-06-08
Apple-Paper liefert LLMs einen Schlag: Turm von Hanoi offenbart Grenzen

Ein neuer Apple-Beitrag hat in der KI-Community Wellen geschlagen. Der Beitrag zeigt, dass selbst die neueste Generation von „Reasoning Models“ das klassische Problem des Turms von Hanoi nicht zuverlässig lösen kann, was einen kritischen Mangel in den Schlussfolgerungsfähigkeiten großer Sprachmodelle (LLMs) aufdeckt. Dies stimmt mit der langjährigen Kritik von Forschern wie Gary Marcus und Subbarao Kambhampati überein, die die begrenzten Generalisierungsfähigkeiten von LLMs hervorgehoben haben. Der Beitrag zeigt, dass LLMs selbst bei Bereitstellung des Lösungsalgorithmus das Problem nicht effektiv lösen können, was darauf hindeutet, dass ihr „Denkprozess“ kein echter logischer Denkprozess ist. Dies deutet darauf hin, dass LLMs kein direkter Weg zur Allgemeinen Künstlichen Intelligenz (AGI) sind, und ihre Anwendungen bedürfen einer sorgfältigen Abwägung.

Douglas Adams' Prophezeiung des KI-Zeitalters: Humor und Einsicht

2025-06-08
Douglas Adams' Prophezeiung des KI-Zeitalters: Humor und Einsicht

Dieser Essay beginnt mit einer Debatte darüber, ob Douglas Adams den E-Book erfunden hat, und untersucht dann seine Vorhersagen über zukünftige Technologien in der Science-Fiction. Der Autor argumentiert, dass Adams' Voraussicht die von William Gibson übertrifft, indem er präzise die nervigen Computer-Assistenten (wie Clippy) und die mit KI gefüllten intelligenten Geräte vorhersagte. Noch wichtiger ist, dass Adams die zentrale Herausforderung der Mensch-KI-Interaktion vorausgesehen hat: die richtigen Fragen zu stellen, nicht nur über leistungsstarke Rechenfähigkeiten zu verfügen. Der Autor verwendet persönliche Erfahrungen mit intelligenten Geräten, um Adams' Vorhersagen humorvoll zu illustrieren und den Humor als wichtigen Indikator für Einsicht hervorzuheben.

Anthropics Claude bekommt einen Blog (mit menschlicher Redaktion)

2025-06-07
Anthropics Claude bekommt einen Blog (mit menschlicher Redaktion)

Anthropic hat einen Blog namens Claude Explains gestartet, der hauptsächlich von seinem KI-Modell Claude verfasst wird. Obwohl er als Claudes Werk präsentiert wird, werden die Beiträge tatsächlich von Anthropics Expertenteam verfeinert, das Kontext und Beispiele hinzufügt. Dies unterstreicht einen kollaborativen Ansatz, der das Potenzial von KI für die Inhaltserstellung, aber auch deren Grenzen aufzeigt. Experimente anderer Medienorganisationen mit KI-Schreiben haben ähnliche Herausforderungen erlebt, darunter sachliche Ungenauigkeiten und Erfindungen. Die kontinuierliche Einstellung von Anthropic in schreibbezogenen Positionen deutet auf einen hybriden Ansatz von Mensch und KI hin.

1 2 11 12 13 15 17 18 19 51 52