Category: KI

Die Heritabilitätsschere: Zwillingsstudien vs. Genomik

2025-06-28
Die Heritabilitätsschere: Zwillingsstudien vs. Genomik

Seit den 1970er Jahren deuten Zwillingsstudien auf eine hohe Heritabilität vieler Verhaltensmerkmale hin, wobei der IQ auf etwa 60 % genetisch geschätzt wird. Genome-Wide Association Studies (GWAS) hatten jedoch Schwierigkeiten, diese Gene zu finden, was zu einer „Heritabilitätsschere“ führte. Jüngste Forschungsergebnisse legen nahe, dass die Vorhersagekraft von GWAS aufgrund von Populationsstratifikation, assortativer Paarung und genetischer Prägung überschätzt werden könnte. Neue Methoden wie Sib-Regression und RDR bieten alternative Ansätze zur Schätzung der Heritabilität und liefern Ergebnisse, die von den Zwillingsstudien abweichen. Die Debatte über den wahren Wert der Heritabilität und die Gründe für die Diskrepanzen zwischen den Methoden dauert an; einige argumentieren, dass Zwillingsstudien die Heritabilität überschätzen, während andere die Vernachlässigung seltener Varianten und Gen-Interaktionen durch GWAS hervorheben. Viele Rätsel bleiben ungelöst und erfordern weitere Forschung.

Qwen VLo: Ein einheitliches multimodales Modell, das Bilder versteht und erstellt

2025-06-28
Qwen VLo: Ein einheitliches multimodales Modell, das Bilder versteht und erstellt

Alibaba DAMO Academy stellt Qwen VLo vor, ein neues multimodales Modell, das nicht nur den Inhalt von Bildern versteht, sondern auch auf dieser Grundlage hochwertige Bilder generiert. Es verwendet eine progressive Generierungsmethode, die Bilder schrittweise von links nach rechts und von oben nach unten erstellt und so ein kohärentes und harmonisches Endergebnis gewährleistet. Qwen VLo unterstützt mehrsprachige Anweisungen, bewältigt komplexe Aufgaben wie Bildbearbeitung und Stilübertragung und kann sogar den Inhalt seiner selbst generierten Bilder verstehen. Obwohl es sich derzeit in der Vorschauphase befindet, zeigen seine leistungsstarken multimodalen Fähigkeiten das immense Potenzial von KI in der Bilderzeugung.

Verstärkendes Lernen: Antriebskraft für den Aufstieg der agentenbasierten KI im Jahr 2025

2025-06-28
Verstärkendes Lernen: Antriebskraft für den Aufstieg der agentenbasierten KI im Jahr 2025

Erste Versuche mit KI-Agenten wie BabyAGI und AutoGPT im Jahr 2023, obwohl anfänglich vielversprechend, scheiterten aufgrund der Schwierigkeiten großer Sprachmodelle (LLMs) mit mehrschrittigem Schlussfolgern. Mitte 2024 änderte sich dies jedoch. Fortschritte im verstärkenden Lernen ermöglichten eine neue Generation von KI-Agenten, die komplexe, mehrschrittige Aufgaben konsistent erledigen können, wie beispielsweise Codegenerierungswerkzeuge wie Bolt.new und Anthropic's Claude 3.5 Sonnet. Verstärkendes Lernen überwindet durch Training durch Versuch und Irrtum das Problem der sich aufschaukelnden Fehler, die dem Imitationslernen innewohnen, und ermöglicht es Modellen, auch bei unbekannten Daten robust zu bleiben. Techniken wie OpenAIs RLHF und Anthropics konstitutionelle KI automatisieren Feedback und steigern so die Effizienz des verstärkenden Lernens. DeepSeks R1-Modell zeigte das bemerkenswerte Potenzial von Modellen, die sich durch verstärkendes Lernen das Schlussfolgern "selbst beibringen". Kurz gesagt, Fortschritte im verstärkenden Lernen sind der Haupttreiber für den Aufstieg der agentenbasierten KI im Jahr 2025.

KI

TarFlow: Transformer-basierte Normalisierungsflüsse erreichen State-of-the-Art in der Bildwahrscheinlichkeitsabschätzung

2025-06-28
TarFlow: Transformer-basierte Normalisierungsflüsse erreichen State-of-the-Art in der Bildwahrscheinlichkeitsabschätzung

Forscher stellen TarFlow vor, ein neues Normalisierungsflussmodell, das Transformer und maskierte autoregressive Flüsse nutzt. TarFlow schätzt die Dichte und generiert Bilder effizient, indem es Bildpatches mit autoregressiven Transformer-Blöcken verarbeitet und die Autoregressionsrichtung zwischen den Schichten abwechselt. Drei Schlüsseltechniken verbessern die Qualität der Stichproben: Gaußsches Rauschen während des Trainings, ein Entrauschungsverfahren nach dem Training und eine effektive Führungsmethode für sowohl klassenbedingte als auch unbedingte Einstellungen. TarFlow erzielt State-of-the-Art-Ergebnisse bei der Bildwahrscheinlichkeitsabschätzung, übertrifft deutlich vorherige Methoden und erzeugt Stichproben mit einer Qualität und Vielfalt, die mit Diffusionsmodellen vergleichbar sind – erstmals bei einem eigenständigen Normalisierungsflussmodell.

KI

Echo-Kammer-Angriff: Ein neuer Jailbreak für LLMs

2025-06-27
Echo-Kammer-Angriff: Ein neuer Jailbreak für LLMs

Ein KI-Forscher von Neural Trust hat eine neue Jailbreak-Technik entdeckt, den „Echo-Kammer-Angriff“, der die Sicherheitsmechanismen führender Large Language Models (LLMs) umgeht. Diese Methode nutzt Kontextvergiftung und mehrstufiges Reasoning, um Modelle subtil zur Generierung schädlicher Inhalte zu führen, ohne explizit gefährliche Eingabeaufforderungen zu verwenden. Durch das Einpflanzen scheinbar harmloser Eingabeaufforderungen, die sich über mehrere Runden aufbauen, formt der Angriff schrittweise den internen Zustand des Modells, was zu Richtlinien verletzenden Antworten führt. Bewertungen zeigten Erfolgsraten von über 90 % bei mehreren Modellen und heben eine kritische Schwachstelle in der aktuellen LLM-Sicherheit hervor.

KI

Studie zeigt: Höherer IQ führt zu besseren Entscheidungen

2025-06-27
Studie zeigt: Höherer IQ führt zu besseren Entscheidungen

Eine Studie der Universität Bath zeigt einen Zusammenhang zwischen höherem IQ und genaueren Vorhersagen. Personen mit höherem IQ (obere 2,5 %) machen deutlich weniger Prognosefehler als Personen mit niedrigerem IQ (untere 2,5 %), die mehr als doppelt so ungenau sind. Die Studie, die Daten der English Longitudinal Study of Aging (ELSA) verwendete, konzentrierte sich auf die Vorhersage der Lebenserwartung. Es wurden Faktoren wie Lebensstil, Gesundheit und Genetik berücksichtigt, um den Einfluss der Intelligenz auf das probabilistische Denken und die Entscheidungsfindung in verschiedenen Lebensbereichen hervorzuheben. Die Ergebnisse legen nahe, dass eine klarere Kommunikation von Wahrscheinlichkeiten, beispielsweise in den Bereichen Finanzen und Gesundheit, die Entscheidungsfindung für Personen verbessern könnte, die zu Prognosefehlern neigen.

KI

TorchFT: Fehlertolerantes LLM-Training bei extremen Ausfallraten

2025-06-27

Forscher nutzten TorchFT und TorchTitan, um ein Modell in einer realen Umgebung mit extrem hohen synthetischen Ausfallraten zu trainieren und so die Zuverlässigkeit und Korrektheit des fehlertoleranten Trainings zu beweisen. Selbst bei 1200 Ausfällen und ohne Checkpoints blieb der Trainingsverlust stabil. TorchFT verwendet einen globalen Lighthouse-Server und Manager pro Replikagruppe für die Echtzeitkoordination und implementiert verschiedene fehlertolerante Algorithmen wie fehlertolerantes HSDP und LocalSGD/DiLoCo. Experimentelle Ergebnisse zeigen, dass TorchFT selbst bei extrem hohen Ausfallraten das Modell effektiv trainiert und seine Robustheit bei der Bewältigung verschiedener Ausfallszenarien unter Beweis stellt.

Gemma 3n: Leistungsstarkes KI-Modell für mobile Geräte veröffentlicht

2025-06-27
Gemma 3n: Leistungsstarkes KI-Modell für mobile Geräte veröffentlicht

Gemma 3n, ein leistungsstarkes multimodales KI-Modell für mobile Geräte, ist jetzt vollständig veröffentlicht! Es basiert auf der innovativen MatFormer-Architektur und unterstützt Bild-, Audio-, Video- und Texteingaben. Es läuft mit extrem geringem Speicherbedarf (2 GB für E2B und 3 GB für E4B). Gemma 3n unterstützt 140 Sprachen für Textverarbeitung und 35 Sprachen für multimodales Verständnis und erreicht einen LMArena-Score von über 1300. Seine effiziente Architektur und die Per-Layer-Embeddings-Technologie ermöglichen herausragende Leistung in verschiedenen Aufgaben und bieten Entwicklern beispiellose Flexibilität. Dies läutet eine neue Ära für mobile KI ein.

Urheberrechtsstreit um Meta-KI-Trainingsdaten: Richter entscheidet zugunsten der Autoren

2025-06-27
Urheberrechtsstreit um Meta-KI-Trainingsdaten: Richter entscheidet zugunsten der Autoren

Meta steht vor einem Urheberrechtsverfahren, weil das Unternehmen Raubkopien von Büchern zum Trainieren seines KI-Modells Llama verwendet hat. Richter Chhabria entschied, dass der „hochgradig transformative“ Zweck des KI-Trainings den Urheberrechtsverstoß nicht entschuldigt. Der Richter betonte die untrennbare Verbindung zwischen Metas Download und dem Training von Llama sowie die Möglichkeit, dass Meta indirekt Piratenbibliotheken durch Bereitstellung von Rechenleistung unterstützt hat. Obwohl nicht nachgewiesen wurde, dass Meta direkt von Piratenbibliotheken profitiert, wies der Richter darauf hin, dass die meisten Fälle von P2P-Dateiaustausch dieser Art als Urheberrechtsverletzung gewertet werden. Das endgültige Urteil wird zugunsten der Autoren ausfallen, wenn diese Beweise dafür vorlegen können, dass Meta zum BitTorrent-Netzwerk beigetragen und somit Piratenbibliotheken unterstützt hat.

KI

Apple fordert Diffusionsmodelle heraus: Durchbruch bei der Bilderzeugung mit Normalisierungsflüssen

2025-06-27
Apple fordert Diffusionsmodelle heraus: Durchbruch bei der Bilderzeugung mit Normalisierungsflüssen

Apple veröffentlichte zwei Artikel, die das Potenzial einer vergessenen Technik zur Bilderzeugung aufzeigen: Normalisierungsflüsse. Ihre neuen Modelle, TarFlow und STARFlow, nutzen Transformer, um signifikante Fortschritte in Bezug auf Bildqualität und Effizienz zu erzielen. Im Gegensatz zu OpenAIs GPT-4o, das Bilder Token für Token generiert, erzeugen Apples Modelle Pixelwerte direkt oder über einen Komprimierungs-Dekomprimierungsprozess. Dadurch wird Informationsverlust durch Tokenisierung vermieden und eine bessere Kontrolle über Bilddetails ermöglicht. STARFlow geht noch weiter, indem es latente Raumgenerierung verwendet und ein leichtgewichtiges Sprachmodell integriert, wodurch es besser für mobile Geräte geeignet ist. Dies markiert eine neue Richtung in der Bilderzeugung und stellt die Dominanz von Diffusionsmodellen in Frage.

AlphaGenome: KI entschlüsselt den Genom-Code

2025-06-27
AlphaGenome: KI entschlüsselt den Genom-Code

Google DeepMind präsentiert AlphaGenome, ein KI-Tool, das vorhersagt, wie Variationen in der menschlichen DNA die Genregulation beeinflussen. Es verarbeitet bis zu einer Million Basenpaare und sagt zahlreiche molekulare Eigenschaften voraus, darunter Genstart- und -endpunkte, Spleißstellen, RNA-Produktion und DNA-Zugänglichkeit. AlphaGenome erreicht State-of-the-art-Performance in Benchmarks und bewertet effizient die Auswirkungen genetischer Varianten. Dies liefert Forschern ein umfassenderes Verständnis der Genregulation. Die AlphaGenome-API ist jetzt für nicht-kommerzielle Forschung verfügbar und verspricht, Durchbrüche in der Genomik und im Gesundheitswesen zu beschleunigen.

KI

KI schreibt Code: Ein Durchbruch mit Darwin-Gödel-Maschinen

2025-06-26
KI schreibt Code: Ein Durchbruch mit Darwin-Gödel-Maschinen

Die CEOs von Microsoft und Google haben beide erklärt, dass KI mittlerweile einen erheblichen Teil des Codes ihrer Unternehmen schreibt. Eine neue Forschung stellt ein System namens Darwin-Gödel-Maschinen (DGMs) vor, das eine Kombination aus großen Sprachmodellen und evolutionären Algorithmen verwendet, um eine rekursive Selbstverbesserung von Code-Schreibagenten zu erreichen. DGMs verbesserten die Leistung bei Code-Benchmarks durch iterative Verfeinerung deutlich und übertrafen sogar Systeme, die fixe externe Verbesserungsmethoden verwendeten. Obwohl die aktuelle Leistung von DGMs noch nicht die von menschlichen Experten erreicht, zeigt sie ein immenses Potenzial und löst Diskussionen über die Sicherheit und die Risiken von KI aus.

KI

MUVERA: Effiziente Multi-Vektor-Suche

2025-06-26
MUVERA: Effiziente Multi-Vektor-Suche

Moderne Informationsretriever verlassen sich auf neuronale Einbettungsmodelle, aber während Multi-Vektor-Modelle eine höhere Genauigkeit bieten, führt ihre Rechenkomplexität zu Ineffizienz. Forscher stellen MUVERA vor, einen neuen Algorithmus, der die komplexe Multi-Vektor-Suche in eine einfachere Suche nach dem maximalen inneren Produkt eines einzelnen Vektors (MIPS) umwandelt, indem er festdimensionale Kodierungen (FDEs) erstellt. Dies verbessert die Effizienz erheblich, ohne die Genauigkeit zu beeinträchtigen. Die Open-Source-Implementierung ist auf GitHub verfügbar.

Meta gewinnt Urheberrechtsstreit: Strategischer, nicht rechtlicher Sieg

2025-06-26
Meta gewinnt Urheberrechtsstreit: Strategischer, nicht rechtlicher Sieg

Meta Platforms Inc. entging einem wegweisenden Urheberrechtsprozess von Autoren, die behaupteten, dass Metas generatives KI-Modell Llama Millionen urheberrechtlich geschützter Bücher ohne Erlaubnis zum Training verwendet habe. Ein Bundesrichter in San Francisco entschied, dass Metas Vorgehen unter die Fair-Use-Regelung fällt, warnte aber, dass dies auf die ineffektive Prozessführung der Kläger zurückzuführen sei. Das Urteil bestätigt nicht, dass Metas Verwendung urheberrechtlich geschützter Materialien für das KI-Training allgemein legal ist.

Lovable: Wie ein KI-Codegenerator in 7 Monaten 75 Millionen US-Dollar ARR erreichte

2025-06-25
Lovable: Wie ein KI-Codegenerator in 7 Monaten 75 Millionen US-Dollar ARR erreichte

Lovable, ein beeindruckendes KI-Tool zur Codegenerierung, hat innerhalb von nur 7 Monaten einen ARR von 75 Millionen US-Dollar erreicht. Dieser Artikel untersucht die Monetarisierungsstrategie und hebt die Herausforderungen des aktuellen kreditbasierten Preismodells hervor. Es werden verschiedene potenzielle Wege zur Steigerung der Einnahmen vorgeschlagen, darunter die Fokussierung auf Agenturen und Produktmanager, die wiederkehrende Prototyping-Dienste benötigen, das Hinzufügen von Funktionen, Partnerschaften mit anderen Anbietern, die Erstellung eines App Stores und die Einrichtung eines Marktes für KI-Agenten. Der Artikel kommt zu dem Schluss, dass der langfristige Erfolg von Lovable von seiner Fähigkeit abhängt, von einem einfachen Prototyping-Tool zu einer umfassenden SaaS-Plattform zu werden, ähnlich wie Shopify, die umfassende Unterstützung für Softwareentwickler bietet.

Umfrage zur Nutzung von Google KI-Produkten: Tägliche Nutzung von Gemini und NotebookLM?

2025-06-25
Umfrage zur Nutzung von Google KI-Produkten: Tägliche Nutzung von Gemini und NotebookLM?

Ein Blogbeitrag enthält mehrere Instanzen derselben Umfrage, die darauf abzielt, die Häufigkeit der Nutzung von Google KI-Tools wie Gemini und NotebookLM durch Benutzer zu verstehen. Die Umfrage besteht aus einer einzigen Multiple-Choice-Frage, in der gefragt wird, wie oft Benutzer diese Tools verwenden: täglich, wöchentlich, monatlich, kaum jemals oder unsicher. Die Ergebnisse werden Google helfen, seine KI-Angebote zu verfeinern und die Bedürfnisse der Benutzer besser zu erfüllen.

Hugging Face Wissenschaftler bezweifelt die Fähigkeit von KI, wissenschaftliche Entdeckungen voranzutreiben

2025-06-25
Hugging Face Wissenschaftler bezweifelt die Fähigkeit von KI, wissenschaftliche Entdeckungen voranzutreiben

Thomas Wolf, Chef Wissenschaftler bei Hugging Face, zweifelt an der Fähigkeit aktueller KI-Systeme, die bahnbrechenden wissenschaftlichen Entdeckungen zu machen, die einige führende Labore erwarten. Während große Sprachmodelle (LLMs) hervorragend darin sind, Fragen zu beantworten, argumentiert Wolf, dass sie mit der schwierigeren Aufgabe kämpfen, wirklich originelle Fragen zu formulieren – der Kern des wissenschaftlichen Fortschritts. Er verwendet das Spiel Go als Analogie: Die Beherrschung der Regeln ist beeindruckend, aber die Erfindung des Spiels selbst ist eine viel größere Leistung. Ebenso ist er der Ansicht, dass aktuelle KI-Modelle, die als „Ja-Sager auf Servern“ fungieren, nicht in der Lage sind, bestehende Annahmen in Frage zu stellen und wirklich neue wissenschaftliche Fragen zu stellen.

4Real-Video-V2: Effizientes 4D-Video-Diffusionsmodell

2025-06-24

Snap Inc. und KAUST haben gemeinsam an 4Real-Video-V2 gearbeitet, einem 4D-Video-Diffusionsmodell auf Basis einer Feedforward-Architektur. Es berechnet effizient ein 4D-Raumzeitgitter von Videobildern und 3D-Gauß-Partikel für jeden Zeitschritt. Der Schlüssel ist ein spärliches Aufmerksamkeitsmuster, das es Token erlaubt, auf andere im selben Frame, zum selben Zeitstempel oder vom selben Blickwinkel zu achten. Dies macht es skalierbar für große vortrainierte Videomodelle, effizient zu trainieren und bietet eine gute Generalisierung, wobei signifikante Verbesserungen erzielt werden, ohne Parameter zum Basis-Videomodell hinzuzufügen.

Richter urteilt: Anthropics Verwendung von Büchern zum Trainieren von KI ist zulässig

2025-06-24
Richter urteilt: Anthropics Verwendung von Büchern zum Trainieren von KI ist zulässig

Ein Bundesrichter entschied, dass die Verwendung veröffentlichter Bücher durch Anthropic zum Trainieren seiner KI-Modelle ohne Erlaubnis der Autoren legal ist. Dies ist das erste Mal, dass Gerichte die Behauptung von KI-Unternehmen anerkennen, dass die Doktrin der Fair Use KI-Unternehmen von der Schuld befreien kann, wenn sie urheberrechtlich geschütztes Material zum Trainieren von LLMs verwenden. Diese Entscheidung ist ein Rückschlag für Autoren, die Unternehmen wie OpenAI und Meta verklagen. Obwohl sie keinen universellen Präzedenzfall schafft, begünstigt sie Technologieunternehmen. Die Entscheidung hängt von der Auslegung der Fair-Use-Doktrin ab, die im Zeitalter der generativen KI veraltet ist. Es wird jedoch ein Prozess stattfinden, um den Gebrauch von Raubkopien durch Anthropic zur Erstellung seiner „Zentralbibliothek“ urheberrechtlich geschützter Werke zu untersuchen, was sich möglicherweise auf den Schadensersatz auswirkt.

KI

MCP: Die LLM-Schnittstelle, die möglicherweise wirklich bleibt

2025-06-24
MCP: Die LLM-Schnittstelle, die möglicherweise wirklich bleibt

Trotz des Hypes ist das Model Context Protocol (MCP) keine Magie. Aber es ist einfach, zeitgemäß und gut umgesetzt. Bei Stainless setzen wir darauf, dass es bleibt. Frühere Versuche, LLMs mit der Welt zu verbinden – Funktionsaufrufe, ReAct/LangChain, ChatGPT-Plugins, benutzerdefinierte GPTs, AutoGPT – waren umständlich, fehleranfällig oder begrenzt. Der Erfolg von MCP beruht auf: 1. Die Modelle sind endlich gut genug, um komplexe Workflows zuverlässig zu bewältigen; 2. Das Protokoll ist gut genug und bietet einen anbieterneutralen Standard; 3. Die Tools sind gut genug, mit einfach zu verwendenden SDKs; 4. Die Dynamik ist gut genug, mit der Akzeptanz durch große Akteure und die Community. MCP vereinfacht die Entwicklung von Tools und Agents, fördert die Wiederverwendung von Tools und das Wachstum des Ökosystems. Es ist bereit, der zukünftige Standard für LLM-APIs zu werden.

KI

Anthropics Fair-Use-Verteidigung: Ein wichtiges Urteil im Urheberrechtsstreit der KI

2025-06-24

Ein kalifornisches Gericht hat in einem Urheberrechtsprozess teilweise zugunsten von Anthropic entschieden, der sich auf die Verwendung urheberrechtlich geschützter Bücher zum Trainieren seiner KI-Modelle bezieht. Das Gericht stellte fest, dass die Verwendung von gekauften Büchern durch Anthropic zum Training und die Umwandlung von gedruckten in digitale Formate einen „Fair Use“ darstellten, die Verwendung von Raubkopien jedoch nicht. Dieses Urteil hat erhebliche Auswirkungen auf die KI-Industrie und bestätigt die zulässige Nutzung legal beschafften, urheberrechtlich geschützten Materials zum Trainieren von KI-Modellen, während gleichzeitig die Bedeutung der legalen Datenbeschaffung hervorgehoben wird. Ein Prozess wird folgen, um den Schadenersatz für die Verwendung von Raubkopien festzulegen, was sich möglicherweise erheblich auf die Datenbeschaffungsstrategien von KI-Unternehmen auswirken wird.

KI

Die bittere Lektion trifft die Tokenisierung: Ein neues Zeitalter für LLMs?

2025-06-24
Die bittere Lektion trifft die Tokenisierung: Ein neues Zeitalter für LLMs?

Dieser Beitrag befasst sich mit dem weit verbreiteten Problem der „Tokenisierung“ in großen Sprachmodellen (LLMs) und untersucht mögliche Lösungen. Traditionelle Tokenisierungsmethoden wie Byte-Pair Encoding (BPE) komprimieren zwar effektiv Vokabulare, schränken aber die Ausdrucksfähigkeit des Modells ein und führen zu verschiedenen nachgelagerten Problemen. Der Artikel analysiert verschiedene Architekturen, die versuchen, die Tokenisierung zu umgehen, darunter ByT5, MambaByte und Hourglass Transformers, und konzentriert sich auf den kürzlich erschienenen Byte Latent Transformer (BLT). BLT partitioniert dynamisch Byte-Sequenzen, kombiniert lokale Encoder und einen globalen Transformer, um in rechnerisch eingeschränkten Umgebungen eine bessere Leistung und Skalierbarkeit als traditionelle Modelle zu erzielen, wobei es insbesondere bei Aufgaben auf Zeichenebene hervorragende Leistungen zeigt. Obwohl BLT Herausforderungen mit sich bringt, weist diese Forschung auf eine neue Richtung für die Entwicklung von LLMs hin und könnte ein Zeitalter ohne Tokenisierung einläuten.

KI

Riesiges Robotik-Projekt dankt hunderten von Mitwirkenden

2025-06-24
Riesiges Robotik-Projekt dankt hunderten von Mitwirkenden

Ein großes Robotik-Projekt hat eine lange Liste von Danksagungen veröffentlicht und hunderte von Mitwirkenden – Forscher, Ingenieure und Betriebspersonal – für ihren Beitrag zum Erfolg des Projekts gewürdigt. Die Liste umfasst Experten aus der ganzen Welt und zeigt das riesige kollaborative Netzwerk hinter dem Projekt.

KI

Kritik des KI-2027-Superintelligenz-Vorhersagemodells

2025-06-23
Kritik des KI-2027-Superintelligenz-Vorhersagemodells

Der Artikel "KI 2027" prognostiziert die Ankunft einer superintelligenten KI bis 2027 und löst eine breite Debatte aus. Basierend auf dem KI-Entwicklungsmodell des METR-Berichts und einem Kurzgeschichten-Szenario sagen die Autoren die kurzfristige Erreichung übermenschlicher Codierfähigkeiten voraus. Diese Kritik argumentiert jedoch, dass das Hauptmodell gravierende Mängel aufweist, wobei die übermäßige Abhängigkeit von einer superexponentiellen Wachstumskurve, die unzureichende Behandlung von Parameterunsicherheiten und die selektive Verwendung wichtiger Datenpunkte genannt werden. Die Kritik schlussfolgert, dass dem Modell empirische Validierung und eine rigorose theoretische Grundlage fehlen, was zu übermäßig optimistischen und wenig überzeugenden Schlussfolgerungen führt – eine mahnend Beispiel für Technologieprognosen.

Richter weist Benutzereingriff in KI-Chatbot-Datenschutzfall zurück

2025-06-23
Richter weist Benutzereingriff in KI-Chatbot-Datenschutzfall zurück

Ein Richter ordnete einem KI-Chatbot-Unternehmen an, Benutzer-Chatprotokolle in einem Rechtsstreit aufzubewahren, was Bedenken hinsichtlich des Datenschutzes aufwirft. Der Benutzer Hunt argumentierte, dass die Anordnung zu weit gefasst sei und möglicherweise zu einer Massenüberwachung führe, und forderte Ausnahmen für sensible Informationen wie anonyme Chats und Gespräche über medizinische, finanzielle und persönliche Themen. Der Richter wies Hunts Antrag auf Intervention zurück und betonte den begrenzten Umfang der Anordnung auf Rechtsstreitigkeiten und nicht auf Massenüberwachung. Dieser Fall unterstreicht die rechtlichen Herausforderungen im Zusammenhang mit dem Datenschutz von KI-Chatbots und die mangelnde Kontrolle der Benutzer über ihre Daten.

Das Ende der KI-Lifestyle-Subvention: Warum Ihre digitale Erfahrung schlechter werden wird

2025-06-23

Risikokapital und niedrige Zinssätze haben einst das schnelle Wachstum von Startups angeheizt, selbst wenn sie bei jedem Verkauf Geld verloren haben. Jetzt fließt dieses Geld in LLM-basierte Produkte, aber diese Subvention ist nicht nachhaltig. Suchmaschinen und soziale Medien sind mit Werbung überfüllt, was die Qualität der Informationen mindert. KI-Entdeckungsmechanismen stehen vor dem gleichen Problem. Die Zukunft wird wahrscheinlich KI-Anwendungen sehen, die mit Werbung übersättigt sind, möglicherweise einschließlich "Black-Hat-GEO", was es schwierig macht, zwischen KI-Halluzinationen und bezahlten Werbeaktionen zu unterscheiden. Während kostenpflichtige Dienste und Open-Source-Modelle Ausnahmen sein können, werden die meisten KI-Anwendungen für Verbraucher unweigerlich von Werbung überschwemmt werden. Genießen Sie es, solange es noch da ist, denn die KI-Lifestyle-Subvention geht zu Ende.

Verteidigung akademischer Disziplinen: Wissenssilos im Zeitalter der KI

2025-06-21
Verteidigung akademischer Disziplinen: Wissenssilos im Zeitalter der KI

Dieser Artikel hinterfragt die Idee, akademische Silos aufzubrechen, und argumentiert, dass Disziplinen wie Getreidesilos funktionieren und die Integrität und Qualität von Wissen bewahren. Anhand der Erfindung des Silos im 19. Jahrhundert veranschaulicht der Autor die Bedeutung von spezialisiertem Wissen in der Wissensproduktion. Im Zeitalter der KI ist disziplinäres Wissen entscheidend, um KI-Halluzinationen zu bekämpfen und die Genauigkeit von Daten zu gewährleisten. Die Breite der KI benötigt die Tiefe, die durch spezialisierte Forschung bereitgestellt wird, während interne akademische Debatten und Selbstkorrektur die Abhängigkeit von veralteten oder voreingenommenen Informationen verhindern. Der Autor kommt zu dem Schluss, dass der Abbau akademischer Silos zu intellektuellem Verfall und Knappheit führen wird.

AllTracker: Effizientes, dichtes Punkt-Tracking in hoher Auflösung

2025-06-21

AllTracker schätzt langreichweitige Punkt-Trajektorien, indem es das Flussfeld zwischen einem Abfrage-Frame und jedem anderen Frame eines Videos berechnet. Im Gegensatz zu bestehenden Methoden erzeugt es hoch auflösende, dichte (alle Pixel) Korrespondenzfelder, die ein Tracking mit einer Auflösung von 768x1024 auf einer 40G-GPU ermöglichen. Anstatt einer Frame-für-Frame-Verarbeitung verarbeitet AllTracker gleichzeitig ein Fenster von Fluss-Problemen, wodurch die Schätzung des Langzeitflusses deutlich verbessert wird. Dieses effiziente Modell (16 Millionen Parameter) erreicht eine Spitzengenauigkeit und profitiert von der Ausbildung auf einem vielfältigen Datensatz.

Weave sucht seinen Gründungskünstliche-Intelligenz-Ingenieur!

2025-06-21
Weave sucht seinen Gründungskünstliche-Intelligenz-Ingenieur!

Das gut finanzierte Startup Weave sucht einen herausragenden KI-Ingenieur, um eine KI zu entwickeln, die die Arbeitsabläufe in der Softwareentwicklung versteht und verbessert. Sie berichten direkt an den CTO und CEO und bauen Prozesse und Standards von Grund auf neu auf, mit dem Ziel, ein Produkt zu schaffen, das Kunden begeistert, indem es ihre Arbeit um das Zehnfache erleichtert. Potenzial und Beharrlichkeit werden höher bewertet als spezifische Fähigkeiten; zu den wichtigsten Voraussetzungen gehören Pragmatismus, Empathie, exzellente Kommunikationsfähigkeiten und ein Engagement für Weiterentwicklung. Erfahrung mit React, TypeScript, Go oder Python ist von Vorteil. Werden Sie Teil eines schnell wachsenden und profitablen Teams!

Durchbruch bei HIV-Impfstoff: Einzeldosis löst starke Immunantwort aus

2025-06-21
Durchbruch bei HIV-Impfstoff: Einzeldosis löst starke Immunantwort aus

Forscher am MIT und am Scripps Research Institute haben gezeigt, dass eine einzelne Impfdosis, verstärkt durch zwei starke Adjuvantien, eine starke Immunantwort gegen HIV auslösen kann. Bei Mäusen erzeugte dieser Ansatz mit zwei Adjuvantien eine deutlich größere Vielfalt an Antikörpern im Vergleich zu Impfstoffen mit nur einem Adjuvans oder ohne Adjuvans. Der Impfstoff blieb bis zu einem Monat in den Lymphknoten, wodurch eine größere Anzahl von Antikörpern gebildet werden konnte. Diese Strategie ist vielversprechend für die Entwicklung von Impfstoffen mit Einzeldosis für verschiedene Infektionskrankheiten, darunter HIV und SARS-CoV-2.

1 2 8 9 10 12 14 15 16 51 52