Category: KI

Boston Dynamics arbeitet mit dem RAI-Institut zusammen, um das Reinforcement Learning des Atlas-Roboters zu verbessern

2025-02-06
Boston Dynamics arbeitet mit dem RAI-Institut zusammen, um das Reinforcement Learning des Atlas-Roboters zu verbessern

Boston Dynamics gab eine Partnerschaft mit seinem eigenen Institut für Robotik und KI (RAI-Institut) bekannt, um Reinforcement Learning zu nutzen und die Fähigkeiten seines elektrischen humanoiden Roboters Atlas zu verbessern. Die Zusammenarbeit zielt darauf ab, das Erlernen neuer Aufgaben durch Atlas zu beschleunigen und seine Bewegung und Interaktion in realen Umgebungen zu verbessern, wie z. B. dynamisches Laufen und die Manipulation schwerer Objekte. Dies stellt einen bedeutenden Fortschritt im Reinforcement Learning für die Robotik dar und unterstreicht die Bedeutung der vertikalen Integration von Roboter-KI, was die Entscheidung von Figure AI widerspiegelt, seine Partnerschaft mit OpenAI aufzugeben.

Dekonstruktion komplexer Systeme mit Meriologie: Über einfache Kausalität hinaus

2025-02-06

Dieser Artikel präsentiert einen neuen Ansatz zum Verständnis höherer Ordnung in komplexen Systemen, basierend auf der Meriologie, einem Zweig der Mengenlehre. Anhand der Borromäischen Ringe wird veranschaulicht, wie das Ganze mehr sein kann als die Summe seiner Teile. Der Autor schlägt vor, durch die Konstruktion einer Meriologie eines Systems und die Anwendung der Möbius-Inversionsformel makroskopische Größen in Summen mikroskopischer Beiträge zu zerlegen und so die Natur höherer Ordnung aufzudecken. Beispiele aus Geninteraktionen und gegenseitiger Information in der Informationstheorie demonstrieren die Anwendung der Methode mit vielversprechenden Implikationen für maschinelles Lernen und Physik.

Vier Ansätze zum Bau von Reasonierungsmodellen für LLMs

2025-02-06
Vier Ansätze zum Bau von Reasonierungsmodellen für LLMs

Dieser Artikel untersucht vier Hauptansätze zur Verbesserung von Large Language Models (LLMs) mit Reasonierungsfähigkeiten: Inferenzzeit-Skalierung, reines Reinforcement Learning, überwachtes Feintuning plus Reinforcement Learning und Modelldestillation. Die Entwicklung von DeepSeek R1 wird als Fallstudie verwendet, die zeigt, wie diese Methoden leistungsstarke Reasonierungsmodelle erstellen können und wie selbst Forscher mit begrenztem Budget durch Destillation beeindruckende Ergebnisse erzielen können. Der Artikel vergleicht auch DeepSeek R1 mit OpenAIs o1 und diskutiert Strategien zum Erstellen kostengünstiger Reasonierungsmodelle.

KI

KI-Agent lernt, Computer wie ein Mensch zu benutzen

2025-02-06
KI-Agent lernt, Computer wie ein Mensch zu benutzen

Das Projekt r1-computer-use zielt darauf ab, einen KI-Agenten zu trainieren, der mit einem Computer wie ein Mensch interagiert, einschließlich Dateisystemen, Webbrowsern und Kommandozeilen. Inspiriert von den Reinforcement-Learning-Techniken von DeepSeek-R1, ersetzt es traditionell fest codierte Verifikatoren durch ein neuronales Belohnungsmodell, um die Richtigkeit und Nützlichkeit der Aktionen des Agenten zu bewerten. Die Trainingspipeline umfasst mehrere Phasen, von Expertendemonstrationen bis hin zur belohnungsmodellgesteuerten Richtlinienoptimierung und Feinabstimmung, mit dem endgültigen Ziel, einen sicheren und zuverlässigen KI-Agenten zu schaffen, der komplexe Aufgaben bewältigen kann.

KI-Reasoning-Modell für unter 50 $ konkurriert mit Spitzentechnologie

2025-02-06
KI-Reasoning-Modell für unter 50 $ konkurriert mit Spitzentechnologie

Forscher von Stanford und der University of Washington trainierten ein KI-Reasoning-Modell, s1, für unter 50 $ mit Cloud-Computing. Die Leistung von s1 ist vergleichbar mit Spitzentechnologie-Modellen wie OpenAIs o1 und DeepSeks R1 bei mathematischen und Codierungsaufgaben. Das Team nutzte Wissensdestillation, wobei Googles Gemini 2.0 Flash Thinking Experimental als Lehrermodell und ein Datensatz von 1000 sorgfältig kuratierten Fragen verwendet wurden. Diese kostengünstige Replikation wirft Fragen zur Kommerzialisierung von KI auf und hat angeblich große KI-Labore verärgert.

Der Kinetoskop der 1890er: Ein Vorläufer der Einsamkeit der KI?

2025-02-05
Der Kinetoskop der 1890er: Ein Vorläufer der Einsamkeit der KI?

Dieser Artikel zieht Parallelen zwischen dem Einzelnutzer-Kinetoskop der 1890er Jahre und der heutigen KI-Technologie, insbesondere großen Sprachmodellen. Der Artikel argumentiert, dass beide Technologien, obwohl sie massenproduzierte Inhalte liefern, eine gleichzeitig vernetzte und atomisierte Erfahrung schaffen, die zu einer neuen Art von technologischer Einsamkeit führt. Der Autor untersucht den historischen Kontext von Edisons Erfindung und seine überraschend vorausschauende Designentscheidung und hebt die unheimliche Ähnlichkeit mit unserer heutigen Abhängigkeit von personalisierten algorithmischen Feeds und KI-Begleitern hervor. Dies regt zum Nachdenken über die Richtung des technologischen Fortschritts und seine Auswirkungen auf die individuelle Erfahrung an.

KI

Herkulaner Papyrus 5: Durchbruch bei der Tinten-Erkennung

2025-02-05
Herkulaner Papyrus 5: Durchbruch bei der Tinten-Erkennung

Es wurden bedeutende Fortschritte bei der Tinten-Erkennung und Segmentierung von P.Herc. 172 aus den Bodleian Libraries in Oxford (Rolle 5) erzielt. Die Rolle weist ungewöhnlich gut sichtbare Tinte auf, was das Training von Modellen zur Tinterkennung erheblich erleichtert. Obwohl die Segmentierung noch verbessert werden muss, deuten vorläufige Analysen auf Philodemos als Autor hin, wobei Wörter wie „Ekel“, „Angst“ und „Leben“ identifiziert wurden, sowie Symbole, die auf ein fertiges Werk hinweisen. Die einzigartigen Merkmale von Rolle 5 bieten das Potenzial als „Stein von Rosetta“ für die Tinten-Erkennung in anderen Rollen. Das Team hat umfangreiche Segmentierungsdaten veröffentlicht, um die Forschung zu erleichtern.

Gemini 2.0-Familie erhält großes Update: Verbesserte Leistung und multimodale Fähigkeiten

2025-02-05
Gemini 2.0-Familie erhält großes Update: Verbesserte Leistung und multimodale Fähigkeiten

Google hat seine Gemini 2.0-Modellfamilie deutlich aktualisiert! Das 2.0 Flash-Modell ist jetzt allgemein über die API verfügbar, sodass Entwickler Produktionsanwendungen erstellen können. Eine experimentelle Version von 2.0 Pro, die sich durch überragende Codierungsleistung und die Fähigkeit auszeichnet, komplexe Eingabeaufforderungen mit einem Kontextfenster von 2 Millionen Token zu verarbeiten, wurde ebenfalls veröffentlicht. Ein kostengünstiges 2.0 Flash-Lite-Modell befindet sich jetzt in der öffentlichen Vorschau. Alle Modelle unterstützen derzeit multimodale Eingaben mit Textausgabe, weitere Modalitäten werden in den kommenden Monaten hinzugefügt. Dieses Update verbessert die Leistung erheblich und erweitert die Anwendbarkeit, was einen großen Schritt für Gemini in der KI-Landschaft darstellt.

Der Netflix-Preis: Ein Meilenstein und eine bittere Lektion im maschinellen Lernen

2025-02-05
Der Netflix-Preis: Ein Meilenstein und eine bittere Lektion im maschinellen Lernen

Im Jahr 2006 startete Netflix einen Wettbewerb mit einem Preisgeld von einer Million Dollar, um sein Empfehlungssystem zu verbessern. Dieser Wettbewerb zog Tausende von Teams an und brachte den Bereich des maschinellen Lernens deutlich voran. Die Ergebnisse zeigten, dass einfache Algorithmen überraschend gut funktionieren konnten, größere Modelle bessere Ergebnisse erzielten und Overfitting nicht immer ein Problem darstellte. Der Wettbewerb lieferte jedoch auch eine bittere Lektion: Bedenken hinsichtlich des Datenschutzes führten dazu, dass Netflix zukünftige Wettbewerbe absagte, die offene Forschung an Algorithmen für Empfehlungssysteme einschränkte, und die Kontrolle von Technologieunternehmen über Daten erreichte ein beispielloses Niveau.

KI

6-Dollar-KI-Modell erschüttert die LLM-Landschaft: Vorstellung von S1

2025-02-05
6-Dollar-KI-Modell erschüttert die LLM-Landschaft: Vorstellung von S1

Ein neuer Artikel enthüllt S1, ein KI-Modell, das für nur 6 Dollar trainiert wurde und dennoch nahezu State-of-the-Art-Leistung erreicht, während es auf einem normalen Laptop läuft. Das Geheimnis liegt in der genialen Methode des 'Inferenzzeit-Skalierens': Durch das Einfügen von 'Warte'-Befehlen während des Denkprozesses des LLMs wird die Denkzeit gesteuert und die Leistung optimiert. Dies spiegelt die Entropix-Technik wider, bei der beide die internen Zustände des Modells manipulieren, um es zu verbessern. Die extreme Datensparsamkeit von S1, die nur 1000 sorgfältig ausgewählte Beispiele verwendet, liefert überraschend gute Ergebnisse und eröffnet neue Wege für die KI-Forschung. Es entfacht auch Debatten über Modelldestillation und geistiges Eigentum. Die niedrigen Kosten und die hohe Effizienz von S1 deuten auf ein schnelleres Tempo der KI-Entwicklung hin.

Toma: Aufbau einer KI-Belegschaft für die 1,5 Billionen Dollar schwere Automobilindustrie

2025-02-05
Toma: Aufbau einer KI-Belegschaft für die 1,5 Billionen Dollar schwere Automobilindustrie

Toma baut eine durchgängige KI-Belegschaft für die 1,5 Billionen Dollar schwere Automobilindustrie auf. Ihre größten Kunden geben jährlich über 1,5 Milliarden Dollar für Prozesse aus, die sich leicht mit KI automatisieren lassen, darunter Kundenservice, Reparaturbestellmanagement, Garantieabwicklung und Vertrieb. Das Toma-Team verfügt über eine nachgewiesene Erfolgsbilanz beim Aufbau und Verkauf erfolgreicher KI-Anwendungen, ein erstklassiges Sprach-KI-Produkt und umfassende praktische Erfahrungen aus der direkten Zusammenarbeit mit und dem Studium von Autohäusern. Sie arbeiten teamorientiert, verantwortungsbewusst, legen Wert auf datengestützte Entscheidungen und bieten erhebliche Autonomie. Toma befindet sich im San Franciscoer Stadtteil Dogpatch und bietet ein schnelles, unkompliziertes Umfeld, in dem außergewöhnliche Menschen einen erheblichen Einfluss haben können. Sie arbeiten fünf Tage die Woche im Büro.

KI

Google entfernt Zusage, keine KI für Waffen und Überwachung zu entwickeln

2025-02-04
Google entfernt Zusage, keine KI für Waffen und Überwachung zu entwickeln

Google hat diese Woche stillschweigend eine Zusage von seiner Website entfernt, keine KI für Waffen oder Überwachung zu entwickeln. Die Änderung, die zuerst von Bloomberg berichtet wurde, löste Kontroversen aus. Obwohl Google nun verantwortungsvolle KI-Entwicklung betont, die mit dem Völkerrecht und den Menschenrechten übereinstimmt, werfen seine Verträge mit dem US- und israelischen Militär, zusammen mit Behauptungen des Pentagons, dass Googles KI die militärische „Todeskette“ beschleunigt, Bedenken hinsichtlich der Diskrepanz zwischen seinen erklärten Prinzipien und seinen Handlungen auf. Interne Proteste von Mitarbeitern und öffentliche Prüfung heben die ethischen Dilemmata hervor, die den Entwicklung und Einsatz von KI umgeben.

Die Alchemie des effizienten Trainings von LLMs: Über die Grenzen der Rechenleistung hinaus

2025-02-04

Dieser Artikel untersucht eingehend das effiziente Training großer Sprachmodelle (LLMs) in großem Maßstab. Der Autor argumentiert, dass selbst mit zehntausenden von Beschleunigern relativ einfache Prinzipien die Modellleistung erheblich verbessern können. Behandelte Themen sind die Bewertung der Modellleistung, die Auswahl von Parallelisierungsschemata in verschiedenen Maßstäben, die Schätzung der Kosten und der Zeit für das Training großer Transformer-Modelle und die Entwicklung von Algorithmen, die die spezifischen Vorteile der Hardware nutzen. Durch detaillierte Erklärungen der TPU- und GPU-Architekturen und eine gründliche Analyse der Transformer-Architektur erhalten die Leser ein besseres Verständnis der Skalierungsengpässe und können effizientere Modelle und Algorithmen entwickeln.

OmniHuman-1: Überdenken der Skalierung von einstufigen konditionierten menschlichen Animationsmodellen

2025-02-04

OmniHuman-1 ist ein KI-Modell, das realistische menschliche Videos generieren kann. Es unterstützt verschiedene visuelle und Audio-Stile und generiert Videos in beliebigem Seitenverhältnis und Körperproportionen (Porträt, Halbfigur, Ganzkörper). Der Realismus ergibt sich aus umfassenden Bewegungs-, Licht- und Texturdetails. Das Modell verarbeitet diverse Eingaben, einschließlich Gesang, Sprache und verschiedene Posen, sogar aus Cartoons oder herausfordernden Perspektiven. Es nutzt Audio- und Video-Steuersignale für präzise Steuerung. Ethische Aspekte werden berücksichtigt, wobei Bilder und Audio aus öffentlichen Quellen oder von generierten Modellen stammen.

Radiant Foam: Durchbruch beim differenzierbaren Raytracing in Echtzeit

2025-02-04

Forscher stellen Radiant Foam vor, eine neuartige Szenendarstellung, die die Effizienz des volumetrischen Mesh-Raytracings mit der Rekonstruktionsqualität von Splatting-Methoden kombiniert. Durch die Nutzung von Voronoi-Diagrammen und Delaunay-Triangulation erreicht Radiant Foam Echtzeit-Raytracing, das sogar hardwarebeschleunigtes Gaußsches Raytracing in der Geschwindigkeit übertrifft und gleichzeitig die Rekonstruktionsqualität von Gaußschen Splatting-Methoden fast erreicht. Es vermeidet komplexe Beschleunigungsstrukturen und spezielle Hardware/APIs und benötigt lediglich eine standardmäßige programmierbare GPU. Dieser Durchbruch verspricht, das Echtzeit-Rendering deutlich voranzubringen.

OpenAI schließt 3-Milliarden-Dollar-Deal mit SoftBank ab und könnte Modelle Open Source machen

2025-02-04
OpenAI schließt 3-Milliarden-Dollar-Deal mit SoftBank ab und könnte Modelle Open Source machen

OpenAI gab am Montag ein Joint Venture mit SoftBank Japan bekannt, wobei der Investmentriese 3 Milliarden Dollar pro Jahr für die Nutzung der OpenAI-Software ausgibt. Dieser Strategiewechsel scheint eine Reaktion auf den unerwarteten Aufstieg von DeepSeek zu sein. Das hochmoderne KI-Modell des chinesischen Unternehmens benötigt nur einen Bruchteil der Rechenleistung von OpenAIs ChatGPT und ähnlichen Produkten und stellt die weit verbreiteten Annahmen über die technischen und finanziellen Anforderungen der KI-Expansion in Frage. Inzwischen sagte OpenAI-CEO Sam Altman, er erwäge, seine Produkte Open Source zu machen, wie die von DeepSeek, was möglicherweise bedeuten würde, dass jeder die Modelle von OpenAI verwenden und weiterverwenden könnte: Altman sagte auf Reddit, OpenAI sei „auf der falschen Seite der Geschichte“ gewesen, indem es seinen Quellcode privat gehalten habe.

Bonobos zeigen, dass sie Unwissenheit verstehen: Ein Durchbruch in der Forschung zur Theory of Mind

2025-02-04
Bonobos zeigen, dass sie Unwissenheit verstehen: Ein Durchbruch in der Forschung zur Theory of Mind

Eine neue Studie zeigt, dass Bonobos über eine Theory of Mind verfügen und den Wissensmangel anderer verstehen und entsprechend handeln. Die Forscher entwickelten ein Experiment, bei dem Bonobos einem Experimentator halfen, versteckte Leckereien zu finden. Die Ergebnisse zeigten, dass die Bonobos schneller und häufiger zeigten, wenn sie erkannten, dass der Experimentator den Ort der Leckerei nicht kannte. Dies deutet darauf hin, dass Bonobos verschiedene Perspektiven verfolgen und darauf reagieren, was darauf hindeutet, dass die Theory of Mind älter sein könnte als bisher angenommen und möglicherweise bei unserem gemeinsamen Vorfahren vorhanden war.

KI

Auto-AVSR: Open-Source Framework für Lippenlesende Spracherkennung

2025-02-03
Auto-AVSR: Open-Source Framework für Lippenlesende Spracherkennung

Auto-AVSR ist ein Open-Source-Framework für die Ende-zu-Ende Audio-Visuelle Spracherkennung (AV-ASR) mit Fokus auf visuelle Sprache (Lippenlesen). Es erreicht eine Wortfehlerquote (WER) von 20,3 % für die visuelle Spracherkennung (VSR) und 1,0 % für die Audio-Spracherkennung (ASR) auf dem LRS3-Benchmark. Es bietet Code und Tutorials für Training, Evaluierung und API-Nutzung und unterstützt Multi-Node-Training. Benutzer können vortrainierte Modelle verwenden oder von Grund auf trainieren und Hyperparameter nach Bedarf anpassen.

OpenEuroLLM: Europa fördert mehrsprachige Open-Source-LLMs

2025-02-03

Ein Konsortium aus 20 führenden europäischen Forschungsinstitutionen und Unternehmen hat OpenEuroLLM gestartet, ein Projekt zum Aufbau einer Reihe leistungsstarker, mehrsprachiger Large Language Models (LLMs). Die Initiative zielt darauf ab, die Wettbewerbsfähigkeit Europas im Bereich KI zu stärken, indem der Zugang zu hochwertigen KI-Technologien durch Open-Source-Prinzipien demokratisiert wird. Dies wird es europäischen Unternehmen und öffentlichen Organisationen ermöglichen, wirkungsvolle Produkte und Dienstleistungen zu entwickeln. OpenEuroLLM arbeitet innerhalb des europäischen Rechtsrahmens und arbeitet mit Open-Source-Communitys zusammen, um die vollständige Offenheit von Modellen, Software, Daten und Evaluierung zu gewährleisten und so die unterschiedlichen Bedürfnisse des öffentlichen und privaten Sektors zu erfüllen, während die sprachliche und kulturelle Vielfalt gewahrt bleibt.

KI

Verlorenes IBM-Schulungsdokument: Computer können nicht zur Rechenschaft gezogen werden (1979)

2025-02-03
Verlorenes IBM-Schulungsdokument: Computer können nicht zur Rechenschaft gezogen werden (1979)

Eine legendäre Seite aus einer internen IBM-Schulung von 1979 tauchte online wieder auf und erklärte: „Ein Computer kann niemals zur Rechenschaft gezogen werden; daher darf ein Computer niemals eine Managemententscheidung treffen.“ Die Originalquelle ist verloren gegangen, angeblich durch eine Überschwemmung zerstört. Diese Aussage findet in unserem von KI geprägten Zeitalter starken Widerhall und regt zur Reflexion über Verantwortung und Entscheidungsfindung von KI an.

s1: Einfache Testzeit-Skalierung für starke Inferenzleistung

2025-02-03
s1: Einfache Testzeit-Skalierung für starke Inferenzleistung

Dieser Artikel stellt s1 vor, eine einfache Testzeit-Skalierungsmethode, die eine starke Inferenzleistung erreicht, die mit o1-preview mithalten kann, und zwar mit nur 1.000 Beispielen und Budget-Forcing. Die Methode verbessert die Leistung großer Sprachmodelle durch clevere Testzeit-Strategien deutlich. Der Code und die Daten sind Open Source, um die Reproduzierbarkeit und weitere Erforschung zu ermöglichen.

Anthropics konstitutionelle Klassifikatoren: Eine neue Verteidigung gegen KI-Jailbreaks

2025-02-03
Anthropics konstitutionelle Klassifikatoren: Eine neue Verteidigung gegen KI-Jailbreaks

Das Anthropic Safeguards Research Team stellt konstitutionelle Klassifikatoren vor, eine neue Verteidigung gegen KI-Jailbreaks. Dieses System, das mit synthetischen Daten trainiert wurde, filtert effektiv schädliche Ausgaben, wobei falsch positive Ergebnisse minimiert werden. Ein Prototyp hielt Tausenden von Stunden menschlichem Red Teaming stand und reduzierte die Erfolgsrate von Jailbreaks deutlich, obwohl es anfänglich unter hohen Ablehnungsraten und hohem Rechenaufwand litt. Eine aktualisierte Version behält die Robustheit bei, mit nur einem geringfügigen Anstieg der Ablehnungsrate und moderaten Rechenkosten. Eine temporäre Live-Demo lädt Sicherheitsexperten ein, die Widerstandsfähigkeit zu testen und den Weg für eine sicherere Bereitstellung immer leistungsfähigerer KI-Modelle zu ebnen.

Klarity: Unsicherheit in generativen Modellen aufdecken

2025-02-03
Klarity: Unsicherheit in generativen Modellen aufdecken

Klarity ist ein Tool zur Analyse der Unsicherheit in den Ausgaben generativer Modelle. Es kombiniert die Analyse von Rohwahrscheinlichkeiten und semantische Analyse, um tiefe Einblicke in das Verhalten des Modells während der Textgenerierung zu liefern. Die Bibliothek bietet eine Dual-Entropie-Analyse, semantische Clusterbildung und strukturierte JSON-Ausgabe sowie KI-gestützte Analysen für menschenlesbare Erkenntnisse. Derzeit wird Hugging Face Transformers unterstützt, mit Plänen für die Unterstützung weiterer Frameworks und Modelle.

Wahrnehmungsgerechtes dynamisches Gesichtsprojektionsmapping: Hochgeschwindigkeits-Tracking und koaxiale Einrichtung

2025-02-03
Wahrnehmungsgerechtes dynamisches Gesichtsprojektionsmapping: Hochgeschwindigkeits-Tracking und koaxiale Einrichtung

Forscher haben ein neuartiges, hochgeschwindigkeitsfähiges dynamisches Gesichtsprojektionsmapping-System (DFPM) entwickelt, das Artefakte durch Fehlausrichtung deutlich reduziert. Dies wird durch eine Hochgeschwindigkeits-Gesichtsverfolgungsmethode erreicht, die eine auf beschnittene Bereiche beschränkte interpolierende/extrapolatorische Gesichtserkennung und ein schnelles Ensemble von Regressionsbäumen (ERT) zur Landmarkenerkennung (0,107 ms) verwendet. Eine koaxiale Projektor-Kamera-Einrichtung mit Linsenshift erhält eine hohe optische Ausrichtung mit minimalem Fehler (1,274 Pixel zwischen 1 m und 2 m). Dieses System erreicht eine nahezu perfekte Ausrichtung und verbessert immersive Erlebnisse in den Bereichen Make-up und Unterhaltung.

Bayessche Erkenntnistheorie 101: Glaubenserwartungen, Evidenz und Rationalität

2025-02-03

Dieses Tutorial führt in die bayessche Erkenntnistheorie ein und konzentriert sich auf ihre Kernnormen: Probabilismus und das Prinzip der Konditionalisierung. Anhand von Eddington’s Sonnenfinsternisbeobachtung wird veranschaulicht, wie Bayes’sche Methoden den Glauben an Hypothesen aktualisieren. Das Tutorial untersucht dann Unstimmigkeiten innerhalb des Bayesianismus bezüglich a-priori-Wahrscheinlichkeiten, Kohärenz und des Umfangs der Konditionalisierung und präsentiert grundlegende Argumente wie holländische Buchargumente, Präzisionsdominanzargumente und Argumente aus vergleichender Wahrscheinlichkeit. Schließlich wird das Problem der Idealisierung und die Anwendung bayesscher Methoden in der Wissenschaft behandelt.

Reales Denken vs. Schein-Denken: Im Zeitalter der KI wach bleiben

2025-02-03
Reales Denken vs. Schein-Denken: Im Zeitalter der KI wach bleiben

Dieser Essay untersucht den Unterschied zwischen „wirklichem Denken“ und „Schein-Denken“. Der Autor argumentiert, dass „wirkliches Denken“ nicht einfach nur das Denken an konkrete Dinge ist, sondern eine tiefere, aufschlussreichere Denkweise, die sich auf ein wahres Verständnis der Welt konzentriert, anstatt in abstrakten Konzepten oder vorgegebenen Rahmen stecken zu bleiben. Anhand von Beispielen wie KI-Risiken, Philosophie und Wettkampfdebatten beschreibt der Essay verschiedene Dimensionen des „wirklichen Denkens“ und schlägt Methoden vor, um diese Fähigkeit zu kultivieren, wie z. B. langsamer werden, der Neugier folgen und auf die Motivationen hinter dem Denken achten. Der Autor appelliert daran, im Zeitalter der KI wach zu bleiben, die Fallen des „Schein-Denkens“ zu vermeiden und die kommenden Veränderungen wirklich zu verstehen und darauf zu reagieren.

TopoNets: Leistungsstarke Bild- und Sprachmodelle mit gehirnähnlicher Topographie

2025-02-03
TopoNets: Leistungsstarke Bild- und Sprachmodelle mit gehirnähnlicher Topographie

Forscher stellen TopoLoss vor, eine neue Methode zur Integration einer gehirnähnlichen Topographie in führende KI-Architekturen (Convolutional Networks und Transformer) bei minimalem Leistungsverlust. Die resultierenden TopoNets erreichen unter den überwachten topografischen neuronalen Netzen Spitzenleistungen. TopoLoss ist einfach zu implementieren, und Experimente zeigen, dass TopoNets eine hohe Leistung beibehalten, während sie eine gehirnähnliche räumliche Organisation aufweisen. Darüber hinaus liefern TopoNets sparsame, parametereffiziente Sprachmodelle und zeigen eine gehirnähnliche regionale Selektivität bei der Bilderkennung und zeitliche Integrationsfenster in Sprachmodellen, was die Muster widerspiegelt, die in der visuellen Kortex und den Sprachverarbeitungsbereichen des Gehirns beobachtet werden.

KI

OpenAIs Projekt 'Strawberry': Auf dem Weg zu tiefem Schlussfolgern in KI

2025-02-03
OpenAIs Projekt 'Strawberry': Auf dem Weg zu tiefem Schlussfolgern in KI

OpenAI entwickelt heimlich ein Projekt mit dem Codenamen "Strawberry", um die Grenzen der Schlussfolgerungsfähigkeiten aktueller KI-Modelle zu überwinden. Das Projekt zielt darauf ab, KI die Fähigkeit zu verleihen, autonom zu planen und tiefgehende Recherchen im Internet durchzuführen, anstatt lediglich Fragen zu beantworten. Interne Dokumente zeigen, dass das "Strawberry"-Modell eine spezielle Methode des Nachtrainings verwenden wird, kombiniert mit Fähigkeiten zum Selbstlernen und zur Planung, um komplexe Probleme zuverlässig zu lösen. Dies wird als bedeutender Durchbruch angesehen, der das Potenzial hat, die Rolle von KI in wissenschaftlichen Entdeckungen und der Softwareentwicklung zu revolutionieren, während gleichzeitig ethische Bedenken hinsichtlich der zukünftigen Fähigkeiten von KI aufgeworfen werden.

Chinesischer KI-Chatbot DeepSeek zensiert „Tank-Mann“-Foto und erschüttert US-Märkte

2025-02-02
Chinesischer KI-Chatbot DeepSeek zensiert „Tank-Mann“-Foto und erschüttert US-Märkte

Der chinesische KI-Chatbot DeepSeek hat durch die Weigerung, Fragen zum ikonischen „Tank-Mann“-Foto vom Tiananmen-Platz 1989 zu beantworten, für Kontroversen gesorgt. Der Chatbot bricht Diskussionen über das Bild und andere sensible Themen im Zusammenhang mit China abrupt ab, während er detaillierte Antworten zu Weltführern wie dem britischen Premierminister liefert. Gleichzeitig haben die leistungsstarken Bildgenerierungsfunktionen von DeepSeek (Janus-Pro-7B) und die überraschend niedrigen Entwicklungskosten (angeblich nur 6 Millionen US-Dollar) Schockwellen durch die US-Märkte geschickt, was zu einem Rekordverlust von 17 % bei Nvidia-Aktien führte und Besorgnis bei US-Tech-Giganten und Politikern hervorrief.

Science-Fiction-Autor Ted Chiang über KI und die Zukunft der Technologie

2025-02-02
Science-Fiction-Autor Ted Chiang über KI und die Zukunft der Technologie

Dieses Interview mit dem Science-Fiction-Meister Ted Chiang erforscht seine kreative Inspiration, seine kritische Sicht auf KI und seine Bedenken hinsichtlich der zukünftigen Ausrichtung der Technologie. Chiang argumentiert, dass die heutige KI, insbesondere große Sprachmodelle, eher einer niedrig aufgelösten Darstellung des Internets ähneln, denen es an Zuverlässigkeit und wahrem Verständnis mangelt. Er betont die Beziehung zwischen Menschen und Werkzeugen und die menschliche Tendenz, sich selbst in seinen Werkzeugen zu sehen. Das Interview berührt auch die Natur der Sprache, die Rolle der KI in der Kunst und ethische Überlegungen in der Technologieentwicklung. Chiangs Optimismus in Bezug auf Technologie ist vorsichtig; er glaubt, dass wir uns potenziell negativer Auswirkungen bewusst sein und daran arbeiten müssen, diese zu mindern.

KI
1 2 36 37 38 40 42 43 44 51 52