Category: KI

KI-gestützte suchbasierte Forschung: Endlich nützlich!

2025-04-21
KI-gestützte suchbasierte Forschung: Endlich nützlich!

Seit zweieinhalb Jahren wird der Traum von LLMs verfolgt, die eigenständig suchbasierte Recherchen durchführen. Anfang 2023 unternahmen Perplexity und Microsoft Bing erste Versuche, doch die Ergebnisse waren enttäuschend und von Halluzinationen geprägt. Die erste Hälfte des Jahres 2025 brachte jedoch einen Wendepunkt. Gemini, OpenAI und Perplexity führten „Deep Research“-Funktionen ein, die ausführliche Berichte mit zahlreichen Zitaten generieren, wenn auch langsam. Die neuen Modelle o3 und o4-mini von OpenAI sind ein Durchbruch: Sie integrieren die Suche nahtlos in ihren Denkprozess und liefern zuverlässige, halluzinationsfreie Antworten in Echtzeit. Dies ist robusten Denkmodellen und der Widerstandsfähigkeit gegen Webspam zu verdanken. Google Gemini und Anthropic Claude bieten zwar auch Suchfunktionen, bleiben aber hinter den Angeboten von OpenAI zurück. Ein beeindruckendes Beispiel: o4-mini aktualisierte erfolgreich einen Code-Ausschnitt auf eine neue Google-Bibliothek und zeigte damit das Potenzial KI-gestützter Suche, weckt aber auch Bedenken hinsichtlich des zukünftigen Wirtschaftsmodells des Webs und möglicher rechtlicher Folgen.

Immun-Zytokin IL-17: Ein zweischneidiges Schwert im Gehirn

2025-04-21
Immun-Zytokin IL-17: Ein zweischneidiges Schwert im Gehirn

Forschungen des MIT und der Harvard Medical School zeigen, dass das Immun-Zytokin IL-17 gegensätzliche Wirkungen auf das Gehirn hat. In der Amygdala fördert es Angstzustände, während es im somatosensorischen Kortex soziales Verhalten verstärkt. Dies unterstreicht eine starke Interaktion zwischen Immun- und Nervensystem. Die Ergebnisse legen nahe, dass IL-17 ursprünglich als Neuromodulator entstanden sein könnte, bevor es vom Immunsystem für die Entzündung eingesetzt wurde. Diese Entdeckung könnte neue Wege für die Behandlung neurologischer Erkrankungen wie Autismus oder Depression eröffnen, indem das Immunsystem beeinflusst wird, um die Gehirnfunktion zu steuern.

ChatGPTs neues Wasserzeichen: Katz und Maus?

2025-04-21
ChatGPTs neues Wasserzeichen: Katz und Maus?

Rumis Team hat entdeckt, dass neuere GPT-Modelle (o3 und o4-mini) spezielle Zeichenwasserzeichen, hauptsächlich schmale nicht trennbare Leerzeichen, in längere generierte Texte einbetten. Diese sind mit bloßem Auge unsichtbar, aber mit Code-Editoren oder Online-Tools erkennbar. Obwohl sie potenziell nützlich sind, um KI-generierte Inhalte zu erkennen, lassen sie sich leicht entfernen. Dies könnte bei Studenten für Aufsehen sorgen und OpenAI dazu bringen, die Funktion zu entfernen. Rumi befürwortet einen prozessorientierten Ansatz für das Schreiben von Studenten und betont die KI-Literacy statt leicht umgehbare technische Lösungen.

„Bitte“ und „Danke“ zu ChatGPT sagen kostet OpenAI Millionen

2025-04-20
„Bitte“ und „Danke“ zu ChatGPT sagen kostet OpenAI Millionen

OpenAI-CEO Sam Altman enthüllte, dass die Höflichkeit der Nutzer, insbesondere das Sagen von „Bitte“ und „Danke“ zu ChatGPT, das Unternehmen zig Millionen Dollar an Stromkosten kostet. Obwohl Altman behauptet, es sei gut investiertes Geld, unterstreicht die Enthüllung den enormen Energieverbrauch von KI. Eine Umfrage zeigt, dass 70 % der Nutzer höflich zu KI sind, teilweise aus Angst vor einem Roboteraufstand. Die Debatte geht jedoch weiter: Verbessert Höflichkeit die Antworten und lohnt sich der Umweltkosten? Einige argumentieren, dass höfliche Eingabeaufforderungen zu besseren, weniger voreingenommenen Ergebnissen führen und die Zuverlässigkeit der KI verbessern.

KI

Krähen zeigen unerwartete geometrische Fähigkeiten

2025-04-20
Krähen zeigen unerwartete geometrische Fähigkeiten

Forscher der Universität Tübingen haben gezeigt, dass Krähen die Fähigkeit besitzen, geometrische Regelmäßigkeiten zu erkennen. In einer in Science Advances veröffentlichten Studie wurden Raben darauf trainiert, eine abweichende Form unter mehreren ähnlichen Formen zu identifizieren. Die Krähen konnten subtile Unterschiede zwischen den Formen erfolgreich unterscheiden und zeigten ein Verständnis für rechte Winkel, parallele Linien und Symmetrie. Dies stellt frühere Annahmen über die tierische Kognition in Frage und legt nahe, dass diese Fähigkeit weiter verbreitet sein könnte als bisher angenommen.

Umstrittenes KI-Startup zielt auf vollständige Jobautomatisierung ab

2025-04-20
Umstrittenes KI-Startup zielt auf vollständige Jobautomatisierung ab

Das Silicon-Valley-Startup Mechanize, gegründet vom renommierten KI-Forscher Tamay Besiroglu, hat mit seinem ehrgeizigen Ziel, die vollständige Automatisierung aller Arbeitsplätze, für Kontroversen gesorgt. Diese Mission, zusammen mit Besiroglus Verbindung zum angesehenen KI-Forschungsinstitut Epoch, hat Kritik auf sich gezogen. Mechanize zielt darauf ab, alle Jobs zu automatisieren, indem es die notwendigen Daten, Bewertungen und digitalen Umgebungen bereitstellt, was zu einem riesigen potenziellen Markt führt, aber auch erhebliche Bedenken hinsichtlich weit verbreiteter Jobverluste aufwirft. Obwohl Besiroglu argumentiert, dass die Automatisierung zu einem explosiven Wirtschaftswachstum und einem höheren Lebensstandard führen wird, geht er nicht ausreichend auf die Frage ein, wie Menschen ohne Arbeit Einkommen erzielen würden. Trotz des extremen Ehrgeizes ist die zugrunde liegende technische Herausforderung real, und viele große Technologieunternehmen betreiben ähnliche Forschung.

Rekursive Prompts: Rekursion mit LLMs implementieren

2025-04-20
Rekursive Prompts: Rekursion mit LLMs implementieren

Dieser Artikel untersucht einen neuartigen Ansatz zur Implementierung von Rekursion mithilfe großer Sprachmodelle (LLMs). Durch die Erstellung eines rekursiven Prompts, der seinen internen Zustand iterativ aktualisiert, zeigt der Autor, wie ein LLM eine Folge von Prompts generieren kann, die zu einer Lösung konvergieren, was das Verhalten rekursiver Funktionen im Code widerspiegelt. Der Artikel verwendet die Fibonacci-Sequenz als Beispiel und zeigt, wie rekursive Prompts Berechnungen durchführen können. Er erörtert auch Herausforderungen wie die Behandlung von Ungenauigkeiten in der Ausgabe des LLM und die Nutzung der vorhandenen Wissensbasis des LLM, wobei Parallelen zur Art und Weise gezogen werden, wie Menschen Kopfrechnen mithilfe memorierter algebraischer und atomarer Regeln durchführen. Die Arbeit steht im Zusammenhang mit verwandten Forschungen wie ReAct und ACT-R und behandelt Strategien zur Minderung von Fehlern in den vom LLM generierten Ergebnissen.

KI

Ist AGI da? Nein, es ist „Zacken-AGI“!

2025-04-20
Ist AGI da? Nein, es ist „Zacken-AGI“!

Aktuelle KI-Modelle wie OpenAIs o3 und Googles Gemini 2.5 Pro zeigen beeindruckende Fortschritte und bewältigen sogar komplexe Aufgaben wie Marketingkampagnen und Website-Erstellung. Der Ökonom Tyler Cowen deutet dies als Ankunft der AGI. Der Artikel argumentiert jedoch, dass diese KIs ungleichmäßige Fähigkeiten aufweisen, in einigen Bereichen exzellent, in anderen einfachen jedoch versagen – ein Konzept, das als „Zacken-AGI“ bezeichnet wird. Diese Unsicherheit macht die Definition und die Auswirkungen von AGI unklar, was darauf hindeutet, dass ihre Anwendung und soziale Integration ein langwieriger Prozess sein könnte oder eine schnelle Akzeptanz erfahren könnte. Die Zukunft bleibt ungewiss.

KI

Metas Llama und der EU-AI-Akt: Ein günstiger Zufall?

2025-04-20
Metas Llama und der EU-AI-Akt: Ein günstiger Zufall?

Die Bezeichnung von Metas Llama-Modellen als "Open Source" ist fragwürdig, da die Lizenz nicht vollständig der Open-Source-Definition entspricht. Eine Theorie besagt, dass dies auf die Sonderregeln des EU-AI-Akts für Open-Source-Modelle zurückzuführen ist, wodurch die OSI-Compliance umgangen wird. Durch die Analyse des Akts mit Gemini 2.5 Flash fand der Autor Ausnahmen für Modelle, die es Benutzern ermöglichen, Software und Daten auszuführen, zu kopieren, zu verteilen, zu studieren, zu ändern und zu verbessern, selbst mit Attributionsanforderungen. Dies stützt die Theorie, dass Meta die Bezeichnung "Open Source" strategisch nutzt, obwohl diese Praxis älter ist als der EU-AI-Akt.

KI

FramePack: Ein revolutionäres Modell zur Vorhersage des nächsten Frames für die KI-Videogenerierung

2025-04-20

FramePack ist eine bahnbrechende Architektur eines neuronalen Netzes zur Vorhersage des nächsten Frames, die Eingabekontexte auf eine feste Länge komprimiert und die Generierungsarbeitslast unabhängig von der Videolänge macht. Dies erreicht eine Rechenkomplexität von O(1) für Streaming und setzt einen neuen Maßstab in der KI-Videogenerierung. Es generiert hochwertige Videos mit nur 6 GB GPU-Speicher auf Laptops mit RTX 3060. Die Generierungsgeschwindigkeit beträgt 1,5 bis 2,5 Sekunden pro Frame auf einer RTX 4090, ist aber 4 bis 8 Mal langsamer auf Laptops mit 3070ti/3060. Seine bidirektionale Sampling-Methode beseitigt effektiv das übliche Drift-Problem bei der Videogenerierung.

OpenAIs 3 Milliarden Dollar teure Windsurf-Übernahme: Ein Zeichen der Verzweiflung im KI-Wettrüsten?

2025-04-20
OpenAIs 3 Milliarden Dollar teure Windsurf-Übernahme: Ein Zeichen der Verzweiflung im KI-Wettrüsten?

Die jüngste Übernahme von Windsurf (ehemals Codeium), einem KI-gestützten Code-Assistenztool, durch OpenAI für 3 Milliarden Dollar hat Schockwellen durch die Branche geschickt. Dies folgt auf die massive Übernahme von Wiz durch Google, aber die relativ kleinere Benutzerbasis und der Marktanteil von Windsurf werfen Fragen nach dem hohen Preis auf. Der Artikel untersucht die möglichen Beweggründe hinter dem Schritt von OpenAI, darunter die Beschaffung von Daten, die Stärkung der Vertriebskanäle und der Umgang mit angespannten Beziehungen zu Microsoft. Er vergleicht auch OpenAI, Google und andere Akteure im KI-Bereich und hebt die Dominanz von Google in Bezug auf Modellleistung und Preiswettbewerbsfähigkeit sowie seine Strategien zur Festigung seiner Führungsposition hervor. Schließlich untersucht der Artikel die Schwierigkeiten von Apple im KI-Bereich und führt sie auf Einschränkungen bei Rechenressourcen und Datenbeschaffung sowie auf die Einschränkungen zurück, die sich aus seinem Engagement für den Datenschutz ergeben.

KI

Gemma 3: Spitzentechnologie-KI jetzt auf Ihrem Desktop

2025-04-20
Gemma 3: Spitzentechnologie-KI jetzt auf Ihrem Desktop

Gemma 3, ein hochmodernes Open-Source-KI-Modell, benötigte zunächst High-End-GPUs. Um die Zugänglichkeit zu verbessern, wurden neue Versionen veröffentlicht, die mit Quantisierungs-Aware-Training (QAT) optimiert wurden und den Speicherbedarf drastisch reduzieren, während gleichzeitig eine hohe Qualität beibehalten wird. Dies ermöglicht die Ausführung leistungsstarker Modelle wie Gemma 3 27B auf Consumer-Grade-GPUs wie der NVIDIA RTX 3090. Diese optimierten Modelle sind auf Hugging Face und Kaggle verfügbar und ermöglichen eine einfache Integration in verschiedene Workflows.

DeepSeek: Die unaufhaltsame Welle der Open-Source-KI

2025-04-20
DeepSeek: Die unaufhaltsame Welle der Open-Source-KI

Die Veröffentlichung des DeepSeek-Modells löste eine Revolution in der Open-Source-KI aus. Ursprünglich von einem chinesischen Team veröffentlicht, wurde es schnell von Entwicklern weltweit repliziert und verbessert, was zu Projekten wie OpenSeek des Beijing Academy of Artificial Intelligence führte. Trotz der Versuche der US-Regierung, beteiligte Einrichtungen einzuschränken, hat sich DeepSeek zu einer florierenden Community entwickelt. Zehntausende von Entwicklern arbeiten zusammen, um die KI-Technologie mit einer Geschwindigkeit und einem Umfang voranzutreiben, die von keiner zentralisierten Einheit erreicht werden können. Dies zeigt die unaufhaltsame Natur der community-getriebenen Open-Source-KI und trotzt der Kontrolle durch einzelne Länder, Unternehmen oder Regierungen.

KI

KI: Ein kollaborativer Partner, kein Ersatz

2025-04-20
KI: Ein kollaborativer Partner, kein Ersatz

Viele verstehen KI falsch und glauben, sie automatisiere Schreiben, Planung und Problemlösung vollständig. Die Autorin argumentiert, dass KI eher eine Art „Gedankenkontrolle“ ist, die das menschliche Denken verbessert, anstatt es zu ersetzen. Anhand von Leistungsbeurteilungen und Protokollen von Besprechungen werden die Schwächen der KI in Bezug auf mangelnde menschliche Einsicht, kontextuelles Verständnis und Zuverlässigkeit hervorgehoben. Die Autorin schlägt vor, KI als kollaborativen Partner zu betrachten, der sich an einem iterativen Dialog beteiligt, um die Qualität und Effizienz der Arbeit zu verbessern. Das endgültige Ziel ist nicht Geschwindigkeit, sondern verbesserte Qualität.

KI

Anthropic enthüllt den „Ultradenken“-Modus von Claude Code

2025-04-20

Anthropic hat eine umfangreiche Dokumentation zu den Best Practices für sein Claude Code CLI-Coding-Agent-Tool veröffentlicht. Ein faszinierender Tipp enthüllt, dass die Verwendung von Wörtern wie „think“, „think hard“ usw. erweiterte Denkmodi auslöst. Diese Phrasen korrelieren direkt mit unterschiedlichen Denkbudgets; „ultrathink“ weist 31999 Token zu, während „think“ nur 4000 verwendet. Die Codeanalyse zeigt, dass diese Keywords Funktionen auslösen, die variable Token-Anzahl zuweisen, was sich auf die Denktiefe und die Ausgabe von Claude auswirkt. Dies deutet darauf hin, dass „ultrathink“ keine Funktion des Claude-Modells selbst ist, sondern eher eine spezifische Verbesserung von Claude Code.

KI

O(1) Streaming-Videoprediktion mit GPU-Speicheroptimierung

2025-04-19

Ein neuartiges Videoprediktionsmodell erreicht eine O(1) Streaming-Komplexität durch optimierte GPU-Speicherplatzierung. Das Modell kodiert Eingabeframes in den GPU-Speicher und weist Frames je nach Wichtigkeit unterschiedliche Kontextlängen (Anzahl der Tokens) zu. Beispielsweise kann in HunyuanVideo die Tokenanzahl eines 480p-Frames durch Verwendung verschiedener Patchifying-Kernels von 1536 auf 192 angepasst werden. Dies ermöglicht es den wichtigsten Frames (z. B. dem Frame, der dem Prädiktionsziel am nächsten liegt), mehr GPU-Ressourcen zu nutzen, was zu erheblichen Effizienzsteigerungen führt und bemerkenswerterweise eine O(1)-Komplexität ohne komplexe algorithmische Optimierungen erreicht.

FramePack: Hochwertige Videogenerierung auf Consumer-GPUs mit nur 6 GB VRAM

2025-04-19

FramePack ist eine bahnbrechende Videodiffusionstechnologie, die die Vorhersage des nächsten Frames auf Consumer-GPUs ermöglicht. Durch effizientes Packen des Frame-Kontexts und die Verwendung einer konstanten Eingabelänge ermöglicht sie die Erzeugung hochwertiger Videos mit nur 6 GB VRAM, wodurch sie für Benutzer mit Laptops und Systemen der Mittelklasse zugänglich wird. Die Anti-Drift-Technologie, die einen bidirektionalen Sampling-Ansatz verwendet, gewährleistet eine gleichbleibende Qualität über lange Videosequenzen. Keine Cloud-Verarbeitung oder teure GPU-Mieten sind erforderlich; die Generierung erfolgt direkt auf Ihrer Hardware.

KI

KI-gestaltete Proteine neutralisieren Schlangengift: Ein Durchbruch in der Antivenen-Entwicklung

2025-04-19
KI-gestaltete Proteine neutralisieren Schlangengift: Ein Durchbruch in der Antivenen-Entwicklung

Eine bahnbrechende Studie nutzt KI-gestütztes Proteindesign, um Antivenine zu entwickeln, die die Toxine von Kobras und anderen Schlangen effektiv neutralisieren. Die traditionelle Antivenenproduktion ist teuer, langsam und anfällig für Nebenwirkungen. KI-gestaltete Proteine überwinden diese Einschränkungen und zeigen in In-vitro- und In-vivo-Experimenten eine überlegene Toxinneutralisierung. Dies bietet eine vielversprechende Lösung für die erhebliche Bedrohung der öffentlichen Gesundheit durch Schlangenbisse und unterstreicht das Potenzial der KI, die Biomedizin zu revolutionieren und sicherere, effektivere und erschwinglichere Antivenine bereitzustellen.

KI

Praktischer Leitfaden für große Sprachmodelle: Code und Abbildungen inklusive

2025-04-19
Praktischer Leitfaden für große Sprachmodelle: Code und Abbildungen inklusive

Das neue Buch von Jay Alammar und Maarten Grootendorst, "Hands-On Large Language Models", bietet eine praktische und visuell ansprechende Anleitung zum Verständnis und zur Verwendung großer Sprachmodelle (LLMs). Das Buch enthält zahlreiche Abbildungen und Codebeispiele, die komplexe Konzepte für ein breites Publikum zugänglich machen. Mit seiner umfassenden Abdeckung und dem leicht zugänglichen Code-Repository ist es eine wertvolle Ressource sowohl für Anfänger als auch für erfahrene Entwickler.

KI

Die KI-Hypeblase: Eine Illusion in der Technologiebranche

2025-04-19

Ein Informatiker argumentiert leidenschaftlich gegen den aktuellen übertriebenen Hype um KI. Viele Unternehmen folgen blind Trends und sehen KI als Allheilmittel anstatt als praktisches Werkzeug. Dieser Hype führt zu verschwendeten Geldern, Fehlallokationen von Talenten und sogar zu Opfern von Privatsphäre und Freiheit. Er argumentiert, dass nur ein kleiner Teil des KI-Hypes auf nützlichen Fakten basiert, der Rest ist übertriebener Unsinn, der letztendlich Investoren und kleinere Unternehmen schadet. Der Autor fordert die Leser auf, KI rational zu betrachten und sich nicht von Medien und öffentlicher Meinung mitreißen zu lassen.

OpenAIs neue Modelle halluzinieren mehr: Größer ist nicht immer besser

2025-04-18
OpenAIs neue Modelle halluzinieren mehr: Größer ist nicht immer besser

Die kürzlich von OpenAI veröffentlichten Modelle o3 und o4-mini sind in vielerlei Hinsicht state-of-the-art, zeigen aber im Vergleich zu ihren Vorgängern einen besorgniserregenden Anstieg von Halluzinationen. Interne Tests zeigen deutlich höhere Halluzinationsraten als bei früheren Reasonings-Modellen (o1, o1-mini und o3-mini) und sogar bei traditionellen Nicht-Reasoning-Modellen wie GPT-4o. OpenAI ist sich der Ursache nicht sicher, was eine Herausforderung für Branchen darstellt, die Genauigkeit erfordern. Tests von Drittanbietern bestätigen dieses Problem, wobei o3 Schritte in seinem Denkprozess erfindet. Obwohl es in der Programmierung und Mathematik hervorragend abschneidet, schränkt die höhere Halluzinationsrate die Anwendbarkeit ein. Die Behebung von Halluzinationen bei Modellen ist ein Schlüsselbereich der KI-Forschung, und die Ausstattung von Modellen mit Websuchfunktionen erweist sich als vielversprechender Ansatz.

KI-Artikel dominieren: Der unerwartete Erfolg von Deep Residual Networks

2025-04-18
KI-Artikel dominieren: Der unerwartete Erfolg von Deep Residual Networks

Die am häufigsten zitierten wissenschaftlichen Artikel des 21. Jahrhunderts stammen nicht von bahnbrechenden Entdeckungen wie mRNA-Impfstoffen oder Gravitationswellen. Eine Analyse von Nature der 25 am häufigsten zitierten Artikel zeigt die Dominanz von KI-Methodologie, Verbesserungen der Forschungsqualität, Krebsstatistiken und Forschungssoftware. An erster Stelle steht der Artikel von Microsoft aus dem Jahr 2016 über „Deep Residual Networks“ (ResNets), der das Problem des verschwindenden Gradienten im Deep Learning gelöst und den Weg für KI-Tools wie AlphaGo, AlphaFold und ChatGPT geebnet hat. Der Erfolg des Artikels wird auf seinen Open-Source-Charakter und die rasanten Fortschritte im KI-Bereich zurückgeführt. Auch stark zitierte Artikel über Forschungsmethoden, Software-Tools und Krebsstatistiken unterstreichen die entscheidende Rolle von Methodik und grundlegenden Tools in der wissenschaftlichen Forschung.

Psychedelika und Atemtherapie: Ein neuer Ansatz zur Behandlung von psychischen Erkrankungen?

2025-04-17
Psychedelika und Atemtherapie: Ein neuer Ansatz zur Behandlung von psychischen Erkrankungen?

Neuere Studien zeigen vielversprechende Ergebnisse für psychedelisch unterstützte Therapien wie Psilocybin und MDMA bei der Behandlung therapieresistenter Depressionen und posttraumatischer Belastungsstörungen (PTBS). Mehrere klinische Studien weisen auf erhebliche und anhaltende Verbesserungen hin. Gleichzeitig gewinnen Atemtherapien wie Holotropic Breathwork an Bedeutung, wobei die Forschung auf eine Wirksamkeit bei der Linderung von Stress, Angst und Depression hindeutet. Diese Therapien scheinen durch Veränderung der Gehirnaktivität und der Neurotransmitterspiegel zu wirken und beeinflussen so Stimmung und psychischen Zustand. Obwohl weitere Forschung zur Bestätigung der Wirksamkeit und Sicherheit erforderlich ist, bieten diese Ergebnisse neue Hoffnung für die Behandlung psychischer Erkrankungen und eröffnen spannende Wege zur Erforschung der Geheimnisse von Gehirn und Bewusstsein.

UniK3D: Universelle Monokulare 3D-Schätzung für Kameras

2025-04-17

UniK3D revolutioniert die monokulare 3D-Rekonstruktion, indem es präzise metrische 3D-Szenen aus einzelnen Bildern schätzt, unabhängig vom Kameratyp. Im Gegensatz zu früheren Methoden, die auf vereinfachten Annahmen beruhten, prognostiziert UniK3D direkt 3D-Punkte ohne zusätzliche Informationen. Die Hauptinnovation liegt in einer sphärischen 3D-Darstellung und einer neuartigen Kameradarstellung, die die Grenzen traditioneller Ansätze in Weitwinkel- und Panoramaeinstellungen überwindet. Eine Zero-Shot-Evaluierung an 13 verschiedenen Datensätzen zeigt Spitzenergebnisse bei 3D-, Tiefen- und Kamerametriken, insbesondere in herausfordernden Umgebungen mit großem Sichtfeld. Code und Modelle sind auf GitHub verfügbar.

KI

Neue Bild-Reasoning-Modelle von ChatGPT wecken Datenschutzbedenken

2025-04-17
Neue Bild-Reasoning-Modelle von ChatGPT wecken Datenschutzbedenken

Die neuesten KI-Modelle von OpenAI, o3 und o4-mini, können den Standort von Fotos anhand visueller Hinweise präzise bestimmen, sogar bis hin zu bestimmten Restaurants und Bars. Diese Fähigkeit, die in sozialen Medien gezeigt wurde, hat Bedenken hinsichtlich der Datenschutzrisiken geweckt, da böswillige Akteure sie möglicherweise für Doxing verwenden könnten. Tests zeigen, dass sogar ältere Modelle wie GPT-4o ähnliche Standort-Ratevermögen aufweisen, obwohl o3 sie manchmal übertrifft. Obwohl es nicht perfekt ist, mit Fällen von falschen Schätzungen und Systemausfällen, unterstreicht die Leistung von o3 die neu entstehenden Risiken leistungsfähiger KI-Reasoning-Modelle. OpenAI hat diese Bedenken in seinem Sicherheitsbericht noch nicht angesprochen.

KI

Google präsentiert Gemini 2.5 Flash: Ein KI-Modell mit steuerbarem Schlussfolgern

2025-04-17
Google präsentiert Gemini 2.5 Flash: Ein KI-Modell mit steuerbarem Schlussfolgern

Google hat Gemini 2.5 Flash veröffentlicht, ein neues großes Sprachmodell mit steuerbaren Schlussfolgerungsfähigkeiten. Aufbauend auf dem beliebten 2.0 Flash verbessert es die Schlussfolgerungsfähigkeit deutlich und priorisiert gleichzeitig Geschwindigkeit und Wirtschaftlichkeit. Entwickler können ein „Denkbudget“ einstellen, um ein Gleichgewicht zwischen Qualität, Kosten und Latenz zu finden. Das Modell passt seinen Denkprozess automatisch an die Komplexität der Eingabeaufforderung an und bietet Modi von keiner Denkphase bis hin zu intensivem Schlussfolgern. Gemini 2.5 Flash schneidet in den Hard Prompts von LMArena hervorragend ab und bietet ein überragendes Preis-Leistungs-Verhältnis, was es zu einem der kostengünstigsten Denkmodelle macht.

Zugriff auf Top-KI-Modelle von OpenAI, Google und mehr

2025-04-17
Zugriff auf Top-KI-Modelle von OpenAI, Google und mehr

Eine neue Plattform bietet zentralen Zugriff auf hochmoderne KI-Modelle von führenden Unternehmen wie OpenAI, Google, Anthropic, DeepSeek, Mistral und Meta. Dazu gehören Modelle wie ChatGPT-4, Claude, Gemini und Llama, die es Benutzern ermöglichen, die einzigartigen Fähigkeiten jedes Modells zu erkunden. Dies stellt einen großen Fortschritt in der Zugänglichkeit von Spitzentechnologie im Bereich KI dar und eröffnet Entwicklern und Forschern neue Möglichkeiten.

KI

OpenAIs Sicherheitschef tritt Amid Sicherheitsbedenken zurück

2025-04-17
OpenAIs Sicherheitschef tritt Amid Sicherheitsbedenken zurück

OpenAIs Leiter der Vorbereitung, Joaquin Quiñonero Candela, ist kürzlich von seinem Posten zurückgetreten und hat ein internes Praktikum begonnen. Dies folgt auf eine Reihe von hochkarätigen Abgängen aus OpenAIs Sicherheitsteams, der Umstrukturierung der Sicherheitsorganisation und Berichten über verkürzte Sicherheits-Testzeiten. Die Ereignisse werfen Bedenken hinsichtlich des Engagements von OpenAI für die KI-Sicherheit auf, insbesondere angesichts der jüngsten Veröffentlichung von GPT-4.1 ohne Sicherheitsbericht und Berichten über verkürzte Sicherheits-Testzeiten. Die Situation unterstreicht eine mögliche Priorisierung der Produktveröffentlichung gegenüber Sicherheitsaspekten, im Gegensatz zu den früheren öffentlichen Zusagen von OpenAI und führt zu breiteren Diskussionen über die Regulierung der KI-Sicherheit.

KI

OpenAIs Speicher-Upgrade: Ein transformativer Sprung für KI

2025-04-17
OpenAIs Speicher-Upgrade: Ein transformativer Sprung für KI

OpenAIs Speicher-Upgrades markieren den Beginn dessen, was der transformativste Wandel seit dem Debüt von GPT-3 sein könnte. Bisher fühlte sich KI an wie ein brillanter, aber vergesslicher Freund. Jetzt verändert der Speicher alles. KI wird sich Ihre Gewohnheiten, Denkweisen und Präferenzen merken und zu einem lebenslangen Begleiter und Assistenten werden. Dies wird zu massiven Produktivitätssteigerungen führen und die gängige Meinung in Frage stellen, dass KI nicht verteidigungsfähig ist. OpenAI könnte ein "Anmelden mit OpenAI"-Produkt auf den Markt bringen, das es Drittanbietern ermöglicht, direkt auf seine Speicherschicht zuzugreifen und leistungsstärkere Anwendungen zu erstellen. Der Wettbewerb wird sich auf den Speicher konzentrieren: Wer ihn am schnellsten erobert, gewinnt.

Die Halbzeit der KI: Von modellzentriert zu anwendungszentriert

2025-04-17

Dieser Artikel beschreibt zwei Phasen der KI-Entwicklung. Die erste Phase konzentrierte sich auf die Entwicklung besserer Trainingsmethoden und -modelle und erzielte bemerkenswerte Erfolge wie AlphaGo, das Go-Weltmeister besiegte. Die zweite Phase verlagert den Fokus von der Problemlösung auf die Problemdefinition und priorisiert die Evaluierung gegenüber dem Training. Der Autor argumentiert, dass aktuelle KI-Modelle in der Lage sind, verschiedene Aufgaben zu lösen, aber ihr Nutzen in der realen Welt verbessert werden muss. Zukünftige KI-Forschung sollte sich auf reale Anwendungen konzentrieren und Evaluierungsmethoden und -modelle entwickeln, die die realen Bedürfnisse besser erfüllen, um so die KI zum Wohle der Menschheit voranzubringen.

KI
2 4 5 6 7 8 9 28 29