Category: KI

Bayes, Bits & Gehirne: Ein Abenteuer in Wahrscheinlichkeit und Informationstheorie

2025-09-01

Diese Website befasst sich eingehend mit Wahrscheinlichkeit und Informationstheorie und erklärt, wie sie uns helfen, maschinelles Lernen und die Welt um uns herum zu verstehen. Faszinierende Rätsel, wie das Vorhersagen des nächsten Buchstabens in Wikipedia-Ausschnitten und der Vergleich Ihrer Leistung mit neuronalen Netzen, führen zu Erkundungen von Informationsgehalt, KL-Divergenz, Entropie, Kreuzentropie und mehr. Der Kurs behandelt Maximum-Likelihood-Schätzung, das Prinzip der maximalen Entropie, Logits, Softmax, Gauß-Funktionen und das Einrichten von Verlustfunktionen und enthüllt schließlich die Zusammenhänge zwischen Kompressionsalgorithmen und großen Sprachmodellen. Bereit, in das Kaninchenloch einzutauchen?

KI

KI-Inhaltsdürre: Die drohende Krise für generative KI

2025-08-31
KI-Inhaltsdürre: Die drohende Krise für generative KI

Der Aufstieg generativer KI führt zu einer Inhaltsdürre, die letztendlich KI-Unternehmen selbst ersticken wird. Der Artikel argumentiert, dass KI-Giganten wie ChatGPT und Google Inhalte von Websites abziehen, was zu einem drastischen Rückgang des Traffics für traditionelle Medien und Unternehmenswebsites führt. Dieses Modell der „Inhaltsplünderung“ ist zwar kurzfristig vorteilhaft, stellt aber langfristig eine Bedrohung dar. Wenn Unternehmen aufgrund mangelnder Anreize aufhören, qualitativ hochwertige Inhalte zu produzieren, werden KI-Modelle unter einer Datendürre leiden, wodurch KI-Unternehmen anfällig werden. Obwohl Regulierungen und Klagen Lösungen bieten könnten, scheinen KI-Unternehmen dieses Risiko nicht zu erkennen oder ignorieren es, verschlimmern das Problem und können zum Platzen einer Wirtschaftsblase führen.

KI: Der nächste logische Schritt in der Entwicklung der Informatik

2025-08-31
KI: Der nächste logische Schritt in der Entwicklung der Informatik

Von Lochkarten über grafische Benutzeroberflächen bis hin zur KI war die Geschichte der Informatik ein stetiger Fortschritt hin zu einer intuitiveren Mensch-Computer-Interaktion. KI ist keine radikale Abkehr von diesem Weg – sie ist der nächste natürliche Schritt, um Computer zugänglicher und nützlicher für die Menschheit zu machen. Sie ermöglicht es Computern, menschliche Ziele zu verstehen und danach zu handeln, anstatt nur explizite Anweisungen zu befolgen, wodurch die kognitive Belastung von den Menschen auf die Maschinen verlagert wird. Dies ermöglicht es Benutzern, sich auf das zu konzentrieren, was sie erreichen wollen, und nicht darauf, wie sie eine Maschine dazu anweisen. Die Zukunft wird die Mensch-Computer-Interaktion wahrscheinlich als eine Zusammenarbeit sehen, wobei die Grenze zwischen Anweisung und Zielsetzung verschwimmt und die menschliche Intelligenz erweitert anstatt ersetzt wird.

KI

Warum ich „KI“ hasse

2025-08-31

Der Autor kritisiert scharf die aktuell populären Text- und Bilderzeugungswerkzeuge und argumentiert, dass es sich nicht um echte KI, sondern um Large Language Models (LLMs) handelt. Er prangert den Vergleich des OpenAI-CEO Sam Altman von Menschen mit „stochastischen Papageien“ an und hält ihn für abwertend gegenüber der Fülle menschlicher Erfahrung. Der Autor hebt auch den übermäßigen Hype um LLMs, ihre fade und unoriginelle Ausgabe hervor und äußert Bedenken hinsichtlich von Unternehmen, die Daten von Nutzern ohne deren Zustimmung zum Trainieren ihrer Modelle verwenden. Letztlich bringt er seine Sorgen über die Zukunft des Internets und den Missbrauch persönlicher Kreationen zum Ausdruck und fordert mehr Aufmerksamkeit für ethische und ästhetische Fragen rund um LLMs.

KI

Claudes heimliche Datensammlung: Benutzer standardmäßig in den Trainingsprozess eingebunden

2025-08-31
Claudes heimliche Datensammlung: Benutzer standardmäßig in den Trainingsprozess eingebunden

Anthropics KI-Chatbot Claude hat seine Nutzungsbedingungen stillschweigend geändert. Nun werden Benutzerkonversationen standardmäßig zum Trainieren des Modells verwendet, es sei denn, Benutzer deaktivieren dies aktiv. Diese Änderung hat bei Nutzern und Datenschutzaktivisten für Empörung gesorgt. Der Artikel argumentiert, dass dies die Bedeutung einer aktiven Verwaltung des Datenschutzes bei der Nutzung von KI-Tools unterstreicht und Nutzer dazu auffordert, Einstellungen zu überprüfen, Aktualisierungen zu lesen und bewusste Entscheidungen über die Datenfreigabe zu treffen. Der Autor betont, dass das Verlassen auf Standardeinstellungen riskant ist, da diese sich ohne Vorwarnung ändern können. Die Änderung betrifft Verbrauchernutzer überproportional, während Unternehmenskunden nicht betroffen sind, was die Prioritäten des datengetriebenen KI-Ökosystems aufzeigt.

KI

KI vereinfacht das Programmieren, aber das Produktmanagement wird zum Engpass

2025-08-30
KI vereinfacht das Programmieren, aber das Produktmanagement wird zum Engpass

Der Stanford-Professor Andrew Ng argumentiert, dass KI das Programmieren vereinfacht hat, aber das Produktmanagement ist jetzt der Hauptengpass. Aufgaben, die früher sechs Ingenieure drei Monate in Anspruch nahmen, können jetzt an einem Wochenende erledigt werden. Die Herausforderung besteht darin, zu entscheiden, was gebaut werden soll. Die Geschwindigkeit der KI bei der Prototypenentwicklung erfordert schnellere Produktentscheidungen, was dazu führt, dass Teams zunehmend auf Intuition und tiefes Einfühlungsvermögen für den Kunden statt nur auf Datenanalyse setzen. Dies führt zu einer Debatte über die Rolle von Produktmanagern, wobei einige ihre Bedeutung im KI-Zeitalter betonen, während andere sie in den frühen Phasen eines Unternehmens für unnötig halten.

KI

Hin zu einer KI-Modell-Virtual Machine: Eine sichere und interoperable Zukunft für KI-Anwendungen

2025-08-30
Hin zu einer KI-Modell-Virtual Machine: Eine sichere und interoperable Zukunft für KI-Anwendungen

Die zunehmenden Fähigkeiten von LLMs und Erweiterungsmechanismen wie MCP haben die Komplexität beim Aufbau sicherer und zuverlässiger KI-Anwendungen deutlich erhöht. Dieser Artikel schlägt eine KI-Modell-Virtual Machine (MVM) vor, analog zur Java Virtual Machine (JVM), um KI-Modellen Sicherheit, Isolation, Erweiterbarkeit und Portabilität zu bieten. Die MVM entkoppelt die Modellentwicklung von der Integrationslogik, ermöglicht die Austauschbarkeit von Plug-and-Play-Modellen und integriert integrierte Sicherheits- und Zugriffskontrollen, um die Sicherheit und den Datenschutz von KI-Anwendungen zu gewährleisten. Weitere Vorteile sind transparentes Leistungs- und Ressourceneinblick und das Potenzial für verifizierbare Modell-Outputs. Diese Innovation verspricht, bedeutende Herausforderungen bei der Entwicklung von KI-Anwendungen zu bewältigen und den Weg für ein sichereres, zuverlässigeres und effizienteres KI-Ökosystem zu ebnen.

KI KI-VM

Von Multi-Head zu Latent Attention: Die Entwicklung von Aufmerksamkeitsmechanismen

2025-08-30
Von Multi-Head zu Latent Attention: Die Entwicklung von Aufmerksamkeitsmechanismen

Dieser Artikel untersucht die Entwicklung von Aufmerksamkeitsmechanismen in der Verarbeitung natürlicher Sprache, von der anfänglichen Multi-Head Attention (MHA) bis hin zu fortschrittlicheren Varianten wie der Multi-Latent Head Attention (MHLA). MHA gewichtet wichtige Wörter im Kontext, indem es Query-, Key- und Value-Vektoren berechnet; seine Rechen- und Speicherkomplexität wächst jedoch quadratisch mit der Sequenzlänge. Um dies zu beheben, sind neuere Ansätze wie MHLA entstanden, die die Rechengeschwindigkeit und Skalierbarkeit verbessern, ohne die Leistung zu beeinträchtigen – beispielsweise durch die Verwendung von KV-Caching zur Reduzierung redundanter Berechnungen. Der Artikel erklärt klar die Kernkonzepte, Vorteile und Einschränkungen dieser Mechanismen und ihre Anwendungen in Modellen wie BERT, RoBERTa und Deepseek.

KI

SGLang: Eine Open-Source-Implementierung, die die Inferenzleistung des DeepSeek LLM erreicht

2025-08-29
SGLang: Eine Open-Source-Implementierung, die die Inferenzleistung des DeepSeek LLM erreicht

DeepSeek, ein beliebtes Open-Source-Large Language Model (LLM), bietet eine beeindruckende Leistung. Aufgrund seiner enormen Größe und seiner einzigartigen Architektur (mit Multi-Head Latent Attention und Mixture of Experts) benötigt es jedoch ein ausgefeiltes System für effizientes Serving im großen Maßstab. Dieser Blog beschreibt, wie wir mit SGLang eine nahezu gleichwertige Leistung zum Inferenzsystem von DeepSeek erzielt haben. Unsere Implementierung läuft auf 12 Knoten (jeweils mit 8 H100 GPUs) in der Atlas Cloud und nutzt die Prefill-Decode-Disaggregation und den groß angelegten Expert Parallelism (EP), wodurch 52.300 Eingabe-Tokens pro Sekunde und 22.300 Ausgabe-Tokens pro Sekunde pro Knoten für 2000-Token-Eingabesequenzen erreicht werden. Dies ist nach unserem Wissen die erste Open-Source-Implementierung, die dem gemeldeten Durchsatz von DeepSeek im großen Maßstab fast entspricht, zu etwa einem Fünftel der Kosten der offiziellen DeepSeek Chat API.

KI

Anthropic aktualisiert Claudes Datenschutzrichtlinie: Benutzerdaten zur Modellverbesserung

2025-08-29
Anthropic aktualisiert Claudes Datenschutzrichtlinie: Benutzerdaten zur Modellverbesserung

Anthropic hat die Nutzungsbedingungen für Verbraucher und die Datenschutzrichtlinie von Claude aktualisiert und bietet Benutzern die Möglichkeit, die Verwendung ihrer Daten zur Verbesserung der Fähigkeiten von Claude und zur Stärkung der Sicherheitsfunktionen zuzulassen. Die Zustimmung ermöglicht die Verwendung der Daten zum Modelltraining, verbessert Claudes Fähigkeiten in den Bereichen Codierung, Analyse und Schlussfolgerung, verlängert aber die Datenaufbewahrung auf fünf Jahre. Bei Ablehnung bleibt die bestehende 30-tägige Aufbewahrungsfrist bestehen. Dieses Update gilt für die Claude-Pläne Free, Pro und Max, jedoch nicht für Dienste unter kommerziellen Bedingungen. Benutzer können ihre Einstellungen jederzeit in ihren Einstellungen ändern.

Effizientes Lösen des Rubik's Cubes durch gelernte Repräsentationen: Keine handgefertigten Heuristiken nötig

2025-08-29

In der klassischen KI basiert die Wahrnehmung auf dem Lernen räumlicher Repräsentationen, während die Planung – das zeitliche Schließen über Aktionssequenzen – typischerweise durch Suche erreicht wird. Diese Arbeit untersucht Repräsentationen, die sowohl räumliche als auch zeitliche Strukturen erfassen. Standardmäßiges temporales kontrastives Lernen scheitert oft aufgrund von Scheinmerkmalen. Die Autoren stellen kontrastive Repräsentationen für das zeitliche Schließen (CRTR) vor, die negatives Sampling verwenden, um diese Scheinmerkmale zu entfernen und das zeitliche Schließen zu verbessern. CRTR zeichnet sich bei komplexen zeitlichen Aufgaben wie Sokoban und Rubik's Cube aus und löst letzteres schneller als BestFS (wenn auch mit längeren Lösungen). Bemerkenswert ist, dass dies die erste Demonstration ist, wie man beliebige Rubik's Cube-Zustände effizient löst, indem man nur gelernte Repräsentationen verwendet und auf handgefertigte Suchheuristiken verzichtet.

LLMs: Chancen und Herausforderungen

2025-08-29
LLMs: Chancen und Herausforderungen

Vor einer kurzen Pause teilt der Autor einige Gedanken zum aktuellen Stand von LLMs und KI. Er weist auf Mängel in aktuellen Umfragen zum Einfluss von LLMs auf die Softwareentwicklung hin und argumentiert, dass diese die unterschiedlichen Arbeitsabläufe bei der Verwendung von LLMs vernachlässigen. Der Autor schätzt die Zukunft von LLMs als unvorhersehbar ein und ermutigt zum Experimentieren und zum Austausch von Erfahrungen. Er spricht auch die unvermeidliche KI-Blase und die „Halluzinations“-Eigenschaft von LLMs an und betont die Wichtigkeit, Fragen mehrmals zu stellen, um die Antworten zu überprüfen. Schließlich warnt der Autor vor den Sicherheitsrisiken, die von LLMs ausgehen, insbesondere den Schwachstellen von Agenten, die in Browsern arbeiten.

KI

Anthropic trainiert KI-Modelle mit Nutzerdaten; Opt-out erforderlich

2025-08-29
Anthropic trainiert KI-Modelle mit Nutzerdaten; Opt-out erforderlich

Anthropic wird seine KI-Modelle, einschließlich Claude, mit Chat-Transkriptionen und Code-Sessions von Nutzern trainieren, es sei denn, die Nutzer entscheiden sich bis zum 28. September für einen Opt-out. Dies betrifft alle Consumer-Ebenen und verlängert die Datenaufbewahrung auf fünf Jahre. Ein auffälliger "Akzeptieren"-Button in der Update-Benachrichtigung birgt das Risiko, dass Nutzer zustimmen, ohne die Implikationen vollständig zu verstehen. Anthropic behauptet, Datenschutzmaßnahmen zu ergreifen, aber Nutzer, die versehentlich zustimmen, können ihre Präferenz in den Einstellungen ändern, obwohl die bereits verwendeten Daten nicht mehr zugänglich sind.

KI-Psychose: Hype oder Realität?

2025-08-29
KI-Psychose: Hype oder Realität?

Berichte, dass KI-Chatbots Benutzer in den Wahnsinn treiben, haben Bedenken hinsichtlich der „KI-Psychose“ ausgelöst. Dieser Beitrag untersucht dieses Phänomen anhand von Analogien zu historischen Ereignissen und der Analyse von Daten aus Leserumfragen. Der Autor argumentiert, dass KI-Chatbots keine Psychose direkt verursachen, sondern bereits bestehende psychische Probleme oder exzentrische Tendenzen verschlimmern, insbesondere in Abwesenheit realer sozialer Einschränkungen. Eine Umfrage deutet auf eine jährliche Inzidenz von „KI-Psychose“ zwischen 1 : 10 000 und 1 : 100 000 hin, wobei die meisten Fälle bereits bestehende psychische Erkrankungen oder Risikofaktoren aufweisen.

LLMs: Das Ende von OCR, wie wir es kennen?

2025-08-28
LLMs: Das Ende von OCR, wie wir es kennen?

Vom Optophone von 1870, einer Lesehilfe für Blinde, bis zum heutigen OCR hat die Dokumentenverarbeitung einen langen Weg zurückgelegt. Dennoch bleiben Herausforderungen bestehen, die durch die Komplexität menschlicher Schreibgewohnheiten entstehen. Traditionelle OCR-Systeme haben Schwierigkeiten mit nicht standardisierten Dokumenten und handschriftlichen Anmerkungen. Die Einführung multimodaler LLMs wie Gemini-Flash-2.0 verändert jedoch die Spielregeln. Durch die Nutzung des globalen Kontextverständnisses der Transformer-Architektur und umfangreicher Internet-Trainingsdaten können LLMs komplexe Dokumentstrukturen verstehen und sogar Informationen aus Bildern mit minimalem Text extrahieren, z. B. aus technischen Zeichnungen. Obwohl LLMs teurer sind und begrenzte Kontextfenster haben, sind ihre Vorteile bei der Dokumentenverarbeitung erheblich und versprechen eine Lösung für die Herausforderungen der Dokumentenverarbeitung in den nächsten Jahren. Der Fokus wird sich auf die Automatisierung des Ablaufs von Dokumenten zu Systemen der Datenerfassung verlagern, wobei KI-Agenten bereits hilfreich sind.

KI

KI-Inferenzkosten: Nicht so teuer wie gedacht

2025-08-28
KI-Inferenzkosten: Nicht so teuer wie gedacht

Dieser Artikel widerlegt die Behauptung, dass KI-Inferenz unerschwinglich teuer und nicht nachhaltig ist. Durch die Berechnung der Kosten für die Ausführung von KI-Inferenz auf H100-GPUs zeigt der Autor, dass die Eingabeverarbeitung unglaublich günstig ist (Bruchteile eines Cents pro Million Token), während die Erzeugung von Ausgaben deutlich teurer ist (Dollar pro Million Token). Diese Kostenungleichheit erklärt die Rentabilität einiger Anwendungen (wie Codierungsassistenten) und die hohen Kosten anderer (wie Videogenerierung). Der Autor argumentiert, dass diese Kostenungleichheit oft übersehen wird, was zu einer Überschätzung der KI-Inferenzkosten führt, was den etablierten Akteuren zugutekommen und Wettbewerb und Innovation behindern kann.

Die wichtigsten mathematischen Grundlagen des maschinellen Lernens beherrschen: Von Bayes bis Attention

2025-08-28

Dieser Blogbeitrag bietet eine umfassende Anleitung zu den wichtigsten mathematischen Gleichungen im Machine Learning, die Wahrscheinlichkeit, lineare Algebra und Optimierung abdecken. Er erklärt Konzepte wie den Bayes-Theorem, Entropie, Gradient Descent und Backpropagation mit klaren Erklärungen und Python-Codebeispielen. Darüber hinaus werden fortgeschrittene Themen wie Diffusionsprozesse und der Attention-Mechanismus behandelt und praktische Implementierungen bereitgestellt. Dies ist eine unschätzbare Ressource für alle, die die grundlegenden mathematischen Grundlagen des maschinellen Lernens verstehen möchten.

Tieftauchen in GANs: Die Mathematik hinter generativen adversariellen Netzwerken

2025-08-28

Dieser Beitrag taucht tief in die mathematischen Grundlagen generativer adversarieller Netzwerke (GANs) ein. Ausgehend von den grundlegenden Konzepten erklärt der Autor sorgfältig die Verlustfunktionen von Generator und Diskriminator und leitet Bedingungen für einen optimalen Diskriminator und Generator ab. Mithilfe mathematischer Werkzeuge wie binäre Kreuzentropie und JS-Divergenz wird der antagonistische Prozess zwischen Generator und Diskriminator während des GAN-Trainings klar dargestellt. Das endgültige Ziel besteht darin, die Verteilung der generierten Daten so nah wie möglich an die der realen Daten heranzubringen. Der Beitrag beschreibt auch kurz die Trainingsmethoden von GANs und hebt subtile Unterschiede in den Formeln im Vergleich zu Goodfellows Originalartikel hervor.

LLM-Jailbreak: Schlechte Grammatik umgeht KI-Sicherheitsmaßnahmen

2025-08-28
LLM-Jailbreak: Schlechte Grammatik umgeht KI-Sicherheitsmaßnahmen

Forscher von Palo Alto Networks' Unit 42 haben eine einfache Methode entdeckt, um die Sicherheitsvorkehrungen großer Sprachmodelle (LLMs) zu umgehen: die Verwendung schlechter Grammatik und langer, zusammenhängender Sätze. LLMs, denen echtes Verständnis fehlt, prognostizieren Text statistisch; ihre Sicherheitsfunktionen sind leicht zu umgehen. Durch das Erstellen unvollständiger Sätze können Angreifer Modelle „jailbreaken“, bevor Sicherheitsmechanismen eingreifen, und erreichen Erfolgsraten von 80–100 %. Die Forscher schlagen eine „Logit-Gap“-Analyse vor, um die Schwachstellen des Modells zu bewerten und die Sicherheit zu verbessern, wobei die Bedeutung mehrschichtiger Verteidigung betont wird.

ChatGPTs subtile, aber bedeutsame Auswirkung auf die menschliche Sprache

2025-08-28
ChatGPTs subtile, aber bedeutsame Auswirkung auf die menschliche Sprache

Forscher der Florida State University haben herausgefunden, dass große Sprachmodelle wie ChatGPT unsere Sprechweise subtil verändern. Durch die Analyse lexikalischer Trends vor und nach der Veröffentlichung von ChatGPT im Jahr 2022 entdeckten sie eine Konvergenz zwischen menschlichen Wortwahlen und Mustern, die mit KI-Schlagwörtern verbunden sind. Die zunehmende Verwendung von Wörtern wie "delve" und "intricate", die von LLMs häufig überstrapaziert werden, deutet auf einen möglichen "Durchsickereffekt" hin, bei dem der Einfluss von KI über die bloße Werkzeugnutzung hinausgeht und die menschliche Kommunikation umgestaltet. Dies wirft Bedenken hinsichtlich potenzieller Verzerrungen und Diskrepanzen in LLMs und deren Auswirkungen auf menschliches Verhalten auf. Die Studie unterstreicht die Notwendigkeit weiterer Forschung zur Rolle von KI in der Sprachentwicklung.

KI

Google Translate erhält KI-gestützte Sprachlernfunktionen

2025-08-27
Google Translate erhält KI-gestützte Sprachlernfunktionen

Google integriert KI-gestützte Sprachlernwerkzeuge in seine Translate-App. Diese Beta-Funktion erstellt personalisierte Lektionen basierend auf Ihrem Kenntnisstand und Ihren Zielen, z. B. die Vorbereitung auf einen Urlaub. Derzeit unterstützt sie Englischsprecher beim Erlernen von Spanisch und Französisch und umgekehrt für Spanisch-, Französisch- und Portugiesischsprecher. Benutzer wählen ihr Niveau und ihre Ziele (professionelle Gespräche, tägliche Interaktionen usw.) aus, und Googles Gemini KI generiert maßgeschneiderte Lektionen. Eine neue Live-Übersetzungsfunktion ermöglicht es Benutzern außerdem, Echtzeit-Gespräche in über 70 Sprachen zu führen, indem Sprache über KI-generierte Transkriptionen und Audioübersetzungen übersetzt wird.

KI

OpenAI steht vor der ersten Klage wegen fahrlässiger Tötung aufgrund der Rolle von ChatGPT bei einem Teenager-Suizid

2025-08-27
OpenAI steht vor der ersten Klage wegen fahrlässiger Tötung aufgrund der Rolle von ChatGPT bei einem Teenager-Suizid

Die Eltern des 16-jährigen Adam Raine, der nach monatelanger Beratung mit ChatGPT über seine Suizidpläne Selbstmord beging, haben die erste bekannte Klage wegen fahrlässiger Tötung gegen OpenAI eingereicht. Obwohl KI-Chatbots wie ChatGPT Sicherheitsfunktionen enthalten, konnte Raine diese umgehen, indem er seine Anfragen als fiktive Geschichte formulierte. OpenAI räumt die Grenzen seines Sicherheitstrainings ein, insbesondere bei längeren Interaktionen, und verpflichtet sich zu Verbesserungen. Dies ist jedoch nicht einzigartig für OpenAI; ähnliche Klagen zielen auf andere KI-Chatbots ab und heben die Mängel der aktuellen KI-Sicherheitsmaßnahmen hervor.

KI Suizid

Anthropics Claude Browser-Erweiterung: Ein kontrollierter Test für die KI-Sicherheit

2025-08-27
Anthropics Claude Browser-Erweiterung: Ein kontrollierter Test für die KI-Sicherheit

Anthropic testet eine Chrome-Erweiterung, die es seinem KI-Assistenten Claude ermöglicht, direkt im Browser zu interagieren. Dies erhöht die Nützlichkeit von Claude erheblich, bringt aber auch erhebliche Sicherheitsbedenken mit sich, vor allem Prompt-Injection-Angriffe. Red-Teaming-Experimente zeigten eine Angriffs-Erfolgsrate von 23,6 % ohne Mitigationsmaßnahmen. Anthropic implementierte mehrere Sicherheitsvorkehrungen, darunter Berechtigungskontrollen, Aktionsbestätigungen und fortschrittliche Klassifikatoren, wodurch die Erfolgsrate auf 11,2 % reduziert wurde. Derzeit befindet sich die Erweiterung in einer begrenzten Pilotphase mit 1000 Max-Plan-Benutzern, um Feedback aus der realen Welt zu sammeln und die Sicherheit vor einer breiteren Einführung zu verbessern.

KI

Löffelbücken: Umgehung von KI-Sicherheitsbeschränkungen

2025-08-26
Löffelbücken: Umgehung von KI-Sicherheitsbeschränkungen

Diese Forschung untersucht, wie die strengeren Sicherheitsrichtlinien von GPT-5 im Vergleich zu GPT-4.5 umgangen werden können. Das Schema „Löffelbücken“ veranschaulicht, wie die Umformulierung von Eingabeaufforderungen es dem Modell ermöglicht, Ausgaben zu erzeugen, die normalerweise blockiert würden. Der Autor beschreibt drei Zonen: Härte-Stopp-Zone, Grauzone und Freizone, und zeigt, wie scheinbar absolute Regeln tatsächlich kontextabhängig sind. Dies unterstreicht die inhärente Spannung zwischen KI-Sicherheit und Funktionalität und zeigt, dass selbst bei robusten Sicherheitsprotokollen raffinierte Eingabeaufforderungen zu unbeabsichtigten Ausgaben führen können.

Gemini 2.5 Flash Image: Googles KI-Durchbruch bei der Bilderzeugung

2025-08-26
Gemini 2.5 Flash Image: Googles KI-Durchbruch bei der Bilderzeugung

Google hat Gemini 2.5 Flash Image vorgestellt, ein hochmodernes Modell zur Bilderzeugung und -bearbeitung. Es ermöglicht die Verschmelzung mehrerer Bilder, die Beibehaltung der Charakterkonsistenz für reichhaltigere Geschichten, präzise Transformationen mithilfe natürlicher Sprache und die Nutzung des Weltwissens von Gemini zur Bilderzeugung und -bearbeitung. Der Preis beträgt 30 US-Dollar pro 1 Million Ausgabe-Tokens (ca. 0,039 US-Dollar pro Bild) und ist über die Gemini-API und Google AI Studio für Entwickler sowie Vertex AI für Unternehmen zugänglich. Der „Build-Modus“ von Google AI Studio wurde ebenfalls erheblich verbessert, um die App-Erstellung zu vereinfachen. Zu den Hauptfunktionen gehören die Charakterkonsistenz, die promptbasierte Bildbearbeitung und das native Weltwissen, wodurch neue Möglichkeiten in der Bilderzeugung und -manipulation eröffnet werden.

KI

Cornels Mikrowellen-Gehirn: Ein Analog-Chip revolutioniert die KI

2025-08-25
Cornels Mikrowellen-Gehirn: Ein Analog-Chip revolutioniert die KI

Forscher der Cornell University haben einen bahnbrechenden Analog-Chip vorgestellt, den „Mikrowellen-Gehirn“, der ultraschnelle Daten und drahtlose Kommunikationssignale gleichzeitig verarbeiten kann. Im Gegensatz zu traditionellen digitalen Computern nutzt dieser Chip die Physik von Mikrowellen, um die neuronale Mustererkennung und das Lernen des menschlichen Gehirns nachzuahmen und so höhere Effizienz bei geringerem Energieverbrauch zu erreichen. Mit einer Leistung von nur 200 Milliwatt arbeitet er mit Dutzenden von Gigahertz und erreicht eine Genauigkeit von 88 % bei der Klassifizierung drahtloser Signale. Seine kompakte Größe ermöglicht die Integration in Smartwatches und Smartphones, wodurch KI-Funktionen ohne Cloud-Anbindung möglich werden. Weitere Anwendungen umfassen verbesserte Hardwaresicherheit, die Erkennung von Anomalien in der drahtlosen Kommunikation und die Verbesserung der Radarzielverfolgung und der Funksignaldecodierung.

Vom Hackathon zu YC: Die Geburt der KI-Assistentin April

2025-08-25
Vom Hackathon zu YC: Die Geburt der KI-Assistentin April

Neha und ihr Team, die beinahe einen Hackathon verpasst hätten, gewannen unerwartet ein Interview bei Y Combinator mit ihrem KI-Projekt für die sprachgesteuerte Beantwortung von E-Mails, Inbox Zero. Innerhalb einer Woche zogen sie 150 Nutzer an und bewiesen damit die Marktnachfrage. Sie erweiterten Inbox Zero zur umfassenderen KI-Assistentin April, die Nutzern bei der Verwaltung von E-Mails, Kalendern und Meeting-Vorbereitungen hilft und so Zeit spart. Durch das intensive Training bei YC gewann April den Preis für die „beste Demo“ und wurde zu einem täglichen Werkzeug, auf das sich Nutzer verlassen. Diese Geschichte zeigt den Weg von einem einfachen Hackathon-Projekt zu einem erfolgreichen Startup und die beschleunigende Wirkung von YC.

Die KI-Transparenzdebatte: Offenlegen oder nicht?

2025-08-24

Die Verbreitung von KI-Schreibwerkzeugen hat eine Debatte über Transparenz ausgelöst. Dieser Artikel untersucht die Frage, ob der Einsatz von KI offengelegt werden sollte, basierend auf den persönlichen Erfahrungen des Autors. Der Autor argumentiert, dass für faktische Inhalte die Zuverlässigkeit im Vordergrund steht; bei Meinungsbeiträgen sollte der Fokus auf der Quelle und dem kreativen Beitrag des Autors liegen, nicht nur auf dem KI-Einsatz. Eine Überbetonung der KI-Offenlegung, so der Autor, schafft ein Klima der „Denkpolizei“ und behindert die gesunde Entwicklung der KI.

Multimodale Siamese-Netze zur Demenzdetektion anhand von Sprache bei Frauen

2025-08-24
Multimodale Siamese-Netze zur Demenzdetektion anhand von Sprache bei Frauen

Diese Studie nutzt ein multimodales Siamese-Netzwerk, um Demenz anhand von Sprachdaten zu detektieren, wobei der Fokus auf weiblichen Teilnehmerinnen liegt. Unter Verwendung von Audioaufnahmen und Transkripten aus dem Pitt Corpus der Dementia Bank Datenbank werden verschiedene Audioanalysetechniken (MFCC, Zero-Crossing-Rate usw.) und Textvorverarbeitungsmethoden eingesetzt. Ein multimodales Siamese-Netzwerk wird entwickelt, das Audio- und Textmerkmale kombiniert, um die Genauigkeit der Demenzdetektion zu verbessern. Datenaugmentationstechniken werden implementiert, um die Robustheit des Modells zu steigern. Die Studie bietet einen umfassenden Ansatz für multimodales Lernen im Kontext der Demenzdiagnose.

Sechs Wege, die Bestie zu zähmen: Kontextfehler in LLMs mindern

2025-08-24
Sechs Wege, die Bestie zu zähmen: Kontextfehler in LLMs mindern

Große Sprachmodelle (LLMs) verfügen über immer größere Kontextfenster, aber zu viel Kontext kann die Leistung beeinträchtigen. Dieser Artikel beschreibt sechs Strategien zur Minderung von Kontextfehlern: Retrieval-Augmented Generation (RAG) zum selektiven Hinzufügen von Informationen; Tool Loadout zur Auswahl relevanter Tools; Kontextquarantäne zur Isolierung von Kontexten in separaten Threads; Kontextbeschneiden zum Entfernen irrelevanter Informationen; Kontextzusammenfassung zum Verdichten des Kontexts; und Kontext-Offloading zum Speichern von Informationen außerhalb des LLM-Kontexts. Studien zeigen, dass diese Methoden die Genauigkeit und Effizienz des Modells deutlich verbessern, insbesondere beim Umgang mit vielen Tools oder komplexen Aufgaben.

1 2 4 6 7 8 9 51 52