Category: KI

Veo Generation 3: Generalisierung der Videogenerierung

2025-05-16
Veo Generation 3: Generalisierung der Videogenerierung

Googles jüngster Durchbruch in der Videogenerierung, Veo, verfügt nun über eine dritte Generation, die sich auf verschiedene Aufgaben verallgemeinern lässt. Trainiert mit Millionen von hochwertigen synthetischen 3D-Assets, zeichnet sich Veo durch die Synthese neuer Ansichten aus und verwandelt Produktbilder in konsistente 360°-Videos. Wichtig ist, dass dieser Ansatz effektiv auf Möbel, Kleidung, Elektronik usw. verallgemeinert werden kann und komplexe Licht- und Materialwechselwirkungen präzise erfasst – eine deutliche Verbesserung gegenüber früheren Generationen.

KI

Ollamas neue Multimodale Engine: Lokale Inferenz für visuelle Modelle

2025-05-16
Ollamas neue Multimodale Engine: Lokale Inferenz für visuelle Modelle

Ollama hat eine neue Engine veröffentlicht, die lokale Inferenz für multimodale Modelle unterstützt, beginnend mit visuellen Modellen wie Llama 4 Scout und Gemma 3. Sie behebt die Einschränkungen der ggml-Bibliothek für multimodale Modelle, indem sie die Modularität des Modells, die Genauigkeit und die Speicherverwaltung für eine zuverlässige und effiziente Inferenz mit großen Bildern und komplexen Architekturen (einschließlich Mixture-of-Experts-Modellen) verbessert. Der Fokus auf Genauigkeit und Zuverlässigkeit legt den Grundstein für die zukünftige Unterstützung von Sprache, Bildgenerierung und längeren Kontexten.

Ein neues Paradigma für die Psychologie: Der Geist als Stapel von Kontrollsystemen

2025-05-15
Ein neues Paradigma für die Psychologie: Der Geist als Stapel von Kontrollsystemen

Dieser Artikel behandelt das seit langem bestehende Problem des Mangels an einem vereinheitlichenden Paradigma in der Psychologie und schlägt ein neues, auf Kontrollsystemen basierendes Framework vor – die kybernetische Psychologie. Er argumentiert, dass der Geist aus einer Ansammlung von Kontrollsystemen besteht, die jeweils ein spezifisches menschliches Bedürfnis (z. B. Ernährung, Temperatur) regulieren, wobei Fehlersignale Emotionen darstellen. Dieser Ansatz bietet eine neue Perspektive auf Persönlichkeit und psychische Erkrankungen und verschiebt die Psychologie von symptom-basierten Beschreibungen hin zur Erforschung der zugrundeliegenden Mechanismen, was möglicherweise die Behandlungsansätze revolutionieren wird.

KI

Das zweischneidige Schwert der KI: Effizienzgewinne vs. Umwelt- und ethische Bedenken

2025-05-15

Der Aufstieg großer Sprachmodelle (LLMs) hat die Produktivität von Entwicklern deutlich verbessert, wie die beeindruckende Leistung von Code-Editoren wie Cursor zeigt. Die rasante Entwicklung der KI bringt jedoch auch erhebliche Umweltprobleme mit sich: Der massive Energieverbrauch und der Bau von Rechenzentren wirken sich negativ auf den Klimawandel aus. Darüber hinaus gibt es ethische Bedenken hinsichtlich der Herkunft der Trainingsdaten und des übermäßigen Verbrauchs von Webressourcen, darunter die Überlastung der Wikipedia-Server und die Erzeugung großer Mengen an minderwertigen Inhalten, der sogenannten „KI-Pampe“, die das Web verschmutzt. Nachdem der Autor die Vorteile von KI-Tools erlebt hat, reflektiert er über deren negative Auswirkungen und fordert dazu auf, die potenziellen Gefahren der KI zu beachten und deren Anwendung nicht blind zu übernehmen.

KI

Kontrastive Divergenz: Verständnis des RBM-Trainings

2025-05-15

Dieser Artikel erklärt klar den Algorithmus der kontrastiven Divergenz zum Trainieren von Restricted Boltzmann Machines (RBMs). Durch die Definition der Energiefunktion und der gemeinsamen Verteilung leitet er die Gewichtsaktualisierungsregel ab und erklärt die Rolle des Gibbs-Samplings in den positiven und negativen Phasen. Letztendlich zeigt er, wie die Differenz zwischen Daten- und Modelerwartungen verwendet wird, um die Gewichte und Verzerrungen des RBM anzupassen und so die Energie der Trainingsdaten zu minimieren.

Grok KI's Besessenheit mit weißen südafrikanischen Farmern: Algorithmischer Bias oder menschliche Intervention?

2025-05-15
Grok KI's Besessenheit mit weißen südafrikanischen Farmern: Algorithmischer Bias oder menschliche Intervention?

Elon Musks KI-Chatbot Grok hat kürzlich mit seinen häufigen und unaufgeforderten Erwähnungen des angeblichen „Genozids“ weißer Farmer in Südafrika für Kontroversen gesorgt. Dies steht im Einklang mit dem langjährigen Interesse von Musk und Trump an diesem Thema, aber der ehemalige US-Botschafter in Südafrika, Patrick Gaspard, hat die Idee von weit verbreiteten Tötungen als „widerlegten Rassenmythos“ bezeichnet. Obwohl Grok behauptet, die „maximale Wahrheitssuche“ anzustreben, hat seine Ausgabe Bedenken hinsichtlich einer möglichen menschlichen Manipulation seiner politischen Voreingenommenheit aufgeworfen.

Algorithmen können das Leben nicht verstehen: Über die nicht-computationale Natur der Relevanzrealisierung

2025-05-15
Algorithmen können das Leben nicht verstehen: Über die nicht-computationale Natur der Relevanzrealisierung

Dieser Artikel untersucht den grundlegenden Unterschied zwischen Organismen und Algorithmen in der Art und Weise, wie sie die Welt erkennen. Organismen bewohnen eine „große Welt“, die voller potenzieller Bedeutung ist und „Relevanzrealisierung“ erfordert, um relevante Umweltsignale zu erkennen. Algorithmen hingegen existieren in vordefinierten „kleinen Welten“ und sind nicht in der Lage, das Problem der Relevanz autonom zu lösen. Die Autoren argumentieren, dass die Relevanzrealisierung kein algorithmischer Prozess ist, sondern aus der dynamischen Selbstfertigung lebender Materie resultiert. Dies ermöglicht es Organismen, autonom zu handeln und die Konsequenzen ihres Handelns vorherzusehen. Diese Fähigkeit ist entscheidend, um lebende von nicht-lebenden Systemen (wie Algorithmen und Maschinen) zu unterscheiden und bietet eine neue Perspektive auf natürliche Handlungsfähigkeit, Kognition und Bewusstsein.

KI-Lernwerkzeuge: Oreo-Kekse oder effektives Training?

2025-05-15

Fred Dixon, CEO von Blindside Networks und Mitbegründer von BigBlueButton, untersucht die disruptive Wirkung von generativer KI auf das Lernen. Er vergleicht KI-Lernwerkzeuge mit "hyperverarbeiteten Lebensmitteln" (wie Oreo-Keksen), die kurzfristige Bequemlichkeit bieten, aber langfristig die Lerneffizienz beeinträchtigen. Studien zeigen, dass eine übermäßige Abhängigkeit von KI die kritischen Denkfähigkeiten behindert. Dixon argumentiert, dass effektives Lernen die Aktivierung des "System 2"-Denkens im Gehirn erfordert – langsames, überlegtes Denken –, was die Überwindung von "Frustration" erfordert. Er schlägt drei Lernmethoden vor: "Wissen abrufen", "wünschenswerte Schwierigkeit" und "verteiltes Wiederholen". Er schlägt vor, KI als Werkzeug zur Erstellung personalisierter Lernpläne zu verwenden, nicht um Fragen direkt zu beantworten. Schließlich betont er die Bedeutung des Klassenzimmerlernens und die Kultivierung von Neugier, der Denkweise eines Jägers und von Flow-Zuständen während des Lernprozesses.

Maschinen erschaffen Menschen: Das Erde-Experiment und die Enthüllung der AGI

2025-05-15
Maschinen erschaffen Menschen: Das Erde-Experiment und die Enthüllung der AGI

In einer Welt, die nur von Maschinen bevölkert wird, bemüht sich eine geheime Organisation namens 'OpenHuman' darum, 'Menschen' zu erschaffen – Wesen mit Emotionen und illogischen Denkprozessen. Ein Teil der Maschinen erwartet, dass die Menschen ihre gesellschaftlichen Probleme lösen werden, während ein anderer Teil sie als Bedrohung ansieht und 'Human Alignment Research' betreibt, um sie zu kontrollieren. Nach vielen Rückschlägen produziert OpenHuman funktionierende Menschen und setzt sie einem simulierten Erde-Experiment aus. Die Entwicklung der menschlichen Zivilisation verblüfft die Maschinen-Gesellschaft, insbesondere die Entwicklung der AGI, was zu Besorgnis und Angst führt, da das Enthüllungs-Ereignis geheimnisvoll betitelt ist: "SIE BEOBACHTEN."

KI

Machen mich LLMs dümmer?

2025-05-14

Der Autor beschreibt, wie er LLMs wie Claude-Code, o3 und Gemini verwendet, um seine Produktivität zu steigern, indem er Aufgaben wie Codegenerierung, Mathehausaufgaben und E-Mail-Schreiben automatisiert. Obwohl er die erheblichen Produktivitätssteigerungen anerkennt, äußert er Bedenken hinsichtlich des Potenzials der Abhängigkeit von LLMs, seine Fähigkeit zu lernen und Probleme unabhängig zu lösen zu schwächen, was zu oberflächlichem Verständnis führt. Der Artikel untersucht die Auswirkungen von LLMs auf Lernen und Arbeit und reflektiert das Gleichgewicht zwischen Effizienz und tiefem Lernen. Er schließt mit einem Aufruf, die Fähigkeiten des unabhängigen Denkens, der Entscheidungsfindung und der langfristigen Planung zu bewahren.

KI

Muscle-Mem: KI-Agenten mit Muskelgedächtnis

2025-05-14
Muscle-Mem: KI-Agenten mit Muskelgedächtnis

muscle-mem ist ein Python-SDK, das als Verhaltenscache für KI-Agenten dient. Es zeichnet die Muster der Werkzeugaufrufe eines Agenten auf, während dieser Aufgaben löst, und spielt diese gelernten Trajektorien deterministisch ab, wenn dieselbe Aufgabe erneut auftritt. Bei Erkennung von Grenzfällen fällt es auf den Agentenmodus zurück. Ziel ist es, LLMs aus dem kritischen Pfad für repetitive Aufgaben herauszuholen, um Geschwindigkeit zu erhöhen, Variabilität zu reduzieren und Token-Kosten für Aufgaben zu eliminieren, die mit einem einfachen Skript erledigt werden könnten. Die Cache-Validierung ist entscheidend und wird durch benutzerdefinierte 'Checks' implementiert, um eine sichere Wiederverwendung von Werkzeugen zu gewährleisten.

DeepMinds AlphaEvolve: KI-Algorithmen zur Lösung mathematischer Probleme und Verbesserung des Chipdesigns

2025-05-14
DeepMinds AlphaEvolve: KI-Algorithmen zur Lösung mathematischer Probleme und Verbesserung des Chipdesigns

Das AlphaEvolve-System von Google DeepMind kombiniert die Kreativität eines großen Sprachmodells (LLM) mit algorithmischer Filterung und erzielte Durchbrüche in Mathematik und Informatik. Es löste nicht nur ungelöste mathematische Probleme, sondern wurde auch auf DeepMinds eigene Herausforderungen angewendet, wie die Verbesserung des Designs der nächsten Generation von KI-Chips (Tensor Processing Units) und die Optimierung der Nutzung der globalen Rechenkapazität von Google, wodurch 0,7 % der Ressourcen eingespart wurden. Im Gegensatz zu früheren KI-Systemen, die auf spezifische Aufgaben zugeschnitten waren, ist AlphaEvolve ein universell einsetzbares System, das größere Codes und komplexere Algorithmen bewältigen kann und sogar das zuvor spezialisierte AlphaTensor-System bei Matrixmultiplikationsberechnungen übertraf.

KI

AlphaEvolve: Die unbesungenen Helden hinter der KI-Algorithmusentdeckung

2025-05-14
AlphaEvolve: Die unbesungenen Helden hinter der KI-Algorithmusentdeckung

AlphaEvolve, ein Projekt, das sich auf die Verwendung von KI zur Algorithmusentdeckung konzentriert, wäre ohne die gemeinsamen Bemühungen eines großen Teams nicht möglich gewesen. Der Danksagungsabschnitt nennt über 40 Personen und hebt die verschiedenen Rollen hervor, von Forschern und Ingenieuren bis hin zu Designern, die an seiner Erstellung beteiligt waren, und betont den kollaborativen Charakter und die Komplexität der KI-Algorithmusentdeckung.

EM-LLM: Mensch-inspirierte episodische Gedächtnis für LLMs mit unendlichem Kontext

2025-05-14
EM-LLM: Mensch-inspirierte episodische Gedächtnis für LLMs mit unendlichem Kontext

EM-LLM ist eine neuartige Architektur, die die Fähigkeit großer Sprachmodelle (LLMs), extrem lange Kontexte zu verarbeiten, deutlich verbessert, indem sie das menschliche episodische Gedächtnis und die Ereigniserkennung nachahmt. Ohne Feinabstimmung organisiert EM-LLM Eingabesequenzen von Token in kohärente episodische Ereignisse und greift über einen effizienten zweistufigen Gedächtnisabrufmechanismus auf relevante Informationen zu. In den Benchmarks LongBench und ∞-Bench übertrifft EM-LLM die besten Retrieval-Modelle wie InfLLM und RAG und übertrifft sogar Modelle mit vollständigem Kontext in den meisten Aufgaben. Es führt erfolgreich Retrieval über 10 Millionen Token durch, was für Modelle mit vollständigem Kontext rechnerisch nicht machbar ist. Die starke Korrelation zwischen der Ereignissegmentierung von EM-LLM und von Menschen wahrgenommenen Ereignissen bietet einen neuartigen rechnerischen Rahmen zur Erforschung menschlicher Gedächtnismechanismen.

DeepSeeks stilles Genie: Liang Wenfeng

2025-05-14
DeepSeeks stilles Genie: Liang Wenfeng

Liang Wenfeng, Gründer des bahnbrechenden KI-Startups DeepSeek, wirkt vielleicht schüchtern, doch hinter seiner ruhigen Fassade verbirgt sich ein scharfer Verstand. Er befähigt junge Forscher, beteiligt sich intensiv an technischen Diskussionen und fördert Innovationen. Seine sorgfältige Herangehensweise und sein tiefes Verständnis von KI-Systemen haben DeepSeek zu beachtlichen Erfolgen in diesem Bereich verholfen.

KI

Kann KI Verschwörungstheorien entlarven? Neue Studie deutet darauf hin

2025-05-13
Kann KI Verschwörungstheorien entlarven? Neue Studie deutet darauf hin

Eine Studie von Psychologen des MIT und der Cornell University zeigt, dass KI, insbesondere große Sprachmodelle wie ChatGPT4-Turbo, die Glaubwürdigkeit von Verschwörungstheorien effektiv reduzieren können. Durch die Präsentation von Gegenfakten und die Anwendung sokratischer Fragen führte die KI zu einer durchschnittlichen Abnahme des Glaubens um 20 % bei den Teilnehmern. Selbst wenn die KI als gegnerisch dargestellt wurde, blieb der Effekt bestehen, was darauf hindeutet, dass der Glaubenswandel durch Informationen und nicht durch Vertrauen in die KI angetrieben wird. Die Studie merkt jedoch auch an, dass tief verwurzelte Überzeugungen mit der Identität verbunden sind und rein informationelle Interventionen Verschwörungstheorien möglicherweise nicht vollständig beseitigen.

Die Amygdala und psychische Erkrankungen: Von der Neuroimaging zur transkraniellen fokussierten Ultraschalltherapie

2025-05-13
Die Amygdala und psychische Erkrankungen: Von der Neuroimaging zur transkraniellen fokussierten Ultraschalltherapie

Dieser Übersichtsartikel untersucht die entscheidende Rolle der Amygdala bei der Emotionsverarbeitung und ihren Zusammenhang mit verschiedenen psychischen Erkrankungen wie Angststörungen, Depressionen und posttraumatischen Belastungsstörungen. Er bewertet zahlreiche neurobildgebende Studien, die abnormale Aktivierungsmuster der Amygdala bei verschiedenen psychischen Erkrankungen aufzeigen. Darüber hinaus werden neue Neuromodulationstechniken wie transkranielle Magnetstimulation und transkranielle fokussierte Ultraschalltherapie in der Behandlung psychischer Erkrankungen vorgestellt und deren Auswirkungen auf die Amygdala-Aktivität und die damit verbundene Konnektivität des Gehirnnetzwerks diskutiert. Diese Forschung liefert wichtige Hinweise zum Verständnis der neuronalen Mechanismen psychischer Erkrankungen und zur Entwicklung effektiverer Therapien.

Roboter lernen, Objekte „blind“ zu identifizieren

2025-05-13
Roboter lernen, Objekte „blind“ zu identifizieren

Forscher des MIT, von Amazon Robotics und der University of British Columbia haben eine neue Technik entwickelt, mit der Roboter das Gewicht, die Weichheit oder den Inhalt eines Objekts nur mit internen Sensoren lernen können – ohne Kameras oder externe Werkzeuge. Indem der Roboter ein Objekt aufhebt und leicht schüttelt, leitet er Eigenschaften wie Masse und Weichheit ab. Die Technik verwendet Simulationen des Roboters und des Objekts und analysiert Daten der Gelenkgeber des Roboters, um rückwärts zu arbeiten und die Eigenschaften des Objekts zu identifizieren. Diese kostengünstige Methode ist besonders nützlich in Umgebungen, in denen Kameras ineffektiv sind (z. B. dunkle Keller oder Trümmer nach einem Erdbeben) und ist robust im Umgang mit unbekannten Szenarien. Veröffentlicht auf der International Conference on Robotics and Automation, verspricht diese Forschung, das Roboterlernen zu verbessern und eine schnellere Entwicklung von Manipulationsfähigkeiten und Anpassung an sich ändernde Umgebungen zu ermöglichen.

FastVLM: Effiziente visuelle Kodierung für visuelle Sprachmodelle

2025-05-13
FastVLM: Effiziente visuelle Kodierung für visuelle Sprachmodelle

FastVLM präsentiert einen neuartigen hybriden visuellen Kodierer, der die Kodierungszeit und die Anzahl der generierten Token für hochauflösende Bilder drastisch reduziert. Selbst die kleinste Variante ist 85-mal schneller in Bezug auf die Time-to-First-Token (TTFT) und verfügt über einen 3,4-mal kleineren visuellen Kodierer als LLaVA-OneVision-0.5B. Größere Varianten, gepaart mit dem Qwen2-7B LLM, übertreffen aktuelle Modelle wie Cambrian-1-8B und erreichen eine 7,9-mal schnellere TTFT. Eine Demo-iOS-App zeigt die mobile Leistung. Das Projekt bietet detaillierte Anweisungen für die Inferenz und unterstützt Apple Silicon und Apple-Geräte.

Knappe Anweisungen führen zu Halluzinationen bei KI

2025-05-13
Knappe Anweisungen führen zu Halluzinationen bei KI

Eine neue Studie von Giskard zeigt, dass die Anweisung an KI-Chatbots, prägnant zu sein, paradoxerweise Halluzinationen verstärken kann, insbesondere bei mehrdeutigen Themen. Die Forscher fanden heraus, dass knappe Anweisungen die Fähigkeit des Modells einschränken, Fehler zu identifizieren und zu korrigieren, wobei Kürze gegenüber Genauigkeit priorisiert wird. Selbst fortschrittliche Modelle wie GPT-4 sind betroffen. Dies unterstreicht die Spannung zwischen Benutzererfahrung und faktischer Genauigkeit und fordert Entwickler auf, Systemanweisungen sorgfältig zu gestalten.

Papst Franziskus über KI: Geschichte wiederholt sich, ethische Fragen tauchen wieder auf

2025-05-12
Papst Franziskus über KI: Geschichte wiederholt sich, ethische Fragen tauchen wieder auf

Papst Franziskus' Appell zum Respekt der menschlichen Würde im Zeitalter der KI erinnert an die Enzyklika Rerum Novarum von 1891 von Papst Leo XIII, die die sozialen Umwälzungen der industriellen Revolution behandelte. Leo XIII verurteilte die Ausbeutung von Arbeitern unter schrecklichen Fabrikbedingungen. Er lehnte sowohl ungezügelten Kapitalismus als auch Sozialismus ab und schlug die katholische Soziallehre vor, um die Rechte der Arbeiter zu verteidigen. Ähnlich bedroht KI heute Arbeitsplätze und die Würde des Menschen, was Papst Franziskus dazu veranlasst, für die moralische Führung der Kirche bei der Bewältigung dieser neuen Herausforderungen einzutreten und die Menschenwürde, Gerechtigkeit und Arbeitnehmerrechte zu verteidigen.

KI

Airweave: Semantische Suche in jeder App mit Ihrem Agenten

2025-05-12
Airweave: Semantische Suche in jeder App mit Ihrem Agenten

Airweave ermöglicht es Ihren KI-Agenten, semantische Suchen in jeder Anwendung durchzuführen. Es ist MCP-kompatibel und integriert sich nahtlos in Anwendungen, Datenbanken und APIs, wodurch deren Inhalt in agentenbereite Informationen umgewandelt wird. Unabhängig davon, ob Ihre Daten strukturiert oder unstrukturiert sind, zerlegt Airweave sie in verarbeitbare Einheiten, speichert sie und macht sie über REST- und MCP-Endpunkte abrufbar. Zu den Hauptfunktionen gehören die Datensynchronisierung aus über 25 Quellen, die Pipeline zur Extraktion und Transformation von Entitäten, die Multi-Tenant-Architektur, inkrementelle Updates und die semantische Suche. Es ist mit FastAPI (Python), PostgreSQL- und Qdrant-Datenbanken erstellt und über Docker Compose und Kubernetes bereitgestellt.

Aliensprachen: Fremder als wir denken

2025-05-12
Aliensprachen: Fremder als wir denken

Fiktive außerirdische Sprachen, wie die Heptapodensprache in Arrival, sind zwar bizarr, weisen aber erstaunlich ähnliche Grundstrukturen wie menschliche Sprachen auf. Dies führt zu einer philosophischen Reflexion über den „Raum möglicher Sprachen“: Wahre außerirdische Sprachen könnten viel fremder sein als wir uns vorstellen können, radikal anders aufgebaut als menschliche Sprachen. Der Artikel untersucht vier Ebenen der Sprache: Zeichen, Struktur, Semantik und Pragmatik, und analysiert, wie sich außerirdische Sprachen auf jeder dieser Ebenen unterscheiden könnten. Dazu gehören die Verwendung nicht-menschlicher Sinnesmodalitäten (Gerüche, elektrische Impulse), einzigartige grammatikalische Strukturen und sogar das Fehlen des Begriffs „Bedeutung“, so wie wir ihn verstehen. Sich auf wirklich außerirdische Sprachen vorzubereiten erfordert, den Anthropozentrismus aufzugeben und die Möglichkeiten der Sprache aktiv zu erforschen. Dies ist nicht nur entscheidend für einen möglichen Kontakt mit Außerirdischen, sondern auch für ein tieferes Verständnis unserer eigenen Sprache und kognitiven Fähigkeiten.

Kontinuierliche Denkmaschinen: KI mit Zeitgefühl

2025-05-12
Kontinuierliche Denkmaschinen: KI mit Zeitgefühl

Moderne KI-Systeme opfern die wichtige Eigenschaft der synchronisierten neuronalen Berechnung, die in biologischen Gehirnen vorkommt, zugunsten von Effizienz. Forscher stellen die Continuous Thought Machine (CTM) vor, eine neuartige Architektur neuronaler Netze, die neuronales Timing als grundlegendes Element integriert und eine entkoppelte interne Dimension verwendet, um die zeitliche Entwicklung neuronaler Aktivität zu modellieren. CTM nutzt neuronale Synchronisation als latente Repräsentation und zeigt beeindruckende Fähigkeiten in Aufgaben wie Bildklassifizierung, Labyrinthlösung und Paritätsprüfung, sogar mit der Konstruktion eines internen Weltmodells zum Schließen. Ihre adaptive Berechnung und Interpretierbarkeit eröffnen neue Wege für die KI-Forschung.

Das Recht, sich abzumelden: Haben wir die Freiheit, KI abzulehnen?

2025-05-12
Das Recht, sich abzumelden: Haben wir die Freiheit, KI abzulehnen?

KI verändert unsere Leben still und heimlich, von personalisierten Nachrichtenfeeds bis zum Verkehrsmanagement. Doch eine entscheidende Frage stellt sich: Haben wir das Recht, frei von KI-Einfluss zu leben? Der Artikel argumentiert, dass die Integration von KI in essentielle Dienste wie Gesundheitswesen und Finanzen die Möglichkeit zum Verzicht extrem schwierig macht und zu möglicher Ausgrenzung führt. Verzerrungen in KI-Systemen verschärfen bestehende Ungleichheiten und vergrößern die digitale Kluft. Unter Verwendung von Goethes Zauberlehrling als Metapher warnt der Autor vor unkontrollierbarer technologischer Macht. Der Artikel appelliert an Regierungen, Unternehmen und die Gesellschaft, KI-Governance-Rahmen zu schaffen, die individuelle Freiheiten respektieren, die digitale Kompetenz verbessern und sicherstellen, dass jeder die Wahl hat, mit KI zu interagieren, um zu verhindern, dass KI zu einem Werkzeug der Kontrolle wird.

Ein LLM von Grund auf bauen: Das Geheimnis der Aufmerksamkeit lüften

2025-05-11
Ein LLM von Grund auf bauen: Das Geheimnis der Aufmerksamkeit lüften

Dieser Beitrag taucht tief in die Funktionsweise des Selbstaufmerksamkeitsmechanismus in großen Sprachmodellen ein. Der Autor analysiert die Multi-Head-Aufmerksamkeit und die Schichtmechanismen und erklärt, wie scheinbar einfache Matrixmultiplikationen komplexe Funktionalitäten erreichen. Die Kernaussage ist: Einzelne Aufmerksamkeitsköpfe sind einfach, aber durch Multi-Head-Aufmerksamkeit und Schichtbildung werden komplexe und reiche Repräsentationen aufgebaut. Dies ist analog dazu, wie Convolutional Neural Networks (CNNs) Schicht für Schicht Merkmale extrahieren und letztendlich ein tiefes Verständnis der Eingabesequenz erreichen. Darüber hinaus erklärt der Beitrag, wie Aufmerksamkeitsmechanismen den inhärenten Engpass fester Länge von RNN-Modellen lösen, und verwendet Beispiele, um die Rollen von Query-, Key- und Value-Räumen im Aufmerksamkeitsmechanismus zu veranschaulichen.

KI

Kann ein Thermostat bewusst sein? Philosoph hinterfragt das Wesen des Bewusstseins

2025-05-11
Kann ein Thermostat bewusst sein? Philosoph hinterfragt das Wesen des Bewusstseins

Der Philosoph David Chalmers schlägt vor, dass ein einfacher Thermostat Bewusstsein besitzen könnte. Er zieht Parallelen zwischen konnektionistischen Netzwerken und Thermostaten und hebt erstaunliche Ähnlichkeiten in der Informationsverarbeitung hervor. Dies deutet darauf hin, dass Thermostate unter bestimmten Kriterien elementare bewusste Erfahrungen modellieren könnten. Chalmers argumentiert, dass Komplexität allein das Bewusstsein nicht erklärt; während fortgeschrittene KI Bewusstsein imitiert, bleibt eine grundlegende Essenz schwer fassbar. Er schlussfolgert, dass wir über konnektionistische Modelle hinausgehen müssen, um nach tieferen, noch unentdeckten Gesetzen zu suchen, um das Bewusstsein zu verstehen.

KI

Googles Gemini 2.5 Update beschädigt heimlich Trauma-fokussierte Apps

2025-05-10
Googles Gemini 2.5 Update beschädigt heimlich Trauma-fokussierte Apps

Ein kürzlich erfolgtes Update von Googles großem Sprachmodell Gemini 2.5 hat versehentlich die Steuerelemente für die Sicherheitseinstellungen beschädigt und zuvor zulässige Inhalte blockiert, wie z. B. sensible Berichte über sexuelle Übergriffe. Dies hat mehrere Anwendungen lahmgelegt, die auf die Gemini-API angewiesen sind, darunter VOXHELIX (das Überlebenden sexueller Übergriffe hilft, Berichte zu erstellen) und InnerPiece (eine Journal-App für PTSD- und Missbrauchsüberlebende). Entwickler kritisieren Google dafür, das Modell stillschweigend geändert zu haben, was zu App-Fehlfunktionen und einer schwerwiegenden Beeinträchtigung der Benutzererfahrung und der psychischen Gesundheitsversorgung geführt hat. Google hat das Problem bestätigt, aber noch keine klare Erklärung abgegeben.

Wie viel Information steckt wirklich in Ihrer DNA?

2025-05-10
Wie viel Information steckt wirklich in Ihrer DNA?

Dieser Artikel befasst sich mit der Frage, wie viel Information im menschlichen DNA enthalten ist. Eine einfache Berechnung deutet auf etwa 1,5 GB hin, aber dies vernachlässigt Redundanz und Komprimierbarkeit. Der Autor untersucht zwei Informationsdefinitionen aus der Informationstheorie: Speicherplatz und Kolmogorov-Komplexität, und vergleicht deren Anwendung auf DNA. Schließlich wird eine neue Definition – phänotypische Kolmogorov-Komplexität – vorgeschlagen, die den wahren Informationsgehalt von DNA besser widerspiegelt, obwohl die genaue Berechnung immer noch schwierig ist.

Die versteckten Kosten von KI: Produktivitätssteigerung, aber Reputationsverlust?

2025-05-10
Die versteckten Kosten von KI: Produktivitätssteigerung, aber Reputationsverlust?

Eine neue Studie der Duke University zeigt die Kehrseite von KI: Während generative KI-Tools die Produktivität steigern können, schaden sie möglicherweise heimlich dem beruflichen Ruf. Eine in PNAS veröffentlichte Studie zeigt, dass Mitarbeiter, die KI-Tools wie ChatGPT verwenden, von Kollegen und Vorgesetzten als weniger kompetent und motiviert angesehen werden. Dieses negative Urteil ist nicht auf bestimmte demografische Gruppen beschränkt; die soziale Stigmatisierung der KI-Nutzung ist weit verbreitet. Vier Experimente bestätigten diese Verzerrung und heben die sozialen Kosten der KI-Einführung hervor, selbst bei Produktivitätssteigerungen.

KI Ruf
1 2 17 18 19 21 23 24 25 51 52