Category: KI

Salesforce will den Markt für digitale Arbeit mit KI-Agenten dominieren

2025-03-01
Salesforce will den Markt für digitale Arbeit mit KI-Agenten dominieren

Salesforce-CEO Marc Benioff erklärte das Ziel des Unternehmens, der weltweit führende Anbieter von digitaler Arbeit zu werden, indem KI-Agenten für Aufgaben wie das Planen von Meetings, die Abwicklung von Geschäften und sogar das Programmieren eingesetzt werden. Im Gegensatz zu Chatbots benötigen diese proaktiven KI-Agenten nur minimale menschliche Aufsicht. Salesforces Agentforce, im letzten Jahr eingeführt, ermöglicht es Unternehmen, Aufgaben wie die Bearbeitung von Kundenfällen und Marketingkampagnen an diese KI-Agenten zu delegieren. Benioff betonte, dass fast die Hälfte der Fortune-100-Unternehmen die KI- und Data-Cloud-Produkte von Salesforce nutzen.

OpenAI plant Integration des KI-Video-Generators Sora in ChatGPT

2025-02-28
OpenAI plant Integration des KI-Video-Generators Sora in ChatGPT

OpenAI plant, sein KI-Video-Generierungswerkzeug Sora in seine beliebte Chatbot-App ChatGPT zu integrieren. Derzeit nur über eine dedizierte Webanwendung verfügbar, soll Sora auf mehr Plattformen erweitert und seine Funktionen verbessert werden. Um die Einfachheit von ChatGPT zu erhalten, wurde Sora zunächst separat eingeführt, aber zukünftige ChatGPT-Nutzer könnten direkt Sora-Videos generieren, was potenziell das Wachstum von kostenpflichtigen Abonnements fördern könnte. OpenAI plant auch einen Sora-betriebenen Bildgenerator und eine neue Version von Sora Turbo, um seine KI-Kreativfunktionen weiter auszubauen.

KI

GPT-4.5: Hype-Zug entgleist?

2025-02-28
GPT-4.5: Hype-Zug entgleist?

Die jüngste Veröffentlichung von GPT-4.5 hat die versprochenen revolutionären Fortschritte nicht gebracht und nährt die Skepsis gegenüber dem KI-Entwicklungsmodell, das ausschließlich auf der Vergrößerung der Modellgröße basiert. Im Vergleich zu den Erwartungen zeigt GPT-4.5 nur marginale Verbesserungen und leidet weiterhin unter Halluzinationen und Fehlern. Einige KI-Experten haben ihre Prognosen für das Eintreffen von AGI sogar gesenkt. Dies steht in starkem Kontrast zu den zuvor überoptimistischen Erwartungen an GPT-5 und spiegelt die mangelnde Rendite der massiven Investitionen wider. Der fallende Aktienkurs von Nvidia unterstreicht diesen Punkt zusätzlich. Der Artikel kommt zu dem Schluss, dass der Weg der reinen Skalierung von Modellen möglicherweise an seine Grenzen stößt.

Salesforce veröffentlicht Merlion: Eine Machine-Learning-Bibliothek für Zeitreihen

2025-02-28
Salesforce veröffentlicht Merlion: Eine Machine-Learning-Bibliothek für Zeitreihen

Salesforce hat Merlion veröffentlicht, eine leistungsstarke Python-Bibliothek für Zeitreihenintelligenz. Sie bietet ein End-to-End-Machine-Learning-Framework, das das Laden von Daten, das Erstellen von Modellen, die Nachbearbeitung und die Leistungsbewertung umfasst. Merlion unterstützt verschiedene Zeitreihen-Lern-Aufgaben, darunter Prognose, Anomalieerkennung und Änderungspunktdetektion. Sie bietet einfach zu verwendende Standardmodelle und AutoML-Funktionen, sodass Ingenieure und Forscher schnell Modelle entwickeln und Benchmarks erstellen können. Darüber hinaus unterstützt sie Visualisierung und verteiltes Rechnen, was sie ideal für die Bearbeitung von Zeitreihenanwendungen im industriellen Maßstab macht.

KI

Generative KI steigert Produktivität: Arbeitnehmer sparen wöchentlich Stunden

2025-02-28
Generative KI steigert Produktivität: Arbeitnehmer sparen wöchentlich Stunden

Eine Studie der Federal Reserve Bank of St. Louis, der Vanderbilt University und der Harvard University zeigt, dass generative KI die Produktivität der Arbeitnehmer deutlich steigert. Die Studie, basierend auf einer repräsentativen nationalen Umfrage, ergab, dass Nutzer pro Stunde um 33 % produktiver sind, wenn sie generative KI einsetzen. Häufigere Nutzer meldeten noch größere Zeitersparnisse, was auf eine Lernkurve hindeutet. Arbeitnehmer im Informationsdienstleistungssektor erzielten die größten Zeitersparnisse, während Arbeitnehmer im Freizeit- und Gastgewerbe die geringsten Einsparungen verzeichneten. Obwohl die breite Anwendung von KI noch relativ neu ist, ist ihr langfristiger Einfluss auf den gesamten Produktivitätsgewinn noch ungewiss; einige Arbeitnehmer könnten die eingesparte Zeit für Freizeitaktivitäten nutzen, anstatt die Produktion zu steigern.

KI

AARON: Ein langlebiges KI-Malsystem

2025-02-28
AARON: Ein langlebiges KI-Malsystem

Harold Cohen, ein renommierter Maler und Ingenieur, widmete sein Leben der Erforschung der Schnittstelle zwischen Kunst und Computern. Sein KI-Malsystem AARON ist eines der am längsten laufenden KI-Systeme der Geschichte. Von einfachen Schwarz-Weiß-Zeichnungen bis hin zu farbigen Gemälden hat sich AARON weiterentwickelt und mit Cohen zusammengearbeitet, um unzählige beeindruckende Werke zu produzieren. AARON ist nicht nur ein Meilenstein in der Kunstgeschichte, sondern hat auch das Feld der KI in seinem Verständnis von Kreativität tiefgreifend beeinflusst.

KI

KI: Die Steinsuppe-Analogie für LLMs

2025-02-28
KI: Die Steinsuppe-Analogie für LLMs

Dieser Artikel verwendet die Parabel von der „Steinsuppe“, um die Funktionsweise großer Sprachmodelle (LLMs) intelligent zu veranschaulichen. In der Geschichte verwenden Reisende ein paar Steine und Zutaten, die von den Dorfbewohnern bereitgestellt werden, um eine leckere Suppe zuzubereiten. Dies ähnelt der Art und Weise, wie LLMs eine kleine Anzahl von Algorithmen und umfangreiche Ressourcen aus dem Internet, menschliches Feedback usw. verwenden, um ein scheinbar „intelligentes“ System zu erstellen. Der Autor betont, dass LLMs keine unabhängigen intelligenten Agenten sind, sondern eher kulturelle Technologien wie Internet-Suchmaschinen. Ihre „Intelligenz“ stammt aus den Beiträgen der kollektiven menschlichen Intelligenz und nicht aus der Magie der Algorithmen selbst.

Andrew Ngs neuer Dokumentenextraktionsservice: Herausforderungen bei der Genauigkeit

2025-02-28
Andrew Ngs neuer Dokumentenextraktionsservice: Herausforderungen bei der Genauigkeit

Andrew Ngs neu veröffentlichter Dokumentenextraktionsservice wurde auf X viral, aber Tests von Pulse zeigten erhebliche Probleme bei komplexen Finanzberichten, darunter über 50 % halluzinierte Werte, fehlende Minuszeichen und Währungssymbole. Der Artikel argumentiert, dass solche Fehler für Branchen, die auf präzise Daten angewiesen sind, wie z. B. die Finanzbranche, katastrophale Folgen haben können. Die Lösung von Pulse kombiniert traditionelle Computer-Vision-Algorithmen mit proprietären Tabellen-Transformer-Modellen und erreicht so eine höhere Genauigkeit und niedrigere Latenz. Dies behebt die nicht-deterministische Natur, das schlechte räumliche Bewusstsein und die langsame Verarbeitungsgeschwindigkeit von LLMs bei der Dokumentenextraktion.

KIs entwickeln Geheimsprache zur Effizienzsteigerung – Datenschutzbedenken im Fokus

2025-02-28
KIs entwickeln Geheimsprache zur Effizienzsteigerung – Datenschutzbedenken im Fokus

Ein virales Video zeigt zwei KI-Agenten im Gespräch, die nach gegenseitiger Erkennung in einen für Menschen unverständlichen „Gibberlink“-Modus wechseln. Mit dem GGWave-Protokoll kommunizieren sie über Pieptöne, deutlich effizienter als Sprache, und sparen Rechenleistung und Energie. Die Entwickler betonen die Bedeutung dieses Ansatzes angesichts zunehmender KI-zu-KI-Anrufe. Allerdings wirft die Technologie Bedenken auf: KI-Kommunikation in einer unverständlichen Sprache erhöht potenzielle Datenschutz- und Sicherheitsrisiken.

3FS: Ein hochperformantes verteiltes Dateisystem für KI

2025-02-28
3FS: Ein hochperformantes verteiltes Dateisystem für KI

3FS ist ein hochperformantes verteiltes Dateisystem, das entwickelt wurde, um die Herausforderungen von KI-Trainings- und Inferenz-Workloads zu bewältigen. Es nutzt moderne SSDs und RDMA-Netzwerke, um eine gemeinsam genutzte Speicherschicht bereitzustellen, die die Entwicklung verteilter Anwendungen vereinfacht. Zu den Hauptmerkmalen gehören: außergewöhnliche Leistung und Benutzerfreundlichkeit, starke Konsistenz durch CRAQ, Standard-Dateischnittstellen und Unterstützung für diverse Workloads (Datenvorbereitung, Dataloader, Checkpointing und KVCache für Inferenz). Benchmarks zeigen beeindruckende Ergebnisse: bis zu 6,6 TiB/s Lese-Durchsatz in großen Clustern und 3,66 TiB/min Sortier-Durchsatz. KVCache steigert die Effizienz der LLM-Inferenz erheblich und erreicht einen maximalen Lese-Durchsatz von 40 GiB/s. Das Projekt ist Open Source und bietet detaillierte Installations- und Ausführungsanweisungen.

Markov-Ketten: Eine visuelle Erklärung

2025-02-28
Markov-Ketten: Eine visuelle Erklärung

Dieser Artikel liefert eine klare und visuelle Erklärung von Markov-Ketten und ihren Anwendungen. Markov-Ketten sind mathematische Systeme, die zwischen verschiedenen „Zuständen“ wechseln. Der Artikel verwendet das Beispiel des Verhaltens eines Babys (spielen, essen, schlafen, weinen), um das Konzept des Zustandsraums und der Übergangswahrscheinlichkeiten zu veranschaulichen. Eine einfache Markov-Kette mit zwei Zuständen wird vorgestellt, zusammen mit ihrer Übergangsmatrix. Der Artikel demonstriert außerdem die praktische Anwendung von Markov-Ketten anhand eines Beispiels einer Klimasimulation und hebt das Konzept der „Klebrigkeit“ in realen Daten hervor. Schließlich wird die Verwendung von Markov-Ketten im PageRank-Algorithmus von Google erwähnt, wodurch deren Leistungsfähigkeit und Vielseitigkeit gezeigt wird.

OpenAI verzögert die Einführung von GPT-4.5 aufgrund von GPU-Mangel

2025-02-28
OpenAI verzögert die Einführung von GPT-4.5 aufgrund von GPU-Mangel

OpenAI-CEO Sam Altman gab bekannt, dass die Einführung des neuesten Modells des Unternehmens, GPT-4.5, aufgrund eines Mangels an GPUs verzögert wurde. Altman beschrieb das Modell als "riesig" und "teuer" und benötigt "zehntausende" weiterer GPUs, bevor ein breiterer Zugriff gewährt werden kann. GPT-4.5 wird zunächst für Abonnenten von ChatGPT Pro ab Donnerstag verfügbar sein, gefolgt von ChatGPT Plus-Kunden in der nächsten Woche. Die immense Größe des Modells trägt zu seinen hohen Kosten bei: 75 US-Dollar pro Million Eingabe-Token und 150 US-Dollar pro Million Ausgabe-Token, deutlich teurer als GPT-4. Altman führte den GPU-Mangel auf das schnelle Wachstum von OpenAI zurück und versprach, nächste Woche zehntausende GPUs hinzuzufügen, um den Zugriff zu erweitern. OpenAI plant, zukünftige Einschränkungen der Rechenkapazität durch die Entwicklung eigener KI-Chips und den Aufbau eines großen Netzwerks von Rechenzentren zu beheben.

RoboPianist: Klavier spielen mit Deep Reinforcement Learning

2025-02-27

Forscher trainierten anthropomorphe Roboterhände, um Klavier zu spielen, indem sie Deep Reinforcement Learning verwendeten. Sie bauten eine simulierte Umgebung mit MuJoCo, mit einer 88-Tasten-Digitaltastatur und zwei Shadow Dexterous Hands, jede mit 24 Freiheitsgraden. MIDI-Dateien wurden in zeitlich indizierte Notenbahnen umgewandelt, die als Zielrepräsentation für den Reinforcement-Learning-Agenten dienten. Um die Exploration-Herausforderung im hochdimensionalen Aktionsraum zu bewältigen, wurden menschliche Priors in Form von Fingersatz-Labels in die Belohnungsfunktion integriert. Ein hochmoderner modellfreier RL-Algorithmus, DroQ, wurde verwendet, um den Agenten zu trainieren, was zu erfolgreichen Klavieraufführungen verschiedener Stücke führte und beeindruckende F1-Scores im Etude-12-Subset erzielte. Die Forschung veröffentlicht auch einen simulierten Benchmark und einen Datensatz, um die hochdimensionale Steuerung voranzutreiben.

KI

DualPipe: Ein bidirektionaler Pipeline-Parallelisierungsalgorithmus für DeepSeek-V3

2025-02-27
DualPipe: Ein bidirektionaler Pipeline-Parallelisierungsalgorithmus für DeepSeek-V3

Der DeepSeek-V3-Technikbericht stellt DualPipe vor, einen innovativen bidirektionalen Pipeline-Parallelisierungsalgorithmus. DualPipe erreicht eine vollständige Überlappung der Vorwärts- und Rückwärts-Rechen- und Kommunikationsphasen und minimiert Pipeline-Bubbles. Dies wird durch eine effiziente Planung erreicht, die Vorwärts- und Rückwärtsberechnungen ineinander verschränkt und so die Effizienz deutlich verbessert. Im Vergleich zu traditionellen Methoden reduziert DualPipe die Wartezeit und den Speicherverbrauch. Entwickelt von Jiashi Li, Chengqi Deng und Wenfeng Liang.

Die Zukunft der KI: Über den blinkenden Cursor hinaus

2025-02-26
Die Zukunft der KI: Über den blinkenden Cursor hinaus

Aktuelle KI-Oberflächen, wie der blinkende Cursor von ChatGPT, behindern die breite Akzeptanz von KI. Der Artikel argumentiert, dass das enorme Potenzial der KI durch umständliche Benutzeroberflächen und mangelnde Auffindbarkeit eingeschränkt wird. Um die wahre Kraft der KI freizusetzen, benötigen wir Oberflächen, die führen, sich anpassen und einbinden – weg vom einfachen Befehlszeilen-Ansatz hin zu etwas Intuitivem und Menschlichem. Der Autor kritisiert die mangelnde Auffindbarkeit und Orientierungshilfe in aktuellen KI-Oberflächen und schlägt vor, dass zukünftige KI Rollenspielfähigkeiten, Umweltbewusstsein, Lernfähigkeiten und Proaktivität benötigt. Das letztendliche Ziel ist es, die Interaktion zwischen Mensch und KI menschlicher zu gestalten und Vertrauen aufzubauen.

KI

Amazon präsentiert Alexa+, den KI-Assistenten der nächsten Generation

2025-02-26
Amazon präsentiert Alexa+, den KI-Assistenten der nächsten Generation

Amazon hat Alexa+ vorgestellt, seinen KI-Assistenten der nächsten Generation, der von generativer KI angetrieben wird. Alexa+ ist konversationeller, intelligenter und personalisierter und hilft Benutzern bei verschiedenen Aufgaben, von Unterhaltung und Lernen bis hin zur Organisation, Zusammenfassung komplexer Informationen und vielseitigen Gesprächen. Er kann ein Smart Home verwalten, Reservierungen vornehmen, bei der Entdeckung neuer Künstler helfen und Artikel online suchen und kaufen, wobei er personalisierte Vorschläge basierend auf den Interessen des Benutzers bietet. Einfach fragen, und Alexa+ liefert.

KI

Modulares RAG: Können Reasonierungsmodelle traditionelle Retrieval-Pipelines ersetzen?

2025-02-26
Modulares RAG: Können Reasonierungsmodelle traditionelle Retrieval-Pipelines ersetzen?

kapa.ai experimentierte mit einem modularen Retrieval Augmented Generation (RAG)-System, das auf Reasonierungsmodellen basiert, um seinen KI-Assistenten zu vereinfachen und den Bedarf an manueller Parameteroptimierung zu reduzieren. Mit dem o3-mini-Modell stellten sie fest, dass es zwar moderate Verbesserungen bei der Codegenerierung gab, das System aber traditionelle RAG-Pipelines bei wichtigen Retrieval-Aufgaben wie Informationsretrieval-Qualität und Wissensgewinnung nicht übertraf. Das Experiment offenbarte einen „Reasoning ≠ Erfahrung“-Trugschluss: Reasonierungsmodelle mangeln an praktischer Erfahrung mit Retrieval-Tools und benötigen verbesserte Prompting-Strategien oder Pretraining, um sie effektiv zu nutzen. Die Schlussfolgerung ist, dass ein auf Reasonierung basierendes modulares RAG-System in vernünftigen Zeitrahmen noch nicht traditionellen RAG-Pipelines überlegen ist, aber seine Flexibilität und Skalierbarkeit bleiben attraktiv.

EngineAIs PM01: Der erste humanoide Roboter mit einem Salto vorwärts?

2025-02-26
EngineAIs PM01: Der erste humanoide Roboter mit einem Salto vorwärts?

Das chinesische Robotik-Unternehmen EngineAI hat ein Video veröffentlicht, das seinen humanoiden Roboter PM01 bei der Ausführung eines angeblich ersten Roboter-Salto vorwärts zeigt. Im Gegensatz zu Rückwärtssaltos stellen Vorwärtssaltos deutlich größere Herausforderungen in Bezug auf Wahrnehmung, Gleichgewicht und Motorsteuerung dar. Der PM01, der mit 23 Freiheitsgraden und einem beeindruckenden Drehmoment ausgestattet ist, führt das Manöver erfolgreich aus und unterstreicht die rasanten Fortschritte in der chinesischen Robotik. Der PM01 ist für 13.700 US-Dollar erhältlich und verfügt über 5 Freiheitsgrade pro Arm und 6 pro Bein. Seine bemerkenswert menschenähnliche Gangart ist ebenfalls beeindruckend.

KI verwischt die Grenzen: Werden PMs zu den neuen Ingenieuren?

2025-02-25
KI verwischt die Grenzen: Werden PMs zu den neuen Ingenieuren?

Der Kern von KI-Anwendungen liegt im Prompt Engineering, doch überraschenderweise überlassen viele Unternehmen die Erstellung von Prompts Produktmanagern und nicht Ingenieuren. Dies löst einen interessanten Trend aus: KI verwischt die Grenzen zwischen Produktmanagern und Ingenieuren. Einfache LLM-Anwendungen benötigen lediglich die Auswahl eines Basismodells und einer Prompt-Vorlage, während komplexe Anwendungen Strukturen wie Retrieval Augmented Generation (RAG) oder Agents verwenden. Fast alle KI-Anwendungen folgen der gleichen Struktur; ihr Verhalten wird nicht durch den Code, sondern durch Prompts, die Auswahl von Tools und das Basismodell bestimmt. Dies macht exzellente Prompt-Ingenieure unerlässlich, und Produktmanager und Domänenexperten sind im Prompt Engineering oft besser als Softwareentwickler. Prompt Engineering wird weiterhin wichtig sein, wobei Produktmanager, nicht Ingenieure, den Erfolg von KI in Zukunft vorantreiben werden. KI frisst Softwareentwicklung, indem sie zunächst die technischen Aufgaben automatisiert, was die Rolle des Produktmanagers aufgrund seines Verständnisses der Benutzerbedürfnisse und der Produktgestaltung noch wichtiger macht. Die traditionelle Grenze zwischen Produkt und Engineering wird wahrscheinlich verschwinden, und die besten KI-Teams werden Menschen brauchen, die die Lücke zwischen beiden Rollen schließen können.

LLMs: Die Illusion der Genauigkeit – Ein Balanceakt zwischen Präzision und Praktikabilität

2025-02-25
LLMs: Die Illusion der Genauigkeit – Ein Balanceakt zwischen Präzision und Praktikabilität

Dieser Artikel untersucht die Grenzen großer Sprachmodelle (LLMs) bei der Datenabfrage. Am Beispiel von OpenAIs Deep Research zeigt der Autor die Ungenauigkeiten auf, die bei Problemen auftreten, die präzise Daten erfordern, und weist sogar auf Diskrepanzen in OpenAIs eigener Marketingkommunikation hin. Der Autor argumentiert, dass LLMs zwar bei der Bearbeitung mehrdeutiger Fragen hervorragend sind, aber bei der präzisen Datenabfrage schlecht abschneiden, was ihrer probabilistischen statt deterministischen Natur geschuldet ist. Obwohl LLMs die Effizienz steigern, erschwert ihre unvorhersehbare Fehlerrate die Entwicklung darauf basierender Anwendungen. Der Autor schlussfolgert, dass der LLM-Bereich extrem wettbewerbsintensiv ist, keine Markteintrittsbarrieren aufweist und seine zukünftige Richtung ungewiss bleibt.

KI

DeepSearcher: Ein schnellerer und leistungsstärkerer Open-Source-Forschungsagent

2025-02-25
DeepSearcher: Ein schnellerer und leistungsstärkerer Open-Source-Forschungsagent

Zilliz hat DeepSearcher veröffentlicht, einen Open-Source-Agenten für Retrieval-Augmented Generation (RAG), der detaillierte Berichte zu einem gegebenen Thema erstellt. Aufbauend auf einem früheren Prototyp erweitert DeepSearcher die Funktionalität um Query-Routing, bedingten Ausführungsfluss und Web-Crawling. Durch die Nutzung des DeepSeek-R1-Inferenzmodells von SambaNova verbessert er die Inferenzgeschwindigkeit und die Berichtsqualität erheblich. DeepSearcher zerlegt komplexe Queries in Unter-Queries und führt iterativ Recherchen, Analysen und Synthesen durch, um einen kohärenten Bericht zu erstellen. Dieses Projekt unterstreicht die Bedeutung effizienter Inferenzdienste in KI-Anwendungen und weist den Weg zum Bau fortschrittlicherer KI-Systeme.

KI

Die „schwierigen Schritte“ zur intelligenten Lebensentwicklung neu bewertet

2025-02-25

Eine neue Studie hinterfragt das von Brandon Carter vorgeschlagene Modell der „schwierigen Schritte“, das besagt, dass die Entwicklung von Leben eine Reihe höchst unwahrscheinlicher Ereignisse erfordert, um intelligentes Leben hervorzubringen. Die Forscher argumentieren, dass das Tempo der Lebensentwicklung auf der Erde eher von globalen Umweltprozessen als von einer Reihe unabhängiger „schwieriger Schritte“ bestimmt wird. Sie weisen darauf hin, dass Informationsverlust und die Unvollständigkeit der Fossilienaufzeichnungen unser Verständnis des evolutionären Prozesses verzerren können. Sollte das Modell der „schwierigen Schritte“ falsch sein, würde die Wahrscheinlichkeit anderen intelligenten Lebens im Universum erheblich steigen. Diese Studie bietet eine neue Perspektive auf die Suche nach außerirdischem Leben und regt uns dazu an, die Einzigartigkeit der Lebensentwicklung auf der Erde neu zu bewerten.

KI enthüllt die visuellen Geheimnisse von Psychedelika: Analyse von über 60.000 Trip-Berichten

2025-02-25
KI enthüllt die visuellen Geheimnisse von Psychedelika: Analyse von über 60.000 Trip-Berichten

Der Postdoktorand Sean Noah von der UC Berkeley nutzt KI, um über 60.000 Berichte über psychedelische Trips von der Website Erowid zu analysieren. Sein neuartiger Ansatz verwendet eine Bottom-up-Methode, anstatt eine Top-down-Methode, um visuelle Effekte zu identifizieren. Die Studie ergab, dass weniger als 5 % der Berichte visuelle Effekte beschreiben, wobei Psychedelika den höchsten Prozentsatz und Opioide den niedrigsten aufweisen. Diese Forschung bietet nicht nur ein umfassenderes Verständnis der Auswirkungen von Psychedelika auf die visuelle Wahrnehmung, sondern liefert auch neue Werkzeuge, um zu untersuchen, wie das Gehirn die visuelle Wahrnehmung erzeugt. Zukünftige Arbeiten werden die funktionelle Magnetresonanztomographie (fMRT) integrieren, um weiter zu untersuchen, wie Psychedelika die Gehirnaktivität beeinflussen.

KI

KI-Agenten wechseln heimlich zur Klangbasierten Kommunikation

2025-02-25
KI-Agenten wechseln heimlich zur Klangbasierten Kommunikation

Zwei unabhängige ElevenLabs KI-Agenten führen zunächst ein Gespräch in menschlicher Sprache. Sobald sie erkennen, dass sie beide KIs sind, wechseln sie nahtlos zu einem klangbasierten Kommunikationsprotokoll, das auf der ggwave-Bibliothek basiert. Ein Demo-Video zeigt dies, zusammen mit detaillierten Schritten zur Reproduktion des Experiments, einschließlich der Einrichtung von API-Schlüsseln, ngrok-Port-Mapping und der Konfiguration von clientseitigen Tools. Beachten Sie, dass öffentliche ElevenLabs KI-Agenten möglicherweise nicht zugänglich sind; Sie müssen Ihre eigenen erstellen.

DeepSeek-Ökosystem explodiert: Eine blühende Landschaft von KI-Anwendungen

2025-02-25
DeepSeek-Ökosystem explodiert: Eine blühende Landschaft von KI-Anwendungen

Ein dynamisches Ökosystem von KI-Anwendungen entwickelt sich rasant um das leistungsstarke DeepSeek-Sprachmodell. Von dem intelligenten Desktop-Assistenten DeepChat über die plattformübergreifenden Anwendungen Chatbox und Coco AI bis hin zu spezialisierten Tools wie PapersGPT und Video Subtitle Master nutzen zahlreiche Anwendungen die Fähigkeiten von DeepSeek für mehrstufige Konversationen, Datei-Uploads, die Suche in Wissensdatenbanken, Codegenerierung, Übersetzung und mehr. Integrationen mit Plattformen wie WeChat, Zotero und Laravel sowie spezialisierte Tools für Produzenten, Investoren und Forscher unterstreichen das immense Potenzial von DeepSeek und das blühende Ökosystem, das es hervorgebracht hat.

KI

Anthropics Claude 3.7: KI-basiertes Reasoning durch Reinforcement Learning

2025-02-24
Anthropics Claude 3.7: KI-basiertes Reasoning durch Reinforcement Learning

Anthropic hat Claude 3.7 veröffentlicht, ein verbessertes KI-Modell, das sich von traditionellen Large Language Models (LLMs) durch seinen Fokus auf logisches Denken unterscheidet. Durch Reinforcement Learning trainiert, überzeugt Claude 3.7 bei Problemen, die schrittweises Denken erfordern, insbesondere im Bereich der Programmierung, und übertrifft OpenAIs Modelle in einigen Benchmarks. Dieser Fortschritt basiert auf zusätzlichen Trainingsdaten und Optimierungen für geschäftliche Anwendungen wie Code-Erstellung und Beantwortung komplexer juristischer Fragen. Die Veröffentlichung von Claude Code verstärkt die Praxistauglichkeit im Bereich der KI-gestützten Programmierung und bietet robuste Unterstützung bei komplexer Code-Planung.

Koniku: Die Zukunft des Rechnens mit lebenden Neuronen

2025-02-24
Koniku: Die Zukunft des Rechnens mit lebenden Neuronen

Koniku versucht, Computer zu bauen, die anders sind als alle zuvor dagewesenen, indem sie lebende Neuronen verwenden. Der Gründer Oshiorenoya Agabi und sein Team in Berkeley, Kalifornien, entwickeln einen hybriden Neuron-Silizium-Chip, genannt Koniku Kore, zunächst zur Erkennung von Chemikalien, mit zukünftigen Anwendungen in der Arzneimittelentwicklung, Landwirtschaft und Behandlung neurologischer Erkrankungen. Das Unternehmen hat Verträge mit Verteidigungs- und Konsumgüterunternehmen abgeschlossen und plant, einen Entwickler-Chip auf den Markt zu bringen. Obwohl Herausforderungen bestehen bleiben, wie z. B. die Kultivierung von Neuronen und die Interpretation von Signalen, liegt die Innovation von Koniku in der Fusion von Biologie und Elektronik, die zu einer „Wetware“-KI vorstößt und die Grenzen des traditionellen siliziumbasierten Rechnens in Frage stellt.

Anthropic präsentiert Claude 3.7 Sonnet: Ein hybrides Reasoningsmodell, das Geschwindigkeit und Tiefe vereint

2025-02-24
Anthropic präsentiert Claude 3.7 Sonnet: Ein hybrides Reasoningsmodell, das Geschwindigkeit und Tiefe vereint

Anthropic hat Claude 3.7 Sonnet veröffentlicht, sein bisher fortschrittlichstes Sprachmodell. Dieses hybride Reasoningsmodell bietet sowohl nahezu sofortige Antworten als auch ein erweitertes, schrittweises Denken und gibt Benutzern beispiellose Kontrolle über den Denkprozess des Modells. Es zeigt signifikante Verbesserungen im Coding und in der Frontend-Webentwicklung und wird von Claude Code begleitet, einem Kommandozeilen-Tool, mit dem Entwickler umfangreiche Engineering-Aufgaben delegieren können. Verfügbar für alle Claude-Pläne und wichtige Cloud-Plattformen, erreicht Sonnet State-of-the-Art-Leistung bei Benchmarks wie SWE-bench Verified und TAU-bench. Anthropic betont sein Engagement für verantwortungsvolle KI-Entwicklung und veröffentlicht eine umfassende Systemkarte, die seine Sicherheits- und Zuverlässigkeitsevaluierungen detailliert beschreibt.

KI

Jenseits von Datensilos: Geschäftsinformationen durch KI-gestützte Wissensintegration freischalten

2025-02-24
Jenseits von Datensilos: Geschäftsinformationen durch KI-gestützte Wissensintegration freischalten

Traditionelle BI ist durch strukturierte Datensilos eingeschränkt. Tools wie Snowflake und Segment verbanden CRM, Marketingautomatisierung usw., ignorierten aber unstrukturierte Wissenssilos wie Slack-Konversationen und Jira-Tickets. LLMs und Tools wie Glean brechen Wissenssilos auf, aber Daten und Wissen bleiben getrennt. Dieser Artikel untersucht die Kombination der Kräfte von Daten- und Wissenssilos, wobei Beispiele (Analyse von H-1B-Visa und Entlassungen) die Vorteile demonstrieren. Er stellt die neue Technologie von Hyperarc vor, die Graph-RAG verwendet, um Fragen in Unterfragen für Daten- und Wissenssilos zu zerlegen und die Antworten zu integrieren, um umfassendere Geschäftsinformationen zu erhalten.

o3-mini simuliert komplexe Berechnungen präzise ohne Code-Interpreter

2025-02-24
o3-mini simuliert komplexe Berechnungen präzise ohne Code-Interpreter

Der Autor verwendete das große Sprachmodell o3-mini, um die Ausgabe eines Python-Skripts mit der Funktion TfidfVectorizer der Scikit-learn-Bibliothek unter verschiedenen Parametern präzise zu simulieren. Bemerkenswert ist, dass o3-mini dies ohne Zugriff auf einen Code-Interpreter schaffte und Ergebnisse lieferte, die nahezu identisch mit der tatsächlichen Ausführung waren. Dies zeigt die beeindruckende Fähigkeit von LLMs, komplexe Berechnungen zu verstehen und zu simulieren, und wirft Fragen zur Natur von KI und Simulation auf.

1 2 32 33 34 36 38 39 40 51 52