Category: KI

OpenAI nutzt Reddit's r/ChangeMyView, um die Überzeugungskraft von KI zu bewerten

2025-02-02
OpenAI nutzt Reddit's r/ChangeMyView, um die Überzeugungskraft von KI zu bewerten

OpenAI hat den Reddit-Subreddit r/ChangeMyView genutzt, um die Überzeugungskraft seines neuen Argumentationsmodells o3-mini zu bewerten. Der Subreddit, in dem Benutzer Meinungen posten und an Debatten teilnehmen, lieferte einen einzigartigen Datensatz, um zu beurteilen, wie gut die von der KI generierten Antworten Meinungen ändern konnten. Obwohl o3-mini frühere Modelle wie o1 oder GPT-4o nicht signifikant übertraf, zeigten alle eine starke Überzeugungskraft und erreichten die oberen 80-90 % der menschlichen Leistung. OpenAI betont, dass das Ziel nicht darin besteht, eine hyper-überzeugende KI zu schaffen, sondern die Risiken zu mindern, die mit übermäßig überzeugenden Modellen verbunden sind. Der Benchmark unterstreicht die anhaltende Herausforderung, hochwertige Datensätze für die Entwicklung von KI-Modellen zu beschaffen.

DeepSeek-R1: Chinas KI-Aufstieg und der Open-Source-Sieg

2025-02-02
DeepSeek-R1: Chinas KI-Aufstieg und der Open-Source-Sieg

Das chinesische Unternehmen DeepSeek hat DeepSeek-R1 veröffentlicht, ein großes Sprachmodell, das mit den Modellen von OpenAI vergleichbar ist und unter einer Open-Weight-MIT-Lizenz steht. Dies löste einen Ausverkauf an der Börse von US-Technologieunternehmen aus und hob mehrere wichtige Trends hervor: China holt im Bereich der generativen KI schnell zu den USA auf; Open-Weight-Modelle machen die Foundation-Modell-Ebene zu einer Commodity und schaffen Möglichkeiten für Anwendungsentwickler; Skalierung ist nicht der einzige Weg zum Fortschritt in der KI, algorithmische Innovationen senken die Trainingskosten rapide. DeepSeek-R1 markiert einen Wandel in der KI-Landschaft und bietet neue Möglichkeiten für die Entwicklung von KI-Anwendungen.

Grenzen von LLMs: Einsteins Rätsel enthüllt die Grenzen der Transformer-basierten KI

2025-02-02
Grenzen von LLMs: Einsteins Rätsel enthüllt die Grenzen der Transformer-basierten KI

Forscher haben fundamentale Grenzen in der Fähigkeit aktueller Transformer-basierter Large Language Models (LLMs) entdeckt, kompositionelle Denkaufgaben zu lösen. Experimente mit Einsteins Logikrätsel und mehrstelliger Multiplikation zeigten erhebliche Mängel, selbst nach umfangreichem Feintuning. Diese Ergebnisse stellen die Eignung der Transformer-Architektur für universelles Lernen in Frage und führen zu Untersuchungen alternativer Ansätze, wie z. B. verbesserte Trainingsdaten und Chain-of-Thought-Prompting, um die Fähigkeiten von LLMs im logischen Schließen zu verbessern.

OpenAI AMA: Rückstand eingestehen, Open Source annehmen?

2025-02-01
OpenAI AMA: Rückstand eingestehen, Open Source annehmen?

In einem ausführlichen Reddit AMA gab OpenAI CEO Sam Altman zu, dass OpenAIs Vorsprung in der KI schrumpft, teilweise aufgrund von Konkurrenten wie DeepSeek. Er deutete einen Wandel zu einer stärker Open-Source-orientierten Strategie an, möglicherweise mit der Veröffentlichung älterer Modelle. OpenAI navigiert auch den Druck aus Washington, eine massive Finanzierungsrunde und den Bedarf an einer umfangreichen Rechenzentrumsinfrastruktur. Um wettbewerbsfähig zu bleiben, plant das Unternehmen, die Modelltransparenz zu erhöhen, indem es den Denkprozess hinter seinen Ergebnissen offenlegt. Altman äußerte sich optimistisch über das Potenzial für einen schnellen Fortschritt in der KI, räumte aber auch das Risiko des Missbrauchs ein, insbesondere bei der Entwicklung von Waffen.

Anleitung zum Aufbau eines Deepseek AI Inferenz-Rigs auf Bare-Metal

2025-02-01

Dieser Leitfaden beschreibt den Aufbau einer Deepseek AI Inferenzumgebung auf Bare-Metal. Mit einem AMD EPYC Rome System und 512 GB RAM erreicht es 4,25 bis 3,5 TPS. Der Leitfaden umfasst die Hardwareauswahl, die Installation des Betriebssystems (Ubuntu 24.04), die Konfiguration von Ollama und OpenWebUI, BIOS-Einstellungen und Befehlszeilenanweisungen. Obwohl komplex, ist es lohnenswert für Technologie-Enthusiasten.

Sparser interpretierbarer Audio-Codec: Auf dem Weg zu einer intuitiveren Audiodarstellung

2025-02-01

Dieser Artikel stellt einen Prototyp eines Audio-Encoders vor, der darauf abzielt, Audio als eine spärliche Menge von Ereignissen und deren Auftretenszeiten zu kodieren. Er nutzt rudimentäre physikbasierte Annahmen, um den Anschlag und die physikalische Resonanz sowohl des Instruments als auch des Raums zu modellieren, in der Hoffnung, eine spärliche, sparsame und leicht interpretierbare Darstellung zu fördern. Das Modell funktioniert, indem es iterativ Energie aus dem Eingabespektrogramm entfernt und Ereignisvektoren und One-Hot-Vektoren erzeugt, die die Auftretenszeit darstellen. Der Decoder verwendet diese Vektoren, um das Audio zu rekonstruieren. Experimentelle Ergebnisse zeigen die Fähigkeit des Modells, Audio zu zerlegen, aber es gibt Raum für Verbesserungen, z. B. die Verbesserung der Rekonstruktionsqualität und die Reduzierung redundanter Ereignisse.

DeepSeek R1 bringt KI an den Rand auf Copilot+ PCs

2025-02-01
DeepSeek R1 bringt KI an den Rand auf Copilot+ PCs

Microsoft bringt die Leistung von KI an den Rand mit DeepSeek R1, jetzt optimiert für Copilot+ PCs mit Qualcomm Snapdragon und Intel Core Ultra Prozessoren. Durch die Nutzung der neuronalen Verarbeitungseinheit (NPU) läuft DeepSeek R1 effizient auf dem Gerät und ermöglicht schnellere Antwortzeiten und einen geringeren Energieverbrauch. Entwickler können das Modell einfach mit dem AI Toolkit integrieren, um native KI-Anwendungen zu erstellen. Diese erste Version von DeepSeek R1-Distill-Qwen-1.5B sowie die bald erscheinenden 7B und 14B Varianten zeigen das Potenzial von Edge KI für effizientes Inferencing und kontinuierlich laufende Dienste.

KI Edge KI

Die Eroberung von 200$-Aufgaben durch KI: Ein Fortschrittsbericht

2025-02-01
Die Eroberung von 200$-Aufgaben durch KI: Ein Fortschrittsbericht

Der Autor berichtet von der Beauftragung eines Maskottchen-Designs für 200$ im Jahr 2013 und illustriert damit die Art von Aufgaben, die jetzt durch KI erledigt werden können. KI zeichnet sich bei transaktionalen Aufgaben mit klar definierten Ergebnissen aus, wie Logo-Design, Transkription und Übersetzung, die früher spezielle Fähigkeiten erforderten. Komplexere Aufgaben, die jedoch nuanciertes Fachwissen und Urteilsvermögen erfordern, wie z. B. Landschaftsgestaltung, liegen jedoch noch außerhalb der aktuellen Fähigkeiten der KI. Obwohl der Fortschritt der KI beeindruckend ist, steht ihre wirtschaftliche Wirkung bei der Lösung bezahlter Aufgaben noch am Anfang.

OpenAIs o3-mini: Ein leistungsstarkes und kostengünstiges LLM

2025-02-01

OpenAI hat das neue Sprachmodell o3-mini veröffentlicht, das im Codeforces-Benchmark für wettbewerbsfähiges Programmieren hervorragend abschneidet und GPT-4o und o1 deutlich übertrifft. Obwohl es nicht in allen Bereichen überlegen ist, zeichnet es sich durch seinen niedrigen Preis (1,10 $ pro Million Eingabe-Tokens, 4,40 $ pro Million Ausgabe-Tokens) und eine außergewöhnlich hohe Ausgabegrenze für Tokens (100.000 Tokens) aus. OpenAI plant die Integration in ChatGPT für Websuche und Zusammenfassung, und die Unterstützung ist bereits in LLM 0.21 verfügbar, derzeit jedoch auf Benutzer der Stufe 3 beschränkt (mindestens 100 $ für die API ausgegeben). o3-mini bietet Entwicklern eine leistungsstarke und kostengünstige LLM-Option.

KI

KI-Musikgeneration: Komfort vs. Kreativität

2025-01-31
KI-Musikgeneration: Komfort vs. Kreativität

Der Erfolg des KI-Musik-Unternehmens Suno regt zur Reflexion über die Rolle von KI in der künstlerischen Schöpfung an. Der Autor, ein Professor an der Stanford University, hinterfragt Sunos Behauptung, KI könne die mühsamen Aspekte der Musikproduktion einfach lösen, und argumentiert, dass die Herausforderungen und Schwierigkeiten im kreativen Prozess selbst die Bedeutung und den Wert von Kunst ausmachen. Anhand eigener Erfahrungen und Lehrmethoden veranschaulicht er die Bedeutung des kreativen Prozesses und plädiert für die Bewahrung der aktiven menschlichen Kreativität im Zeitalter der KI, um eine rein konsumorientierte Kultur zu vermeiden.

Tensordiagramme vereinfachen die Tensormanipulation: Einführung der Tensorgrad-Bibliothek

2025-01-31

Die Manipulation hochdimensionaler Tensoren kann verwirrend sein? Ein neues Buch, "The Tensor Cookbook", vereinfacht diesen Prozess mithilfe von Tensordiagrammen. Tensordiagramme sind intuitiver als die traditionelle Indexnotation (einsum), zeigen Muster und Symmetrien leicht auf, vermeiden den Aufwand von Vektorisierung und Kronecker-Produkten, vereinfachen die Matrixrechnung und stellen Funktionen und Broadcasting mühelos dar. Die dazugehörige Python-Bibliothek Tensorgrad verwendet Tensordiagramme für symbolische Tensormanipulation und Ableitung, wodurch komplexe Berechnungen leichter verständlich werden.

OpenAI veröffentlicht günstigeres und schnelleres KI-Reasoning-Modell: o3-mini

2025-01-31
OpenAI veröffentlicht günstigeres und schnelleres KI-Reasoning-Modell: o3-mini

OpenAI hat o3-mini vorgestellt, ein neues KI-Reasoning-Modell aus seiner „o“-Familie. Es ist vergleichbar mit der o1-Familie, bietet aber höhere Geschwindigkeit und geringere Kosten. Es wurde für STEM-Probleme, insbesondere Programmierung, Mathematik und Naturwissenschaften, optimiert und ist in ChatGPT verfügbar, wobei die „Reasoning-Anstrengung“ (niedrig, mittel, hoch) angepasst werden kann, um Geschwindigkeit und Genauigkeit auszubalancieren. Bezahlende Nutzer erhalten uneingeschränkten Zugriff, kostenlose Nutzer haben ein Anfragelimit. o3-mini ist auch über die OpenAI-API für ausgewählte Entwickler verfügbar. Es bietet wettbewerbsfähige Preise und verbesserte Sicherheit, übertrifft aber nicht in allen Benchmarks das R1-Modell von DeepSeek.

KI

DeepSeek: Ein chinesischer KI-Außenseiter erobert die Welt

2025-01-31
DeepSeek: Ein chinesischer KI-Außenseiter erobert die Welt

DeepSeek, ein KI-Unternehmen, das vom chinesischen Hedgefonds High-Flyer gegründet wurde, hat mit seinen hocheffizienten Modellen DeepSeek V3 und R1 die Welt im Sturm erobert. DeepSeek V3 zeichnet sich durch niedrige Trainingskosten (die tatsächlichen Kosten liegen deutlich über den veröffentlichten 6 Millionen US-Dollar) und eine starke Leistung aus, sowie durch die innovative Multi-Head Latent Attention-Technologie, die zu erheblichen Vorteilen bei den Inferenzkosten führt. Der Erfolg von DeepSeek hängt mit seinen massiven GPU-Investitionen (ca. 50.000 Hopper-GPUs) und dem Fokus auf Talente zusammen, aber seine Niedrigpreisstrategie wirft Fragen nach der Kostentragfähigkeit auf. Googles Gemini Flash 2.0 Thinking stellt ebenfalls eine Herausforderung für die führende Position von DeepSeek dar. Der Aufstieg von DeepSeek spiegelt die wachsende Stärke der chinesischen KI-Technologie wider und regt gleichzeitig zur Reflexion über den internationalen Wettbewerb und die Exportkontrollen an.

Trainieren Sie Ihr eigenes KI-Bildmodell in weniger als 2 Stunden

2025-01-31
Trainieren Sie Ihr eigenes KI-Bildmodell in weniger als 2 Stunden

Der Autor trainierte in weniger als zwei Stunden ein benutzerdefiniertes KI-Bildmodell, um Bilder von sich selbst in verschiedenen Stilen zu generieren, beispielsweise als Superman. Dies gelang mithilfe des Flux-Modells und der LoRA-Trainingstechnik, wobei der benutzerfreundliche GPU-Cloud-Service von Replicate und vorgefertigte Tools genutzt wurden. Mit nur wenigen persönlichen Fotos und Hugging Face zur Modellverwaltung war der Prozess erstaunlich einfach. Die Ergebnisse variierten, waren aber unterhaltsam genug, um die geringen Kosten (unter 10$) zu rechtfertigen.

KI

RamaLama: KI-Modelle so einfach wie Docker ausführen

2025-01-31
RamaLama: KI-Modelle so einfach wie Docker ausführen

RamaLama ist ein Kommandozeilen-Tool zur Vereinfachung der lokalen Ausführung und Verwaltung von KI-Modellen. Es nutzt die OCI-Container-Technologie, erkennt automatisch GPU-Unterstützung und zieht Modelle aus Registern wie Hugging Face und Ollama. Komplizierte Systemkonfigurationen sind überflüssig; einfache Befehle starten Chatbots oder REST-APIs. RamaLama unterstützt Podman und Docker und bietet praktische Modell-Aliasnamen für mehr Benutzerfreundlichkeit.

DeepSeek R1: Open-Source-Modell fordert OpenAI im komplexen Schließen heraus

2025-01-31
DeepSeek R1: Open-Source-Modell fordert OpenAI im komplexen Schließen heraus

DeepSeek R1, ein Open-Source-Modell, stellt die Modelle von OpenAI bei komplexen Denkaufgaben in Frage. Mittels Group Relative Policy Optimization (GRPO) und einem auf Reinforcement Learning basierenden mehrstufigen Trainingsansatz veröffentlichten die Entwickler nicht nur das Modell, sondern auch eine Forschungsarbeit, die dessen Entwicklung detailliert beschreibt. Die Arbeit beschreibt einen "Aha-Moment" während des Trainings, bei dem das Modell lernte, mehr Denkzeit auf ein Problem aufzuwenden, indem es seinen anfänglichen Ansatz neu bewertete, ohne menschliches Feedback. Dieser Blogbeitrag rekonstruiert diesen "Aha-Moment" mithilfe von GRPO und dem Countdown-Spiel, indem ein offenes Modell trainiert wird, um Fähigkeiten zur Selbstverifizierung und Suche zu erlernen. Ein interaktiver Jupyter-Notebook-Code sowie Skripte und Anweisungen für das verteilte Training auf Multi-GPU-Knoten oder SLURM-Clustern werden bereitgestellt, um das Erlernen von GRPO und TRL zu erleichtern.

KI

Autorenverband startet "Menschlich verfasst"-Zertifizierung gegen KI-generierte Bücher

2025-01-31
Autorenverband startet

Als Reaktion auf die Zunahme von KI-generierten Büchern auf Plattformen wie Amazon hat der Autorenverband eine "Menschlich verfasst"-Zertifizierung eingeführt. Diese Initiative soll Lesern Klarheit über die Urheberschaft verschaffen und zwischen von Menschen geschriebenen Büchern und KI-generierten Inhalten unterscheiden. Derzeit ist sie auf Mitglieder des Verbands und Bücher von Einzelautoren beschränkt, wird aber zukünftig auf Nichtmitglieder und Bücher mit mehreren Autoren ausgeweitet. Geringe KI-Unterstützung wie Grammatikprüfung ist erlaubt, aber die Zertifizierung betont, dass der Kern der literarischen Aussage menschlichen Ursprungs sein muss. Der Verband sieht dies nicht als Anti-Technologie-Haltung, sondern als Drang nach Transparenz und Anerkennung des einzigartigen menschlichen Elements im Storytelling.

KI

Gödels Unvollständigkeitssätze und die Zukunft der Informatik: Ein mathematischer Western

2025-01-30
Gödels Unvollständigkeitssätze und die Zukunft der Informatik: Ein mathematischer Western

Dieses Gedicht im Stil eines Westerns erzählt von Schlüsselfakten der Mathematikgeschichte, von den Paradoxien der Mengenlehre bis zum Beweis der Gödelschen Unvollständigkeitssätze, dem Aufkommen der Turing-Maschinen und der Von-Neumann-Architektur und schließlich dem P-gegen-NP-Problem. Mit lebendigen Metaphern und einer stark narrativen Herangehensweise werden die Herausforderungen und Erfolge von Mathematikern bei ihrer Suche nach Wahrheit sowie die Auswirkungen des technologischen Fortschritts auf die menschliche Gesellschaft dargestellt. Gödels Unvollständigkeitssätze, wie eine im Rechenbereich vergrabene Landmine, deuten auf die Grenzen des Rechnens hin und regen zur Reflexion über die zukünftige Ausrichtung der künstlichen Intelligenz an.

Mistral Small 3: Geschwindigkeitsoptimiertes Open-Source-Modell mit 24 Milliarden Parametern

2025-01-30
Mistral Small 3: Geschwindigkeitsoptimiertes Open-Source-Modell mit 24 Milliarden Parametern

Mistral AI hat Mistral Small 3 vorgestellt, ein auf Geschwindigkeit und Leistung optimiertes Modell mit 24 Milliarden Parametern unter der Apache 2.0-Lizenz. Es übertrifft größere Modelle wie Llama 3.3 70B und Qwen 32B um mehr als das Dreifache an Geschwindigkeit und erreicht über 81 % Genauigkeit auf MMLU. Es ist ideal für generative KI-Aufgaben, die schnelle Reaktionszeiten erfordern. Mistral Small 3 läuft auf einer einzelnen RTX 4090 oder einem Macbook mit 32 GB RAM und ist über Hugging Face und andere Plattformen verfügbar.

KI

Vatikanisches Statement: KI, Menschenwürde und Gemeinwohl

2025-01-30

Ein gemeinsamer Bericht des Vatikanischen Dikasteriums für die Glaubenslehre und des Dikasteriums für Kultur und Bildung untersucht die Herausforderungen und Chancen der Künstlichen Intelligenz (KI). Er würdigt die bemerkenswerte Fähigkeit der KI, bestimmte Aspekte menschlicher Intelligenz nachzuahmen, betont aber die fundamentalen Unterschiede zwischen KI und menschlicher Intelligenz. Menschliche Intelligenz, so das Argument, ist ganzheitlich und umfasst Vernunft, Emotionen, Leiblichkeit und Relationalität – Dimensionen, die in aktuellen KI-Systemen fehlen. Der Bericht unterstreicht, dass die Entwicklung und Anwendung von KI die Menschenwürde wahren und die ganzheitliche menschliche Entwicklung fördern muss, und warnt vor Anwendungen, die zu Diskriminierung, Manipulation oder gesellschaftlichen Störungen führen könnten. Er fordert Verantwortung, Transparenz und Rechenschaftspflicht im Umgang mit KI und stellt sicher, dass sie dem Gemeinwohl dient.

Unglaublich! KI-Malmodell kann jetzt Ihre Gedanken „lesen“?!

2025-01-30

Kürzlich hat ein KI-Malmodell namens Midjourney hitzige Diskussionen ausgelöst. Es malt nicht nur nach einfachen Keywords, sondern versteht die tieferen Absichten des Benutzers und fängt sogar unterbewusste Gedanken ein, um atemberaubende Kunstwerke zu generieren. Dieser technologische Durchbruch zeigt einen bedeutenden Fortschritt in der Fähigkeit von KI, menschliche Emotionen und Gedanken zu verstehen, und könnte die Kunst und das Design in Zukunft revolutionieren.

KI

US Copyright Office: KI-unterstützte Werke können urheberrechtlich geschützt werden

2025-01-30
US Copyright Office: KI-unterstützte Werke können urheberrechtlich geschützt werden

Das US Copyright Office hat einen Bericht veröffentlicht, der das Urheberrecht für KI-unterstützte Werke klärt. Der Bericht besagt, dass KI-unterstützte Werke urheberrechtlich geschützt werden können, wenn die menschliche Kreativität im Mittelpunkt der Autorenschaft steht. Das bedeutet, dass die menschliche Adaption von KI-generierten Ergebnissen mit „kreativen Arrangements oder Modifikationen“ schützbar ist. Vollständig maschinell generierte Werke erhalten jedoch keinen Urheberrechtsschutz. Der Bericht folgt einer Überprüfung, an der Tausende von Beteiligten beteiligt waren, und geht auf einen wachsenden Bedarf an Klarheit in diesem Bereich ein. Ein zukünftiger Bericht wird sich mit der Verwendung urheberrechtlich geschützter Materialien zum Trainieren von KI-Modellen befassen.

Der Aufstieg von DeepSeek: Wirken die US-amerikanischen Exportkontrollen für KI-Chips?

2025-01-30
Der Aufstieg von DeepSeek: Wirken die US-amerikanischen Exportkontrollen für KI-Chips?

Dario Amodei, CEO von Anthropic, kommentierte die Auswirkungen des Erfolgs des chinesischen KI-Unternehmens DeepSeek auf die US-amerikanischen Exportkontrollen für KI-Chips. Er argumentiert, dass DeepSeek zwar Fortschritte in Bezug auf die Kosteneffizienz gemacht hat, aber immer noch hinter US-amerikanischen Modellen zurückliegt, was darauf hindeutet, dass die Kontrollen wirken. Er prognostiziert, dass die Zukunft von den Exportrichtlinien der Trump-Administration abhängt: Eine Verschärfung der Kontrollen könnte die US-amerikanische Führung erhalten, während eine Lockerung es China ermöglichen könnte, in militärischen KI-Anwendungen einen Vorteil zu erlangen.

Erweiterter Informationsfilter: KI-Agenten intelligenter raten lassen

2025-01-29
Erweiterter Informationsfilter: KI-Agenten intelligenter raten lassen

Dieser Artikel untersucht den Erweiterten Informationsfilter (EIF), einen fortschrittlichen Algorithmus zur Behandlung von Unsicherheit in nichtlinearen Systemen. Der EIF nutzt Gauß-Verteilungen und verwendet Informationsmatrizen und -vektoren anstelle von Mittelwerten und Kovarianzen, um Unsicherheit darzustellen. Dies führt zu Effizienzsteigerungen bei der Verarbeitung großer, dünnbesetzter Systeme. Im Vergleich zum Erweiterten Kalman-Filter (EKF) bietet der EIF eine höhere numerische Stabilität, insbesondere bei dünnbesetzten Informationsmatrizen. Der Artikel beschreibt detailliert Gauß-Verteilungen, Informationsmatrizen, Informationsvektoren, Kalman-Filter, Informationsfilter und die Funktionsweise des EIF und vergleicht deren Vor- und Nachteile. Schließlich hebt er die Rolle des EIF bei der Entwicklung von Inferenzagenten hervor, die verrauschte Sensordaten in realen Anwendungen wie autonomen Fahrzeugen, Drohnen und Robotern verarbeiten können.

DeepSeek R1 jetzt auf Azure AI Foundry und GitHub verfügbar

2025-01-29
DeepSeek R1 jetzt auf Azure AI Foundry und GitHub verfügbar

Microsoft hat bekannt gegeben, dass das DeepSeek R1-Modell jetzt auf Azure AI Foundry und GitHub verfügbar ist. Es reiht sich in ein vielfältiges Portfolio von über 1800 Modellen ein und bietet Unternehmen eine leistungsstarke und kostengünstige KI-Lösung für die nahtlose Integration von fortschrittlicher KI. DeepSeek R1 wurde umfassend auf Sicherheit getestet und verfügt über eine integrierte Inhalts-Sicherheitsfilterung, um eine sichere und zuverlässige Umgebung für den KI-Einsatz zu gewährleisten. Azure AI Foundry ermöglicht es Entwicklern, schnell mit KI zu experimentieren, zu iterieren und sie in ihre Workflows zu integrieren, wobei integrierte Modellbewertungstools für mehr Effizienz sorgen.

KI

Alibabas Qwen2.5-Max fordert US-Tech-Giganten heraus und gestaltet KI für Unternehmen neu

2025-01-29
Alibabas Qwen2.5-Max fordert US-Tech-Giganten heraus und gestaltet KI für Unternehmen neu

Alibaba Cloud hat heute sein Modell Qwen2.5-Max vorgestellt, den zweiten großen Durchbruch Chinas im Bereich künstliche Intelligenz in weniger als einer Woche. Dies erschüttert die US-Technologiemärkte weiter und verstärkt die Sorgen um die schwindende KI-Führungsrolle Amerikas. Das neue Modell übertrifft das Modell R1 von DeepSeek in mehreren wichtigen Benchmarks, darunter Arena-Hard, LiveBench und LiveCodeBench. Qwen2.5-Max zeigt auch wettbewerbsfähige Ergebnisse gegenüber Branchenführern wie GPT-4o und Claude-3.5-Sonnet in Tests zu fortgeschrittenem Denken und Wissen. Seine Architektur mit einem Mix aus Experten ermöglicht eine signifikante Rechenleistungseffizienz, da es mit über 20 Billionen Token trainiert wurde, aber deutlich weniger Ressourcen benötigt als traditionelle Ansätze. Diese Effizienz könnte die KI-Strategien von Unternehmen umgestalten und die Infrastrukturkosten um 40 bis 60 % senken. Fragen zur Datenhoheit, API-Zuverlässigkeit und langfristiger Unterstützung bleiben jedoch entscheidend für die Unternehmensakzeptanz.

Hirundos Bias-Unlearning-Technologie reduziert Bias des DeepSeek-R1-Modells um bis zu 76%

2025-01-29
Hirundos Bias-Unlearning-Technologie reduziert Bias des DeepSeek-R1-Modells um bis zu 76%

Hirundo hat erfolgreich den Bias im DeepSeek-R1-Distill-Llama-8B Large Language Model mit seiner neuartigen Bias-Unlearning-Technologie reduziert. Obwohl DeepSeek-R1 bei Reasoning-Aufgaben hervorragend abschneidet, zeigte es einen signifikanten Bias in Bezug auf Rasse, Nationalität und Geschlecht. Hirundos Methode erzielte eine Bias-Reduktion von bis zu 76% über alle Kategorien hinweg, ohne die Modellleistung zu beeinträchtigen, und liefert einen robusten Proof of Concept für einen sichereren AI-Einsatz. Diese Technologie wird bald auf Hirundos Plattform verfügbar sein, und das Bias-Unlearned-Modell wurde auf Hugging Face veröffentlicht.

DeepSeks R1-Zero: Ein Weg zu AGI ohne menschliche Annotation?

2025-01-29
DeepSeks R1-Zero: Ein Weg zu AGI ohne menschliche Annotation?

DeepSeek hat die Reasoningsysteme R1-Zero und R1 veröffentlicht, die am ARC-AGI-1-Benchmark vergleichbare Ergebnisse wie OpenAIs o1 (15-20%) erzielt haben und damit die 5% von GPT-4o, das nur auf der Skalierung von LLMs basiert, deutlich übertreffen. R1-Zero ist besonders bemerkenswert, da es ausschließlich auf Reinforcement Learning basiert und somit auf Supervised Fine-Tuning (SFT) verzichtet. Obwohl R1-Zero einige Herausforderungen in Bezug auf Lesbarkeit und Sprachmischung aufweist, zeigt es in Mathematik und Codierung eine starke Leistung und demonstriert präzises Chain-of-Thought-Reasoning ohne SFT. Dies eröffnet neue Wege in der AGI-Forschung und deutet auf eine Zukunft hin, in der das AGI-Training vollständig ohne menschliche Annotation auskommt.

KI

Führe das DeepSeek R1 LLM lokal mit Ollama aus

2025-01-29
Führe das DeepSeek R1 LLM lokal mit Ollama aus

DeepSeek R1, ein Open-Source-LLM, das sich in Conversational AI, Codierung und Problemlösung auszeichnet, kann jetzt lokal ausgeführt werden. Diese Anleitung beschreibt die Verwendung von Ollama, einer Plattform, die die Bereitstellung von LLMs vereinfacht, um DeepSeek R1 auf macOS, Windows und Linux auszuführen. Sie behandelt die Installation von Ollama, das Herunterladen des DeepSeek R1-Modells (einschließlich kleinerer, destillierter Varianten) und die Interaktion mit dem Modell über die Befehlszeile. Die lokale Ausführung gewährleistet Datenschutz und schnellere Antworten. Der Artikel untersucht auch praktische Tipps, darunter die Automatisierung der Befehlszeile und die IDE-Integration, und erörtert die Vorteile von destillierten Modellen für Benutzer mit weniger leistungsstarker Hardware.

DeepSeek vs. ChatGPT: Der Open-Source-Herausforderer

2025-01-29

DeepSeek, ein kostenloses und Open-Source-KI-Modell aus China, fordert die Vorherrschaft von ChatGPT heraus. Basierend auf einer Mixture-of-Experts-Architektur (MoE) zeichnet sich DeepSeek durch höhere Effizienz und Genauigkeit in Bereichen wie Codierung, wissenschaftliche Forschung und Bildung aus. ChatGPT hingegen punktet in kreativem Schreiben, konversationeller KI und mehrsprachiger Unterstützung. Der Artikel vergleicht beide und schlägt vor, je nach Bedarf das passende Tool zu wählen – oder sogar beide für komplementäre Stärken zu nutzen. Das Auftauchen von DeepSeek hat Bedenken hinsichtlich des KI-Wettbewerbs ausgelöst, wobei sogar Präsident Trump die potenzielle Bedrohung anerkannt hat.

KI
1 2 37 38 39 41 43 44 45 51 52