DeepMind: Blaupause für die sichere Entwicklung von AGI – Bewältigung der Risiken von 2030
2025-04-04
Inmitten des AI-Hypes verlagert sich der Fokus auf Künstliche Allgemeine Intelligenz (AGI). Ein neues 108-seitiges Papier von DeepMind befasst sich mit der entscheidenden Frage der sicheren AGI-Entwicklung und prognostiziert eine mögliche Ankunft bis 2030. Das Papier beschreibt vier Hauptkategorien von Risiken: Missbrauch, Missalignment, Fehler und strukturelle Risiken. Zur Risikominderung schlägt DeepMind rigorose Tests, robuste Sicherheitsprotokolle nach dem Training und sogar die Möglichkeit des „Verlernens“ gefährlicher Fähigkeiten vor – eine erhebliche Herausforderung. Dieser proaktive Ansatz zielt darauf ab, schwere Schäden durch eine menschenähnliche KI zu verhindern.
KI