DeepMind : Plan pour le développement sécurisé de l'AGI – Navigation des risques de 2030

2025-04-04
DeepMind : Plan pour le développement sécurisé de l'AGI – Navigation des risques de 2030

Alors que l'engouement pour l'IA atteint son apogée, l'attention se porte sur l'Intelligence Artificielle Générale (IAG). Un nouveau document de 108 pages de DeepMind aborde la question cruciale du développement sécurisé de l'IAG, projetant une arrivée possible d'ici 2030. Le document décrit quatre catégories principales de risques : mauvaise utilisation, désalignement, erreurs et risques structurels. Pour les atténuer, DeepMind propose des tests rigoureux, des protocoles de sécurité robustes après l'entraînement et même la possibilité de « désapprendre » des capacités dangereuses, un défi significatif. Cette approche proactive vise à prévenir les dommages graves qu'une IA de niveau humain pourrait causer.

IA