Les dirigeants de l’IA mettent en garde contre un « risque d’extinction » dans une lettre ouverte
Le Center for AI Safety (CAIS) a récemment publié une déclaration signée par d’éminentes personnalités du domaine de l’intelligence artificielle, soulignant les dangers potentiels que représente cette technologie pour l’humanité.
La déclaration affirme que "l'atténuation du risque d'extinction dû à l'IA devrait être une priorité mondiale, aux côtés d'autres risques à l'échelle sociétale tels que les pandémies et la guerre nucléaire".
Des chercheurs renommés et des lauréats du prix Turing, dont Geoffery Hinton et Yoshua Bengio, ainsi que des dirigeants d'OpenAI et DeepMind, tels que Sam Altman, Ilya Sutskever et Demis Hassabis, ont tous signé la déclaration.
L’objectif de la lettre du PCSRA est d’initier des discussions sur les risques urgents associés à l’IA. La lettre a recueilli à la fois du soutien et des critiques au sein de l’industrie dans son ensemble. Cela fait suite à une précédente lettre ouverte signée par Elon Musk, Steve Wozniak et plus de 1 000 autres experts, qui appelait à l'arrêt du développement « incontrôlable » de l'IA.
Malgré sa brièveté, la récente déclaration ne fournit pas de détails spécifiques sur la définition de l’IA ni ne propose de stratégies concrètes pour atténuer les risques. Cependant, le CAIS a précisé dans un communiqué de presse que son objectif est d'établir des garanties et des institutions qui gèrent efficacement les risques liés à l'IA.
Le PDG d'OpenAI, Sam Altman, s'est engagé activement auprès des dirigeants mondiaux, plaidant en faveur d'une réglementation de l'IA. Lors d’une récente comparution devant le Sénat, Altman a exhorté à plusieurs reprises les législateurs à réglementer fortement l’industrie. La déclaration du CAIS s'aligne sur ses efforts de sensibilisation aux dangers de l'IA.
Bien que la lettre ouverte ait suscité l’attention, certains experts en éthique de l’IA ont critiqué la tendance à publier de telles déclarations.
Le Dr Sasha Luccioni, chercheuse en apprentissage automatique, suggère que mentionner les risques hypothétiques de l’IA aux côtés de risques tangibles comme les pandémies et le changement climatique renforce la crédibilité des premiers tout en détournant l’attention des problèmes immédiats tels que les préjugés, les contestations juridiques et le consentement.
Daniel Jeffries, écrivain et futuriste, affirme que discuter des risques liés à l’IA est devenu un jeu de statut, dans lequel les individus prennent le train en marche sans encourir de coûts réels.
Les critiques soutiennent que la signature de lettres ouvertes sur les menaces futures permet aux responsables des dommages actuels de l’IA d’atténuer leur culpabilité tout en négligeant les problèmes éthiques associés aux technologies d’IA déjà utilisées.
Cependant, CAIS, une organisation à but non lucratif basée à San Francisco, reste concentrée sur la réduction des risques sociétaux liés à l’IA grâce à la recherche technique et au plaidoyer. L’organisation a été cofondée par des experts ayant une formation en informatique et un vif intérêt pour la sécurité de l’IA.
Alors que certains chercheurs craignent l’émergence d’une IA superintelligente qui surpasse les capacités humaines et constitue une menace existentielle, d’autres soutiennent que la signature de lettres ouvertes sur d’hypothétiques scénarios apocalyptiques détourne l’attention des dilemmes éthiques existants entourant l’IA. Ils soulignent la nécessité de s’attaquer aux problèmes réels que pose aujourd’hui l’IA, tels que la surveillance, les algorithmes biaisés et la violation des droits de l’homme.
Équilibrer les progrès de l’IA avec une mise en œuvre et une réglementation responsables reste une tâche cruciale pour les chercheurs, les décideurs politiques et les dirigeants de l’industrie.