Des experts en IA signent un document comparant le risque d ‘«extinction de l’IA» aux pandémies et à la guerre nucléaire

[ad_1]

Des dizaines d’experts en intelligence artificielle (IA), dont les PDG d’OpenAI, Google DeepMind et Anthropic, ont récemment signé une déclaration ouverte publiée par le Center for AI Safety (CAIS).

La déclaration contient une seule phrase :

« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire. »

Parmi les signataires du document figurent un véritable « who’s who » des sommités de l’IA, dont le « parrain » de l’IA, Geoffrey Hinton ; Université de Californie, Stuart Russell de Berkeley; et Lex Fridman du Massachusetts Institute of Technology. Le musicien Grimes est également signataire, répertorié dans la catégorie « autres personnalités notables ».

En rapport: Le musicien Grimes est prêt à « partager 50 % des redevances » avec de la musique générée par l’IA

Bien que la déclaration puisse sembler anodine à première vue, le message sous-jacent est quelque peu controversé dans la communauté de l’IA.

Un nombre apparemment croissant d’experts pensent que les technologies actuelles peuvent ou vont inévitablement conduire à l’émergence ou au développement d’un système d’IA capable de constituer une menace existentielle pour l’espèce humaine.

Leurs vues sont cependant contredites par un contingent d’experts aux opinions diamétralement opposées. Le scientifique en chef de l’IA, Yann LeCun, par exemple, a noté à de nombreuses reprises qu’il ne croyait pas nécessairement que l’IA deviendrait incontrôlable.

Pour lui et d’autres qui ne sont pas d’accord avec la rhétorique de « l’extinction », comme Andrew Ng, co-fondateur de Google Brain et ancien scientifique en chef chez Baidu, l’IA n’est pas le problème, c’est la réponse.

De l’autre côté de l’argument, des experts tels que Hinton et le PDG de Conjecture, Connor Leahy, estiment que l’IA au niveau humain est inévitable et, en tant que tel, le moment d’agir est maintenant.

On ne sait cependant pas quelles actions les signataires de la déclaration appellent. Les PDG et / ou responsables de l’IA de presque toutes les grandes entreprises d’IA, ainsi que des scientifiques renommés du monde universitaire, font partie de ceux qui ont signé, ce qui montre clairement que l’intention n’est pas d’arrêter le développement de ces systèmes potentiellement dangereux.

Plus tôt ce mois-ci, le PDG d’OpenAI, Sam Altman, l’un des signataires de la déclaration susmentionnée, a fait sa première apparition devant le Congrès lors d’une audience au Sénat pour discuter de la réglementation de l’IA. Son témoignage a fait la une des journaux après avoir passé la majeure partie de celui-ci à exhorter les législateurs à réglementer son industrie.

Altman’s Worldcoin, un projet combinant crypto-monnaie et preuve de personnalité, a également récemment fait le tour des médias après avoir levé 115 millions de dollars en financement de série C, portant son financement total après trois tours à 240 millions de dollars.