Le Royaume-Uni accueillera un sommet mondial sur les « mesures de sécurité » de l’IA à l’automne


  • De Tom Singleton
  • Journaliste technologique

Source d’images, Simon Walker / No 10 Downing Street

Légende,

Rishi Sunak rencontre des personnalités du secteur

Le gouvernement a annoncé que le Royaume-Uni organiserait cet automne un sommet mondial sur l’intelligence artificielle (IA) pour évaluer les « risques les plus importants » de la technologie.

Il y a eu une multitude d’avertissements terribles concernant la menace potentiellement existentielle que l’IA représente pour l’humanité.

Les régulateurs du monde entier s’efforcent de concevoir de nouvelles règles pour contenir ce risque.

Le Premier ministre Rishi Sunak a déclaré qu’il souhaitait que le Royaume-Uni dirige les efforts visant à garantir que les avantages de l’IA soient « exploités pour le bien de l’humanité ».

« L’IA a un potentiel incroyable pour transformer nos vies pour le mieux, mais nous devons nous assurer qu’elle est développée et utilisée de manière sûre et sécurisée », a-t-il déclaré.

On ne sait pas encore qui assistera au sommet, mais le gouvernement a déclaré qu’il « réunirait des pays clés, des entreprises technologiques de premier plan et des chercheurs pour convenir de mesures de sécurité afin d’évaluer et de surveiller les risques les plus importants liés à l’IA ».

S’adressant aux journalistes à Washington DC, où M. Sunak discute de la question avec le président Biden, le Premier ministre a affirmé que le Royaume-Uni était le « lieu naturel » pour mener la conversation sur l’IA.

Downing Street a cité les récentes réunions du Premier ministre avec les patrons des principales entreprises d’IA comme preuve de cela. Il a également souligné les 50 000 personnes employées dans le secteur, qui, selon lui, valaient 3,7 milliards de livres sterling pour le Royaume-Uni.

« Trop ambitieux »

Cependant, certains ont remis en question les références du leadership du Royaume-Uni dans ce domaine.

Yasmin Afina, chercheuse à la Digital Society Initiative de Chatham House, a déclaré qu’elle ne pensait pas que le Royaume-Uni « pourrait être trop ambitieux ».

Elle a déclaré qu’il existait « des différences marquées dans les approches de gouvernance et de réglementation » entre l’UE et les États-Unis, que le Royaume-Uni aurait du mal à concilier, et un certain nombre d’initiatives mondiales existantes, y compris le Pacte numérique mondial de l’ONU, qui avait déjà « des bases fondamentales plus solides ».

Mme Afina a ajouté qu’aucune des entreprises d’IA les plus pionnières au monde n’était basée au Royaume-Uni.

« Au lieu d’essayer de jouer un rôle qui serait trop ambitieux pour le Royaume-Uni et risque de l’aliéner, le Royaume-Uni devrait peut-être se concentrer sur la promotion d’un comportement responsable dans la recherche, le développement et le déploiement de ces technologies », a-t-elle déclaré à la BBC.

Profond malaise

L’intérêt pour l’IA s’est multiplié depuis que le chatbot ChatGPT a fait irruption sur la scène en novembre dernier, étonnant les gens avec sa capacité à répondre à des questions complexes d’une manière à consonance humaine.

Il peut le faire en raison de l’incroyable puissance de calcul que possèdent les systèmes d’IA, ce qui a provoqué un profond malaise.

Deux des trois soi-disant parrains de l’IA – Geoffrey Hinton et le professeur Yoshua Bengio – ont été parmi ceux qui ont lancé des avertissements sur la façon dont la technologie qu’ils ont contribué à créer a un énorme potentiel de nuisance.

En mai, les dirigeants de l’industrie de l’IA – y compris les responsables d’OpenAI et de Google Deepmind – ont averti que l’IA pourrait entraîner l’extinction de l’humanité.

Ils ont donné des exemples, notamment l’IA potentiellement utilisée pour développer une nouvelle génération d’armes chimiques.

Ces avertissements ont accéléré les demandes de réglementation efficace de l’IA, bien que de nombreuses questions subsistent sur ce à quoi cela ressemblerait et comment cela serait appliqué.

Course réglementaire

L’Union européenne est en train d’élaborer une loi sur l’intelligence artificielle, mais a reconnu que même dans le meilleur des cas, il faudra deux ans et demi pour qu’elle entre en vigueur.

La chef de la technologie de l’UE, Margrethe Vestager, a déclaré le mois dernier que ce serait « beaucoup trop tard » et a déclaré qu’elle travaillait sur un code volontaire pour le secteur avec les États-Unis, qui, espéraient-ils, pourrait être rédigé en quelques semaines.

La Chine a également joué un rôle de premier plan dans l’élaboration de réglementations sur l’IA, y compris des propositions selon lesquelles les entreprises doivent informer les utilisateurs chaque fois qu’un algorithme d’IA est utilisé.

Le gouvernement britannique a exposé ses réflexions en mars dans un livre blanc, qui a été critiqué pour avoir « des lacunes importantes ».

Marc Warner, membre du Conseil gouvernemental sur l’IA, a toutefois souligné une approche plus stricte, déclarant à la BBC que certaines des formes les plus avancées d’IA pourraient éventuellement devoir être interdites.

Matt O’Shaughnessy, chercheur invité au Carnegie Endowment for International Peace, a déclaré que le Royaume-Uni ne pouvait pas faire grand-chose contre le fait que d’autres menaient la charge sur la réglementation de l’IA – mais a déclaré qu’il pourrait encore jouer un rôle important.

« L’UE et la Chine sont deux grands marchés qui ont proposé des régimes de réglementation conséquents pour l’IA – sans aucun de ces facteurs, le Royaume-Uni aura du mal à être aussi influent », a-t-il déclaré.

Mais il a ajouté que le Royaume-Uni était un « centre universitaire et commercial », avec des institutions « bien connues pour leur travail sur l’IA responsable ».

« Tout cela en fait un acteur sérieux dans le débat mondial sur l’IA », a-t-il déclaré à la BBC.

Laisser un commentaire