Le premier débat au Conseil de sécurité sur l’Intelligence artificielle

NEW YORK, 30 août (Xinhua) -- Les représentants participent à une réunion du Conseil de sécurité de l'ONU au siège de l'ONU à New York, le 30 août 2012. La réunion a été convoquée par la France, qui assume la présidence tournante du Conseil pendant ce mois-ci. Fin

Le Conseil de sécurité s’est penché, pour la première fois de son histoire, sur les conséquences pour la paix et la sécurité internationales de l’intelligence artificielle (IA), grosse selon le Secrétaire général d’un « énorme potentiel de bien et de mal à grande échelle » et dont même les créateurs entrevoient les risques « potentiellement existentiels ».  Se disant conscients des enjeux, les membres du Conseil ont très majoritairement souhaité l’adoption au niveau international de principes d’éthique et de comportements responsables dont la portée a en revanche suscité des propositions diverses. 

Tout en rappelant qu’il avait déclaré à l’Assemblée générale voici déjà six ans que l’intelligence artificielle aurait un impact considérable sur le développement durable, le monde du travail et le tissu social, M. António Guterres a dit avoir été choqué et impressionné par l’avancée radicale que constitue l’IA générative, dont il a jugé « sans précédent » la vitesse de développement et la portée.  À ses yeux, l’IA pourrait donner un coup de fouet au développement mondial, à la lutte contre la crise climatique, à la recherche médicale, aux progrès en matière d’éducation, mais aussi amplifier les préjugés, renforcer les discriminations et permettre de nouveaux niveaux de surveillance autoritaire. 

Dans le domaine de la paix et la sécurité internationales, le Secrétaire général a noté que l’IA était déjà utilisée par l’ONU, notamment pour identifier les schémas de violence et surveiller les cessez-le-feu.  Mais il a aussi rappelé que des cyberattaques fondées sur l’IA visaient déjà des infrastructures critiques et les opérations de maintien de la paix et d’aide humanitaire de l’ONU, causant de grandes souffrances humaines, et a jugé très inquiétants les risques de dysfonctionnement des systèmes d’IA en ce qui concerne les armes nucléaires, la biotechnologie, les neurotechnologies et la robotique.  Il a donc invité le Conseil de sécurité à aborder cette technologie avec un « sentiment d’urgence, une vision globale et un esprit d’apprentissage ». 

À l’origine de cette « réunion historique » du Conseil, la présidence britannique a affirmé que les plus grandes transformations induites par l’IA étaient encore à venir et qu’il était impossible d’en saisir toute l’ampleur.  Comme plus tard la France, qui a présenté l’IA comme la « révolution du XXIe siècle, le Royaume-Uni a estimé que l’IA modifierait fondamentalement tous les aspects de la vie humaine et que les gains pour l’humanité seraient certainement immenses.  Mais il a aussi constaté que l’IA remettait en cause les hypothèses fondamentales en matière de défense et de dissuasion et posait des questions morales sur la responsabilité des décisions sur le champ de bataille. 

Le débat a mis en avant un certain nombre de préoccupations éthiques.  Les États-Unis ont rappelé que le Président Biden avait récemment rencontré des dirigeants d’entreprises de l’IA de premier plan pour souligner la responsabilité qui leur incombe afin que les systèmes qui l’utilisent soient sûrs et dignes de confiance.  Le Japon a estimé que la clef pour relever le défi était double: une IA centrée sur l’humain et digne de confiance.  Que l’IA reste digne de confiance est également une préoccupation du Gabon, alors que plusieurs délégations, notamment la France, se sont alarmées des capacité de l’IA en matière de désinformation. 

Or, l’Équateur, citant l’écrivain polonais Stanislaw Lem pour qui « la première obligation de l’intelligence est de se méfier d’elle-même », a souligné qu’avec l’IA, ce principe ne serait pas respecté.  L’un des intervenants, M. Yi Zeng, de l’Institut d’automatisation de l’Académie chinoise des sciences, a rappelé que l’IA ne possède aucune compréhension réelle des données qu’elle traite et, de ce fait, ne devrait pas être utilisée pour prendre directement des décisions sans contrôle humain efficace et responsable. Plusieurs délégations ont appliqué ce conseil au débat sur les systèmes d’armes létales autonomes, rejetant l’abandon de tout contrôle humain, de même que toute automatisation des fonctions diplomatiques, en particulier les négociations entre États. 

Le Secrétaire général a annoncé que sa prochaine note d’information sur un Nouvel Agenda pour la paix formulerait des recommandations pour qu’ils élaborent des stratégies nationales conformes au droit international sur l’utilisation responsable de l’IA.  Elle appellera également à la conclusion, d’ici à 2026, de négociations sur la création d’un instrument juridiquement contraignant visant à interdire les systèmes d’armes autonomes létaux fonctionnant sans contrôle humain. 

L’encadrement international de l’intelligence artificielle a fait débat.  Pour l’Équateur, les principes éthiques et les comportements responsables demandés par tous sont indispensables mais insuffisants et il faudrait adopter un cadre international juridiquement contraignant.  En revanche, les Émirats arabes unis ont appelé à ne pas surréglementer l’IA, pour ne pas entraver l’innovation, et la Chine a défendu la possibilité pour les États de développer une IA correspondant à leurs spécificités. 

Le Brésil, dont une partie de la déclaration avait été rédigée par un outil d’IA, a quant à lui appelé à ne pas trop « sécuriser » le sujet de l’IA en concentrant les discussions au Conseil de sécurité, estimant que l’Assemblée générale, avec sa composition universelle, était le forum le mieux adapté à une discussion structurée et de long terme sur ce sujet.  Avec plus de vigueur, la Fédération de Russie a jugé que ce débat prospectif n’avait pas sa place au Conseil, expliquant que des aspects spécifiques éventuellement liés à l’IA étaient discutés dans autres enceintes et que « dupliquer ces efforts est contre-productif ».  

Pourtant, le fondateur d’une entreprise privée d’IA a rappelé aux membres du Conseil qu’en l’absence de cadre de gestion de risques et de système d’évaluation robuste et vérifiable pour encadrer le monde vers lequel l’IA nous fait avancer, le secteur privé disposait d’une grande marge de manœuvre. À défaut d’un cadre, nous mettons notre avenir entre les mains d’une poignée d’acteurs, a-t-il averti.