Comment le multilatéralisme peut-il faire face aux défis de l’ère de l’intelligence artificielle ?

Two women look up at security cameras in Toronto, Canada. ©UNSPLASH/Matthew Henry

Deux femmes regardent des caméras de surveillance à Toronto, au Canada.  © Unsplash/ Matthew Henry 


L’intelligence artificielle (IA) converge avec une vaste gamme de technologies allant de la biotechnologie à la génomique en passant par la neurotechnologie, la robotique, la cybertechnologie et les systèmes de fabrication. Ces technologies sont de plus en plus décentralisées, échappent au contrôle des États et sont accessibles par de nombreux acteurs dans le monde entier. Si ces tendances peuvent libérer un énorme potentiel pour l’humanité, la convergence de l’IA et des nouvelles technologies pose aussi des risques sans précédent pour la sécurité mondiale. En particulier, elles représentent des défis pour le système multilatéral et les Nations Unies, qui agissent au niveau inter-étatique. 

Capable d’apporter des réponses rentables, efficaces et en temps réel à diverses questions de développement humain ou à celles liées à la sécurité, l’IA a un rôle important à jouer dans la gestion complexe des risques pour les populations vulnérables ainsi que pour éviter les crises et renforcer la résilience face aux chocs qui traversent nos sociétés. Tandis que l’IA, en convergence avec d’autres technologies, est intégrée à tous les piliers de l’activité des Nations Unies, son rôle sera crucial dans le programme de prévention.

Cependant, en tant que technologie à double usage, l’IA peut tout aussi bien autonomiser les populations que les priver de leurs moyens. Sa capacité à empiéter sur la vie privée et à la contrôler a des incidences directes sur l’ordre du jour des Nations Unies en matière de prévention et de droits de l’homme. Face à ces nouvelles formes de contrôle social et biologique, il sera en effet peut-être nécessaire de repenser le cadre actuellement en place pour surveiller la Déclaration des droits de l’homme et la mettre en œuvre. Au vu des risques évolutifs en matière de sécurité, le système multilatéral devra anticiper et mieux comprendre le domaine de convergence de l’IA en rapide expansion. 

Il est donc nécessaire, dans le programme de prévention et son intersection avec les nouvelles technologies, de faire preuve de prévoyance et d’inclure des orientations normatives fondées sur un intérêt renouvelé dans la Charte des Nations Unies afin d’orienter la création, le déploiement et la gouvernance des systèmes d’IA.

LES PROMESSES DE LA CONVERGENCE DE L’IA

Nous sommes entrés dans une ère de la convergence technologique qui vise à fusionner notre vie physique, numérique et biologique. Les informaticiens développent des algorithmes capables de repérer des modèles dans de vastes ensembles de données avec une efficacité surhumaine et, de plus en plus, sans supervision. En même temps, les généticiens et les neuroscientifiques décryptent des données liées à nos génomes et au fonctionnement de notre cerveau, ce qui leur permet d’en savoir plus sur la santé humaine, le bien-être et la compréhension. 

Résultat ? Les capacités fonctionnelles permettant d’éviter les crises, qui étaient auparavant inimaginables, sont aujourd’hui réelles, renforçant les efforts menés dans des domaines allant de la médecine de précision à la sécurité alimentaire en passant par la prévention des conflits. Par exemple, des algorithmes d’apprentissage approfondi permettent de diagnostiquer la rétinopathie1 chez les patients vivant dans les régions rurales de l’Inde qui manquent d’ophtalmologues. Les mêmes algorithmes sont capables d’identifier des biomarqueurs positifs parmi de vastes données génomiques issues des populations afin de concevoir des tests sanguins pour dépister divers cancers2. Des sociétés comme Zipline3 intègrent la technologie de l’IA dans des drones autonomes afin de fournir aux hôpitaux des régions rurales d’Afrique des fournitures médicales essentielles, comme les vaccins. 

L’IA pourrait aussi devenir un outil puissant pour l’action internationale en faveur du développement menée par les Nations Unies. En collaboration avec l’Organisation et d’autres partenaires mondiaux, la Banque mondiale met en place un Mécanisme d’action contre la famine4, qui relie les systèmes d’apprentissage approfondi mis au point par Microsoft, Google et Amazon, afin de détecter les crises alimentaires qui sont sur le point de provoquer une famine. Le même outil permet de connecter directement le financement agile aux sources d’insécurité alimentaire. L’initiative Global Pulse lance une initiative5 qui utilise l’apprentissage automatique pour surveiller les effets de l’extrême violence sur les discours de haine en ligne.

L’optimisation combinée de la biométrie, de la génomique et des données comportementales donnent lieu à « l’informatique affective », des algorithmes capables de nous analyser, de nous faire progresser et de communiquer avec nous. Cette forme d’analyse émotionnelle améliorera l’interaction homme-machine dans des applications qui pourraient autonomiser les populations défavorisées dans des domaines comme la médecine6 de précision et l’éducation ciblée7.

Grâce à l’informatique affective, les systèmes d’intelligence artificielle nous surveilleront, nous observeront et nous évalueront : nous passerons d’un algorithme prédictif à un autre. L’entrée dans ce monde de la convergence de l’IA est un pas vers un système de surveillance omniprésente et précise.

LA SURVEILLANCE PRÉCISE ET LE CONTRÔLE SOCIAL

Dotés de la reconnaissance faciale, les algorithmes captureront des données cognitives de plus en plus affinées, non seulement nos caractéristiques biométriques, mais aussi nos émotions et nos comportements. Cette nouvelle forme d’informatique qui intervient dans notre vie a des conséquences importantes pour l’autodétermination et la vie privée, en particulier pour celle des enfants.

Par exemple, la poupée intelligente « mon amie Cayla8 » parle et envoie des données émotionnelles aux enfants, ce qui a donné lieu à une plainte devant la Commission fédérale du commerce des États-Unis9 et son interdiction en Allemagne. Aux États-Unis, l’analyse émotionnelle est déjà utilisée dans les tribunaux pour détecter le remord10 dans les vidéos de déposition. Elle fera bientôt partie des entretiens d’embauche11 pour évaluer les réponses des candidats et leur aptitude à exercer l’emploi recherché. 

Facebook met au point un ami IA qui reconnaît les pensées suicidaires12 par la conversation et l’analyse émotionnelle. Les start-ups Neuralink et Kernel développent des interfaces informatiques13 qui liront les processus mentaux des personnes et influenceront les mécanismes cérébraux impliqués dans leurs décisions. Une entreprise utilise déjà des détecteurs sans fil pour analyser les ondes cérébrales14 de ses employés et surveiller leur santé émotionnelle.

Dans de nombreuses villes, le géant Alibaba déploie des millions de caméras équipées de la reconnaissance faciale15. Des bases de données de visages, génomiques, d’informations financières et personnelles parrainées par le gouvernement sont créées pour être connectées aux notations de crédit, aux emplois et pour mesurer la loyauté des citoyens ainsi qu’aux classifications d’échantillons de l’ADN pour retrouver des membres de la famille. Récemment, 5 000 étudiants16 ont été photographiés et des échantillons de leur salive ont été prélevés sans obtenir de consentement éclairé afin d’alimenter une base de données de visages et génomiques. En outre, Cloud Walk17, une entreprise informatique spécialisée dans la reconnaissance faciale, développe une technologie IA qui suit les mouvements et les comportements des personnes afin d’évaluer leurs possibilités de commettre un crime.

La capacité de l’IA à influencer et à contrôler les comportements dans la vie privée et à avoir un effet sur l’auto-détermination des populations pourrait de plus en plus empêcher les Nations Unies de surveiller les violations des droits de l’homme et de protéger les populations. Cette capacité est encore plus limitée lorsque le secteur privé détient, presque exclusivement, les données requises et est mieux à même de comprendre les algorithmes et de les concevoir.

LA DÉGRADATION DE LA VÉRITÉ ET DE LA CONFIANCE

Les implications à double usage de l’IA deviennent difficiles à anticiper, à contenir et à atténuer. Se fondant sur l’analyse comportementale et affective, l’IA permet de diffuser de la propagande de manière plus efficace et à plus grande échelle dans les médias sociaux.

Deepfake18 par exemple. Les programmes d’IA sophistiqués peuvent maintenant manipuler les sons, les images et les vidéos, produisant de fausses vidéos qui sont souvent impossibles à distinguer des originales. Les algorithmes d’apprentissage approfondi peuvent, avec une précision surprenante, lire sur les lèvres, synthétiser la parole et, dans une certaine mesure, simuler les expressions faciales.

Une fois diffusées, ces simulations peuvent facilement être utilisées à mauvais escient et avoir des conséquences fâcheuses (cela se passe déjà à un faible niveau). La veille d’une élection, les vidéos de Deepfake pourraient montrer à tort des autorités publiques impliquées dans le blanchiment d’argent ou la panique pourrait être semée dans le public par des vidéos faisant état d’épidémies ou de cyberattaques inexis-tantes. Ces fausses informations pourraient conduire à l’escalade de tensions internationales.

La capacité d’un acteur à influencer l’opinion publique par des simulations trompeuses pourrait avoir de graves conséquences à long terme pour l’ONU et son rôle en matière de maintien de la paix et de la sécurité. En érodant le sentiment de confiance et de vérité entre les citoyens et l’État et, en fait, parmi les États, les fausses informations pourraient éroder nos services de renseignement et nos systèmes de gouvernance à l’échelle mondiale.

LA CYBERCOLONISATION ET LES NOUVEAUX RISQUES POUR LA SÉCURITÉ

La capacité des technologies d'intelligence artificielle à influencer de vastes populations pourrait donner lieu à une cybercourse. Les nations puissantes et les grandes plates-formes technologiques pourraient se lancer dans une concurrence frontale pour recueillir nos données collectives afin d’établir leur supériorité économique, médicale et en matière de sécurité. Il est de plus en plus vraisemblable que des formes de « cybercolonisation » se produiront, les États puissants étant capables, grâce à l’IA et à la biotechnologie, de comprendre les populations et les écosystèmes d’autres pays et de les contrôler.   

Ces formes de bio-intelligence sont un avantage stratégique dans l’arsenal sécuritaire d’un pays et entraîneront le développement de stratégies dans les domaines des contre-mesures médicales et de la recherche militaire. 

Cependant, la responsabilité morale liée à l’utilisation de systèmes d’IA dans la sécurité de notre environnement n’incombe plus seulement aux États. Elle est de plus en plus partagée entre les développeurs, les utilisateurs et les pirates informatiques. Cette forme de « responsabilité atomisée » représente un ensemble de défis interdépendants pour le système multilatéral.  

QUEL EST LE RÔLE DU SYSTÈME MULTILATÉRAL ?

Politiquement, juridiquement et moralement, nos sociétés ne sont pas convenablement préparées à faire face au déploiement de l’intelligence artificielle et à la convergence des technologies. Les Nations Unies ont été créées de nombreuses décennies avant cette révolution technologique. L’Organisation est-elle actuellement en mesure de développer le type de gouvernance responsable capable de canaliser le potentiel de l’IA, de réduire les risques existants et émergents et d’assurer notre sûreté, notre sécurité et notre bien-être ?

La résurgence des programmes nationalistes dans le monde indique un amoindrissement de la capacité du système multilatéral à jouer un rôle important dans la gouvernance mondiale de l’IA. Les grandes entreprises ne voient guère d’intérêt à adopter des approches multilatérales pour des technologies qui sont lucratives et brevetées. En ce qui concerne les cybertechnologies, il est possible que les États Membres puissants préfèrent fixer leurs propres avantages compétitifs ainsi que leurs propres règles. Ils peuvent s’opposer à l’engagement des Nations Unies dans la gouvernance mondiale de l’IA, en particulier lorsqu’il s’agit des applications militaires.

Mais il existe des moyens par lesquels l’Organisation peut créer des réseaux transparents, collaboratifs pour traiter notre « syndrome du déficit de confiance ». Premièrement, elle doit renforcer son engagement avec les grandes plates-formes technologiques d’intelligence artificielle et offrir une tribune pour renforcer leur coopération ainsi qu’avec les acteurs étatiques et la société civile. En matière de coopération, elle doit être une passerelle entre les intérêts des nations qui sont des chefs de file dans le domaine de la technologie et les acquéreurs. 

Dans cette fonction d’intermédiation, un grand nombre d’entités au sein du système des Nations Unies pourraient jouer un rôle qui est particulièrement nécessaire au niveau mondial : 

 1. faire des prévisions technologiques, qui comprennent divers défis auxquels sont confrontés les pays; 

 2. négocier des cadres normatifs adéquats; et

 3. définir des normes en matière de surveillance et de coopération et mettre en place des cadres de surveillance. 

La prévision inclusive, les mécanismes de suivi normatif et les cadres de coopération seront particulièrement cruciaux dans la promotion et la protection des droits de l’homme.Étant donné les conséquences importantes, parfois corrosives, que l’IA a pour l’autodétermination, la vie privée et d’autres libertés individuelles, les entités des Nations Unies devront collaborer pour surveiller et garantir la cohérence des multiples efforts normatifs menés par les acteurs nationaux, régionaux et privés. 

Enfin, la réalisation du programme de prévention des Nations Unies nécessitera un tour d’horizon prospectif, pointu et inclusif pour anticiper la nature et l’ampleur des risques en matière de sécurité qui constitueront une menace non seulement pour les nations, mais aussi pour les personnes et les populations vulnérables. Ce type de prévision deviendra de plus en plus crucial alors que l’IA converge avec d’autres technologies qui échappent au contrôle des États et qui sont davantage accessibles par un plus vaste éventail d’acteurs dans le monde. 

Sous l’impulsion d’un mandat accordé à l’Université des Nations Unies (UNU) dans la Stratégie du Secrétaire général en matière de nouvelles technologies, le Centre de recherche sur les politiques à l’UNU a créé une plate-forme sur « l’IA et la gouvernance mondiale » en tant qu’espace inclusif pour les chercheurs et les acteurs politiques ainsi que pour les dirigeants des grandes entreprises et les leaders d’opinion afin d’anticiper et d’étudier les défis d’ordre mondial posés par l’intelligence artificielle. Par les propositions faites par les leaders dans ce domaine, la plate-forme vise à favoriser les idées venant de différents secteurs afin d’éclairer les débats existants sous l’angle du multilatéralisme et à partir des leçons tirées du travail mené sur le terrain. Ces idées aideront les États Membres, les fonds multilatéraux, les institutions, les programmes des Nations Unies et autres parties prenantes à définir leur rôle individuel et collectif dans la création d’une gouvernance de l’IA.

Dans ce contexte, le défi le plus important pour l’Organisation est particulièrement d’actualité, car il s’agit de rétablir un sentiment de confiance dans le système multilatéral. Nous pouvons conclure que les technologies de l’IA sont une question qui concerne tout le monde et tous les États. Si aucune gouvernance collaborative n’est mise en place, ces technologies pourraient compromettre la stabilité mondiale.  

Notes

1. Daniel Shu Wei Ting et al., « Development and validation of a deep learning system for diabetic retinopathy and related eye diseases using retinal images from multiethnic populations with diabetes », The Journal of the American Medical Association, vol. 318, nº 22 (12 décembre 2017), p.p. 2211-2223. Disponible sur le site https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5820739/.

2. Claire Asher, « Artificial Intelligence to boost liquid biopsies », The Scientist, 26 juin 2018. Disponible sur le site https://www.the-scientist.com/news-opinion/artificial-intelligence-to-bo....

3. Pour plus d’informations, voir le site WebZipline International http://www.flyzipline.com/.

4. Banque mondiale, Mécanisme d’action contre la famine (FAM). Disponible sur le site at http://www.worldbank.org/en/programs/famine-early-action-mechanism (consulté le 4 décembre 2018).

5. Alexandra Olteanu et al, « The effect of extremist violence on hateful speech online », Association for the Advancement of Artificial Intelligence, 16 avril 2018. Disponible sur le site https://www.unglobalpulse.org/sites/default/files/The%20effects%20of%20e....

6. Massachusetts Institute of Technology Media Laboratory, « Predicting students’ wellbeing from physiology, phone, mobility, and behavioral data ». Disponible sur le site https://www.media.mit.edu/projects/predicting-students-wellbeing-from-ph...(consulté le 4 décembre 2018).

7. Massachusetts Institute of Technology Media Laboratory, « Affective learning companion: Exploring the role of emotion in propelling the SMET learning process ». Disponible sur le site https://affect.media.mit.edu/projectpages/lc/nsf1.html (consulté le 4 décembre 2018).

8. Pour plus d’informations sur la poupée intelligente Cayla, voir le site Web https://www.myfriendcayla.com/.

9. Commission fédérale du commerce des États-Unis, « Complaint and request for investigation, injunction, and other relief », 6 décembre 2016. Disponible sur le site https://epic.org/privacy/kids/EPIC-IPR-FTC-Genesis-Complaint.pdf.

10. Pour en savoir plus sur la plate-forme MediaRebel, voir le site Web https://www.affectiva.com/success-story/mediarebel/.

11. Minda Zetlin, « AI is now analyzing candidates’ facial expressions during video job interviews », Inc., 28 février 2018. Disponible sur le site https://www.inc.com/minda-zetlin/ai-is-now-analyzing-candidates-facial-e....

12. Jordan Novet, « Facebook is using A.I. to help predict when users may be suicidal », CNBC, 21 février 2018. Disponible sur le site https://www.cnbc.com/2018/02/21/how-facebook-uses-ai-for-suicide-prevent....

13.Rafael Yuste et al, « Four ethical priorities for neurotechnologies and AI », Nature, vol. 551, no 7679 (8 novembre 2017). Disponible sur le site https://www.nature.com/news/four-ethical-priorities-for-neurotechnologie....

14. Stephen Chen, «  Forget the Facebook leak’: China is mining data directly from workers’ brains on an industrial scale », South China Morning Post, 29 avril 2018. Disponible sur le site https://www.scmp.com/news/china/society/article/2143899/forget-facebook-....

15. Hua Xiansheng, « City brain and comprehensive urban cognition », Alibaba Cloud, blog, 30 septembre 2017. Disponible sur le site https://www.alibabacloud.com/blog/interview-with-idst-deputy-managing-di....

16. Wenxin Fan, Natasha Khan et Liza Lin, « China snares innocent and guilty alike to build world’s biggest DNA database », The Wall Street Journal, 26 décembre 2017. Disponible sur le site https://www.wsj.com/articles/china-snares-innocent-and-guilty-alike-to-b...

17. Pour plus d’informations sur la technologie CloudWalk, voir le site de l’entreprise http://www.cloudwalk.cn/. 

18. Hilke Schellman, « Deepfake videos are getting real and that’s a problem », The Wall Street Journal, 15 octobre 2018. Disponible sur le site https://www.wsj.com/articles/deepfake-videos-are-ruining-lives-is-democr...