(Par Salvatore Cernuzio – Cité du Vatican)
L’intelligence artificielle ne doit pas être considérée comme une personne, elle ne doit pas être déifiée, elle ne doit pas remplacer les relations humaines, mais doit être utilisée «seulement comme un outil complémentaire à l’intelligence humaine». Les mises en garde du Pape sur l’intelligence artificielle au cours des dernières années constituent la trame d’Antiqua et Nova (en référence à la «sagesse», ancienne et nouvelle), une note sur les relations entre l’intelligence artificielle et l’intelligence humaine, fruit d’une réflexion commune entre le dicastère pour la Doctrine de la foi et le dicastère pour la Culture et l’Éducation. Un document qui s’adresse aux parents, aux enseignants, aux prêtres, aux évêques et à tous ceux qui sont appelés à éduquer et à transmettre la foi, mais aussi à ceux qui partagent la nécessité d’un développement scientifique et technologique «au service de la personne et du bien commun» [5]. Publiée mardi 28 janvier, la note a été approuvée par le Saint-Père. En 117 paragraphes, Antiqua et Nova met en évidence les défis et les opportunités du développement de l’intelligence artificielle (IA) dans les domaines de l’éducation, de l’économie, du travail, de la santé, des relations internationales et interpersonnelles, et des contextes de guerre. Dans ce dernier domaine, par exemple, le potentiel de l’IA -prévient la note- pourrait augmenter les ressources de la guerre «bien au-delà de la portée du contrôle humain», accélérant «une course aux armements déstabilisante avec des conséquences dévastatrices pour les droits de l’homme» [99].
Dangers et progrès
Plus en détail, le document énumère avec un équilibre raisonné les dangers de l’IA mais aussi les progrès, qu’elle encourage comme «faisant partie de la collaboration» de l’homme avec Dieu «pour amener la création visible à la perfection» [2]. L’inquiétude est cependant grande pour toutes les innovations dont les effets sont encore imprévisibles, même pour ce qui semble pour l’instant aussi anodin que la génération de textes et d’images.
Distinguer l’IA de l’intelligence humaine
Des considérations éthiques et anthropologiques sont par conséquent au cœur de la réflexion des deux dicastères qui consacrent plusieurs paragraphes à la distinction «décisive» entre l’intelligence artificielle et l’intelligence humaine. Celle qui «s’exerce dans la relation» [18], façonnée par Dieu et «modelée par une myriade d’expériences vécues dans la corporéité». L’IA «n’a pas la capacité d’évoluer dans ce sens» [31]. Il s’agit d’une «vision fonctionnaliste», où les personnes ne sont évaluées qu’en fonction de leur travail et de leurs réalisations, et où la dignité humaine est inaliénable et reste toujours intacte, même chez «un enfant à naître», «une personne inconsciente» ou «une personne âgée souffrante» [34]. Il est donc «trompeur» d’utiliser le mot «intelligence» en référence à l’IA: il ne s’agit pas d’une «forme artificielle d’intelligence», mais de «l’un de ses produits» [35].
Le pouvoir entre les mains de quelques-uns
Et comme tout produit de l’ingéniosité humaine, l’IA peut également être orientée vers des «fins positives ou négatives», souligne Antiqua et Nova. Sans nier que l’intelligence artificielle peut introduire des «innovations importantes» dans divers domaines [48], elle risque aussi d’aggraver les situations de marginalisation, de discrimination, de pauvreté, la «fracture numérique» et les inégalités sociales [52]. Le fait que «la majeure partie du pouvoir sur les principales applications de l’IA soit concentrée entre les mains de quelques entreprises puissantes» [53] soulève des «préoccupations éthiques», de sorte que cette technologie finit par être manipulée à des fins «personnelles ou commerciales» ou pour «orienter l’opinion publique dans le sens des intérêts d’un secteur» [53].
L’IA et la guerre
La note examine ensuite les différentes sphères de la vie en relation avec l’IA. La référence à la guerre est inévitable. Les «capacités analytiques» de l’IA pourraient être utilisées pour aider les nations à rechercher la paix et la sécurité, mais les systèmes d’armes autonomes létales capables «d’identifier et de frapper des cibles sans intervention humaine directe» constituent «une grave source de préoccupation éthique» [100]. Le Pape a lancé un appel urgent pour interdire leur utilisation, comme il l’a déclaré lors du sommet du G7 dans le sud de l’Italie le 14 juin 2024: «Aucune machine ne devrait jamais choisir d’ôter la vie à un être humain. Les machines capables de tuer avec une précision autonome et d’autres capables de destruction massive constituent une menace réelle pour la survie de l’humanité ou de régions entières» [101]. Ces technologies «donnent à la guerre un pouvoir destructeur incontrôlable, touchant de nombreux civils innocents, sans même épargner les enfants», dénonce Antiqua et Nova. Pour éviter que l’humanité ne tombe dans des «spirales d’autodestruction», il est donc nécessaire de «prendre clairement position contre toutes les applications de la technologie qui menacent intrinsèquement la vie et la dignité de la personne humaine».
Les relations humaines
En ce qui concerne les relations humaines, le document note que l’IA peut, certes, «favoriser les connexions» mais, en même temps, conduire à un «isolement préjudiciable» [58]. «L’anthropomorphisation de l’IA pose également des problèmes particuliers pour la croissance des enfants, qui sont encouragés à comprendre les relations humaines d’une manière utilitaire», comme c’est le cas avec les chatbots [60]. «Il est donc ‘erroné’ de représenter l’IA comme une personne et c’est ‘une grave violation éthique’ de le faire à des fins frauduleuses» [60]. De même que «l’utilisation de l’IA pour tromper dans d’autres contextes -tels que l’éducation ou les relations humaines, y compris la sphère de la sexualité- est profondément contraire à l’éthique et nécessite une vigilance particulière» [62].