
Le pape François met en garde contre le rôle de l’intelligence artificielle dans la diffusion des abus et appelle à la responsabilité éthique.
Dans un message rédigé pour le IVe Congrès latino-américain sur la Protection de l’enfance, le pape François a lancé un sérieux avertissement sur les dangers de l’intelligence artificielle (IA) qui facilite et exacerbe le fléau des abus sexuels. S’adressant à plus de 500 participants réunis à Lima, au Pérou, du 25 au 27 février, le pape a réaffirmé son engagement à éradiquer les abus et à renforcer les garanties pour les mineurs, condamnant l’impunité induite par l’IA comme une menace nouvelle et urgente.
Le congrès, organisé par le Centre latino-américain pour la Protection de l’Enfance (CEPROME) en collaboration avec la Commission Pontificale pour la Protection des Mineurs du Vatican, constitue un forum essentiel pour les professionnels qui se consacrent à la création d’environnements sûrs au sein de l’Église et de la société.
La vitrine numérique de l’impunité
Le pape François a mis en garde contre le fait qu’Internet crée depuis longtemps un faux sentiment de détachement, permettant aux gens de se cacher derrière des écrans et d’éviter d’assumer la responsabilité de leurs actes. Avec l’IA, ce phénomène a atteint un nouveau niveau, permettant aux utilisateurs de générer des contenus synthétiques qui imitent la réalité tout en échappant à la responsabilité.
« Le fait que nos mains n’aient pas directement créé ces matériaux ne nous exonère pas de notre responsabilité », a déclaré le pape. « Une machine suit nos ordres, elle n’agit pas de son propre gré. C’est nous qui décidons d’exposer des images intimes, de voler des concepts, de fabriquer de fausses réalités ».
Le pape a souligné les dangers de l’IA lorsqu’elle est mal utilisée : la normalisation de comportements nuisibles, la diffusion de contenus inappropriés qui polluent l’environnement numérique et la difficulté croissante pour les autorités de distinguer le matériel réel des inventions synthétiques, autant de facteurs qui compliquent les efforts visant à protéger les victimes potentielles.
Un appel à des limites éthiques
Le souverain pontife a mis l’accent sur deux responsabilités essentielles pour relever ces défis. Premièrement, la société doit donner la parole à Dieu et aux victimes, en sensibilisant le public aux souffrances causées par l’exploitation de l’IA. Deuxièmement, il est nécessaire de démanteler l’illusion d’un détachement moral grâce à la technologie et de veiller à ce que les utilisateurs, les développeurs et les législateurs reconnaissent leurs obligations éthiques.
François a exhorté « les individus, les concepteurs d’IA et les autorités compétentes à établir des limites claires et applicables qui empêchent les applications nuisibles ou criminelles de cette technologie ». Sans réglementation concrète, l’IA pourrait devenir un outil incontrôlé permettant de perpétuer les abus plutôt qu’un moyen de promouvoir la justice et la protection.
Les responsables ecclésiastiques appellent à une réponse coordonnée
Le message du pape a trouvé un écho profond auprès des organisateurs de la conférence. Maria Ines Franck, directrice du CEPROME, a exprimé sa gratitude pour le leadership de François malgré sa santé fragile et a souligné que ses conseils sont essentiels pour façonner l’approche de l’Église en matière de prévention. « Le Saint-Père n’a cessé d’encourager et de renforcer notre mission », a déclaré Mme Franck. « Ses idées nous aident à naviguer dans cette nouvelle réalité et renforcent notre engagement à protéger les enfants et les adolescents en Amérique latine.
Lors de la séance d’ouverture du congrès, Monseigneur Luis Manuel Alí Herrera, secrétaire de la Commission Pontificale pour la Protection des Mineurs, a souligné l’importance de la coopération internationale et ecclésiale. « Les défis auxquels nous sommes confrontés sont trop vastes pour être relevés de manière isolée », a-t-il déclaré. « Nous ne pouvons pas agir en solitaire dans la bataille pour la protection numérique.
L’IA : une arme à double tranchant
Malgré les risques, Ali Herrera a reconnu le potentiel de l’IA en tant qu’outil de justice, notant qu’elle peut faciliter les réseaux de soutien pour les survivants, collecter des données en vue d’une action en justice et fournir des espaces numériques aux victimes pour qu’elles partagent leurs expériences. Cette double nature de l’IA, à la fois menace et ressource, rend le contrôle éthique d’autant plus essentiel.
Le Congrès s’achèvera par l’« Expo des bonnes pratiques », une sélection de plus de 20 organisations qui présenteront des stratégies efficaces pour lutter contre les abus. Alors que des experts du monde entier débattent du rôle de l’IA dans l’exacerbation et la lutte contre l’exploitation sexuelle, l’appel de l’Église à la responsabilité éthique reste clair : la technologie doit servir l’humanité, et non faciliter ses pulsions les plus sombres.