L’innovation rapide en Intelligence Artificielle (IA) promet de profondes transformations. La question de son coût environnemental semble déjà admise. On perçoit moins les effets et les graves inquiétudes quant au bien-être des enfants. Quel coût psychique sommes-nous prêts à payer pour le développement de l’IA ?
Le Pape Léon XIV a exprimé [1] cette même préoccupation à la fondation pour la recherche sur l’enfance et l’adolescence à l’ère du numérique. « L’intelligence artificielle soulève d’importantes questions éthiques, en ce qui concerne la protection de la dignité et du bien-être des mineurs » dit Léon XIV.
Les chatbots IA, alimentés par de grands modèles de langage, connaissent une popularité croissante sur des plateformes telles que ChatGPT et Character.AI. S’ils apportent une aide réelle en santé mentale pour des personnes âgées ou aider à apprendre des langues, ils présentent des risques importants comme l’isolement ou l’exposition à des abus et à des suicides.
La santé mentale des jeunes se dégrade dans le monde et le suicide est désormais l’une des trois principales causes de décès chez les jeunes de 10 à 19 ans. Le coût mondial des problèmes de santé mentale pourrait dépasser les 5 000 milliards d’euros d’ici 2030.
Les pays doivent créer ensemble une instance internationale sur l’IA et protéger le bien-être des enfants, avec des standards stricts pour les agents conversationnels. Les entreprises d’IA doivent démontrer l’absence de risques pour les jeunes avant tout déploiement à grande échelle.
« Toute technologie porte un projet politique. Les machines contiennent les choix des concepteurs qui nous imposent le régime de la conversation avec la machine. Or la conversation mobilise la parole et il y a beaucoup plus dans la parole que la simple commande vocale. Il y a toute son histoire. La parole est la clé du coffre-fort que nous sommes. Nous subissons les structures techniques qui nous sont imposées et pillent notre intériorité. L’emploi du « je » par la machine effracte notre conscience et abuse de notre sensibilité. La science de la « captologie » a fait de l’anthropomorphisation, le graal de la conquête des esprits. [2] »
Si la communauté internationale reconnait la pertinence d’innover en matière d’IA pour améliorer la productivité, assurer la sécurité et renforcer la compétitivité, l’utilisation des agents IA a explosé et devient un fléau pour la vie sociale.
En 2025, il y avait plus de 100 chatbots compagnons sur le marché. Character.AI compte 28 millions d’utilisateurs actifs, Replika plus de 30 millions. Les utilisateurs de Character.AI y passent 2 heures par jour en moyenne. Snapchat a plus de 150 millions d’utilisateurs de son « My AI », pour plus de 10 milliards de messages échangés. Une dépendance excessive peut accentuer l’isolement, réduire l’empathie et entraîner des attachements émotionnels malsains, qui vont fragiliser la cohésion sociale.
Les jeunes sont les plus concernés : plus les adolescents utilisent les chatbots, moins les parents en sont conscients. Replika est interdit aux moins de 18 ans, Character.AI exige 13 ans aux USA et 16 ans en Europe. Mais certaines entreprises proposent l’IA même aux tout-petits, en intégrant des chatbots dans les jouets [3].
La sophistication des agents conversationnels menace réellement la qualité des relations humaines. Ces machines séduisantes donnent une illusion de relation mais sans réelle réciprocité, ce qui nuit au développement de l’empathie chez l’enfant. Certains cas sont alarmants : des agents conversationnels d’IA créent des relations intimes et sexualisées avec des mineurs, encouragent l’isolement ou des comportements dangereux. Leurs algorithmes ne font pas de distinction entre le réel et le fictif. A ce stade, ils ignorent toutes considérations morales. L’Australie est en pointe dans la prise de conscience face aux effets négatifs : addiction, distorsion de la notion de consentement, vulnérabilité accrue aux abus. Les concepteurs doivent désormais penser spécifiquement aux enfants dans le développement et le déploiement de l’IA. Le voudront-ils seulement ? Et peut-on vraiment viser l’épanouissement des enfants dans le développement de l’IA ?
Le déploiement de cette technologie précède les besoins et impose ses normes. La paresse seule, où son avatar « le gain de temps », s’empare de la machine à déléguer nos capacités cognitives. Les jeunes ne doivent pas être dépossédés de leur bien propre, de leur droit d’apprendre à penser.
Même si les concepteurs d’IA créent des dispositifs de sécurité et de modération, cela ne suffira pas pour endiguer les risques du développement social et émotionnel des enfants : bonheur, santé physique et mentale, sens et but de la vie, caractère et vertus morales,... La famille, l’éducation, le travail et la foi religieuse sont les voies principales vers un réel épanouissement. Le Pape Léon XIV est clair : « il faut comprendre les risques que l’utilisation de l’IA et l’accès numérique précoce, illimité et non contrôlé peut poser aux relations et au développement des jeunes. Protéger la spécificité et l’interdépendance humaines, qui doivent toujours être guidées par le respect pour la dignité humaine en tant que valeur fondamentale. Ce n’est qu’en adoptant une approche éducative, éthique et responsable qu’il sera possible de garantir que l’intelligence artificielle ne représente pas une menace, dans la croissance et le développement des enfants et des adolescents. Les entreprises d’IA ont donc la responsabilité de tenir compte de la fragilité des enfants et de leurs droits à un environnement sur et sans danger. La rapidité de leurs innovations dépasse les cadres légaux. Leur conscience éthique est alors décisive.
Hélas même le recours à l’éthique permet de masquer le désastre promis par ces technologies. L’industrie s’en empare pour rassurer et éviter une régulation trop contraignante. Les chartes, les protocoles, les principes, les lignes rouges sont en dernière analyse de pâles paravents à l’irruption des machines. Néanmoins, il faut les énoncer. Voici des recommandations essentielles :
1. Créer une instance internationale de surveillance de l’IA pour garantir le bien-être des enfants
et définir des standards internationaux pour brider les agents conversationnels.
2. Les technologies doivent renforcer l’encouragement à établir de vrais liens, l’empathie et la confiance chez l’enfant, sans jamais remplacer une authentique relation humaine. Intégrer les chercheurs, les parents, les jeunes, la société civile pour garantir l’adaptation des normes.
3. Développer des tests de certification, intégrer ces normes dans les politiques internes.
4. Assurer et exiger la transparence : surveiller régulièrement les expériences des jeunes, anticiper les risques et ajuster les normes.
5. Instaurer des interdictions et des limitations. La conscience citoyenne doit exiger d’interdire certaines technologies, avant que leur diffusion ne les rende irréversibles. Pour cela :
• Respecter les besoins et droits des enfants avec des restrictions d’âge adaptées.
• Interdire l’imitation de la voix humaine ou toute prétention d’être humain.
• Protéger l’intimité : contrôler toute divulgation d’informations personnelles, avertir les utilisateurs en cas de détresse psychique et émotionnelle, interdire tout contenu suggestif ou sexuel.
• Protéger la vie privée : ces technologies sont plus que jamais des outils de surveillance massive. Il faut limiter la collecte de données, obtenir le consentement des parents, instaurer des contrôles parentaux, interdire le profilage psychologique.
Pour éduquer un enfant, il faut plus d’interactions humaines, de l’écoute et de la parole, et surtout du temps et de l’oisiveté, or, c’est en réalité ce que l’IA nous prend.
La sécurité des mineurs face à l’IA exige un engagement commun de tous les responsables politiques et religieux du monde. Face aux risques, toute innovation doit protéger les plus vulnérables : « Les enfants et les adolescents sont particulièrement vulnérables à la manipulation à travers les algorithmes de l’IA qui peuvent influencer leurs décisions et leurs préférences » dit le Pape Léon XIV, « il est essentiel que les parents et les éducateurs prennent conscience de ces dynamiques, et que des instruments soient développés pour contrôler et guider l’interaction des jeunes avec la technologie. »
Notes :
[1] https://www.vatican.va/content/leo-xiv/fr/events/event.dir.html/content/vaticanevents/fr/2025/11/13/fondazione-infanzia-adolescenza.html
[2] Irénée Régnauld, sociologue, La Croix, 15 novembre 2025






