analyse-decryptage/article/l-ia-ou-est-le-controle

Service pour les professionnels de l’information

Le service pour les professionnels de l’information (SPI) est dirigé par le père Laurent Stalla-Bourdillon. Ce service est destiné à tous les acteurs du monde des médias.

Contact

26, rue du Général Foy, 75008 Paris
Par email
06 40 08 41 94

Suivez-nous

L’IA : où est le contrôle ?

Le sommet mondial « India AI Impact Summit 2026 » s’est tenu à New Delhi du 16 au 21 février, et conclu par l’adoption d’une “New Delhi Declaration” sur l’IA.
Il devait élaborer une feuille de route commune pour la gouvernance et la collaboration mondiales sur l’IA, tant son impact sur les individus et les sociétés est considérable.
La « New Delhi Declaration » pose un cadre politique non contraignant pour une IA « inclusive, centrée sur l’humain et orientée vers le développement ».
Elle affirme que les bénéfices de l’IA doivent être partagés avec l’ensemble de l’humanité, avec une attention particulière au Sud Global ; elle encourage des principes volontaires sur la sécurité, la transparence, l’audit et la responsabilité des systèmes d’IA, et enfin elle appelle à renforcer la coopération internationale et les partenariats public‑privé pour des usages d’IA d’intérêt général (santé, éducation, climat, inclusion numérique).
La déclaration déploie de sept “chakras” (piliers), qui sont autant de chantiers politiques à ouvrir ou renforcer :
1 Le capital humain, avec des investissements coordonnés dans la formation, la montée en compétences, la reconversion des travailleurs et la recherche académique en IA.
2 L’inclusion avec des programmes pour démocratiser l’accès aux infrastructures, aux modèles et aux données, notamment pour les pays en développement et les petites entreprises.
3 Une IA sûre et digne de confiance avec l’engagement de développer des cadres de test, de certification, de gestion des risques (biais, sécurité, cybersécurité, désinformation, usages militaires).
4 L’efficience énergétique et la résilience avec l’attention explicite à l’empreinte énergétique et aux infrastructures critiques nécessaires aux grands modèles d’IA.

5 Une IA pour la science avec le soutien à l’usage de l’IA en recherche fondamentale (santé, climat, agriculture, énergie).
6 La démocratisation des ressources d’IA avec la volonté de favoriser des plateformes, modèles et jeux de données ouverts ou mutualisés, pour éviter la concentration du pouvoir technologique.
7 Une IA pour la croissance et le bien commun avec une orientation des politiques publiques vers des cas d’usage concrets dans les services publics, les PME, l’agriculture, la santé, l’éducation et la protection sociale.

Autant de promesses qui n’engagent que ceux qui y croient…
Que l’on songe à la protection de l’enfance face aux risques numériques. Le sommet semble avoir plutôt cherché la façon de ne pas dépendre d’IA produites par une poignée d’entreprises privées, la plupart américaines et chinoises. Il s’agit de rester dans la course et non de la freiner. Où est le contrôle ?

Les IA dépassent déjà les performances humaines dans de nombreux tests de capacité intellectuelle et, là où l’intelligence humaine demeure limitée par la biologie, ces systèmes peuvent traiter l’information à une vitesse considérablement supérieure et se dupliquer à l’infini. Un tel pouvoir sans contrôle, ouvre la voie à des scénarios de nuisance à grande échelle : manipulation de l’information, attaques automatisées, déstabilisation, voire perte de contrôle sur des systèmes capables de s’auto-améliorer. L’humanité n’est absolument pas préparée à cette situation, alors même que s’accélèrent simultanément la course aux armements autonomes, la transformation radicale du travail, la dépendance psychique et cognitive des individus vis-à-vis de systèmes opaques, et la possibilité d’une perte de contrôle irréversible sur notre propre destinée technologique. Ces questions avaient-elles vraiment leur place au Sommet ?

Le vide juridique actuel est particulièrement préoccupant. Tandis que le potentiel de nuisance est alarmant, l’IA se développe dans un cadre normatif lacunaire, et toujours déclaratif.
L’urgence de réglementer le développement de l’intelligence artificielle ne relève plus de la prudence abstraite, mais de la sécurité collective la plus élémentaire. Les systèmes d’IA les plus avancés posent désormais des risques de sécurité majeurs qu’aucun État ne peut gérer seul, ce qui rend indispensables des actions internationales coordonnées et juridiquement contraignantes. La sécurité semble hélas reléguée au second plan par la course à l’innovation et par des intérêts économiques considérables. Il faut désormais inverser cette logique et fermer la porte ouverte au désastre.

Le sommet sur l’IA en Inde devait être le moment de vérité sur nos insuffisances. Mais au lieu de construire une coordination robuste et systématique, la réglementation est reléguée au rang de « frein » à l’innovation, comme si la liberté d’innover justifiait la mise en danger potentielle de sociétés entières. Réglementer l’IA « à la hauteur de ses enjeux » signifie au contraire reconnaître que ces technologies touchent à la sécurité publique, à la stabilité internationale et à la santé mentale et sociale des populations, et qu’elles exigent des règles comparables à celles adoptées pour le nucléaire, les armes biologiques ou la finance.

Une telle régulation ne peut être seulement technique ou réservée à quelques experts. Elle doit s’inscrire dans un processus démocratique. Les décisions concernant les IA ne sauraient être confisquées par une poignée de dirigeants d’entreprises et d’actionnaires dont l’horizon premier est la rentabilité et la surveillance. Elles touchent à la manière dont nous organisons le travail, protégeons les plus vulnérables, garantissons la dignité des personnes et préservons la possibilité d’un débat public non manipulé : ce sont des questions de sécurité publique, mais aussi de santé publique et de cohésion sociale.

En ce sens le collectif Pause IA, a établi une liste de garde-fous :
• un régime de responsabilité clair et contraignant,
• des audits indépendants et standardisés,
• des protocoles d’interventions d’urgence,
• une obligation d’enregistrement et de classification des risques,
• une obligation de financement de la recherche en sécurité,
• l’établissement de lignes rouges sur les usages de l’IA posant des risques inacceptables,
• l’instauration d’une agence internationale de sécurité de l’lA similaire à l’AIEA (l’Agence internationale de l’Energie atomique),
• ainsi que des mécanismes de contrôle démocratique.

Le moment était donc propice pour faire remonter la sécurité au premier rang de l’agenda international et pour engager, sans délai, une gouvernance mondiale de l’IA fondée sur trois piliers indissociables : la protection des personnes, la réduction des risques systémiques et par-dessus tout, la participation démocratique à la définition de notre avenir technologique commun. Plus le temps passe et plus les effets seront douloureusement supportés. Les démocraties doivent pleinement jouer leur rôle et pour cela être correctement informées. Le monde des médias et de l’information a plus que jamais toute son importance.


Père Laurent Stalla-Bourdillon

Vous pourriez aimer lire :