Robotique et éthique (2eme partie)

Jusqu’à présent les sociétés humaines forgeaient leur identité à partir de récits et de narratifs, gardiens de leur histoire, des récits oraux ou écrits, fruits de l’intelligence humaine. Prendre part à la vie sociale consistait à s’inscrire dans cette histoire, à se l’approprier et hériter de la vision des évènements passés.

Au fil des siècles, l’humanité est passée de la tradition orale et de la mémoire de paroles (la logosphère), à la production de textes (la graphosphère), puis de sons, d’images et de vidéos (la vidéosphère). Cette évolution permet l’usage cumulatif et concomitant de tous ces outils pour nourrir nos connaissances et nos représentations. L’apparition de l’internet est comparable à l’accès inédit à une gigantesque mémoire globale qui concurrence les canaux traditionnels de transmissions. La mémoire du sens n’est plus transmise par les aïeux, les familles et autres groupes de sociabilité, elle se construit et se diffuse dans un cyber espace, gardiens des données de la famille humaine. Aujourd’hui l’intelligence artificielle (IA) facilite l’orientation des utilisateurs dans une telle masse de données au moyen d’algorithmes de recommandation et donc de sélection.
A ce stade, les usages les plus répandus de l’IA (intelligence artificielle) appartiennent à l’environnement publicitaire et médiatique. Il s’agit de recommandations de type publicitaire, vers des textes, des images, du son et de la vidéo.

Or, l’IA se trouve à présent capable de générer d’elle-même des contenus. Ces contenus, en venant prendre place dans la gigantesque base de données accessible, l’accroissent d’autant transforment la mémoire commune, jadis régulée par les groupes sociaux.

La machine peut d’elle-même enrichir des contenus et susciter des personnages fictifs. Avec la création de contenus, notre mémoire commune commence à nous échapper car elle est concurrencée par d’autres narratifs. Le cyber espace peut être envahi par le faux (fake) qui contamine alors l’esprit humain et fausse les représentations.

Les algorithmes s’améliorent et se démocratisent de plus en plus. À mesure que les outils génératifs (de textes, d’images…) deviennent de plus en plus sophistiqués (GPT-3, DALL-E 2, Imagen, Copilot), l’internet sera dépassé (disons « englouti ») par des contenus d’origines non humaines. Il s’agit d’une pollution de la mémoire collective par la contamination des sources. Avec la génération de contenus à une vitesse fulgurante, nous sommes face à des conséquences encore floues mais sans aucun doute pernicieuses.

Si les utilisateurs des technologies numériques ne prennent pas le temps d’identifier et de critiquer les sources, ils adopteront aveuglément des messages douteux et toxiques. Les algorithmes de recommandation des agrégateurs de médias sociaux couplent la rentabilité et l’excentricité qui capte l’attention. Tout progrès technique a sa contrepartie négative en termes de pollution. La pollution par l’IA est psychique, avec l’indistinction humain-non humain. Elle induit progressivement une insensibilisation à la vie humaine réelle.

À mesure que les modèles génératifs gagneront en maturité, les modèles discriminants des plateformes, telles que Meta, TikTok, Twitter ne pourront pas distinguer un contenu généré par IA, du contenu généré par l’homme. Même s’ils fabriquent des modèles raisonnablement bons pour distinguer le HGC (Human Generated Content) et le BGC (Bot Generated Content), ils risquent soit de manquer la cible non-humaine, soit d’éliminer des comptes de personnes réelles.

La démocratisation de la génération de contenus à grande vitesse fournit les clés d’une boîte de Pandore à laquelle les opinions ne sont pas préparées. Un raz-de-marée de contenus s’annonce, qui aura des conséquences imprévisibles. Nina Schick a théorisé cette épreuve avec le concept d’infocalypse [1] (apocalypse de l’information).

Au-delà d’avantages évidents, comme le prototypage rapide pour les concepteurs de jeux, ou la possibilité pour les gens d’illustrer leurs propres livres pour enfants …, les ramifications pour l’avenir de l’internet et des systèmes d’informations sont plutôt sombres.

Ce qui est clair, c’est que nous devrons nous adapter à ce nouvel environnement : si la majorité des informations présentes sur internet sont inoffensives et sans enjeux (horaires d’ouvertures, etc…), l’arrivée de contenus générés par des machines, pourraient redéfinir en profondeur les bases de la vie sociale. Il faudra dès lors innover en matière d’outils fournissant la preuve de la paternité d’un contenu, indiquant s’il a ou pas été créé par un humain. Et il faudra aussi préserver et intensifier la qualité des relations humaines, des rencontres interpersonnelles sans intermédiations techniques qui restent le terreau vital de la confiance.

[1Deepfakes and the infocalypse with Nina Schick
https://www.youtube.com/watch?v=K-dXlGIhKbw

Robotique et éthique (2eme partie)

Notes de bas de page

Partager cet article

Ces articles pourraient vous intéresser:

Le Service pour les Professionnels de l’Information avec le père Laurent Stalla-Bourdillon

Lire la suite

Père Laurent Stalla-Bourdillon : "On ne peut pas se servir d’une religion pour haïr son frère"

La haine de la religion trouve sa place dans la protestation des "gilets jaunes". Un incident antisémite s’est produit dans le métro (...)

Lire la suite

L’importance de raconter de bons récits

Lire la suite
De l'humanité technicienne à l'alliance avec la sagesse

De l’humanité technicienne à l’alliance avec la sagesse

Une mentalité technique Avec recul, la crise sanitaire fait apparaître une nouvelle fois combien nos sociétés occidentales sont (...)

Lire la suite
Le pouvoir à pile ou face avec les religions

Le pouvoir à pile ou face avec les religions

« Pile je gagne, face tu perds » est une ruse grossière. Les religions peuvent se regarder de deux façons : du dehors et du dedans. Il (...)

Lire la suite
Quand la pandémie interroge notre rapport à la mort

Quand la pandémie interroge notre rapport à la mort

Balayant toute polémique, une évidence s’est imposée à tous : le choix du confinement du pays est l’unique réponse possible à l’épidémie. (...)

Lire la suite
L'interview de Père Laurent Stalla-Bourdillon

L’interview de Père Laurent Stalla-Bourdillon

Père Laurent Stalla-Bourdillon, directeur du Service pour les Professionnels d’information au Collège des Bernardins, était l’invité (...)

Lire la suite
Les effets psychiques de la consommation médiatique

Les effets psychiques de la consommation médiatique

COVID-19 Comment les nouvelles changent notre façon de penser et de nous comporter Par Zaria Gorvett - 12 mai 2020 - BBC Les (...)

Lire la suite
Covid-19 et le sens de la vie

Covid-19 et le sens de la vie

1 - La rhétorique classique Face à la pandémie du coronavirus, les Etats ont répondu par des mesures sanitaires et juridiques, puis (...)

Lire la suite
La voix de l'homme

La voix de l’homme

Dès 1993, à l’heure où l’inquiétude écologique commençait à s’imposer dans les débats politiques, Paul Virilio, urbaniste et philosophe, (...)

Lire la suite
Les algorithmes et la crise du lien commun

Les algorithmes et la crise du lien commun

Dans le cadre des rencontres « Médias en Seine, le 1er festival international des médias de demain, Eric Sadin, écrivain et (...)

Lire la suite
Doit-on craindre le langage algorithmique ?

Doit-on craindre le langage algorithmique ?

La commission présidée par le sociologue Gérald Bronner a remis son rapport au Président de la République dressant un état des lieux de (...)

Lire la suite