Comme le font plusieurs personnes, je pourrais vous soumettre un texte et vous demander s’il est généré ou non par une Intelligence artificielle (IA).
Passons cet aspect pour évoquer le potentiel de ce type de logiciels qui va profondément transformer nos sociétés. Avec ChatGPT, l’intelligence artificielle a en effet fait une entrée fracassante dans nos vies. C’est une nouvelle étape de la révolution numérique et même de la révolution industrielle. A quel point est-elle révolutionnaire ?
A défaut de tout maitriser, il faut en tout cas s’emparer de ce sujet car ce ne peut être une lubie de quelques technophiles et encore moins des industriels.
Avant toute chose, essayons d’en donner une définition. L’intelligence artificielle est un outil qui permet de compiler des données pour en proposer des solutions à partir d’une demande. Cela permet de calculer ces éléments à une vitesse exponentielle, facilitant un certain nombre de processus ou de transactions dans l’analyses de données, des études de prospectives et bien d’autres domaines.
Comme pour toute nouveauté technologique, nous en connaissons souvent les usages récréatifs ou pratiques comme le logiciel ChatGPT ou la possibilité de monter des vidéos, créer des images à partir de mots clés. Les potentiels d’usurpation ou de deep fake (fausses vidéos) sont terriblement réalistes. Mais la dimension ludique s’arrête vite quand les fausses vidéos politiques ou celles à teneur pornographiques, utilisées à des fins de cyberharcèlement contre des femmes.
C’est la question du contrôle et de la finalité qui se joue. Parmi les spécialistes, dans le secteur dit de la « tech », les créateurs se divisent en deux grandes catégories. Les « accélérationnistes» qui pensent que l’IA va totalement révolutionner nos sociétés et qu’il faut pousser à fond l’ensemble des curseurs pour libérer les humains de toutes les tâches jugées inutiles pour se consacrer à soi et à en finir avec le travail. D’autres, plus pessimistes, pointent la menace de contrôle total ou que la machine d’autonomise totalement au point de développer sa conception du monde à partir des contenus développés dans les interactions sur internet. En raison de la prégnance des contenus de haine et de violences, les risques de discriminations sont évidents. Le récent exemple de la CAF où des algorithmes, non paramétrés, ont alimenté des discriminations et des exclusions pour d’éventuels allocataires.
Des lignes de clivages
Le conflit qui a traversé l’entreprise OpenIA, à l’initiative de ChatGPT, traduit les risques et les clivages parmi les concepteurs et les utilisateurs. Le co-fondateur de l’entreprise Sam Altman y a été dans un premier temps évincé par le Conseil d’administration de l’entreprise car jugé trop permissif aux enjeux lucratifs. Les membres éminents de l’entreprise se sont en effet affrontés sur la dimension finale du logiciel : objet en open source (modifiable par les usagers) pour être un bien collectif de la communauté numérique ou objet de profit ? A l’aide de la multinationale Microsoft qui lui apporte les capitaux nécessaires, Sam Altman a finalement repris la main et évincé ses anciens camarades qui souhaitaient maintenir l’ambition originelle. Peu importe les dérives, si les consommateurs sont prêts, il ne faudrait pas réguler les usages.
La mécanique marchande ouvre pourtant de grandes menaces. Sans aller dire que l’être humain serait renvoyé à une inutilité sociale, les tenants du capital y voient des gains de productivité et des moyens de réduire leur capital humain, perçu comme un coût du travail.
Les mobilisations dans le secteur de la culture en Europe mais surtout aux Etats-Unis traduisent cela : de la création à la diffusion, il s’agirait de remplacer les intelligences humaines par des intelligences artificielles pour produire des scénarios, remplacer des figurants voire des acteurs.
Où est alors l’apport humain avec sa réflexion et sa sensibilité ?
Des annonces récentes comme celles du Ministre de l’Education d’intégrer des logiciels dits d’assistance pour les apprentissages des lycéens est de la même veine. Nous savons que la fracture numérique est réelle et que tout le monde n’est pas égal s’il n’y a pas appropriation des outils en maitrisant les codes et les finalités.
Le secteur de la presse est directement concerné puisque des médias, notamment ceux aux mains des grands propriétaires industriels, veulent utiliser la fonctionnalité dite générative pour supprimer des emplois de journalistes pour gagner du temps et de l’argent. C’est un risque démocratique puisque l’investigation, la recherche d’éléments contradictoires ne seront plus nécessairement recherchés. Au-delà, alors que nous dénonçons à juste titre les ingérences d’Etats par des médias et des techniques de désinformation, dévaloriser la fonction de production de l’information risque de donner plus de forces à de tels acteurs malveillants. C’est un risque démocratique réel.
Il y a évidemment des avancées considérables pour la médecine, l’agriculture, la météorologie. En fait, c’est l’usage et la finalité que nous devons. Car une technologie n’est ni bonne ni mauvaise en soi.
On connait les usages terribles. La guerre israélienne contre le peuple palestinien montre la monstruosité d’un tel outil numérique qui fait fi de pertes de vies civiles puisqu’il s’agit uniquement de données froides. Le problème est le donneur d’ordres, donc l’humain, et pas la machine en soi.
Autre aspect, alors que nous luttons pour transformer radicalement nos usages pour nous adapter au dérèglement climatique, les quantités d’énergie déployées par le secteur numérique sont phénoménales. Il faut donc s’interroger sur ce qui est pertinent car le numérique est le poste de consommation énergétique qui progresse le plus vite dans le monde. Les quantités phénoménales d’eau et d’électricité utilisées doivent être interrogées à l’heure d’arbitrages pour réduire notre empreinte sur l’environnement et ses ressources.
Réguler pour défendre nos libertés
Le débat de l’intelligence artificielle doit donc devenir un enjeu citoyen et populaire. Le positionnement de l’Union européenne qui veut s’affirmer en troisième acteur mondial révèle la nécessité d’une intervention populaire. L’IA Act se veut une manière de réguler en donnant des garde-fous. En réalité, le contrôle est assez faible et laisse la capacité aux acteurs de la tech d’utiliser les données sans contrôle strict. La France a d’ailleurs brillé par son soutien à une déréglementation alors que les dérives existent déjà au nom de l’innovation et de la défense de « champions industriels » français ou européens. Pire, c’est la surveillance biométrique qui ressort grande gagnante de cette directive européenne au mépris de nos liberté publiques et aux grand dam des associations de droits humains. Nous devons considérer les citoyens comme utilisateurs et non des consommateurs qui disposent de droits sur l’usage de leurs données avec des plateformes interopérables pour que la maitrise soit aux mains des individus et non des sociétés. Il faut aussi avancer sur les différents usages dans des secteurs clés comme la formation où le monde de l’éducation doit être accompagné notamment mais aussi interroger sa place dans le rapport au travail. C’est donc un débat systémique et général qu’il faut mener.
En clair, ce sont des enjeux de libertés publiques et de droits démocratiques face à la logique froide du profit. Derrière l’intelligence artificielle, ce sont les mêmes entreprises qui veulent façonner les imaginaires et maximiser les profits au service de leur projet de classe.