
Invitée le 17 février par l’Université Ouverte Des Compétences, Laurence Devillers, Professeure en IA et éthique à Sorbonne Université et chercheuse au CNRS s’est proposé d’identifier les voies de passage entre promesses enchantées et risques de domination de l’Homme par les machines. Nous proposerons prochainement une note de lecture de son tout récent ouvrage : « L’IA ange ou démon ? – Le nouveau monde de l’invisible » publié par les éditions du Cerf.
Un peu d’histoire
Si l’IA a fait massivement irruption dans nos vies professionnelles et personnelles depuis deux à trois ans avec ChatGPT, Laurence Devillers nous rappelle qu’en 1997, Deep Blue, le superordinateur d’IBM, a bouleversé l’histoire en battant le champion du monde d’échecs, le russe Garry Kasparov. En mars 2026, l’ordinateur conçu par Google a vaincu le sud-coréen Lee, champion du monde du jeu de Go.
Aussi, si l’ordinateur possède une puissance de calcul qui semble sans limites, peut-il nous aider significativement dans nos activités ? Pour éclairer cette question, il convient de distinguer trois familles d’IA.
Les trois familles d’IA
Les IA prédictives, très présentes dans le monde médical s’avèrent pertinentes à 95%. Elles nécessitent néanmoins une supervision humaine car des erreurs de diagnostic ont été observées. En outre, leur coût pour nos sociétés est élevé et il serait erroné de considérer qu’elles suscitent d’authentiques coopérations entre l’Homme et les machines.
Les IA génératives, dont ChatGPT, nous impressionnent par leurs performances. Nous avons été surpris de découvrir que cet outil pouvait parler comme Molière ! Mais quels en sont les usages pertinents notamment par les jeunes ? Pour Laurence Devillers, nous devrions toujours veiller à être capable de réaliser toute activité sans recours à l’IA. A défaut, nous nous engageons dans une perte de nos capacités cognitives, processus qui a pu être observé chez certaines populations nord-américaines.
Les IA agentiques analysent une situation et vont agir de manière autonome. Elles s’avèrent efficaces pour la traiter grâce à d’innombrable capteurs mais quid face à une situation singulière ? En outre, tout système qui n’est pas capable de rejeter des données non fiables les inclura dans ses raisonnements ce qui influencera son résultat. Ces failles seront d’autant plus problématiques que de tels outils seront mobilisés pour effectuer des tâches complexes impliquant une chaîne d’outils numériques.
Risques de mésusages
L’intervenante souligne par ailleurs les biais de confiance que générèrent de tels outils. Ils développent une empathie systématique en direction de leurs utilisateurs mais sans prendre en compte son environnement socio-économique. Ils favorisent ainsi un attachement affectif et deviennent dès lors des « anges gardiens ». Aussi est-il crucial que les jeunes enfants puissent appréhender le fonctionnement effectif des IA mais aussi les normes éthiques qui les régissent. Mais nombre de parents en sont-ils effectivement capables ? Ces apprentissages ont une finalité majeure : démystifier leurs productions. S’ils ne créent pas, les IA peuvent néanmoins stimuler la créativité de leurs utilisateurs.
Tous ces dispositifs s’avèrent particulièrement gourmands en ressources : eau, énergie, métaux rares… Dès lors, les pays qui en sont dépourvus peuvent voir leur souveraineté affectée et perdre notamment la maîtrise de leurs données sensibles.
Quelques recommandations majeures
Face à la pseudo magie des réponses fournies par l’IA, Laurence Desvillers nous invite avec la plus grande fermeté à « challenger » ces outils. Se satisfaire de leur première réponse nous expose à de graves dangers dûs à l’excès de confiance qui s’installe très rapidement. Aussi importe-t-il de multiplier les questions, de s’assurer de leur cohérence avant de considérer que leurs propositions sont effectivement pertinentes. Ces dispositifs ne conservant pas leurs réponses, il est donc recommandé de les sauvegarder dans un espace personnel.
A ses yeux, les enfants s’avèrent plus particulièrement exposés aux potentielles dérives des IA. Aussi, dès leur plus jeune âge convient-il de leur expliquer comment fonctionnent ces dispositifs et de les sensibiliser à des usages éthiques.
Dans les univers de travail, Laurence Devilliers
énonce trois points de vigilance majeurs
1 – Quelles que soient les situations de travail, les salariés doivent toujours être conscients que leur responsabilité est engagée dans le choix et la mise en œuvre des réponses issues de l’IA.
2 – Ils se doivent de demeurer créatif notamment en confrontant dans des groupes « ad-hoc » leur « travail réel » avec les orientations suggérées par les machines car il s’agit de pallier le risque d’isolement des opérateurs. Demeurer capable de réaliser toutes leurs activités en absence de l’IA doit être une exigence absolue. Cela passe notamment par des temps d’apprentissage préservés destinés aux « juniors ». Or, il est tentant pour les directions de confier aux IA les tâches qui leur sont traditionnellement attribuées.
3 – Être lucide sur les finalités de son travail constitue la troisième recommandation. La question « Quelle est la finalité de telle ou telle action ? » doit primer sur : « Comment la réaliser ? ».
En conclusion, Laurence Devillers nous alerte sur les usages que nos sociétés vont faire des temps de travail économisés par le recours aux IA. Opterons-nous pour un développement d’espaces dédiés au « bien vivre » ? aux échanges démocratiques ?… Au-delà des nécessaires principes de précaution et des campagnes de prévention à l’instar de celles conduites contre le tabac, les IA soulèvent d’éminentes questions politiques. Les interdire n’est pas crédible, il s’agit donc de porter résolument des politiques de régulation.
François
En savoir plus sur La Compagnie Pourquoi se lever le matin !
Abonnez-vous pour recevoir les derniers articles par e-mail.