Avril 2023 – Depuis sa mise en ligne le 14 mars 2023, GPT-4, modèle de langage multimodal sophistiqué développé par la société américaine OpenAI, défraye la chronique.

Ces performances s’avèrent en effet encore plus redoutables que celles de son prédécesseur –  jusqu’à réussir l’examen du barreau américain – et soulèvent de nombreuses réactions : pétition pour la suspension des développements de systèmes d’IA trop puissants lancée par le Future of Life Institute, dépôt de plainte par une ONG américaine auprès de la Federal Trade Commission (FTC), et même, blocage de l’agent conversationnel par la Garante, la CNIL italienne !

Mais que retenir de l’emballement médiatique de ces dernières semaines ? Le cahier des tendances du Cercle d’Éthique des Affaires, publié en décembre 2022, appelait de ses vœux le développement d’une « indispensable éthique des technologies ». L’actualité récente invite à préciser les bases sur lesquelles celle-ci devrait reposer.

 

De vraies fausses alertes ?

L’histoire du développement technologique ne cesse d’emprunter des chemins tortueux et de réserver des surprises. Ainsi, de nombreux projets présentés comme révolutionnaires il y a quelques mois semblent durablement marquer le pas : le Metavers s’enlise, le marché des NFT est atone, celui des cryptomonnaies en berne et la blockchain n’a toujours pas remplacé les tiers de confiance… Au contraire, et de manière soudaine, des systèmes d’intelligence artificielle générative, textuels (comme GPT-4) ou visuels (comme Midjourney), effectuent des bonds de progression exponentielle.

Dans ce contexte, le Future of Life Institute (FLI), association à but non lucratif fondée en 2014 et dédiée à la lutte contre les risques existentiels menaçant l’humanité – notamment l’intelligence artificielle – a publié une pétition, signée par certaines personnalités influentes du monde la tech, appelant à un moratoire dans le développement des systèmes d’intelligence artificielle dont les capacités seraient égales ou supérieures à celles de GPT-4.

L’association, financée par Elon Musk, est dépositaire d’une philosophie vivement controversée dite de « l’altruisme efficace » ou « longtermiste », particulièrement en vogue chez les grands patrons de la Silicon Valley et qui se caractérise par un utilitarisme radical visant à permettre la survie de l’Humanité à long terme au moyen de développements technologiques continus.

La pétition récemment publiée par le FLI, et vertement critiquée depuis par de nombreux spécialistes, s’inscrit dans la ligne traditionnelle de l’association qui voit en l’intelligence artificielle, une technologie capable de faire advenir une « super-intelligence », voire « d’éradiquer l’humanité ».

Des hypothèses hautement spéculatives – il suffit pour s’en convaincre de (re)lire l’ouvrage « Le mythe de la singularité » du président du comité d’éthique du CNRS, Jean-Gabriel Ganascia, pour s’en convaincre – qui ont pour principales défauts de ne pas permettre une recension complète des risques critiques déjà advenus du fait du développement de l’industrie numérique. Or si les risques diffèrent, les réponses à y apporter pour les réduire ou les maîtriser diffèrent également.

Le FLI s’inquiète par exemple de l’automatisation des emplois « y compris ceux qui sont gratifiants ». A ce sujet, le site de l’association relaie une étude publiée en 2013 par deux professeurs de l’Université d’Oxford dont l’un, Michael Osborne est membre du FLI, et qui annonçait une destruction nette d’emplois liée à l’IA de l’ordre de 47% à l’horizon 2023-2025 !

Si cette « fumeuse prévision » ne s’est pas réalisée, les progrès en matière d’intelligence artificielle n’ont pas été pour autant sans effet sur le monde du travail. Ils ont par exemple conduit à de nouvelles formes d’exploitation humaine, comme dans le cas de ces travailleurs kényans sous-payés pour entraîner Chat-GPT…

Numérique : des risques immédiats

Outre la question importante des « travailleurs du clic » et celle, plus large, des effets des technologies numériques sur la qualité de l’emploi, leur développement et déploiement actuel soulèvent déjà un nombre important de problématiques éthiques qu’il conviendrait de résoudre.

Remarquons, par exemple, que c’est au motif d’une violation de la règlementation relative à la protection des données personnelles que la Garante, l’homologue de la CNIL en Italie, a bloqué GPT-4. De manière générale, les dispositions du RGPD, entrée en vigueur en mai 2018, se heurtent encore très souvent aux velléités des concepteurs, notamment non-européens, de recueillir un maximum de données personnelles, loin du principe de minimisation pourtant prévu à l’article 25.

Par ailleurs, les débats sur la pertinence d’adopter des technologies telles que les logiciels de reconnaissance faciale ne font finalement qu’interroger la force accordée au principe de vie privée, dont la défense doit permettre d’empêcher les dérives autoritaires, toujours potentielles, de surveillance ou de fichage politique. Les réponses apportées varient à travers le monde : Pékin en a fait un instrument de contrôle social, San Francisco l’a bannie tandis que Paris adopte une position d’équilibriste controversée.

La question de l’opacité et de l’encadrement des principes de fonctionnement des algorithmes et plus largement de l’architecture du « cyberespace » sont d’autres problématiques connues, au moins depuis le célèbre article « Code is Law » du juriste américain Lawrence Lessig, publié en 2000. A ce titre, les récents progrès en matière d’intelligence artificielle, au premier rang desquels Chat-GPT, ne font que rendre toujours plus pressantes des exigences déjà datées.

Deux questionnements se posent néanmoins sous de nouveaux jours.

Premièrement, les intelligences artificielles génératives, comme GPT-4, semblent susceptibles de causer, à court-terme, une rupture épistémologique majeure, dans la mesure où certains pourraient tenter d’assimiler leur production à une forme de connaissance opposable, alors que celle-ci relève d’une approche statistique du langage produisant des suites de mots crédibles mais incapable d’éviter les approximations et ambiguïtés ou de citer correctement ses sources.

En second lieu, la lutte contre le dérèglement climatique et pour la préservation des ressources et de l’environnement impose désormais d’étudier systématiquement et rigoureusement l’utilité sociétale de tout artefact technologique eu égard à son coût environnemental. Une tribune signée par plus de 126 prix Nobel à l’occasion de la remise des prix 2021 invitait ainsi à « orienter la révolution technologique de manière délibérée et stratégique dans les décennies à venir afin de soutenir les objectifs sociétaux. »

Cet impératif, qui ne figure pas dans la pétition lancée par le FLI, semble pourtant bien « existentiel » ! Mais les géants du numérique ne semblent pas très intéressés à communiquer sur les émissions carbone et l’empreinte environnemental de leurs modèles. Ainsi Timnit Gebru qui dirigeait l’équipe dédiée à l’éthique de l’intelligence artificielle de Google a été licenciée subitement à la suite de la publication d’un article de recherche évoquant la question.

Innovation : y a-t-il un pilote dans l’avion ?

La purge effectuée par Google ne fait plus figure d’exception depuis que Microsoft en a fait de même en licenciant son équipe dédiée à l’éthique. Dans ce contexte, est-il raisonnable de s’en tenir aux promesses de l’autorégulation exigeante ?

Les témoignages des concepteurs de ChatGPT, relayés récemment par la MIT Technology Review, permettent d’en douter : « le produit n’est pas fini », « il est impossible d’attendre que le système soit parfait pour le diffuser », « les modèles semblaient plus factuels et plus sûrs que d’autres modèles, d’après nos évaluations limitées, nous avons donc décidé (…) du lancement »… De curieux aveux d’irresponsabilité impossibles à excuser dès lors qu’on chercherait à les transposer à d’autres secteurs !

Dans ce contexte, la question de la gouvernance de l’innovation se repose inévitablement.  Prosaïquement, elle pourrait s’énoncer ainsi : y a-t-il un pilote dans l’avion de l’innovation ? Ou, de manière plus longue, comment s’assurer que des apprentis sorciers n’en prennent pas, même provisoirement, les commandes ?

Difficile d’imaginer une initiative réglementaire internationale au regard de la crise actuelle du multilatéralisme. Aux échelles nationales et suprarégionales en revanche, les projets de régulation se multiplient. Si pour l’instant les Etats-Unis misent plutôt sur des approches sectorielles et volontaires, l’Union Européenne envisage quant à elle, par l’intermédiaire de l’« AI Act », d’imposer aux entreprises souhaitant intervenir sur le vaste marché européen la mise en place de systèmes de management des risques liés à la conception de systèmes d’intelligence artificielle.

Bien que critiquable – il n’est par exemple fait aucune mention de quelconques impératifs d’ordre environnementaux dans ce texte – ce projet a comme avantage, outre d’édicter un cadre réglementaire contraignant, de proposer la création d’un comité européen sur l’intelligence artificielle chargé d’assurer l’application de ce règlement via la coordination des autorités nationales.

Un pas bienvenu vers une structuration de la gouvernance de l’innovation numérique qui ne doit cependant pas faire oublier la nécessaire démocratisation de la question technique. Comme l’appelait déjà de ses vœux, le sociologue allemand, Ulrich Beck, lors de la parution de son ouvrage phare en 1986, n’est-il pas temps de passer d’une « société du risque » à une « modernité réflexive » ? Pour ce faire, l’auteur considérait qu’il était nécessaire d’opérer une « démocratisation structurelle » permettant à tous les citoyens de pouvoir s’informer, discuter, contrôler et contester les choix scientifiques et technologiques producteurs de risques.

Ne reste alors plus qu’à en imaginer les modalités pratiques, en entreprise, comme dans l’espace publique, du comité de parties prenantes à la convention citoyenne, afin de faire vivre une véritable réflexion éthique discursive et riche de la confrontation des différents points de vue existants dans nos sociétés.

Pour aller plus loin, le Cercle d’Éthique des Affaires organise deux évènements dédiés à l’éthique du numérique :

  • Le 21 avril en recevant les auteurs du Manifeste pour une éthique du numérique, membre du Comité national pilote d’éthique du numérique.
  • En décembre 2023, un Club Prospectif sur le sujet de l’éthique du numérique avec des experts de haut-niveau

Crédit photo : Unsplash

Suivez-nous sur les réseaux sociaux !