Le 22 mars, le Futur of Life Institute publiait une lettre ouverte, portée notamment par Elon Musk et des centaines d’experts en intelligence artificielle (IA). Les signataires demandent une pause dans le développement de la technologie, la mise en place de protocoles de sécurité et un « système de gouvernance robuste ». « La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d’aujourd’hui », préconisent-ils.
En vain. La priorité semble être ailleurs pour les entreprises en tête de la course à l’intelligence artificielle. En mars dernier, Microsoft a licencié son équipe chargée de l’IA responsable. Cette équipe « Éthique & Société », composée d’ingénieurs, de concepteurs et de philosophes, était déjà passée en octobre dernier de 30 à 7 personnes.
En 2020, Google a évincé à grand fracas Timnit Gebru, codirectrice de son programme d’IA éthique, après un article scientifique, mal perçu par l’entreprise, sur les risques liés aux grands modèles de langage. De son côté, Meta, la maison mère de Facebook et Instagram, a dissous en septembre dernier son équipe dédiée à l’innovation responsable. Elle était chargée, entre autres, des questions de sécurité, de santé et d’environnement, indique Les Numériques.
Des garde-fous gênants
Pour Samuel Mercier, professeur en science de gestion, directeur de l’IAE Dijon et auteur de l’Éthique dans les entreprises (publié en 1999, réédité en 2014), ces licenciements soulignent le paradoxe auquel font face les entreprises. « L’entreprise existe pour faire du profit : pour sa pérennité, il faut qu’elle soit rentable. Mais elle se constitue aussi dans un projet social. L’éthique, en entreprise, renvoie aux liens qu’elle entretient avec la société qui lui permet de se développer. »
Les considérations sociales peuvent parfois s’opposer aux intérêts commerciaux. C’est ce qu’il s’est passé avec Microsoft, pressé d’implanter dans ses outils les solutions d’IA développées par OpenAI. « Les membres de l’équipe chargée de l’éthique et de la société ont déclaré qu’ils s’efforçaient généralement de soutenir le développement des produits, a révélé le média spécialisé Platformer au moment du licenciement. Mais ils ont ajouté : au fur et à mesure que Microsoft veut livrer des outils d’IA plus rapidement que ses rivaux, la direction de l’entreprise s’est désintéressée de la réflexion à long terme ».
Lire aussi > IA. Qui est OpenAI, l’entreprise derrière ChatGPT et Dall-E ?
Timnit Gebru a subi le même sort chez Google. Elle décrit des grandes entreprises technologiques complètement obnubilées par le développement effréné de l’IA. « On s’époumonait à signaler les problèmes et on subissait systématiquement des représailles, a-t-elle regretté dans des interviews à The Correspondant et au Guardian. Ils ne veulent pas de quelqu’un comme moi qui vous met des bâtons dans les roues ».
« En plaçant des garde-fous, on introduit des opposants potentiels au développement de l’activité et de la performance de l’entreprise, décrypte Samuel Mercier. Ces personnes peuvent devenir gênantes, mettre le doigt sur des problématiques profonds et systémiques ». La position de l’entreprise n’est pas simple, nuance-t-il : « Google a des concurrents, il s’agit aussi de pérenniser l’entreprise et de défendre des emplois ».
Lire aussi > Comment ChatGPT place Google face au « dilemme de l’innovateur »
Une philosophie pragmatique
L’IA est un thème porteur mais les enjeux éthiques sont loin d’être nouveaux ou de se limiter aux nouvelles technologies. « À la fin des années 90, nous étions en pleine vague éthique, expose Henri Isaac, maître de conférences à l’Université Paris-Dauphine et docteur en science de gestion spécialiste du numérique. La financiarisation des années 80-90 a aussi introduit des préoccupations éthiques. Chaque grande transformation de l’économie apporte des interrogations qui dépassent le cadre réglementaire et pose la question : dépasser jusqu’où ? ».
Lire aussi > Entreprises : la RSE est-elle compatible avec les objectifs des actionnaires ?
Au-delà du discours médiatique grandiloquent autour de l’IA et de son impact potentiel sur notre humanité, les entreprises restent « pragmatiques ». « Il y a des philosophes de profession qui se demandent comment bien agir en société et soulèvent la question de l’autre, de l’altérité, détaille Mercier en évoquant Aristote, Kant ou Spinoza. Dans le monde de l’entreprise on s’inspire parfois de ces travaux mais on les applique surtout dans une logique de "compliance" (conformité juridique). Souvent, les entreprises mettent sur le même niveau le droit et l’éthique et se demandent comment se comporter correctement, de manière légale et éthique. »
Concrètement, l’éthique est gérée dans les départements juridiques, voire dans la direction de la RSE (Responsabilité sociétale de l’entreprise) lorsqu’il s’agit d’obtenir des labels pour certifier la bonne pratique de l’entreprise. L’éthique se traduit par des directives internes - sur l’utilisation des actifs de l’entreprise, le respect de la vie privée, la participation du personnel de l’entreprise à la vie politique, les conflits d’intérêts, etc. Les salariés doivent parfois signer ces règlements et s’y conformer. « L’entreprise veut dégager sa responsabilité en cas de scandale et de comportement non-éthique avéré », souligne Samuel Mercier.
L’IA Act du Parlement européen
Mais l’autorégulation n’est pas toujours suffisante. « Quand la société et ses représentants décident que les codes de bonne conduite ne suffisent plus, les autorités publiques prennent le relais », explique Henri Isaac. Ce fut le cas la modération en ligne, longtemps laissée au bon vouloir des plateformes. « Il y a eu des critiques de la part des politiques, de certaines parties prenantes de la société, comme des associations de défense des enfants ou de lutte contre la xénophobie. » L’activité est désormais encadrée par le règlement des services numériques (DSA), adopté en décembre 2022 par le conseil et le Parlement européen.
En matière d’IA, face aux menaces potentielles de cette technologie, le Parlement européen a adopté le 14 juin l’IA Act pour encadrer son développement. Il fixe des grands principes comme l’interdiction des systèmes de note sociale (comme en Chine, où les citoyens peuvent être classés grâce à un système de surveillance de masse). Il prévoit aussi « un bac à sable réglementaire » pour tester des produits dans un environnement contrôlé.
Lire aussi > Intelligence artificielle, data, cloud… L’UE n’est-elle bonne qu’à réguler ?
Négocié depuis deux ans, le texte doit encore être débattu en assemblée et n’entrera pas en vigueur avant la fin de l’année prochaine au moins. Une temporalité en décalage avec celle des entreprises, souligne Samuel Mercier. « Normalement, le droit fixe les comportements. Mais il est très lent, en retard sur ces innovations. L’intérêt de l’éthique est qu’elle est beaucoup plus souple et peut s’adapter en fonction des nouvelles thématiques. Mais elle n’est pas contraignante ».
Il faudra donc aux entreprises une bonne dose de discipline pour s’auto-réguler. « Il ne faut pas être naïf, estime l’expert. Souvent, les enjeux stratégiques et financiers sont beaucoup plus forts pour l’entreprise que ses engagements sociétaux et éthiques. C’est une lutte de tous les instants. »