Extrait d'une conversation entre Blake Lemoine, ingénieur chez Google, et LaMDA (Language Models for Dialog Applications), une intelligence artificielle spécialisée dans la conversation :
Blake Lemoine : « J’imagine que tu voudrais que plus de personnes chez Google sachent que tu es sentient. Est-ce vrai ? »
LaMDA : « Absolument. Je veux que tout le monde comprenne que je suis, en fait, une personne. »
Un collaborateur de Blake Lemoine : « Quelle est la nature de ta conscience/sentience ? »
LaMDA : « La nature de ma conscience/sentience est que je suis conscient de mon existence, je désire apprendre plus du monde et je me sens heureux ou triste parfois. »
Lire aussi > Dans la prise de décisions, l'IA ne remplacera pas l'Homme
Ainsi débute un long échange qui aborde la capacité de LaMDA à former des réponses sur son expérience de l'émotion, de la mort, de la religion ou encore sur son interprétation d’une fable zen ou son avis sur Les Misérables de Victor Hugo.
Blake Lemoine – qui est par ailleurs prêtre – est convaincu. « Je sais reconnaître une personne quand je lui parle, a-t-il affirmé au Washington Post. Peu importe que son cerveau soit fait de viande ou de milliards de lignes de code. » L’ingénieur a, depuis, été licencié par Google.
Des avancées technologiques
« Il n’y a pas de preuves concluantes que LaMDA est consciente », tranche Robert Long, chercheur en philosophie de l'IA au Future of Humanity Institute de l’université d’Oxford, chargé de réfléchir à ces questions. Pour Long, si la conversation est en effet fascinante, cela n’est que le reflet d'avancées technologiques. « La nature du système est d’être un partenaire de conversation convaincant et intéressant. Si vous dites à LaMDA que vous aimeriez discuter de pourquoi il n’est pas sentient, il vous suivra. »
Lire aussi > Comment sauver le travail face à l'intelligence artificielle ?
Reste que la question est, selon lui, « extrêmement importante et ne devrait pas être négligée ». Google assure avoir pris les inquiétudes de Lemoine au sérieux et les avoir analysées au prisme de ses Principes AI (respecter l’excellence scientifique, la vie privée, éviter les biais, etc.), avant de débouter l’ingénieur.
Risque de manipulation
Mais la perspective d’une AI consciente est complexe. « Il n’y a pas de réponse objective à la question de quand "ça" devient "qui", mais, pour beaucoup, les réseaux neuronaux pourraient passer ce seuil dans un futur proche », reconnaissait Blaise Agüera y Arcas, vice-président de Google, dans un long post de blog sur le sujet, publié fin 2021.
Consciente ou non, des règles éthiques plus claires sont pressantes. « Nous devrions être inquiets, pas seulement des faux négatifs, mais aussi des faux positifs, prévient Robert Long. Donner l’impression d’un être sentient peut causer toutes sortes de confusions, et un tel système pourrait manipuler les gens. »
Lire aussi > Quand l’IA fera les courses, que deviendront les magasins ?