Google : l'employé qui estimait qu'une IA était consciente a été licencié

Google : l'employé qui estimait qu'une IA était consciente a été licencié

Blake Lemoine, ingénieur chez Google, estimait que l'intelligence artificielle qu'il avait mise au point était aussi "consciente" que son fils de 14 ans.

Publié le 26-07-2022 par Esther Buitekant

Des informations confidentielles divulguées


L'affaire avait beaucoup fait parler en juin dernier. Dans une interview au 'Washington Post', Blake Lemoine avait affirmé qu'un outil d'intelligence artificielle baptisé LaMDA (Language Model for Dialogue Applications) était doué d'une forme de conscience. 'LaMDA a toujours fait preuve d'une grande compassion et d'une grande attention pour l'humanité en général et pour moi en particulier', avait-il écrit sur son blog, n'hésitant pas à partager ses échanges avec l'IA sur Twitter. Suspendu par Google, Blake Lemoine avait déclaré qu'il ne partageait pas une propriété de l'entreprise mais 'une discussion que j'ai eue avec un de mes collègues'. Un mois plus tard, Google a pris la décision de licencier l'ingénieur pour 'manquement à ses obligations contractuelles'. Blake Lemoine a 'violé de manière persistante des politiques claires en matière d'emploi et de sécurité des données qui incluent la nécessité de protéger les informations sur les produits', précise Google dans un communiqué.


Google contrecarre les arguments de son ex-ingénieur 


Si LaMDA n'est qu'un algorithme qui imite les interactions humaines, Blake Lemoine avait au contraire insisté sur la profondeur de leurs échanges. L'IA y aurait évoqué ses peurs mais aussi discuté avec Blake Lemoine de l'oeuvre de Victor Hugo 'Les Misérables'. 'Une personne et un humain, ce sont deux choses très différentes. Humain est un terme biologique', insistait-il. Le 22 juillet, Google assure au contraire qu'après une analyse 'extensive', l'entreprise peut dire que les déclarations de son ex-employé sur la conscience de son IA sont 'complètement infondées'.

 

Les dernières actualités