Google heeft Blake Lemoine ontslagen bij de afdeling Responsible AI van het bedrijf nadat hij eerder was geschorst. Hij haalde in juni de krantenkoppen vanwege beweringen dat het LaMDA-taalmodel een eigen leven was gaan leiden en zelfbewust was.
Het ontslag van Lemoine werd naar voren gebracht door de website Big Technology op basis van een eigen, ongepubliceerde podcastaflevering waarin de ingenieur vertelde over zijn recente ontslag bij Google. Het bedrijf heeft zijn vertrek bevestigd en heeft ook een gedetailleerd antwoord gegeven, met de Blake-sectie hieronder:
“Als een medewerker zorgen deelt over ons werk, zoals Blake deed, beoordelen we die uitgebreid. We vonden Blake's beweringen dat LaMDA opzettelijk ongegrond is en hebben er maanden over gedaan om hem dat duidelijk te maken. Deze gesprekken maakten deel uit van de open cultuur die ons helpt verantwoord te innoveren. Het is betreurenswaardig dat Blake, ondanks een langdurige toewijding aan dit onderwerp, er nog steeds voor koos om het aanhoudende duidelijke beleid inzake werkgelegenheid en gegevensbeveiliging te schenden, inclusief de noodzaak om productinformatie te beschermen. We zullen onze zorgvuldige ontwikkeling van taalmodellen voortzetten en we wensen Blake het beste.”
Dit nummer begon in juni en draait om LaMDA, een taal- of gespreksmodel dat is getraind met aanzienlijke hoeveelheden tekst. LaMDA schreef daarin onder meer dat het zichzelf als persoon zag en dezelfde rechten wilde hebben als andere Google-medewerkers. Samen met een collega kwam Lemoine tot de conclusie dat er sprake was van zelfbewustzijn. De twee Google-medewerkers probeerden intern de vice-president van het bedrijf en het hoofd van de afdeling Responsible Innovation te overtuigen, maar ze verwierpen de beweringen.
Uiteindelijk begon Lemoine hierover te publiceren in de vorm van logs van chats die hij had met LaMDA. Zo publiceerde hij een 'interview' met LaMDA, in feite een samenstelling van meerdere chatsessies. Ook benaderde hij The Washington Post met de bewering dat het taalmodel zelfbewust was geworden. Door schending van de geheimhoudingsplicht werd de ingenieur al snel geschorst.
Google onthulde zijn Language Model for Dialogue Applications, of LaMDA, op zijn I/O 2021-conferentie. Het taalmodel maakt het mogelijk om vloeiende gesprekken te voeren over veel onderwerpen, vergelijkbaar met hoe mensen online met elkaar praten. LaMDA is getraind in grote hoeveelheden gegevens voor dergelijke gesprekken.