Sistemele de inteligență artificială sunt tot mai complexe și sunt capabile să dea impresia că pot duce la capăt raționamente la fel ca o ființă umană. În spatele acestor rezultate stau baze de date enorme și algoritmi de o complexitate extraordinară, însă mașina din spate rămâne o mașină limitată la hardware și la soft.
Blake Lemoine, inginer în cadrul Google, a deschis prezentarea pentru noul serviciu de chatbot inteligent (LaMDA – Language Model for Dialogue Applications) începând să discute cu sistemul de chatboot. Lemoine, care lucrează pentru organizația Google Responsible AI, a început să discute cu LaMDA ca o obligație a jobului. Acesta se înscrisese pentru a testa dacă inteligența artificială folosea discurs discriminatoriu sau instigator la ură.
„Dacă nu aș ști exact ce este, acest program de calculator pe care l-am construit recent, aș crede că este un copil de 7, 8 ani care se întâmplă să știe fizică”, a spus Blake Lemoine.
Lemoine a lucrat împreună cu un colaborator pentru a prezenta dovezi către Google că LaMDA este conștient. Dar vicepreședintele Google Blaise Aguera y Arcas și Jen Gennai, șeful departamentului de inovare responsabilă, au analizat afirmațiile sale și le-au respins, așa că Lemoine a decis să facă publice aceste lucruri. Google l-a suspectat pe Lemoyne de încălcarea politicii de confidenţialitate a companiei și a decis să-l suspende administrativ.
Un sistem atât de complex și care deține o bază de date cu milioane de combinații și răspunsuri poate da replici care sună foarte uman, fără să înțeleagă însemnătatea acestora și fără să aibă vreun gând propriu.
Deși este tentant să credem că LaMDA s-a transformat în mod miraculos într-o ființă conștientă, sunt puține dovezi care să susțină acest lucru, iar Blake Lemoine se vede pus în situația în care nu mai poate reveni în echipa Google.