Android Centrala

Inženjer tvrdi da je Googleova umjetna inteligencija osjetljiva — Google kaže da je jednostavno vrlo uvjerljiva

protection click fraud

Što trebaš znati

  • Google je poslao jednog od svojih inženjera na plaćeni dopust nakon što je iznio zabrinutost oko etike umjetne inteligencije unutar tvrtke.
  • Blake Lemoine je tvrdio da je Googleov sustav chatbota LaMDA stekao razinu percepcije usporedivu s ljudskom.
  • Google kaže da nema dokaza koji bi potvrdili Lemoineove tvrdnje.

Googleov inženjer koji radi za kompanijsku organizaciju Responsible AI stavljen je na plaćeni dopust nakon što je izrazio zabrinutost da je sustav chatbota LaMDA postao osjetljiv.

Blake Lemoine je tvrdio da LaMDA (Jezični model za aplikacije dijaloga) razmišlja kao "7-godišnje, 8-godišnje dijete koje slučajno zna fiziku", prema Washington Post. Google predstavio LaMDA na svom I/O događaju prošle godine napraviti Google pomoćnik razgovorniji.

Prošle jeseni Lemoine je testirao koristi li umjetna inteligencija diskriminirajući govor ili govor mržnje. Nakon razgovora s LaMDA-om, inženjer je zaključio da je to puno više od sustava za generiranje chatbota. Kasnije je svoju zabrinutost eskalirao Googleovim rukovoditeljima u travnju kroz dokument koji sadrži transkript njegovih razgovora s LaMDA.

Lemoine je rekao da je razgovarao s LaMDA-om o raznim temama, poput prava, vjere i zakona robotike. AI sebe opisuje kao "osobu" jer ima "osjećaje, emocije i subjektivno iskustvo". rekao je i Lemoine LaMDA želi "dati prioritet dobrobiti čovječanstva" i "biti priznat kao zaposlenik Googlea, a ne kao vlasništvo."

Cijeli transkript razgovora možete pročitati putem Lemoineov srednji post, koju je objavio nakon što su čelnici Googlea odbacili njegove tvrdnje.

Pretraživački div je demantirao Lemoineove tvrdnje. U izjavi za Android Central, Googleov glasnogovornik Brian Gabriel rekao je da tvrtka "nije svjesna da je itko drugi napravio široki opseg tvrdnje, ili antropomorfiziranje LaMDA, na način na koji je Blake učinio", pozivajući se na stotine istraživača i inženjera koji su razgovarali s LaMDA.

"Naš tim - uključujući etičare i tehnologe - pregledao je Blakeovu zabrinutost u skladu s našim načelima umjetne inteligencije i obavijestio ga da dokazi ne podupiru njegove tvrdnje", dodao je Gabriel.

Glasnogovornik Googlea također je istaknuo "strogo istraživanje i testiranje" kao i niz od 11 pregleda načela umjetne inteligencije kroz koje je prošla LaMDA. Gabriel je rekao da se te procjene "temelje na ključnim pokazateljima kvalitete, sigurnosti i sposobnosti sustava da proizvede izjave utemeljene na činjenicama."

"Naravno, neki u široj AI zajednici razmatraju dugoročnu mogućnost osjećajne ili opće AI, ali nema smisla to činiti antropomorfiziranjem današnjih modela razgovora, koji nisu osjećajni," rekao je rekao je. "Ovi sustavi oponašaju tipove razmjena koje se nalaze u milijunima rečenica i mogu rifati na bilo koju fantastičnu temu — ako pitate kako je to biti sladoledni dinosaur, oni mogu generirati tekst o topljenju i urlanju i tako na."

Lemoine je nakon toga stavljen na plaćeni administrativni dopust zbog kršenja Googleove politike povjerljivosti, izvještava The Post. Također je navodno tražio angažiranje odvjetnika da zastupa LaMDA i čak je razgovarao s članovima pravosudnog odbora Zastupničkog doma o Googleovim navodnim neetičkim aktivnostima.

Ipak, obustava će vjerojatno pozvati na ispitivanje Googleove umjetne inteligencije.

instagram story viewer