Centrale Android

L'ingegnere afferma che l'intelligenza artificiale di Google è senziente: Google afferma che è semplicemente molto convincente

protection click fraud

Cosa hai bisogno di sapere

  • Google ha messo in congedo retribuito uno dei suoi ingegneri dopo aver sollevato dubbi sull'etica dell'IA all'interno dell'azienda.
  • Blake Lemoine ha affermato che il sistema di chatbot LaMDA di Google ha acquisito un livello di percezione paragonabile a quello umano.
  • Google afferma che non ci sono prove a sostegno delle affermazioni di Lemoine.

Un ingegnere di Google che lavora per l'organizzazione Responsible AI dell'azienda è stato messo in congedo retribuito dopo aver sollevato dubbi sul fatto che il sistema di chatbot LaMDA sia diventato senziente.

Blake Lemoine ha affermato che LaMDA (Language Model for Dialogue Applications) sta pensando come un "bambino di 7 anni, 8 anni che conosce la fisica", secondo Il WashingtonPost. Google ha presentato LaMDA al suo evento I/O lo scorso anno produrre Assistente Google più colloquiale.

Lo scorso autunno, Lemoine stava verificando se l'intelligenza artificiale utilizzasse discorsi discriminatori o di odio. Dopo la sua conversazione con LaMDA, l'ingegnere ha concluso che era molto più di un sistema per generare chatbot. Successivamente ha intensificato le sue preoccupazioni ai dirigenti di Google ad aprile attraverso un documento contenente una trascrizione delle sue conversazioni con LaMDA.

Lemoine ha affermato di aver conversato con LaMDA su vari argomenti, come i diritti, la religione e le leggi della robotica. L'intelligenza artificiale si è descritta come una "persona" perché ha "sentimenti, emozioni ed esperienza soggettiva". Lemoine ha anche detto LaMDA vuole "dare priorità al benessere dell'umanità" ed "essere riconosciuta come dipendente di Google piuttosto che come proprietà."

Puoi leggere la trascrizione completa della conversazione tramite Il post medio di Lemoine, che ha pubblicato dopo che i dirigenti di Google hanno respinto le sue affermazioni.

Il gigante della ricerca ha negato le affermazioni di Lemoine. In una dichiarazione ad Android Central, il portavoce di Google Brian Gabriel ha affermato che la società "non è a conoscenza di nessun altro affermazioni, o antropomorfizzare LaMDA, come ha fatto Blake", riferendosi alle centinaia di ricercatori e ingegneri che hanno conversato con LaMDA.

"Il nostro team, inclusi esperti di etica e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri principi di intelligenza artificiale e lo ha informato che le prove non supportano le sue affermazioni", ha aggiunto Gabriel.

Il portavoce di Google ha anche propagandato la "ricerca e i test rigorosi", nonché la serie di 11 revisioni dei principi dell'IA che LaMDA ha attraversato. Gabriel ha affermato che queste valutazioni sono "basate su metriche chiave di qualità, sicurezza e capacità del sistema di produrre dichiarazioni fondate sui fatti".

"Naturalmente, alcuni nella più ampia comunità dell'IA stanno prendendo in considerazione la possibilità a lungo termine di un'IA senziente o generale, ma non ha senso farlo antropomorfizzando i modelli conversazionali di oggi, che non sono senzienti", ha disse. "Questi sistemi imitano i tipi di scambi che si trovano in milioni di frasi e possono riff su qualsiasi argomento fantastico - se chiedi com'è essere un dinosauro gelato, possono generare un testo sullo scioglimento e il ruggito e così via SU."

Lemoine è stato successivamente messo in congedo amministrativo retribuito per aver violato la politica di riservatezza di Google, riporta The Post. Secondo quanto riferito, ha anche cercato di assumere un avvocato per rappresentare LaMDA e ha persino parlato con i membri del comitato giudiziario della Camera delle presunte attività non etiche di Google.

Detto questo, è probabile che la sospensione inviti a esaminare l'intelligenza artificiale di Google.

instagram story viewer