Androïde Centraal

Kan de LaMDA-chatbot van Google echt bewust zijn?

protection click fraud

Blake Lemoine, een Google-ingenieur, is met behoud van loon geschorst nadat hij naar buiten kwam over zijn mening dat de baanbrekende AI-chatbot van Google LaMDA was een bewuste machine met een echt bewustzijn.

Lemoine kwam tot deze conclusie nadat hij met het model had gewerkt en diepgaande gesprekken had gevoerd die hem deden geloven dat de AI een "ziel" had en verwant was aan een kind met kennis van natuurkunde.

Het is een interessant en mogelijk noodzakelijk gesprek om te hebben. Google en andere AI-onderzoeksbedrijven hebben LLM-neurale netwerken (groot taalmodel) in de richting gebracht waardoor ze klinken als een echt mens, vaak met spectaculaire resultaten.

Maar uiteindelijk doet het algoritme alleen precies waarvoor het is geprogrammeerd: ons voor de gek houden door te denken dat we met een echt persoon praten.

Wat is LaMDA?

Google Cloud-TPU
(Afbeelding tegoed: Android Central)

LaMDA, en andere grootschalige AI "chatbots" zijn een uitbreiding van zoiets als Alexa of Google Assistant. U levert een soort invoer en een gecompliceerde set computeralgoritmen reageert met een berekende uitvoer.

Wat LaMDA (Language Model for Dialogue Applications) anders maakt, is de schaal. Doorgaans analyseert een AI wat hem wordt gepresenteerd in zeer kleine stukjes en zoekt hij naar trefwoorden of spel- en grammaticafouten, zodat hij weet hoe hij moet reageren.

LaMDA is wat bekend staat als een LLM. Een groot taalmodel is een naam die wordt gegeven aan een type neuraal netwerk van computers die ongelooflijk zijn gevoed hoeveelheid tekst om het te leren antwoorden te genereren die niet alleen correct zijn, maar ook als een ander klinken persoon.

LaMDA is spectaculair vanwege zijn schaal.

De doorbraak van LaMDA was hoe Google de uitvoer kon verfijnen en aanpassen zodat het hoorbaar leek op de manier waarop een persoon daadwerkelijk praat. We hebben bijvoorbeeld allemaal gehoord "Oké, ik doe het slaapkamerlicht aan" of iets dergelijks van Google Assistent als we gebruiken onze favoriete slimme lampen.

LaMDA zou in plaats daarvan kunnen antwoorden met iets als "Oké, het is hier behoorlijk donker, nietwaar?" Dat klinkt gewoon meer alsof je tegen een persoon praat dan een klein doosje met circuits.

Het doet dit door niet alleen woorden, maar hele taalblokken te analyseren. Met voldoende geheugen kan het de antwoorden op meerdere alinea's aan invoer vasthouden en uitzoeken welke moet worden gebruikt en hoe het antwoord vriendelijk en menselijk kan lijken.

De schaal is een groot deel van de vergelijking / ik heb een vervelende typefout I altijd maken: "is niet; t" in plaats van "is niet." Eenvoudige algoritmen zoals Chrome's spellingcontrole of Grammarly kunnen mijn fout herkennen en me vertellen om het te repareren.

Iets als LaMDA zou in plaats daarvan de hele paragraaf kunnen evalueren en me laten weten wat het denkt van de dingen die ik zeg En corrigeer mijn spelling. Daar is het voor ontworpen.

Maar is het wel bewust, en is dat het echte probleem?

Hé Google, ben je een mens?
(Afbeelding tegoed: Jerry Hildenbrand)

Lemoine zeker gelooft dat LaMDA een levend, ademend ding is. Er is genoeg gezegd over zijn mentale toestand of hoe maf zijn levensstijl zou kunnen zijn, dus ik ga niets zeggen behalve dat de man gelooft dat LaMDA echte gevoelens heeft en uit vriendelijkheid handelde toen hij de zijne openbaar maakte gedachten. Google dacht natuurlijk anders.

Maar nee, ik denk niet dat LaMDA of een ander LLM neuraal netwerk bewust is of kan zijn, althans met de technologie van vandaag. Ik heb lang geleden geleerd om nooit nooit te zeggen. Op dit moment reageert LaMDA alleen zoals het is geprogrammeerd en hoeft het niet op dezelfde manier te begrijpen wat het zegt als een persoon.

Het is net alsof jij of ik een kruiswoordraadsel invullen en we weten niet wat het woord betekent of zelfs is. We kennen gewoon de regels en weten dat het past waar en hoe het hoort te passen.

4 letters - zelfstandig naamwoord. Een stug haar of borstelhaar. (Het is Seta maar ik heb SEGA 10 keer geprobeerd).

Alleen omdat we niet dichtbij de dag zijn waarop slimme machines opstaan ​​​​en alle mensen proberen te doden, wil nog niet zeggen dat we ons geen zorgen hoeven te maken. Computers leren menselijker te klinken is echt geen goede zaak.

Dat komt omdat een computer - nogmaals - alleen kan reageren zoals hij is geprogrammeerd om te reageren. Dat programmeren niet altijd in het belang van de samenleving is. We zien nu al zorgen dat AI bevooroordeeld is, omdat de mensen die de programmering doen meestal welgestelde mannen van in de twintig zijn. Het is niet meer dan normaal dat hun levenservaring de besluitvorming van een AI gaat beïnvloeden.

Ga nog een stap verder en denk na over wat iemand met slechte bedoelingen zou kunnen programmeren. Bedenk dan dat ze het vermogen zouden kunnen hebben om het te laten klinken alsof het van een persoon komt en niet van een machine. Een computer is misschien niet in staat om slechte dingen te doen in de fysieke wereld, maar hij kan mensen wel overtuigen om ze te doen.

LaMDA is ongelooflijk en de mensen die dergelijke systemen ontwerpen, doen geweldig werk dat de toekomst zal beïnvloeden. Maar het is nog steeds maar een computer, ook al klinkt het als je vriend na één te veel 420 sessies en ze beginnen te praten over het leven, het universum en alles.

instagram story viewer