Android Sentral

Kan Googles LaMDA chatbot faktisk være sansende?

protection click fraud

Blake Lemoine, en Google-ingeniør har blitt suspendert med lønn etter at han offentliggjorde sine tanker om at Googles banebrytende AI chatbot LaMDA var en sansende maskin med en faktisk bevisst.

Lemoine kom til denne konklusjonen etter å ha jobbet med modellen og hatt gjennomtenkte samtaler som førte til at han trodde at AI hadde en "sjel" og var beslektet med et barn med kunnskap om fysikk.

Det er en interessant, og muligens nødvendig, samtale å ha. Google og andre AI-forskningsselskaper har tatt LLM (large language model) nevrale nettverk i retningen som får dem til å høres ut som et virkelig menneske, ofte med spektakulære resultater.

Men til syvende og sist gjør algoritmen bare akkurat det den var programmert til å gjøre - å lure oss til å tro at vi snakker med en faktisk person.

Hva er LaMDA?

Google Cloud TPU
(Bildekreditt: Android Central)

LaMDA, og andre storskala AI "chatbots" er en utvidelse av noe som Alexa eller Google Assistant. Du gir en slags input, og et komplisert sett med datamaskinalgoritmer svarer med en beregnet utgang.

Det som gjør LaMDA (Language Model for Dialogue Applications) annerledes, er skalaen. Vanligvis vil en AI analysere det som presenteres for den i svært små biter og se etter nøkkelord eller stave- og grammatikkfeil slik at den vet hvordan den skal svare.

LaMDA er det som er kjent som en LLM. En stor språkmodell er et navn gitt til en type nevrale nettverk av datamaskiner som har blitt matet med en utrolig mengde tekst for å lære den å generere svar som ikke bare er korrekte, men høres ut som en annen person.

LaMDA er spektakulær på grunn av omfanget.

LaMDAs gjennombrudd var hvordan Google var i stand til å avgrense produksjonen og justere den slik at den var hørbart lik måten en person faktisk snakker på. For eksempel har vi alle hørt "OK, jeg slår på lyset på soverommet" eller noe lignende fra Google Assistant hvis vi bruker våre favoritt smarte pærer.

LaMDA kunne i stedet svare med noe sånt som "OK, det er ganske mørkt her er det ikke?"Det høres bare mer ut som om du snakker til en person enn en liten boks med kretser.

Den gjør dette ved å analysere ikke bare ord, men hele blokker av språk. Med nok minne kan den holde svarene på flere avsnitt verdt av input og finne ut hvilken du skal bruke og hvordan du kan få responsen til å virke vennlig og menneskelig.

Skalaen er en stor del av ligningen/ Jeg har en irriterende skrivefeil I alltid lage: "isn; t" i stedet for "isn't." Enkle algoritmer som Chromes stavekontroll eller Grammarly kan gjenkjenne feilen min og be meg fikse den.

Noe sånt som LaMDA kan i stedet evaluere hele avsnittet og fortelle meg hva det synes om tingene jeg sier og korriger stavemåten min. Det er det den er designet for å gjøre.

Men er det faktisk sansende, og er det det virkelige problemet?

Hei Google, er du et menneske?
(Bildekreditt: Jerry Hildenbrand)

Lemoine sikkert mener at LaMDA er en levende ting som puster. Det har blitt sagt nok om hans mentale tilstand eller hvor sprø livsstilen hans kan være, så jeg skal ikke si noe bortsett fra at mannen tror LaMDA har ekte følelser og handlet av vennlighet da han offentliggjorde tanker. Google føltes selvfølgelig annerledes.

Men nei, jeg tror ikke LaMDA eller noe LLM-nevralt nettverk er sansende eller kan være det, i det minste med dagens teknologi. Jeg lærte for lenge siden å aldri si aldri. Akkurat nå svarer LaMDA bare slik det ble programmert og trenger ikke å forstå hva det sier på samme måte som en person gjør.

Det er akkurat som om du eller jeg fyller inn et kryssordspor og vi vet ikke hva ordet betyr eller er. Vi kjenner bare reglene og at det passer hvor og hvordan det skal passe.

4 bokstaver - substantiv. Et stivt hår eller bust. (Det er Seta, men jeg prøvde SEGA 10 ganger).

Bare fordi vi ikke er i nærheten av dagen da smarte maskiner reiser seg og prøver å drepe alle mennesker, betyr ikke det at vi ikke bør være bekymret. Å lære datamaskiner å høres mer menneskelig ut er egentlig ikke bra.

Det er fordi en datamaskin – igjen – bare kan svare slik den var programmert til å svare. At programmering kanskje ikke alltid er i samfunnets beste. Vi ser allerede bekymringer for at AI er partisk fordi de som driver med programmeringen stort sett er velstående menn i tjueårene. Det er bare naturlig at livserfaringen deres kommer til å påvirke beslutningsprosessen til en AI.

Ta det et skritt videre og tenk på hva noen med faktiske dårlige intensjoner kan programmere. Tenk så på at de kan ha muligheten til å få det til å høres ut som om det kommer fra en person og ikke en maskin. En datamaskin kan kanskje ikke gjøre dårlige ting i den fysiske verden, men den kan overbevise folk om å gjøre dem.

LaMDA er utrolig, og menneskene som designer systemer som det gjør fantastisk arbeid som vil påvirke fremtiden. Men det er fortsatt bare en datamaskin selv om det høres ut som vennen din etter én for mange 420 økter og de begynner å snakke om livet, universet og alt.

instagram story viewer