Android Central

Kan Googles LaMDA-chatbot verkligen vara känslig?

protection click fraud

Blake Lemoine, en Google-ingenjör har stängts av med lön efter att han offentliggjorde sina tankar om att Googles banbrytande AI-chatbot LaMDA var en kännande maskin med ett verkligt medvetet.

Lemoine kom till denna slutsats efter att ha arbetat med modellen och haft genomtänkta samtal som fick honom att tro att AI hade en "själ" och var besläktad med ett barn med kunskap om fysik.

Det är ett intressant, och möjligen nödvändigt, samtal att ha. Google och andra AI-forskningsföretag har tagit LLM (stora språkmodeller) neurala nätverk i den riktning som får dem att låta som en verklig människa, ofta med spektakulära resultat.

Men i slutändan gör algoritmen bara exakt vad den var programmerad att göra - lura oss att tro att vi pratar med en verklig person.

Vad är LaMDA?

Google Cloud TPU
(Bildkredit: Android Central)

LaMDA, och andra storskaliga AI "chatbots" är en förlängning av något som Alexa eller Google Assistant. Du tillhandahåller någon form av input, och en komplicerad uppsättning datoralgoritmer svarar med en beräknad utdata.

Det som skiljer LaMDA (Language Model for Dialogue Applications) är dess skala. Vanligtvis kommer en AI att analysera vad som presenteras för den i mycket små bitar och leta efter nyckelord eller stavnings- och grammatikfel så att den vet hur den ska svara.

LaMDA är vad som kallas en LLM. En stor språkmodell är ett namn som ges till en typ av neurala nätverk av datorer som har matats med en otrolig mängd text för att lära den att generera svar som inte bara är korrekta utan låter som andra person.

LaMDA är spektakulär på grund av sin skala.

LaMDA: s genombrott var hur Google kunde förfina resultatet och justera det så att det var hörbart likt hur en person faktiskt pratar. Till exempel har vi alla hört "Okej, jag tänder lampan i sovrummet" eller något liknande från Google Assistant om vi använder våra smarta favoritlampor.

LaMDA kunde istället svara med något i stil med "Okej, det är väl ganska mörkt här inne?"Det låter bara mer som att du pratar med en person än en liten låda med kretsar.

Den gör detta genom att analysera inte bara ord, utan hela block av språk. Med tillräckligt med minne kan den hålla svaren på flera stycken värdefulla av input och reda ut vilken som ska användas och hur man får svaret att verka vänligt och mänskligt.

Skalan är en stor del av ekvationen/ Jag har ett irriterande stavfel I alltid göra: "isn; t" istället för "är det inte." Enkla algoritmer som Chromes stavningskontroll eller Grammarly kan känna igen mitt fel och säga åt mig att fixa det.

Något som LaMDA skulle istället kunna utvärdera hela stycket och låta mig veta vad det tycker om de saker jag säger och rätta min stavning. Det är vad den var designad för att göra.

Men är det faktiskt kännande, och är det det verkliga problemet?

Hej Google, är du människa?
(Bildkredit: Jerry Hildenbrand)

Lemoine så klart anser att LaMDA är en levande sak som andas. Det har sagts tillräckligt om hans mentala tillstånd eller hur knäpp hans livsstil kan vara så jag tänker inte säga något förutom att mannen tror att LaMDA har riktiga känslor och handlade av vänlighet när han gick ut offentligt med sin tankar. Google kändes förstås annorlunda.

Men nej, jag tror inte att LaMDA eller något LLM-neuralt nätverk är sentient eller kan vara det, åtminstone med dagens teknik. Jag lärde mig för länge sedan att aldrig säga aldrig. Just nu svarar LaMDA bara som det programmerades och behöver inte förstå vad det säger på samma sätt som en person gör.

Det är precis som att du eller jag fyller i en ledtråd i korsord och vi vet inte vad ordet betyder eller ens är. Vi kan bara reglerna och att det passar var och hur det ska passa.

4 bokstäver — substantiv. Ett stelt hår eller borst. (Det är Seta men jag försökte SEGA 10 gånger).

Bara för att vi inte är nära den dag då smarta maskiner reser sig och försöker döda alla människor betyder det dock inte att vi inte ska vara oroliga. Att lära datorer att låta mer mänskligt är verkligen inte bra.

Det beror på att en dator - återigen - bara kan svara på det sätt som den var programmerad att svara. Att programmering kanske inte alltid ligger i samhällets bästa. Vi ser redan oro för att AI är partisk eftersom de som gör programmeringen mestadels är välbärgade män i tjugoårsåldern. Det är bara naturligt att deras livserfarenhet kommer att påverka beslutsfattandet för en AI.

Ta det ett steg längre och fundera på vad någon med verkliga dåliga avsikter kan programmera. Tänk sedan på att de kan ha förmågan att få det att låta som att det kommer från en person och inte en maskin. En dator kanske inte kan göra dåliga saker i den fysiska världen, men den kan övertyga människor att göra dem.

LaMDA är otroligt och människorna som designar system som det gör fantastiskt arbete som kommer att påverka framtiden. Men det är fortfarande bara en dator även om det låter som din vän efter en för många 420 sessioner och de börjar prata om livet, universum och allt.

instagram story viewer