Android Central

Google är fortfarande långsamt och försiktigt med AI och det är fortfarande bra

protection click fraud

Visste du att det bor 100 000 människor på heltid i Antarktis? Naturligtvis gjorde du inte det för det finns det inte. Men om tillräckligt många skrev det på internet och hävdade att det var ett faktum, skulle alla AI-chatbotar så småningom berätta för dig att det finns 100 000 personer med antarktisk hemvist.

Det är därför AI i sitt nuvarande tillstånd för det mesta är trasig utan mänsklig inblandning.

Jag vill påminna alla – inklusive mig själv – att AI varken är artificiell eller intelligent. Den ger mycket förutsägbara resultat baserat på den input den ges i förhållande till den data den tränades med.

Den där konstiga meningen betyder om du matar en språkmodell med rad efter rad av tråkigt och olustigt saker som Jerry säger och fråga sedan vad som helst, det kommer att upprepa en av de där tråkiga och olustiga sakerna jag har sa. Förhoppningsvis en som fungerar som ett svar på vad du än skrev i prompten.

I ett nötskal, det är därför Google vill gå långsamt när det kommer till direkt konsumentinriktad AI i chattstil. Den har ett rykte att skydda.

Media om desinformation kring månlandningen
(Bildkredit: Google)

Internet har berättat för mig att allt AI-relaterat vi såg på Google I/O 2023 var Google i något slags panikläge och ett direkt svar på något annat företag som Microsoft eller OpenAI.

Jag tycker att det är svindyrt. Den långsamma utgivningen av funktioner är precis vad Google har berättat för oss om hur man planerar att hantera konsument-AI gång på gång. Det är coolt att tänka att Google skyndade sig att uppfinna allt vi såg på bara en månad som svar på Bingbots senaste funktionssläpp, men det gjorde det inte. Även om det är coolt att föreställa sig, är det också dumt att tro.

Detta är Googles faktiska tillvägagångssätt sina egna ord:

"Vi tror att vår inställning till AI måste vara både djärv och ansvarsfull. För oss betyder det att vi utvecklar AI på ett sätt som maximerar de positiva fördelarna för samhället samtidigt som vi tar oss an utmaningarna, vägledd av vår AI-principer. Även om det finns naturliga spänningar mellan de två, tror vi att det är möjligt – och faktiskt avgörande – att omfamna den spänningen produktivt. Det enda sättet att vara riktigt djärv på lång sikt är att ta ansvar från början."

Att maximera positiva effekter och minimera skada är nyckeln. Ja, det finns en generell ansvarsfriskrivning som säger att så och så chatbots kan säga hemska eller felaktiga saker kopplade till dessa bots, men det räcker inte. Alla företag som är involverade i utvecklingen - och det inkluderar att kasta pengar på ett företag som gör själva arbetet - måste hållas ansvarigt när det går söderut. Inte om, när.

Google Tensor-serverbakgrund på scenen på Google IO 2023
(Bildkredit: Michael Hicks)

Det är därför jag gillar det långsamma och försiktiga tillvägagångssättet som försöker vara etiskt och inte "låt oss kasta funktioner!!!" tillvägagångssätt vi ser från några andra företag som Microsoft. Jag är säker på att Microsoft är bekymrad över etik, känslighet och noggrannhet när det kommer till AI, men än så länge verkar det som bara Google sätter det framför varje tillkännagivande.

Detta är ännu viktigare för mig eftersom jag har ägnat lite tid åt att undersöka några saker kring konsumentinriktad AI. Noggrannhet är naturligtvis viktigt, och det är integritet också, men jag lärde mig den hårda vägen att filtrering förmodligen är den viktigaste delen.

Jag var inte redo för det jag gjorde. De flesta av oss kommer aldrig att vara redo för det.

Jag grävde runt och hittade en del av utbildningsmaterialet som används för en populär AI-bot som berättade för den vad som är för giftigt för att använda i dess datamodell. Det här är grejen som den ska låtsas som inte existerar.

Uppgifterna bestod av både text och hårt redigerade bilder, och båda påverkade mig faktiskt. Tänk på det allra värsta du kan föreställa dig – ja, den där sak. En del av detta är till och med värre än så. Detta är mörkt webbinnehåll som förs till den vanliga webben på platser som Reddit och andra webbplatser där användare tillhandahåller innehållet. Ibland är det innehållet dåligt och ligger kvar tillräckligt länge för att det ska synas.

Google Bard ansvarsfriskrivning
(Bildkredit: Future)

Att se detta lärde mig tre saker:

1. De människor som måste övervaka sociala medier för den här typen av skräp behöver verkligen det mentala stöd som företagen erbjuder. Och en enorm löneförhöjning.

2. Internet är ett utmärkt verktyg som de mest fruktansvärda människorna på planeten också använder. Jag trodde att jag var tillräckligt tjock för att vara beredd på att se den, men jag var inte och var bokstavligen tvungen att lämna jobbet några timmar för tidigt och spendera lite extra tid med de människor som älskar mig.

3. Google och alla andra företag som tillhandahåller konsumentklassad AI kan inte tillåta att data som denna används som utbildningsmaterial, men de kommer aldrig att kunna fånga och filtrera bort allt.

Nummer ett och två är viktigare för mig, men nummer tre är viktigt för Google. Den 7 GB råa texten av "stötande webbinnehåll" - bara en bråkdel av innehållet jag fick tillgång till, hade ordet "Obama" använt över 330 000 gånger på ett stötande sätt. Antalet gånger som det används på ett avskyvärt sätt över hela internet är förmodligen dubbelt eller tre gånger så många.

Detta är vad konsumenternas AI-språkmodeller tränas med. Ingen människa matar in tickerband med handskrivna ord i en dator. Istället tittar "datorn" på webbsidor och deras innehåll. Denna webbsida kommer så småningom att analyseras och användas som input. Så kommer chan meme och bildsidor. Så kommer bloggar om att jorden är platt eller att månlandningen är falsk.

Om det tar Google att gå långsamt för att sålla bort så mycket av det dåliga från konsumenternas AI som det kan, är jag helt för det. Det borde du också vara eftersom allt detta utvecklas till de tjänster du använder varje dag på telefon du planerar att köpa härnäst.

instagram story viewer