Android Sentral

Google er fortsatt treg og forsiktig med AI, og det er fortsatt en god ting

protection click fraud

Visste du at det bor 100 000 mennesker i Antarktis på heltid? Selvfølgelig gjorde du det ikke fordi det ikke er det. Men hvis nok folk skrev det på internett og hevdet det som et faktum, ville alle AI-chatbotene til slutt fortelle deg at det er 100 000 mennesker med antarktisk bosted.

Dette er grunnen til at AI i sin nåværende tilstand for det meste er ødelagt uten menneskelig innblanding.

Jeg liker å minne alle – inkludert meg selv – om at AI verken er kunstig eller intelligent. Den gir svært forutsigbare resultater basert på input den er gitt i forhold til dataene den ble trent med.

Den rare setningen betyr at hvis du mater en språkmodell med linje etter linje med kjedelig og umorsomt ting Jerry sier, så spør hva som helst, det vil gjenta en av de kjedelige og umorsomme tingene jeg har sa. Forhåpentligvis en som fungerer som et svar på det du skrev inn i ledeteksten.

I et nøtteskall, dette er grunnen til at Google ønsker å gå sakte når det kommer til direkte forbrukerrettet chat-stil AI. Den har et rykte å beskytte.

Media om feilinformasjon rundt månelandingen
(Bildekreditt: Google)

Internett har fortalt meg at alt AI-relatert vi så på Google I/O 2023 var Google i en slags panikkmodus og et direkte svar på et annet selskap som Microsoft eller OpenAI.

Jeg synes det er svineri. Den langsomme utgivelsen av funksjoner er akkurat det Google har fortalt oss om hvordan den planlegger å håndtere forbruker-AI gang på gang. Det er kult å tenke på at Google skyndte seg å finne opp alt vi så på bare en måned som svar på Bingbots siste funksjonsutgivelse, men det gjorde det ikke. Selv om det er kult å forestille seg, er det også dumt å tro.

Dette er Googles faktiske tilnærming til sine egne ord:

"Vi mener at vår tilnærming til AI må være både dristig og ansvarlig. For oss betyr det å utvikle AI på en måte som maksimerer de positive fordelene for samfunnet samtidig som vi tar utfordringene, veiledet av våre AI-prinsipper. Selv om det er naturlig spenning mellom de to, tror vi det er mulig – og faktisk kritisk – å omfavne den spenningen produktivt. Den eneste måten å være virkelig modig på på lang sikt er å være ansvarlig fra starten."

Å maksimere positive og minimere skade er nøkkelen. Ja, det er en generell ansvarsfraskrivelse som sier at så-og-så chatboter kan si fryktelige eller unøyaktige ting knyttet til disse robotene, men det er ikke nok. Ethvert selskap som er involvert i utviklingen – og det inkluderer å kaste penger på et selskap som gjør selve jobben – må holdes ansvarlig når ting går sørover. Ikke hvis, når.

Google Tensor-serverbakgrunn på scenen på Google IO 2023
(Bildekreditt: Michael Hicks)

Dette er grunnen til at jeg liker den langsomme og forsiktige tilnærmingen som prøver å være etisk og ikke "la oss kaste funksjoner!!!" tilnærming vi ser fra noen andre selskaper som Microsoft. Jeg er sikker på at Microsoft er opptatt av etikk, følsomhet og nøyaktighet når det kommer til AI, men så langt ser det ut til at bare Google setter det foran hver kunngjøring.

Dette er enda viktigere for meg siden jeg har brukt litt tid på å undersøke noen ting rundt forbrukerrettet AI. Nøyaktighet er viktig, selvfølgelig, og det samme er personvern, men jeg lærte på den harde måten at filtrering sannsynligvis er den viktigste delen.

Jeg var ikke klar for det jeg gjorde. De fleste av oss vil aldri være klare for det.

Jeg gravde rundt og fant noe av opplæringsmaterialet som ble brukt til en populær AI-bot som fortalte den hva som er for giftig til å bruke i datamodellen. Dette er ting den skal late som om den ikke eksisterer.

Dataene besto av både tekst og sterkt redigerte bilder, og begge påvirket meg faktisk. Tenk på det aller verste du kan forestille deg - ja, at ting. Noe av dette er enda verre enn det. Dette er mørkt nettinnhold som bringes til det vanlige nettet på steder som Reddit og andre nettsteder der brukere leverer innholdet. Noen ganger er innholdet dårlig og holder seg lenge nok til at det kan sees.

Google Bard ansvarsfraskrivelse
(Bildekreditt: Future)

Å se dette lærte meg tre ting:

1. Menneskene som må overvåke sosiale medier for denne typen søppel trenger virkelig den mentale støtten som selskapene tilbyr. Og en enorm lønnsøkning.

2. Internett er et flott verktøy som de mest forferdelige menneskene på planeten også bruker. Jeg trodde jeg var tykkhudet nok til å være forberedt på å se den, men jeg var ikke og måtte bokstavelig talt forlate jobben noen timer for tidlig og tilbringe litt ekstra tid med menneskene som elsker meg.

3. Google og alle andre selskaper som leverer AI i forbrukergrad kan ikke tillate at data som dette brukes som opplæringsmateriell, men de vil aldri kunne fange opp og filtrere ut alt.

Nummer én og to er viktigere for meg, men nummer tre er viktig for Google. Den 7 GB rå teksten av "støtende nettinnhold" - bare en brøkdel av innholdet jeg fikk tilgang til, hadde ordet "Obama" brukt over 330 000 ganger på en støtende måte. Antall ganger den brukes på en avskyelig måte over hele internett er sannsynligvis dobbelt eller tredobbelt så mange.

Dette er hva forbruker-AI-språkmodeller er trent med. Ingen mennesker mater ticker-bånd med håndskrevne ord inn i en datamaskin. I stedet ser "datamaskinen" på nettsider og deres innhold. Denne nettsiden vil etter hvert bli analysert og brukt som input. Så vil chan meme og bildesider. Det samme vil blogger om at jorden er flat eller månelandingen forfalskes.

Hvis det tar Google å bevege seg sakte for å luke ut så mye av det dårlige fra forbruker-AI som det kan, er jeg helt for det. Det burde du også være fordi alt dette utvikler seg til tjenestene du bruker hver dag på telefonen du planlegger å kjøpe neste gang.

instagram story viewer