Android Central

Google er stadig langsom og forsigtig med kunstig intelligens, og det er stadig en god ting

protection click fraud

Vidste du, at der bor 100.000 mennesker i Antarktis på fuld tid? Selvfølgelig gjorde du det ikke, fordi der ikke er. Men hvis nok folk skrev det på internettet og hævdede det som et faktum, ville alle AI-chatbots til sidst fortælle dig, at der er 100.000 mennesker med antarktisk opholdstilladelse.

Dette er grunden til, at AI i sin nuværende tilstand for det meste er brudt uden menneskelig indblanding.

Jeg vil gerne minde alle - inklusive mig selv - om, at AI hverken er kunstig eller intelligent. Den returnerer meget forudsigelige resultater baseret på de input, den er givet i forhold til de data, den blev trænet med.

Den mærkelige sætning betyder, at hvis du fodrer en sprogmodel med linje efter linje af kedeligt og usjovt ting Jerry siger, så spørg den hvad som helst, det vil gentage en af ​​de kedelige og usjove ting, jeg har sagde. Forhåbentlig en, der fungerer som et svar på hvad end du har indtastet i prompten.

I en nøddeskal er det derfor, Google ønsker at gå langsomt, når det kommer til direkte forbruger-vendt chat-stil AI. Det har et ry at beskytte.

Medier om misinformation omkring månelandingen
(Billedkredit: Google)

Internettet har fortalt mig, at alt AI-relateret vi så på Google I/O 2023 var Google i en form for paniktilstand og et direkte svar til et andet firma som Microsoft eller OpenAI.

Jeg synes, det er svineri. Den langsomme udgivelse af funktioner er præcis hvad Google har fortalt os om, hvordan den planlægger at håndtere forbruger-AI gang på gang. Det er fedt at tænke på, at Google skyndte sig at opfinde alt, hvad vi så på bare en måned som svar på Bingbots seneste feature-udgivelse, men det gjorde det ikke. Selvom det er cool at forestille sig, er det også tåbeligt at tro.

Dette er Googles faktiske tilgang til sine egne ord:

"Vi mener, at vores tilgang til kunstig intelligens skal være både modig og ansvarlig. For os betyder det at udvikle kunstig intelligens på en måde, der maksimerer de positive fordele for samfundet, samtidig med at vi løser udfordringerne, styret af vores AI-principper. Selvom der er naturlig spænding mellem de to, mener vi, at det er muligt - og faktisk kritisk - at omfavne den spænding produktivt. Den eneste måde at være virkelig modig på på lang sigt er at være ansvarlig fra starten."

Maksimering af positive og minimering af skade er nøglen. Ja, der er en generel ansvarsfraskrivelse, der siger, at så og så chatbots kan sige forfærdelige eller unøjagtige ting knyttet til disse bots, men det er ikke nok. Enhver virksomhed, der er involveret i udviklingen - og det inkluderer at smide kontanter efter en virksomhed, der udfører selve arbejdet - skal holdes ansvarlige, når tingene går sydpå. Ikke hvis, hvornår.

Google Tensor-serverbaggrund på scenen ved Google IO 2023
(Billedkredit: Michael Hicks)

Det er derfor, jeg kan lide den langsomme og forsigtige tilgang, der forsøger at være etisk og ikke "lad os smide funktioner!!!" tilgang, vi ser fra nogle andre virksomheder som Microsoft. Jeg er sikker på, at Microsoft er optaget af etik, følsomhed og nøjagtighed, når det kommer til kunstig intelligens, men indtil videre ser det ud til, at det kun er Google, der sætter det foran hver meddelelse.

Dette er endnu vigtigere for mig, da jeg har brugt noget tid på at undersøge et par ting omkring forbrugerorienteret AI. Nøjagtighed er selvfølgelig vigtig, og det samme er privatlivets fred, men jeg lærte på den hårde måde, at filtrering nok er den vigtigste del.

Jeg var ikke klar til det, jeg gjorde. De fleste af os vil aldrig være klar til det.

Jeg gravede rundt og fandt noget af træningsmaterialet, der blev brugt til en populær AI-bot, der fortalte den, hvad der er for giftigt til at bruge i dens datamodel. Dette er de ting, den skal lade som om, ikke eksisterer.

Dataene bestod af både tekst og stærkt redigerede billeder, og begge dele påvirkede mig faktisk. Tænk på det allerværste, du kan forestille dig - ja, at ting. Noget af dette er endnu værre end det. Dette er mørkt webindhold, der bringes til det almindelige web på steder som Reddit og andre websteder, hvor brugerne leverer indholdet. Nogle gange er indholdet dårligt og forbliver oppe længe nok til, at det kan ses.

Google Bard ansvarsfraskrivelse
(Billedkredit: Future)

At se dette lærte mig tre ting:

1. De mennesker, der skal overvåge sociale medier for denne slags affald, har virkelig brug for den mentale støtte, virksomheder tilbyder. Og en kæmpe lønforhøjelse.

2. Internettet er et fantastisk værktøj, som de mest forfærdelige mennesker på planeten også bruger. Jeg troede, at jeg var tykhudet nok til at være forberedt på at se det, men jeg var ikke og måtte bogstaveligt talt forlade arbejdet et par timer for tidligt og bruge lidt ekstra tid sammen med de mennesker, der elsker mig.

3. Google og enhver anden virksomhed, der leverer AI til forbrugere, kan ikke tillade, at data som denne bruges som træningsmateriale, men de vil aldrig være i stand til at fange og filtrere det hele fra.

Nummer et og to er vigtigere for mig, men nummer tre er vigtigt for Google. Den 7 GB rå tekst af "stødende webindhold" - kun en brøkdel af det indhold, jeg fik adgang til, havde ordet "Obama" brugt over 330.000 gange på en stødende måde. Antallet af gange, det er brugt på en afskyelig måde på tværs af hele internettet, er sandsynligvis det dobbelte eller tredobbelte af det tal.

Det er, hvad forbruger-AI-sprogmodeller trænes med. Intet menneske føder ticker-bånd med håndskrevne ord ind i en computer. I stedet ser "computeren" på websider og deres indhold. Denne webside vil med tiden blive analyseret og brugt som input. Så vil chan meme og billedsider. Det samme vil blogs om, at jorden er flad, eller at månelandingen er falsk.

Hvis det kræver, at Google bevæger sig langsomt for at fjerne så meget af det dårlige fra forbruger-AI, som det kan, er jeg helt for det. Det burde du også være, fordi alt dette udvikler sig til de tjenester, du bruger hver dag på telefon, du planlægger at købe næste gang.

instagram story viewer