Android Centrala

Google je još uvijek spor i oprezan s umjetnom inteligencijom i to je još uvijek dobra stvar

protection click fraud

Jeste li znali da na Antarktici stalno živi 100 000 ljudi? Naravno da nisi jer ih nema. Ali kad bi dovoljno ljudi to utipkalo na internetu i potvrdilo kao činjenicu, na kraju bi vam svi AI chatbotovi rekli da ima 100.000 ljudi s prebivalištem na Antarktiku.

Zbog toga je AI u svom trenutnom stanju uglavnom pokvaren bez ljudske intervencije.

Volim podsjetiti sve - uključujući i sebe - da umjetna inteligencija nije ni umjetna ni inteligentna. Vraća vrlo predvidljive rezultate na temelju unosa koji je dan u odnosu na podatke s kojima je treniran.

Ta čudna rečenica znači ako jezični model hranite retkom za retkom dosadnog i nesmiješnog stvari koje Jerry kaže, a zatim ga pitaj bilo što, ponovit će jednu od onih dosadnih i nesmiješnih stvari koje sam ja imao rekao je. Nadajmo se, onaj koji funkcionira kao odgovor na sve što ste upisali u upit.

Ukratko, to je razlog zašto Google želi ići sporo kada je u pitanju AI u stilu chata koji je izravno okrenut potrošačima. Ima ugled koji treba zaštititi.

Mediji o dezinformacijama oko slijetanja na Mjesec
(Kredit za sliku: Google)

Internet mi je rekao da sve što smo vidjeli u vezi s umjetnom inteligencijom Google I/O 2023 je li Google bio u nekoj vrsti panike i izravni odgovor na neku drugu tvrtku poput Microsofta ili OpenAI-ja.

Mislim da je to glupost. Sporo objavljivanje značajki je upravo ono što Google nam je rekao o tome kako se uvijek iznova planira nositi s potrošačkom umjetnom inteligencijom. Super je pomisliti da je Google požurio izmisliti sve što smo vidjeli u samo mjesec dana kao odgovor na Bingbotovo najnovije izdanje značajke, ali nije. Iako je cool zamišljati, također je glupo vjerovati.

Ovo je Googleov stvarni pristup svoje riječi:

“Vjerujemo da naš pristup umjetnoj inteligenciji mora biti i hrabar i odgovoran. Za nas to znači razvijati umjetnu inteligenciju na način koji maksimizira pozitivne koristi za društvo dok se suočavamo s izazovima, vođeni našim Načela umjetne inteligencije. Iako postoji prirodna napetost između njih dvoje, vjerujemo da je moguće - i zapravo kritično - produktivno prihvatiti tu napetost. Jedini način da dugoročno budete istinski hrabri je da budete odgovorni od samog početka."

Ključno je maksimiziranje pozitivnih strana i minimiziranje štete. Da, postoji opća izjava o odricanju od odgovornosti koja kaže da bi taj i taj chatbot mogao govoriti užasne ili netočne stvari povezane s tim botovima, ali to nije dovoljno. Svaka tvrtka uključena u razvoj - a to uključuje bacanje novca na tvrtku koja obavlja stvarni posao - treba se smatrati odgovornom kada stvari krenu naopako. Ne ako, kada.

Pozadina poslužitelja Google Tensor na pozornici na Google IO 2023
(Slika: Michael Hicks)

Zbog toga mi se sviđa spor i pažljiv pristup koji pokušava biti etičan, a ne "bacimo značajke!!!" pristup koji vidimo kod nekih drugih tvrtki poput Microsofta. Siguran sam da Microsoft brine o etici, osjetljivosti i točnosti kada je u pitanju umjetna inteligencija, ali zasad se čini da samo Google to stavlja ispred svake objave.

Ovo mi je još važnije budući da sam proveo neko vrijeme istražujući nekoliko stvari u vezi s AI-jem okrenutim potrošačima. Točnost je važna, naravno, kao i privatnost, ali sam na teži način naučio da je filtriranje vjerojatno najvažniji dio.

Nisam bio spreman za ono što sam učinio. Većina nas nikada neće biti spremna za to.

Kopao sam i našao dio materijala za obuku koji se koristio za popularnog AI bota govoreći mu što je previše toksično za korištenje unutar njegovog podatkovnog modela. To je ono za što se treba pretvarati da ne postoji.

Podaci su se sastojali i od teksta i od jako uređenih slika, a oboje je zapravo utjecalo na mene. Zamislite najgoru stvar koju možete zamisliti - da, da stvar. Nešto od ovoga je čak i gore od toga. Ovo je sadržaj tamnog weba koji se prenosi na uobičajeni web na mjestima kao što je Reddit i drugim web-mjestima gdje korisnici pružaju sadržaj. Ponekad je taj sadržaj loš i ostaje dovoljno dugo da se vidi.

Odricanje od odgovornosti za Google Bard
(Kredit za sliku: budućnost)

Gledajući ovo naučio sam tri stvari:

1. Ljudi koji moraju nadzirati društvene medije tražeći ovu vrstu smeća doista trebaju mentalnu podršku koju nude tvrtke. I ogromna povišica plaće.

2. Internet je izvrstan alat koji koriste i najstrašniji ljudi na planetu. Mislila sam da sam dovoljno debela koža da to budem spremna vidjeti, ali nisam bila i doslovce sam morala otići s posla nekoliko sati ranije i provesti dodatno vrijeme s ljudima koji me vole.

3. Google i sve druge tvrtke koje pružaju AI potrošačke razine ne mogu dopustiti da se ovakvi podaci koriste kao materijal za obuku, ali nikada ih neće moći sve uhvatiti i filtrirati.

Broj jedan i dva su mi važniji, ali broj tri je važan Googleu. Sirovi tekst od 7 GB "uvredljivog web sadržaja" — samo djelić sadržaja kojem sam pristupio, imao je riječ "Obama" korištenu više od 330 000 puta na uvredljiv način. Broj puta kada je korišten na podli način na cijelom internetu vjerojatno je dvostruko ili trostruko taj broj.

To je ono s čime se obučavaju jezični modeli potrošačke umjetne inteligencije. Nijedan čovjek ne ubacuje trake s rukom pisanim riječima u računalo. Umjesto toga, "računalo" gleda na web stranice i njihov sadržaj. Ova će web stranica na kraju biti analizirana i korištena kao ulaz. Tako će mijenjati stranice s memovima i slikama. Kao i blogovi o tome da je Zemlja ravna ili da je slijetanje na Mjesec lažirano.

Ako je Googleu potrebno polagano kretanje kako bi eliminirao što više lošeg iz potrošačke umjetne inteligencije, ja sam za to. I vi biste trebali biti jer se sve to razvija u usluge koje svakodnevno koristite na telefon koji namjeravate kupiti sljedeći.

instagram story viewer