Android Centrála

Google je stále pomalý a opatrný s AI a to je stále dobrá vec

protection click fraud

Vedeli ste, že v Antarktíde žije na plný úväzok 100 000 ľudí? Samozrejme, že nie, pretože neexistujú. Ale ak by to na internete napísalo dosť ľudí a tvrdilo to ako fakt, nakoniec by vám všetci chatboti AI povedali, že v Antarktíde je 100 000 ľudí.

To je dôvod, prečo je AI v súčasnom stave väčšinou rozbitá bez ľudského zásahu.

Rád všetkým – vrátane mňa – pripomínam, že AI nie je ani umelá, ani inteligentná. Vracia veľmi predvídateľné výsledky na základe vstupu, ktorý je daný vo vzťahu k údajom, s ktorými bol trénovaný.

Tá zvláštna veta znamená, že ak kŕmite jazykový model riadkom po riadku nudným a nezábavným veci, ktoré povie Jerry a potom sa ho opýtaj na čokoľvek, zopakuje to jednu z tých nudných a nezábavných vecí, ktoré som povedal. Dúfajme, že taký, ktorý funguje ako odpoveď na čokoľvek, čo ste zadali do výzvy.

Stručne povedané, to je dôvod, prečo chce Google ísť pomaly, pokiaľ ide o priamu umelú inteligenciu v štýle chatu orientovanú na spotrebiteľa. Má reputáciu, ktorú treba chrániť.

Médiá o dezinformáciách okolo pristátia na Mesiaci
(Obrázkový kredit: Google)

Internet mi povedal, že všetko, čo súvisí s AI, sme videli Google I/O 2023 bol Google v nejakom panickom režime a priamo reagoval na inú spoločnosť ako Microsoft alebo OpenAI.

Myslím, že je to svinstvo. Pomalé uvoľňovanie funkcií je presne to Google nám to povedal o tom, ako plánuje znova a znova zaobchádzať s umelou inteligenciou spotrebiteľov. Je skvelé si myslieť, že Google sa ponáhľal vymyslieť všetko, čo sme videli len za mesiac v reakcii na najnovšiu verziu funkcie Bingbot, ale nestalo sa tak. Aj keď je to cool si predstaviť, je tiež hlúpe veriť.

Toto je skutočný prístup spoločnosti Google svoje vlastné slová:

„Veríme, že náš prístup k AI musí byť odvážny a zodpovedný. Pre nás to znamená vyvíjať AI spôsobom, ktorý maximalizuje pozitívne prínosy pre spoločnosť a zároveň rieši výzvy, riadený našimi Princípy AI. Aj keď medzi nimi existuje prirodzené napätie, veríme, že je možné – a v skutočnosti rozhodujúce – toto napätie produktívne prijať. Jediný spôsob, ako byť z dlhodobého hľadiska skutočne odvážny, je byť zodpovedný od začiatku."

Základom je maximalizovať pozitíva a minimalizovať škody. Áno, existuje všeobecné vylúčenie zodpovednosti, ktoré hovorí, že tí a takí chatboti môžu povedať hrozné alebo nepresné veci spojené s týmito robotmi, ale to nestačí. Akákoľvek spoločnosť zapojená do vývoja – a to zahŕňa hádzanie peňazí do spoločnosti, ktorá vykonáva skutočnú prácu – musí niesť zodpovednosť, keď veci idú na juh. Nie ak, kedy.

Pozadie servera Google Tensor na pódiu Google IO 2023
(Obrazový kredit: Michael Hicks)

To je dôvod, prečo sa mi páči pomalý a opatrný prístup, ktorý sa snaží byť etický a nie "zahodíme funkcie!!!" prístup, ktorý vidíme od niektorých iných spoločností, ako je Microsoft. Som si istý, že Microsoft sa zaoberá etikou, citlivosťou a presnosťou, pokiaľ ide o AI, ale zatiaľ sa zdá, že to pred každé oznámenie dáva iba Google.

Je to pre mňa ešte dôležitejšie, pretože som strávil nejaký čas skúmaním niekoľkých vecí v oblasti AI pre spotrebiteľov. Presnosť je, samozrejme, dôležitá a rovnako aj súkromie, ale tvrdo som sa naučil, že filtrovanie je pravdepodobne najdôležitejšia časť.

Nebol som pripravený na to, čo som urobil. Väčšina z nás na to nikdy nebude pripravená.

Prehrabal som sa a našiel som nejaký tréningový materiál, ktorý používa populárny robot AI, ktorý mu hovorí, čo je príliš toxické na to, aby to bolo možné použiť v jeho dátovom modeli. Toto sú veci, o ktorých by sa malo tváriť, že neexistujú.

Dáta pozostávali z textu aj značne upravených obrázkov a oboje ma skutočne ovplyvnilo. Myslite na to najhoršie, čo si dokážete predstaviť – áno, že vec. Niektoré z nich sú ešte horšie. Ide o temný webový obsah privedený na bežný web na miestach, ako je Reddit a iné stránky, kde používatelia poskytujú obsah. Niekedy je tento obsah zlý a zostáva hore dosť dlho, aby ho bolo možné vidieť.

Vylúčenie zodpovednosti Google Bard
(Obrazový kredit: Budúcnosť)

Keď som to videl, naučil ma tri veci:

1. Ľudia, ktorí musia monitorovať sociálne médiá pre tento druh odpadu, skutočne potrebujú duševnú podporu, ktorú ponúkajú spoločnosti. A obrovské zvýšenie platov.

2. Internet je skvelý nástroj, ktorý používajú aj tí najstrašnejší ľudia na planéte. Myslel som si, že som dostatočne hrubý na to, aby som bol pripravený to vidieť, ale nebol som a doslova som musel odísť z práce o niekoľko hodín skôr a stráviť nejaký čas navyše s ľuďmi, ktorí ma milujú.

3. Google a každá iná spoločnosť, ktorá poskytuje umelú inteligenciu na úrovni spotrebiteľov, nemôže dovoliť, aby sa údaje, ako je tento, používali ako školiaci materiál, ale nikdy ich nebude môcť zachytiť a odfiltrovať.

Čísla jeden a dva sú pre mňa dôležitejšie, ale číslo tri je dôležité pre Google. V 7 GB surovom texte „urážlivého webového obsahu“ – len zlomku obsahu, ku ktorému som pristupoval, bolo slovo „Obama“ použité viac ako 330 000-krát urážlivým spôsobom. Počet, koľkokrát sa to opovrhnutiahodným spôsobom používa na celom internete, je pravdepodobne dvojnásobné alebo trojnásobné.

To je to, s čím sa trénujú spotrebiteľské jazykové modely AI. Žiadny človek nevkladá do počítača pásky s ručne písanými slovami. Namiesto toho sa „počítač“ pozerá na webové stránky a ich obsah. Táto webová stránka bude nakoniec analyzovaná a použitá ako vstup. Rovnako tak aj meme a stránky s obrázkami. Rovnako tak blogy o tom, že Zem je plochá alebo že pristátie na Mesiaci je sfalšované.

Ak bude Googlu trvať pomaly, aby odstránil čo najviac zlého z umelej inteligencie spotrebiteľov, som za to. Mali by ste byť tiež, pretože toto všetko sa vyvíja do služieb, ktoré na serveri používate každý deň telefón, ktorý si plánujete kúpiť ako ďalší.

instagram story viewer