Centrala Androida

Google wciąż jest powolny i ostrożny w stosunku do sztucznej inteligencji, a to wciąż dobra rzecz

protection click fraud

Czy wiesz, że na Antarktydzie mieszka 100 000 osób na pełny etat? Oczywiście nie zrobiłeś tego, bo ich nie ma. Ale jeśli wystarczająca liczba osób wpisze to w Internecie i uzna to za fakt, w końcu wszystkie chatboty AI powiedzą ci, że na Antarktydzie mieszka 100 000 osób.

Właśnie dlatego sztuczna inteligencja w obecnym stanie jest w większości zepsuta bez interwencji człowieka.

Lubię przypominać wszystkim — łącznie ze mną — że sztuczna inteligencja nie jest ani sztuczna, ani inteligentna. Zwraca bardzo przewidywalne wyniki w oparciu o podane dane wejściowe w odniesieniu do danych, z którymi został wyszkolony.

To dziwne zdanie oznacza, że ​​​​karmisz model językowy linijką za linijką nudnych i nieśmiesznych Jerry mówi, a potem zapytaj go o cokolwiek, powtórzy jedną z tych nudnych i nieśmiesznych rzeczy, które ja powtarzam powiedział. Mamy nadzieję, że taki, który działa jako odpowiedź na wszystko, co wpisałeś w monicie.

Krótko mówiąc, właśnie dlatego Google chce zwolnić, jeśli chodzi o sztuczną inteligencję w stylu czatu skierowanego bezpośrednio do konsumenta. Ma reputację do ochrony.

Media o dezinformacji wokół lądowania na Księżycu
(Źródło zdjęcia: Google)

Internet powiedział mi, że wszystko, co dotyczyło sztucznej inteligencji, widzieliśmy na Google I/O 2023 czy Google był w jakimś trybie paniki i bezpośredniej odpowiedzi na jakąś inną firmę, taką jak Microsoft lub OpenAI.

Myślę, że to bzdura. Powolne udostępnianie funkcji jest dokładnie tym, czym jest Google nam powiedział o tym, jak planuje raz po raz obsługiwać sztuczną inteligencję konsumentów. Fajnie jest pomyśleć, że Google pośpieszyło wymyślić wszystko, co widzieliśmy w ciągu zaledwie miesiąca w odpowiedzi na najnowszą wersję funkcji Bingbota, ale tak się nie stało. Chociaż fajnie jest sobie to wyobrazić, głupio jest też w to uwierzyć.

To jest rzeczywiste podejście Google w własne słowa:

„Uważamy, że nasze podejście do sztucznej inteligencji musi być zarówno odważne, jak i odpowiedzialne. Dla nas oznacza to rozwijanie sztucznej inteligencji w sposób, który maksymalizuje pozytywne korzyści dla społeczeństwa, jednocześnie stawiając czoła wyzwaniom, kierując się naszymi wytycznymi Zasady sztucznej inteligencji. Chociaż istnieje naturalne napięcie między nimi, wierzymy, że możliwe jest — iw rzeczywistości krytyczne — produktywne radzenie sobie z tym napięciem. Jedynym sposobem, aby być naprawdę odważnym w dłuższej perspektywie, jest bycie odpowiedzialnym od samego początku”.

Kluczem jest maksymalizacja pozytywów i minimalizacja szkód. Tak, istnieje ogólne zastrzeżenie, które mówi, że takie a takie chatboty mogą mówić okropne lub niedokładne rzeczy związane z tymi botami, ale to nie wystarczy. Każda firma zaangażowana w rozwój — a to obejmuje rzucanie gotówką w firmę wykonującą rzeczywistą pracę — musi zostać pociągnięta do odpowiedzialności, gdy sprawy potoczą się źle. Nie jeśli, kiedy.

Tło serwera Google Tensor na scenie podczas Google IO 2023
(Źródło zdjęcia: Michael Hicks)

Dlatego podoba mi się powolne i ostrożne podejście, które stara się być etyczne, a nie „rzućmy funkcje!!!” podejście, które obserwujemy w niektórych innych firmach, takich jak Microsoft. Jestem przekonany, że Microsoft troszczy się o etykę, wrażliwość i dokładność, jeśli chodzi o sztuczną inteligencję, ale jak dotąd wydaje się, że tylko Google umieszcza to przed każdym ogłoszeniem.

Jest to dla mnie jeszcze ważniejsze, ponieważ spędziłem trochę czasu na badaniu kilku rzeczy związanych z sztuczną inteligencją skierowaną do konsumentów. Dokładność jest oczywiście ważna, podobnie jak prywatność, ale nauczyłem się na własnej skórze, że filtrowanie jest prawdopodobnie najważniejszą częścią.

Nie byłem gotowy na to, co zrobiłem. Większość z nas nigdy nie będzie na to gotowa.

Poszperałem i znalazłem trochę materiałów szkoleniowych używanych przez popularnego bota AI, mówiącego mu, co jest zbyt toksyczne, aby używać go w jego modelu danych. To jest coś, co powinno udawać, że nie istnieje.

Dane składały się zarówno z tekstu, jak i mocno zredagowanych obrazów, i oba miały na mnie wpływ. Pomyśl o najgorszej rzeczy, jaką możesz sobie wyobrazić — tak, To rzecz. Niektóre z nich są jeszcze gorsze. To jest ciemna zawartość internetowa przeniesiona do zwykłej sieci w miejscach takich jak Reddit i inne strony, na których użytkownicy udostępniają treści. Czasami ta treść jest zła i pozostaje na tyle długo, że można ją zobaczyć.

Wyłączenie odpowiedzialności Google Bard
(Źródło zdjęcia: przyszłość)

Widząc to, nauczyłem się trzech rzeczy:

1. Ludzie, którzy muszą monitorować media społecznościowe pod kątem tego rodzaju śmieci, naprawdę potrzebują pomocy oferowanej przez firmy zajmujące się wsparciem psychicznym. I gigantyczna podwyżka.

2. Internet to świetne narzędzie, z którego korzystają również najstraszliwsi ludzie na tej planecie. Myślałem, że jestem wystarczająco gruboskórny, aby być przygotowanym na zobaczenie tego, ale tak nie było i dosłownie musiałem wyjść z pracy kilka godzin wcześniej i spędzić trochę więcej czasu z ludźmi, którzy mnie kochają.

3. Google i każda inna firma, która zapewnia sztuczną inteligencję klasy konsumenckiej, nie może pozwolić, aby takie dane były wykorzystywane jako materiał szkoleniowy, ale nigdy nie będzie w stanie wychwycić i odfiltrować ich wszystkich.

Numery jeden i dwa są dla mnie ważniejsze, ale numer trzy jest ważny dla Google. W 7 GB surowym tekście „obraźliwych treści internetowych” — zaledwie ułamku treści, do których uzyskałem dostęp, słowo „Obama” zostało użyte ponad 330 000 razy w obraźliwy sposób. Liczba przypadków użycia go w nikczemny sposób w całym Internecie jest prawdopodobnie dwukrotnie lub trzykrotnie większa.

W tym celu szkolone są konsumenckie modele językowe sztucznej inteligencji. Żaden człowiek nie wkłada do komputera taśm z odręcznymi słowami. Zamiast tego „komputer” przegląda strony internetowe i ich zawartość. Ta strona internetowa zostanie ostatecznie przeanalizowana i wykorzystana jako dane wejściowe. Tak samo zmienią się strony z memami i obrazkami. Tak samo będą blogi o płaskiej Ziemi lub sfingowanym lądowaniu na Księżycu.

Jeśli wymaga to powolnego działania Google, aby wyeliminować jak najwięcej zła ze sztucznej inteligencji konsumentów, jak to możliwe, jestem za tym. Ty też powinieneś być, ponieważ wszystko to ewoluuje w usługi, z których korzystasz na co dzień telefon, który planujesz kupić jako następny.

instagram story viewer