Centrala Androida

Czy chatbot Google LaMDA może być świadomy?

protection click fraud

Blake Lemoine, inżynier Google, został zawieszony w wynagrodzeniu po tym, jak upublicznił swoje przemyślenia na temat przełomowego chatbota Google AI LaMDA była świadomą maszyną z rzeczywistą świadomością.

Lemoine doszedł do tego wniosku po pracy z modelem i głębokich rozmowach, które doprowadziły go do przekonania, że ​​sztuczna inteligencja ma „duszę” i przypomina dziecko ze znajomością fizyki.

To interesująca i być może konieczna rozmowa. Google i inne firmy badawcze zajmujące się sztuczną inteligencją skierowały sieci neuronowe LLM (model dużego języka) w kierunku, który sprawia, że ​​brzmią one jak prawdziwy człowiek, często ze spektakularnymi wynikami.

Ale w końcu algorytm robi dokładnie to, do czego został zaprogramowany — oszukuje nas, abyśmy myśleli, że rozmawiamy z rzeczywistą osobą.

Co to jest LaMDA?

Google Cloud TPU
(Źródło zdjęcia: Android Central)

LaMDA, a inne „chatboty” AI na dużą skalę są rozszerzeniem czegoś takiego jak Alexa lub Asystent Google. Podajesz jakieś dane wejściowe, a skomplikowany zestaw algorytmów komputerowych odpowiada obliczonym wynikiem.

Tym, co wyróżnia LaMDA (model językowy dla zastosowań dialogu), jest jego skala. Zazwyczaj sztuczna inteligencja analizuje to, co jest jej prezentowane w bardzo małych fragmentach i szuka słów kluczowych lub błędów ortograficznych i gramatycznych, aby wiedzieć, jak zareagować.

LaMDA to tak zwany LLM. Duży model językowy to nazwa nadana rodzajowi sieci neuronowej komputerów, które zostały nakarmione czymś niesamowitym ilość tekstu, aby nauczyć go generowania odpowiedzi, które nie tylko są poprawne, ale brzmią jak inne osoba.

LaMDA jest spektakularny ze względu na swoją skalę.

Przełom LaMDA polegał na tym, że Google był w stanie udoskonalić dane wyjściowe i dostosować je tak, aby były słyszalnie podobne do sposobu, w jaki osoba faktycznie mówi. Na przykład wszyscy słyszeliśmy „OK, włączam światło w sypialni" lub coś podobnego z Asystent Google jeśli użyjemy nasze ulubione inteligentne żarówki.

LaMDA może zamiast tego odpowiedzieć czymś w rodzaju „OK, jest tu całkiem ciemno, prawda?„To po prostu brzmi bardziej jak rozmowa z osobą niż małe pudełko z obwodami.

Robi to, analizując nie tylko słowa, ale całe bloki języka. Przy wystarczającej ilości pamięci może przechowywać odpowiedzi na wiele akapitów wartości wejściowych i sortować, którego użyć i jak sprawić, by odpowiedź wydawała się przyjazna i ludzka.

Skala jest dużą częścią równania / mam irytującą literówkę I zawsze zrobić: "jest; t” zamiast „nie jest”. Proste algorytmy, takie jak sprawdzanie pisowni w Chrome lub Grammarly, mogą rozpoznać mój błąd i nakazać mi go naprawić.

Coś takiego jak LaMDA mogłoby zamiast tego ocenić cały akapit i dać mi znać, co myśli o rzeczach, które mówię I popraw moją pisownię. Do tego został zaprojektowany.

Ale czy rzeczywiście jest świadomy i czy to jest prawdziwy problem?

Hej Google, czy jesteś człowiekiem?
(Źródło zdjęcia: Jerry Hildenbrand)

Lemoine na pewno wierzy, że LaMDA jest żywą, oddychającą rzeczą. Dość już powiedziano o jego stanie psychicznym lub o tym, jak szalony może być jego styl życia, więc nic nie powiem poza tym, że mężczyzna wierzy, że LaMDA ma prawdziwe uczucia i działał z dobroci, kiedy upublicznił swoje myśli. Google oczywiście uważało inaczej.

Ale nie, nie sądzę, aby LaMDA lub jakakolwiek sieć neuronowa LLM była świadoma lub mogła być, przynajmniej przy dzisiejszej technologii. Dawno temu nauczyłem się nigdy nie mówić nigdy. W tej chwili LaMDA reaguje tylko w sposób, w jaki został zaprogramowany i nie musi rozumieć, co mówi, tak samo jak człowiek.

To tak, jakbyśmy ty lub ja wypełniali krzyżówkę i nie wiemy, co to słowo oznacza, a nawet czym jest. Po prostu znamy zasady i wiemy, że pasuje tam, gdzie i jak ma pasować.

4 litery — rzeczownik. Sztywny włos lub włosie. (To Seta, ale próbowałem SEGA 10 razy).

To, że nie zbliżamy się do dnia, w którym inteligentne maszyny powstaną i spróbują zabić wszystkich ludzi, nie oznacza, że ​​nie powinniśmy się martwić. Uczenie komputerów brzmienia bardziej ludzkiego nie jest dobrą rzeczą.

To dlatego, że komputer może — znowu — reagować tylko w sposób, w jaki został zaprogramowany. To programowanie może nie zawsze leżeć w najlepszym interesie społeczeństwa. Widzimy już obawy, że sztuczna inteligencja jest stronnicza, ponieważ ludzie zajmujący się programowaniem to w większości dobrze sytuowani mężczyźni po dwudziestce. To naturalne, że ich doświadczenie życiowe wpłynie na podejmowanie decyzji przez sztuczną inteligencję.

Pójdź o krok dalej i zastanów się, co może zaprogramować ktoś, kto ma naprawdę złe intencje. Następnie weź pod uwagę, że mogą mieć zdolność sprawiania, by brzmiało to tak, jakby pochodziło od osoby, a nie od maszyny. Komputer może nie być w stanie robić złych rzeczy w świecie fizycznym, ale może przekonać do nich ludzi.

LaMDA jest niesamowita, a ludzie, którzy projektują takie systemy, wykonują niesamowitą pracę, która wpłynie na przyszłość. Ale to wciąż tylko komputer, nawet jeśli brzmi jak twój przyjaciel po jednej zbyt wielu sesjach 420 i zaczynają rozmawiać o życiu, wszechświecie i wszystkim.

instagram story viewer