Центральный андроид

Может ли чат-бот Google LaMDA быть разумным?

protection click fraud

Блейк Лемуан, инженер Google, был отстранен от должности после того, как публично высказал свои мысли о революционном чат-боте Google с искусственным интеллектом. LaMDA была разумной машиной с реальным сознанием.

Лемуан пришел к такому выводу после работы с моделью и глубокомысленных бесед, которые привели его к мысли, что у ИИ есть «душа» и что он похож на ребенка со знанием физики.

Это интересный и, возможно, необходимый разговор. Google и другие компании, занимающиеся исследованиями ИИ, развили нейронные сети LLM (большая языковая модель) в направлении, позволяющем им звучать как настоящий человек, часто с впечатляющими результатами.

Но, в конце концов, алгоритм делает именно то, для чего он был запрограммирован — обманывает нас, заставляя думать, что мы разговариваем с реальным человеком.

Что такое ЛаМДА?

Облачный ТПУ Google
(Изображение предоставлено: Android Central)

ЛаМДА, и другие крупномасштабные «чат-боты» с искусственным интеллектом являются расширением чего-то вроде Alexa или Google Assistant. Вы предоставляете какие-то входные данные, а сложный набор компьютерных алгоритмов отвечает расчетным результатом.

Что отличает LaMDA (языковая модель для диалоговых приложений), так это ее масштаб. Обычно ИИ анализирует то, что ему представляют, очень маленькими порциями и ищет ключевые слова или орфографические и грамматические ошибки, чтобы знать, как реагировать.

LaMDA — это то, что известно как LLM. Большая языковая модель — это название, данное типу нейронной сети компьютеров, которые получили невероятное количество информации. количество текста, чтобы научить его генерировать ответы, которые не только правильные, но и звучат как другие человек.

LaMDA впечатляет своим масштабом.

Прорыв LaMDA заключался в том, как Google смог улучшить вывод и настроить его так, чтобы он был на слух похож на то, как на самом деле говорит человек. Например, мы все слышали "Хорошо, я включаю свет в спальне."или что-то подобное из Google Ассистент если мы используем наши любимые умные лампочки.

Вместо этого LaMDA могла бы ответить что-то вроде "Хорошо, здесь довольно темно, не так ли?«Это больше похоже на то, что вы разговариваете с человеком, чем с маленькой коробкой схем.

Он делает это, анализируя не просто слова, а целые языковые блоки. Имея достаточно памяти, он может хранить ответы на несколько входных абзацев и выбирать, какой из них использовать и как сделать ответ дружелюбным и человечным.

Масштаб — это большая часть уравнения. У меня досадная опечатка. всегда сделать: "есть; t" вместо "isn't". Простые алгоритмы, такие как проверка орфографии Chrome или Grammarly, могут распознать мою ошибку и предложить мне исправить ее.

Вместо этого что-то вроде LaMDA могло бы оценить весь абзац и сообщить мне, что он думает о вещах, которые я говорю. и исправьте мою орфографию. Это то, для чего он был разработан.

Но действительно ли он разумен, и в этом ли настоящая проблема?

Эй, Гугл, ты человек?
(Изображение предоставлено Джерри Хильденбрандом)

Лемуан конечно считает, что LaMDA - живое, дышащее существо. Достаточно было сказано о его психическом состоянии или о том, насколько странным может быть его образ жизни, так что я не собираюсь ничего говорить. за исключением того, что этот человек считает, что у ЛаМДА есть настоящие чувства, и он действовал из доброты, когда обнародовал свою мысли. Google, конечно, думал иначе.

Но нет, я не думаю, что LaMDA или любая другая нейронная сеть LLM разумны или могут быть таковыми, по крайней мере, с сегодняшними технологиями. Я давно научился никогда не говорить никогда. Прямо сейчас LaMDA реагирует только так, как было запрограммировано, и ему не нужно понимать, что он говорит, так же, как это делает человек.

Это похоже на то, как вы или я заполняем кроссворд, и мы не знаем, что это слово означает или даже что это такое. Мы просто знаем правила и то, что это подходит, где и как должно быть.

4 буквы — существительное. Жесткий волос или щетина. (Это Seta, но я пробовал SEGA 10 раз).

Однако тот факт, что мы не близки к тому дню, когда умные машины восстанут и попытаются убить всех людей, не означает, что нам не следует беспокоиться. Учить компьютеры звучать более по-человечески — не очень хорошая вещь.

Это потому, что компьютер может — опять же — реагировать только так, как он запрограммирован. Это программирование не всегда может отвечать интересам общества. Мы уже видим опасения по поводу предвзятости ИИ, потому что люди, занимающиеся программированием, в основном состоятельные мужчины в возрасте от двадцати до двадцати лет. Вполне естественно, что их жизненный опыт будет влиять на принятие решений ИИ.

Сделайте еще один шаг и подумайте о том, что может запрограммировать кто-то с действительно плохими намерениями. Затем подумайте, что у них может быть возможность сделать так, чтобы это звучало так, как будто это исходит от человека, а не от машины. Возможно, компьютер не способен делать плохие вещи в физическом мире, но он может убедить людей сделать это.

LaMDA невероятен, и люди, разрабатывающие подобные системы, проделывают потрясающую работу, которая повлияет на будущее. Но это все еще просто компьютер, даже если он звучит как ваш друг после одного слишком большого количества сеансов 420, и они начинают говорить о жизни, вселенной и обо всем.

instagram story viewer