Centrale Androïde

Le chatbot LaMDA de Google peut-il réellement être sensible ?

protection click fraud

Blake Lemoine, un ingénieur de Google, a été suspendu avec salaire après avoir rendu public ses réflexions sur le chatbot IA révolutionnaire de Google LaMDA était une machine sensible avec une réelle conscience.

Lemoine est arrivé à cette conclusion après avoir travaillé avec le modèle et eu des conversations approfondies qui l'ont amené à croire que l'IA avait une "âme" et ressemblait à un enfant connaissant la physique.

C'est une conversation intéressante, et peut-être nécessaire, à avoir. Google et d'autres sociétés de recherche en intelligence artificielle ont poussé les réseaux de neurones LLM (grand modèle de langage) dans la direction qui les fait ressembler à un véritable humain, souvent avec des résultats spectaculaires.

Mais en fin de compte, l'algorithme ne fait exactement que ce pour quoi il a été programmé: nous faire croire que nous parlons à une personne réelle.

Qu'est-ce que LaMDA ?

Google Cloud TPU
(Crédit image: Android Central)

LaMDA, et d'autres "chatbots" d'IA à grande échelle sont une extension de quelque chose comme Alexa ou Google Assistant. Vous fournissez une sorte d'entrée, et un ensemble complexe d'algorithmes informatiques répond avec une sortie calculée.

Ce qui différencie LaMDA (Language Model for Dialogue Applications) est son échelle. En règle générale, une IA analysera ce qui lui est présenté en très petits morceaux et recherchera des mots clés ou des fautes d'orthographe et de grammaire afin de savoir comment réagir.

LaMDA est ce qu'on appelle un LLM. Un grand modèle de langage est un nom donné à un type de réseau neuronal d'ordinateurs qui ont été alimentés quantité de texte afin de lui apprendre à générer des réponses qui sont non seulement correctes mais qui sonnent comme une autre personne.

LaMDA est spectaculaire en raison de son ampleur.

La percée de LaMDA a été la façon dont Google a pu affiner la sortie et la modifier pour qu'elle ressemble de manière audible à la façon dont une personne parle réellement. Par exemple, nous avons tous entendu "OK, j'allume la lumière de la chambre" ou quelque chose de similaire de Assistant Google si nous utilisons nos ampoules intelligentes préférées.

LaMDA pourrait plutôt répondre par quelque chose comme "OK, il fait assez sombre ici, n'est-ce pas ?" Cela ressemble plus à une conversation avec une personne qu'à une petite boîte de circuits.

Pour ce faire, il analyse non seulement des mots, mais des blocs entiers de langage. Avec suffisamment de mémoire, il peut contenir les réponses à plusieurs paragraphes d'entrée et trier lequel utiliser et comment rendre la réponse amicale et humaine.

L'échelle est une grande partie de l'équation / j'ai une faute de frappe ennuyeuse, je toujours make: "n'est-ce pas; t" au lieu de "n'est pas". Des algorithmes simples comme le correcteur orthographique de Chrome ou Grammarly peuvent reconnaître mon erreur et me dire de la corriger.

Quelque chose comme LaMDA pourrait plutôt évaluer le paragraphe entier et me faire savoir ce qu'il pense des choses que je dis et corrige mon orthographe. C'est ce qu'il a été conçu pour faire.

Mais est-ce réellement sensible, et est-ce là le vrai problème ?

Hey Google, es-tu humain ?
(Crédit image: Jerry Hildenbrand)

Lemoine certainement croit que LaMDA est une chose vivante et respirante. On en a assez dit sur son état mental ou à quel point son style de vie pourrait être fou, donc je ne dirai rien sauf que l'homme croit que LaMDA a de vrais sentiments et agissait par gentillesse quand il a rendu public son pensées. Google, bien sûr, a ressenti différemment.

Mais non, je ne pense pas que LaMDA ou tout autre réseau de neurones LLM soit sensible ou puisse l'être, du moins avec la technologie actuelle. J'ai appris il y a longtemps à ne jamais dire jamais. À l'heure actuelle, LaMDA ne répond que de la manière dont il a été programmé et n'a pas besoin de comprendre ce qu'il dit de la même manière qu'une personne.

C'est comme si vous ou moi remplissions un indice de mots croisés et nous ne savons pas ce que le mot signifie ni même ce qu'il est. Nous connaissons juste les règles et qu'il s'adapte où et comment il est censé s'adapter.

4 lettres — nom. Un poil ou une soie raide. (C'est Seta mais j'ai essayé SEGA 10 fois).

Ce n'est pas parce que nous ne sommes pas proches du jour où des machines intelligentes se lèveront et essaieront de tuer tous les humains que nous ne devrions pas nous inquiéter. Apprendre aux ordinateurs à avoir un son plus humain n'est vraiment pas une bonne chose.

C'est parce qu'un ordinateur ne peut - encore une fois - répondre que de la manière dont il a été programmé pour répondre. Cette programmation n'est peut-être pas toujours dans l'intérêt de la société. Nous constatons déjà des inquiétudes quant au biais de l'IA, car les personnes qui programment sont pour la plupart des hommes aisés dans la vingtaine. Il est naturel que leur expérience de vie affecte la prise de décision d'une IA.

Allez un peu plus loin et pensez à ce que quelqu'un avec de vraies mauvaises intentions pourrait programmer. Ensuite, considérez qu'ils pourraient avoir la capacité de donner l'impression que cela vient d'une personne et non d'une machine. Un ordinateur pourrait ne pas être capable de faire de mauvaises choses dans le monde physique, mais il pourrait convaincre les gens de les faire.

LaMDA est incroyable et les personnes qui conçoivent des systèmes comme celui-ci font un travail incroyable qui affectera l'avenir. Mais ce n'est toujours qu'un ordinateur même s'il ressemble à votre ami après un trop grand nombre de sessions 420 et qu'il commence à parler de la vie, de l'univers et de tout.

instagram story viewer