Article

Voici comment Google réussit à faire penser à Assistant comme un humain

protection click fraud

Assistant Google est devenue sa propre plateforme depuis son lancement. Non seulement il est plus intelligent que jamais, mais avec des appareils comme le Nest Hub ou Nest Mini, ce n'est plus seulement une partie d'Android.

Bien sûr, lorsque le logiciel augmente ses capacités, il devient également plus complexe. Cela signifie que les développeurs ont besoin d'outils dédiés pour créer le contenu que nous voulons utiliser sur nos écrans intelligents et d'autres appareils compatibles avec l'Assistant. Comme tout outil de développement, il y a deux choses importantes à faire: être facile à utiliser et bien fonctionner. Il est difficile de réaliser ces deux choses importantes, mais la sortie du Interface Web Actions Builder et SDK Actions on dirait qu'ils seront gagnants.

Laissez la conversation couler

Pour qu'une action de l'Assistant Google soit géniale, elle doit pouvoir parler et écouter comme une personne le ferait. Si vous demandez à votre Google Home pour raconter à vos enfants une histoire au coucher ou chanter la chanson "Brush Your Teeth", il doit reconnaître ce que vous voulez et être capable de faire ce qui vous est demandé sans être un robot qui ne suit que la logique et l'ordre.

Verizon propose le Pixel 4a pour seulement 10 $ / mois sur les nouvelles lignes illimitées

Les deux choses importantes qui en font une réalité sont appelées flux conversationnel et compréhension du langage naturel. Sans ceux-ci, Assistant ne serait pas en mesure d'interagir de la manière dont nous en sommes venus à en profiter.

«Oui», «ouais» et «ouais» signifient tous la même chose. Vous devez enseigner à un ordinateur ce genre de logique humaine imparfaite.

Le flux de conversation est un concept assez facile à comprendre, et il signifie littéralement ce à quoi cela ressemble: l'assistant doit être prêt à vous répondre chaque fois que vous lui avez dit quelque chose. C'est facile lorsque vous demandez la météo ou même lui demandez de chanter une chanson sur le brossage des dents, mais lorsque les choses deviennent complexes - comme un votre propre jeu d'aventure, par exemple - il existe des manières très spécifiques de diriger une conversation pour que l'Assistant ait une réponse à donner.

C'est là que la compréhension du langage naturel (NLU) entre en jeu. L'assistant a besoin de savoir des choses comme "ouais" et "oui" et "oui" signifient tous la même chose et il doit reconnaître à quel point la parole est fluide; nous parlons tous très différemment de ce que nous écrivons. Et comme Assistant est un ordinateur qui n'agit que comme une personne, tout cela doit être entré dans tout projet d'action conversationnelle. Les ordinateurs ne peuvent pas vraiment apprendre, ils doivent être programmés.

C'est là que les nouveaux Actions Builder et Actions SDK de Google entrent en jeu. Ce sont deux nouveaux outils qui permettent aux développeurs de créer un projet du début à la fin de la manière qui leur convient le mieux. Actions Builder est un outil Web qui permet aux développeurs de créer des actions conversationnelles de la même manière que vous créez un organigramme. Mais il dispose des mêmes outils qu'un SDK de développement traditionnel. Tout développeur peut utiliser cette interface graphique pour visualiser le flux de conversation, saisir toutes les données NLU que le projet a été formé pour comprendre et même déboguer le produit final de manière pratique et facile à comprendre façon.

Les développeurs peuvent utiliser un générateur de blocs basé sur le Web ou un nouvel IDE pour créer du contenu Assistant. Ou ils peuvent utiliser les deux!

Le SDK Actions fait la même chose mais dans un IDE plus traditionnel (environnement de développement intégré) pour les développeurs qui préfèrent travailler localement ou via une vue d'ensemble basée sur des fichiers de leur projet. Et si les développeurs ont déjà un IDE préféré, ils peuvent l'utiliser combiné avec des outils de ligne de commande pour créer le produit final avec tous les mêmes avantages.

Ces outils sont le front-end d'une plateforme d'assistant meilleure et plus rapide. Le runtime (pensez à cela comme le moteur qui alimente le logiciel que nous utilisons) pour Assistant est maintenant plus rapide que jamais auparavant, et un tout nouveau modèle d'interaction signifie que l'Assistant est à la fois plus intelligent et plus facile à créer pour.

Le nouveau modèle d'interaction est conçu pour que des choses comme les conversations en temps réel soient plus rapides et plus efficaces à créer, et la formation NLU est plus robuste. Les développeurs peuvent créer des scènes et les utiliser comme un élément constitutif où chaque partie d'une action conversationnelle a ses propres données et logique. Mieux encore, les développeurs peuvent créer des scènes et les réutiliser dans la même action via des intentions actives.

Jerry Hildenbrand

Jerry est le nerd résident de Mobile Nation et en est fier. Il n'y a rien qu'il ne puisse pas démonter, mais beaucoup de choses qu'il ne peut pas remonter. Vous le trouverez sur le réseau Mobile Nations et vous pourrez le frapper sur Twitter si vous voulez dire bonjour.

instagram story viewer