Artigo

Veja como o Google está conseguindo fazer o Assistente pensar como um humano

protection click fraud

Google Assistant cresceu em sua própria plataforma desde que foi lançado. Não só está mais inteligente do que nunca, mas com dispositivos como o Nest Hub ou Nest Mini, não é mais apenas uma parte do Android.

Obviamente, quando o software aumenta em recursos, ele também se torna mais complexo. Isso significa que os desenvolvedores precisam de ferramentas dedicadas para construir o conteúdo que queremos usar em nossos monitores inteligentes e outros dispositivos habilitados para Assistente. Como qualquer ferramenta de desenvolvedor, há duas coisas importantes que eles precisam fazer: ser fácil de usar e funcionar bem. É difícil fazer essas duas coisas importantes acontecerem, mas o lançamento do Interface da web do Actions Builder e SDK do Actions parecem que serão vencedores.

Deixe a conversa fluir

Para que uma ação do Google Assistente seja ótima, ela precisa ser capaz de falar e ouvir como uma pessoa faria. Se você perguntar ao seu Página inicial do Google para contar a seus filhos uma história para dormir ou cantar a música "Brush Your Teeth", ele precisa reconhecer o que você quer e ser capaz de fazer o que é pedido sem ser um robô que só segue a lógica e a ordem.

A Verizon está oferecendo o Pixel 4a por apenas US $ 10 / mês nas novas linhas Unlimited

As duas coisas importantes que tornam isso uma realidade são chamadas de fluxo conversacional e compreensão de linguagem natural. Sem eles, o Assistant não seria capaz de interagir da maneira que gostamos.

"Sim", "sim" e "sim" significam a mesma coisa. Você tem que ensinar a um computador esse tipo de lógica humana falha.

O fluxo de conversação é um conceito muito fácil de entender e significa literalmente exatamente o que parece: o Assistente precisa estar pronto para responder a você sempre que você disser algo. Isso é fácil quando você pergunta sobre o tempo ou até mesmo para cantar uma música sobre escovar os dentes, mas quando as coisas ficam complexas - como escolher o seu próprio jogo de aventura, por exemplo - há algumas maneiras muito específicas de conduzir uma conversa para que o Assistente tenha uma resposta a dar.

É aí que a compreensão da linguagem natural (NLU) entra em cena. O Assistente precisa saber coisas como "sim" e "sim" e "sim" significam a mesma coisa e precisa reconhecer como a fala é fluida; todos nós falamos de maneira muito diferente do que escrevemos. E como o Assistant é um computador que age apenas como uma pessoa, tudo isso precisa ser inserido em qualquer projeto de Ação de Conversação. Os computadores não podem realmente aprender, eles precisam ser programados.

É aí que o novo Actions Builder e Actions SDK do Google entram em ação. São duas novas ferramentas que permitem aos desenvolvedores construir um projeto do início ao fim da maneira com que se sentem mais confortáveis. O Actions Builder é uma ferramenta baseada na web que permite que os desenvolvedores criem ações de conversação da mesma forma que você constrói um fluxograma. Mas ele tem as mesmas ferramentas que um SDK de desenvolvimento tradicional teria. Qualquer desenvolvedor pode usar esta interface gráfica para visualizar o fluxo de conversação, inserir quaisquer dados NLU que o projeto foi treinado para entender e até mesmo depurar o produto final de uma forma conveniente e fácil de entender maneira.

Os desenvolvedores podem usar um construtor de blocos baseado na web ou um novo IDE para construir o conteúdo do Assistant. Ou eles podem usar os dois!

O Actions SDK faz a mesma coisa, mas em um IDE mais tradicional (ambiente de desenvolvimento integrado) para desenvolvedores que preferem trabalhar localmente ou por meio de uma visão geral baseada em arquivo de seu projeto. E se os desenvolvedores já tiverem um IDE preferido, eles podem usá-lo combinado com ferramentas de linha de comando para construir o produto final com todos os mesmos benefícios.

Essas ferramentas são o front-end para uma plataforma de Assistant melhor e mais rápida. O tempo de execução (pense nisso como o motor que aciona o software que usamos) para o Assistant agora é mais rápido do que nunca, e um modelo de interação totalmente novo significa que o Assistente é mais inteligente e fácil de construir para.

O novo modelo de interação é construído para que coisas como conversas em tempo real sejam mais rápidas e eficientes de construir, e o treinamento em NLU seja mais robusto. Os desenvolvedores podem criar cenas e usá-las como um bloco de construção onde cada parte de uma ação conversacional tem seus próprios dados e lógica. O melhor de tudo é que os desenvolvedores podem construir cenas e reutilizá-las na mesma ação por meio de intents ativos.

Jerry Hildenbrand

Jerry é o nerd residente do Mobile Nation e tem orgulho disso. Não há nada que ele não possa desmontar, mas muitas coisas que ele não pode remontar. Você o encontrará em toda a rede Mobile Nations e poderá bateu nele no Twitter se você quiser dizer ei.

instagram story viewer