Artículo

Así es como Google está logrando que el Asistente piense como un humano

Asistente de Google se ha convertido en su propia plataforma desde su lanzamiento. No solo es más inteligente que nunca, sino que con dispositivos como el Nest Hub o Nest Mini, ya no es solo una parte de Android.

Por supuesto, cuando el software crece en capacidades, también se vuelve más complejo. Eso significa que los desarrolladores necesitan herramientas dedicadas para crear el contenido que queremos usar en nuestras pantallas inteligentes y otros dispositivos habilitados para el Asistente. Como cualquier herramienta de desarrollo, hay dos cosas importantes que deben hacer: ser fáciles de usar y funcionar bien. Es difícil lograr que sucedan estas dos cosas importantes, pero el lanzamiento del Interfaz web de Actions Builder y Actions SDK parece que van a ser ganadores.

Deja fluir la conversación

Para que una acción del Asistente de Google sea excelente, debe poder hablar y escuchar como lo haría una persona. Si le preguntas a tu Página principal de Google Para contarles a sus hijos un cuento antes de dormir o cantar la canción "Brush Your Teeth", necesita reconocer lo que quiere y ser capaz de hacer lo que se le pide sin ser un robot que solo sigue la lógica y el orden.

Verizon ofrece Pixel 4a por solo $ 10 / mes en nuevas líneas ilimitadas

Las dos cosas importantes que hacen que esto sea una realidad se denominan flujo conversacional y comprensión del lenguaje natural. Sin ellos, Assistant no podría interactuar de la forma en que lo disfrutamos.

"Sí", "sí" y "sí" significan lo mismo. Tienes que enseñarle a una computadora ese tipo de lógica humana defectuosa.

El flujo de conversación es un concepto bastante fácil de entender, y literalmente significa exactamente lo que parece: el Asistente debe estar listo para responderle cada vez que le haya dicho algo. Eso es fácil cuando le preguntas el clima o incluso le pides que cante una canción sobre cepillarse los dientes, pero cuando las cosas se complican, como elegir tu propio juego de aventuras, por ejemplo: hay algunas formas muy específicas en las que se debe dirigir una conversación para que el Asistente tenga una respuesta que dar.

Ahí es donde entra en juego la comprensión del lenguaje natural (NLU). El asistente necesita saber cosas como "sí", "sí" y "sí" significan lo mismo y debe reconocer cómo el habla es fluida; todos hablamos de manera muy diferente a como escribimos. Y dado que Assistant es una computadora que solo actúa como una persona, todo esto debe incluirse en cualquier proyecto de acción conversacional. Las computadoras no pueden aprender realmente, necesitan ser programadas.

Ahí es donde entran en juego los nuevos Actions Builder y Actions SDK de Google. Son dos nuevas herramientas que permiten a los desarrolladores construir un proyecto de principio a fin de la forma en que se sientan más cómodos. Actions Builder es una herramienta basada en la web que permite a los desarrolladores crear acciones conversacionales de la misma manera que se crea un diagrama de flujo. Pero tiene las mismas herramientas que tendría un SDK de desarrollo tradicional. Cualquier desarrollador puede usar esta interfaz gráfica para visualizar el flujo de la conversación, ingresar cualquier dato de NLU que el El proyecto ha sido capacitado para comprender e incluso depurar el producto final de una manera conveniente y fácil de entender. camino.

Los desarrolladores pueden utilizar un constructor de bloques basado en la web o un nuevo IDE para crear contenido del Asistente. ¡O pueden usar ambos!

Actions SDK hace lo mismo pero en un IDE (entorno de desarrollo integrado) más tradicional para desarrolladores que prefieren trabajar localmente o mediante una descripción general basada en archivos de su proyecto. Y si los desarrolladores ya tienen un IDE preferido, pueden usarlo combinado con herramientas de línea de comandos para construir el producto final con los mismos beneficios.

Estas herramientas son la parte delantera de una plataforma Asistente mejor y más rápida. El tiempo de ejecución (piense en eso como el motor que impulsa el software que usamos) para Assistant ahora es más rápido que nunca, y un modelo de interacción completamente nuevo significa que Assistant es más inteligente y más fácil de construir para.

El nuevo modelo de interacción está diseñado para que cosas como las conversaciones en tiempo real sean más rápidas y más eficientes de construir, y la capacitación de NLU sea más sólida. Los desarrolladores pueden crear escenas y usarlas como un bloque de construcción donde cada parte de una acción conversacional tiene sus propios datos y lógica. Lo mejor de todo es que los desarrolladores pueden crear escenas y reutilizarlas en la misma acción mediante intenciones activas.

Jerry Hildenbrand

Jerry es el nerd residente de Mobile Nation y está orgulloso de ello. No hay nada que no pueda desarmar, pero muchas cosas que no pueda volver a montar. Lo encontrará en la red Mobile Nations y podrá pégale en Twitter si quieres decir hola.

smihub.com