Articolo

Ecco come Google riesce a far pensare l'assistente come un essere umano

protection click fraud

Assistente Google è cresciuto fino a diventare una propria piattaforma da quando è stato lanciato. Non solo è più intelligente che mai, ma con dispositivi come Nest Hub o Nest Mini, non è più solo una parte di Android.

Ovviamente, quando le capacità del software aumentano, diventa anche più complesso. Ciò significa che gli sviluppatori hanno bisogno di strumenti dedicati per creare il contenuto che vogliamo utilizzare sui nostri smart display e altri dispositivi abilitati per Assistant. Come tutti gli strumenti per sviluppatori, ci sono due cose importanti che devono fare: essere facili da usare e funzionare bene. È difficile far accadere entrambe queste cose importanti, ma il rilascio del file Interfaccia web di Actions Builder e Actions SDK sembra che saranno i vincitori.

Lascia scorrere la conversazione

Affinché un'azione dell'Assistente Google sia eccezionale, deve essere in grado di parlare e ascoltare come farebbe una persona. Se chiedi al tuo Google Home per raccontare ai tuoi figli una favola della buonanotte o cantare la canzone "Brush Your Teeth", deve riconoscere quello che vuoi ed essere in grado di fare ciò che ti viene chiesto senza essere un robot che segue solo la logica e l'ordine.

Verizon offre Pixel 4a per soli $ 10 / mese sulle nuove linee Unlimited

Le due cose importanti che rendono tutto ciò una realtà sono chiamate flusso conversazionale e comprensione del linguaggio naturale. Senza di essi, Assistant non sarebbe in grado di interagire nel modo in cui ci divertiamo noi.

"Sì", "sì" e "sì" significano tutti la stessa cosa. Devi insegnare a un computer quel tipo di logica umana imperfetta.

Il flusso di conversazione è un concetto abbastanza facile da capire e significa letteralmente esattamente come sembra: l'assistente deve essere pronto a risponderti ogni volta che gli hai detto qualcosa. È facile quando chiedi che tempo fa o addirittura chiedi di cantare una canzone sul lavarsi i denti, ma quando le cose si complicano, come scegliere il tuo il proprio gioco di avventura, ad esempio: ci sono alcuni modi molto specifici in cui una conversazione deve essere guidata in modo che l'Assistente abbia una risposta da dare.

È qui che entra in gioco la comprensione del linguaggio naturale (NLU). L'assistente deve sapere cose come "sì" e "sì" e "sì" significano tutte la stessa cosa e deve riconoscere quanto la parola sia fluida; parliamo tutti in modo molto diverso da come scriviamo. E poiché Assistant è un computer che si comporta solo come una persona, tutto questo deve essere inserito in qualsiasi progetto di Conversational Action. I computer non possono davvero imparare, devono essere programmati.

È qui che entrano in gioco il nuovo Actions Builder e l'SDK Actions di Google. Sono due nuovi strumenti che consentono agli sviluppatori di costruire un progetto dall'inizio alla fine nel modo in cui sono più a loro agio. Actions Builder è uno strumento basato sul Web che consente agli sviluppatori di creare un tipo di azioni conversazionali nello stesso modo in cui si crea un diagramma di flusso. Ma ha gli stessi strumenti di un SDK di sviluppo tradizionale. Qualsiasi sviluppatore può utilizzare questa interfaccia grafica per visualizzare il flusso di conversazione, inserire tutti i dati NLU che il Il progetto è stato addestrato per comprendere e persino eseguire il debug del prodotto finale in modo comodo e di facile comprensione modo.

Gli sviluppatori possono utilizzare un generatore di blocchi basato sul Web o un nuovo IDE per la creazione di contenuti dell'assistente. Oppure possono usare entrambi!

Actions SDK fa la stessa cosa ma in un IDE (ambiente di sviluppo integrato) più tradizionale per gli sviluppatori che preferiscono lavorare localmente o attraverso una panoramica basata su file del loro progetto. E se gli sviluppatori hanno già un IDE preferito, possono usarlo in combinazione con strumenti da riga di comando per creare il prodotto finale con tutti gli stessi vantaggi.

Questi strumenti sono il front-end di una piattaforma Assistant migliore e più veloce. Il runtime (pensalo come il motore che alimenta il software che utilizziamo) per Assistant è ora più veloce come mai prima d'ora, e un nuovissimo modello di interazione significa che Assistant è sia più intelligente che più facile da costruire per.

Il nuovo modello di interazione è costruito in modo che cose come le conversazioni in tempo reale siano più veloci ed efficienti da costruire, e la formazione NLU è più robusta. Gli sviluppatori possono creare scene e utilizzarle come elementi costitutivi in ​​cui ogni parte di un'azione di conversazione ha i propri dati e la propria logica. Soprattutto, gli sviluppatori possono creare scene e riutilizzarle nella stessa azione tramite intenti attivi.

Jerry Hildenbrand

Jerry è il nerd residente di Mobile Nation e ne è orgoglioso. Non c'è niente che non possa smontare, ma molte cose che non può riassemblare. Lo troverai attraverso la rete Mobile Nations e potrai farlo lo ha colpito su Twitter se vuoi dire hey.

instagram story viewer