Google: API cloud per la comprensione del linguaggio

Google Cloud Natural Language e Cloud Speech API entrano in fase beta. Tutti i dettagli resi noti da Mountain View con l'annuncio ufficiale

Cloud Speech

Tenendo fede a quanto annunciato nei mesi precedenti, Google ha infine lanciato due nuove API machine learning incentrate sulla comprensione ed interpretazione del linguaggio umano. Le API vanno ad arricchire il cosidetto portfolio di servizi cloud intelligenti (nel quale figuara anche Cloud Vision) offrendo interessanti funzionalità agli sviluppatori.

Cloud Natural Language, ora in beta, può essere ad esempio utilizzata per creare applicazioni in grado di comprendere le comunicazioni tra esseri umani, ideale quindi per assistenti virtuali (vedremo quindi in futuro versioni avanzate di Google Assistant, Siri etc.) e chat bot (particolarmente popolari anche nel mondo della messaggistica istantanea, si veda Telegram).

L’application programming interface è in grado di effettuare inoltre l’analisi di una determinata selezione di testo (nell’immagine visionabile alcune righe più in basso abbiamo testato l’API su un estratto di un articolo della CNN), valutando “l’impostazione sentimentale” e la sintassi di ciascun periodo. Nel caso in cui vengano menzionati particolari prodotti, location, organizzazioni, nomi (persone famose etc.) l’API sarà in grado di indentificarli correttamente associando quanto letto ad un oggetto/persona/luogo reale. Le lingue supportate al momento sono solo tre (Inglese, Giapponese e Spagnolo) ma ovviamente Google provvederà ad arricchire il database.

API_example

API Google in azione – analisi di un articolo della CNN

Cloud Speech è la seconda API ad entrare in beta e si focalizza sulla registrazione del linguaggio umano e conversione in semplice testo. L’API si appoggia alla stessa tecnologia alla base dei noti Google Search e Google Now ed è in grado di riconoscere oltre 80 lingue.

Tra le nuove funzioni aggiunte in base ai feedback ricevuti nell’alpha: parole personalizzate e suggerimenti, quindi la possibilità di aggiungere termini “particolari” al vocabolario (che non potrebbero essere riconosciuti di default) o inerenti uno specifico contesto (ad esempio il comando “vai avanti” o “torna indietro” quando si guarda un video su una smart TV); chiamate asincrone, al fine di semplificare l’uso delle app vocali e velocizzarle. Combinando le due api appena presentate, gli sviluppatori saranno in grado di realizzare applicazioni in grado di ascoltare le indicazioni dell’utente e capirne il reale significato.

 

Facci sapere cosa ne pensi!

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *