Il colosso di Mountain View sta investendo nell’integrazione delle capacità di riconoscimento vocale con altri stimoli, per rendere più efficace la sua intelligenza artificiale

Non solo l’udito, per ascoltare le conversazioni. Google ha avviato un progetto di ricerca per dotare alcune applicazioni della sua intelligenza artificiale (Ai) di altri sensi. Come la vista, per esempio. L’obiettivo è di rendere più semplice e completa la comprensione di dialoghi e richieste da parte degli utenti. Lo ha annunciato Fernando Pereira, vicepresidente ed engineering fellow in Google, dal palco di Making Ai, incontro organizzato ad Amsterdam dal colosso di Mountain View per fare il punto sullo sviluppo dell’intelligenza artificiale. “È uno dei nuovi progetti a cui sto lavorando”, ha detto Pereira riferendosi all’integrazione tra riconoscimento vocale e altri “sensi”.

Big G vuole rendere l’interazione con la sua intelligenza artificiale il più naturale possibile. Un primo investimento consiste nel migliorare la comprensione del dialogo. Già oggi Google Assistant è in grado di capire richieste non troppo esplicite o che diano per scontate alcune informazioni.

Leggi l’articolo completo su wired.it

Categories:

Tags:

Comments are closed