No, non è uno scherzo. I dispositivi parlanti sono in circolazione da prima del novecento: la tecnica per la riproduzione della voce umana si chiama sintesi vocale, ed è stata implementata e raffinata nel corso dei decenni per realizzare giocattoli, robot parlanti, dispositivi elettronici come navigatori e tom tom.
Al giorno d’oggi sono sempre più diffusi gli assistenti vocali come Google Assistant di Google, Alexa di Amazon, Siri di Apple, Cortana di Microsoft. Questi assistenti funzionano in modo sempre più sofisticato su smartphone e tablet, ma anche su dispositivi stand alone come gli smart spreaker. Grazie all’integrazione con l’intelligenza artificiale, questi dispositivi sono in grado di trasmettere le nostre canzoni musicali preferite, reperire le informazioni più utili su Internet, rispondere alle domande, annotare appunti, gestire calendari e agende, leggere le email e i messaggi, rispondere alle chiamate, gestire gli elettrodomestici.
Ma nessuno di questi sistemi ha mai utilizzato delle voci simili alle nostre, o addirittura le nostre, per comunicare con noi. Almeno fino ad oggi.
L’annuncio di Apple: gli smartphone parleranno con la nostra voce entro la fine del 2023
Apple ha annunciato che entro la fine del 2023 sarà introdotta una nuova funzionalità per l’accessibilità cognitiva, realizzata insieme a Live Speech e Personal Voice. Ovvero, la possibilità di digitare dei testi che saranno letti da una voce virtuale in grado di imitare e riprodurre la nostra voce naturale. Integrando questa nuova funzionalità su iPhone, iPad e Mac, gli utenti possono digitare ciò che vogliono dire per farlo pronunciare ad alta voce durante le chiamate telefoniche e FaceTime, nonché le conversazioni di persona. Potranno anche salvare frasi di uso comune per intervenire rapidamente durante conversazioni animate con familiari, amici e colleghi.
L’obiettivo dichiarato da Apple è quello di supportare le milioni di persone in tutto il mondo che non sono in grado di parlare, o che hanno perso l’uso della parola nel tempo. Il progetto infatti rientra in un set di funzionalità avanzate interamente dedicato alla disabilità, che ha lo scopo di rendere la tecnologia sempre più accessibile. In questi anni l’azienda ha lavorato a stretto contatto con membri della comunità di disabili per sviluppare funzionalità che avessero un impatto reale sulla vita delle persone. Entro la fine dell’anno, gli utenti con disabilità cognitive potranno utilizzare iPhone e iPad con maggiore facilità e indipendenza grazie ad Assistive Access; le persone non parlanti possono digitare per parlare durante le chiamate e le conversazioni con Live Speech; per gli utenti non vedenti o ipovedenti, la modalità di rilevamento in Magnifier offre Point and Speak permetterà loro di identificare il testo verso cui punteranno il dito leggendolo ad alta voce per aiutarli a interagire con oggetti fisici come gli elettrodomestici.