Una nuova vista grazie all'intelligenza artificiale

Tra le tantissime conquiste che l’intelligenza artificiale ha reso (o renderà) possibili, ce n’è una di cui si parla troppo poco: restituire la vista ai ciechi. Un’affermazione che, ovviamente, non va presa in senso letterale: il machine learning non è ancora in grado di compiere miracoli, ma questa nuova tecnologia ha già dimostrato di poter fare molto per aiutare chi soffre di disabilità.

Uno degli esempi più noti è il progetto Seeing AI portato avanti da Microsoft. Già oggi, questo software permette ai non vedenti di leggere, sfruttando la tecnologia del riconoscimento testuale e traducendo in forma vocale le parole scritte che vengono inquadrate dal dispositivo (che può essere anche un normale smartphone); comunicandole poi a chi lo indossa.

In questo modo, anche chi soffre di una grave disabilità visiva potrà leggere le email, inquadrare il menu al ristorante, sfruttare le indicazioni stradali e altro ancora. Ma questo è solo uno dei primi passi del programma “AI for Accessibility”, finanziato da Microsoft con oltre 25 milioni di dollari: “Con questa applicazione sarà possibile anche inquadrare una persona e sapere quale sia il suo aspetto, la sua età, il colore dei suoi capelli o se sta indossando degli occhiali. E anche se ha un’espressione triste e felice”, ha spiegato uno dei responsabili del progetto Dave Heiner.

Per il futuro, si può immaginare che strumenti ancora più evoluti consentiranno ai non vedenti di muoversi nel mondo con facilità sempre maggiore. Grazie a dispositivi indossabilli dotati di telecamera – che già oggi stanno iniziando a diffondersi – e alle crescenti capacità della image recognition, un domani potrebbe essere possibile ottenere descrizioni accurate di ciò che ci circonda, venire avvisati se si incontra casualmente una persona che si conosce (sempre che la sua immagine sia conservata in un database personalizzato) e anche scoprire in autonomia che cosa è presente sugli scaffali del supermercato.

“Ci sono tantissime applicazioni possibili: si può puntare lo smartphone verso un prodotto e scoprire così quali sono i suoi ingredienti o le sue caratteristiche; si può usare per inquadrare un tabellone in aeroporto e ottenere immediatamente la lettura del testo”, prosegue Heiner. “È incredibile quanto la comunità dei non vedenti possa beneficiare da questa tecnologia”.

Ovviamente, sono tante le realtà che stanno sfruttando queste potenzialità: la start up italo-svizzera Horus Technology, per esempio, ha utilizzato questa tecnica per progettare un dispositivo indossabile in grado, anche in questo caso, di ricostruire l’ambiente circostante e aiutare così i ciechi ad attraversare la strada o riconoscere un volto.

“Horus è un assistente per persone con disabilità visiva”, hanno spiegato i fondatori della start-up. “Attraverso le due telecamere frontali vede e interpreta ciò che ha di fronte a sé. Grazie ad algoritmi molto complessi, riesce poi a trasformare le informazioni visive in dati utili da trasmettere all’utente attraverso le cuffie e, per esempio, leggere testi e riconoscere volti e oggetti”.

Un sistema più semplice come Bus Alert, invece, punta a utilizzare un algoritmo di computer vision per accorgersi quando l’autobus è in arrivo, leggerne il numero e comunicarlo alla persona non vedente che sta aspettando alla fermata.

La tecnologia, in effetti, è sempre stata uno degli strumenti più utili per superare le disabilità: gli audiolibri nascono proprio per consentire ai non vedenti di godere facilmente del piacere della lettura, mentre, più indietro nel tempo, si narra che una delle prime macchine da scrivere, agli inizi del 900, sia stata ideata dall’inventore Pellegrino Turri per aiutare una cara amica non vedente a scrivere in maniera più chiara.

Non sono però solamente i non vedenti a beneficiare delle ultime evoluzioni tecnologiche a base di intelligenza artificiale: Ava è un’applicazione, utilizzata da oltre 100mila persone nel mondo, che consente ai non udenti di partecipare normalmente alle conversazioni. Chiunque abbia scaricato l’applicazione, non deve fare altro che aprirla e poi parlare: grazie al riconoscimento vocale, Ava trascrive quanto viene detto in tempo reale, assegnando a ogni voce un colore diverso per rendere più facile comprendere chi sta dicendo cosa (nel caso la conversazione sia di gruppo); consentendo così anche a chi ha seri problemi di udito di essere parte della chiacchierata.

Una disabilità altrettanto seria, ma che spesso viene ignorata dalla società, è invece quella relativa ai disturbi mentali. Anche in questo caso, il machine learning può venire in aiuto di chi soffre, per esempio, di depressione, permettendo di cogliere i primi segnali e quindi di intervenire per tempo. Un’applicazione ancora sperimentale in questo campo è Mindstrong (già oggi comunque disponibile per iOS e Android), che analizza in background il modo in cui utilizziamo lo smartphone (per esempio la velocità con cui digitiamo, scrolliamo o passiamo da un’applicazione all’altra).

Questi dati biometrici – che possono essere indicativi di vari disturbi – vengono cifrati e analizzati in remoto da un sistema di machine learning, i cui risultati vengono condivisi periodicamente solo con il paziente e il suo medico (inviando anche notifiche immediate in caso di segnali evidenti). In questo modo, il paziente non è costretto ad annotare informazioni su un diario o a sottoporsi a test, deve solo usare lo smartphone normalmente, riducendo il rischio di un utilizzo scorretto.

È ancora presto per valutare appieno l’efficacia dei più ambiziosi tra questi strumenti e se davvero manterranno le promesse. In un periodo storico in cui si evidenziano sempre i rischi connessi alla tecnologia, scoprire quanto queste innovazioni possano semplificare la vita al miliardo di persone che, nel mondo, soffre di disabilità di vario tipo rappresenta però una bella iniezione di ottimismo.