La missione fantascientifica: riportare umanità nell’era digitale.

01/07/2015 di Ginevra Montanari

L'informatica egiziana Rana el Kaliouby presenta una nuova tecnologia in grado di leggere le espressioni facciali e le rispettive emozioni, così da riportarle nelle esperienze digitali, sempre più fredde e impersonali

Virtual Face

El Kaliouby ha iniziato a lavorare al progetto quindici anni fa. Da scienziata ed esperta d’informatica in Egitto, si era appena trasferita in Inghilterra, per l’ammissione a un Dottorato di Ricerca alla Cambridge University. Così lontana da casa, spaesata, e un po’ nostalgica, col passare dei giorni si rese conto che il portatile si era trasformato nel suo migliore amico “Eppure, nonostante l’intimità, il mio computer non aveva assolutamente idea di come mi sentissi”.

Le macchine, per quanto utili e vicine alle persone, non possono sapere se il loro proprietario è felice, se ha appena passato una brutta giornata, se è stressato, arrabbiato, o molto stanco. El Kaliouby non si era mai resa conto prima d’allora di quanto tutto questo potesse risultare frustrante, nel ventunesimo secolo, e per tutte quelle persone che fanno della tecnologia un’abitudine, o il loro lavoro.

Data la considerevole lontananza, comunicava on-line con la propria famiglia, sentendo scivolare inesorabilmente le proprie emozioni nella rete. “La tecnologia oggigiorno ha tanto QI ma non IE. Tanta intelligenza cognitiva, ma nessuna Intelligenza Emotiva. E questo mi ha fatto pensare: e se la tecnologia potesse sentire le nostre emozioni? Se i dispositivi sapessero cosa proviamo e come reagiamo di conseguenza, come solo un amico emotivamente intelligente farebbe? Queste domande hanno portato me e il mio team a creare tecnologie che possono leggere e reagire alle nostre emozioni. E il nostro punto di partenza è stato il volto umano”.

Perché il volto umano? Sicuramente perché è il primo canale che gli esseri umani usano per comunicare tra di loro. È un po’ lo specchio esterno dell’animo, volontario o meno. Qualsiasi emozione può essere colta dalle espressioni che prendono vita su un viso: La scienza delle emozioni studia proprio questi meccanismi facciali, e ogni piccolo movimento muscolare – ne sono stati rilevati circa quarantacinque – viene chiamato “unità d’azione”, e non fanno altro che combinarsi tra loro per esprimere quelle che noi chiamiamo emozioni. “Insegnare a un computer a leggere queste espressioni facciali è difficile, perché le unità d’azione possono essere veloci, impercettibili, e si combinano in tanti modi diversi. (…) è importante per un computer essere in grado di distinguere la differenza tra le due espressioni”.

Com’è possibile riuscire a fare una cosa del genere? Prendendo decine di migliaia di persone, altamente differenziate per età, genere, etnie. Usando il Deep Learning (l’intelligenza artificiale), l’algoritmo visualizza tutte le sfaccettature utili, i segni d’espressione, quelle minuscole rughette che si formano agli angoli delle labbra, e in pratica apprende che tutti i sorrisi hanno caratteristiche comuni, che ogni smorfia è simile a modo suo. E riesce a riconoscere un sorriso su un viso nuovo, capendo se quella persona è felice o meno. “Negli ultimi cinque anni siamo passati dall’essere un progetto di ricerca al MIT ad essere una società, in cui il mio team ha lavorato sodo per far funzionare questa tecnologia, noi diciamo, come bestie. E l’abbiamo anche compressa così che il sistema emotivo centrale funzioni su tutti i dispositivi con videocamera. Come un Ipad”.

Fino ad oggi, il loro team ha ottenuto 12 miliardi di dati sull’emozione: il più vasto database di emozioni al mondo. Realizzato da 2,9 milioni di video facciali, persone che hanno condiviso le loro emozioni, e da settantacinque Paesi diversi. E la ricerca non ha intenzione di fermarsi, il database cresce giorno dopo giorno.

È incredibile come si possa misurare qualcosa di così personale come i sentimenti umani, e in modo così vasto. Ad esempio, è stato riscontrato che le donne sono più espressive degli uomini. Non solo sorridono di più, ma lo fanno più a lungo. E le persone dai cinquant’anni in su sono per il 25 % più emotive dei più giovani. Ma forse “ciò che ci ha sorpresi di più in questi dati è che ci ritroviamo a essere espressivi in ogni momento, anche quando siamo seduti da soli coi nostri dispositivi, non solo quando stiamo guardando video di gatti su Facebook. Siamo espressivi quando inviamo email, messaggi, compriamo online, o anche calcolando le tasse”.

Grazie a questo incredibile studio, non viene migliorata solo la relazione umano-macchina. Non si tratta di fantascienza. Anche le relazioni interpersonali possono trarre un grande beneficio. Occhiali abilitati all’emozione possono aiutare gli individui con problemi di vista a leggere i volti degli altri, e possono aiutare individui con tendenza autistica a interpretare le emozioni dei propri cari. E se, nell’istruzione, l’app per l’apprendimento capisse che il bambino è confuso e rallentasse, o se invece si rendesse conto che è annoiato, così da accelerare, proprio come farebbe un bravo insegnante in classe? Se il l’orologio tracciasse l’umore, o se l’auto sentisse la stanchezza del guidatore… Se il frigorifero sapesse che siamo stressati, così da bloccarsi automaticamente per evitarci un’abbuffata?

Forse nel giro di qualche decennio tutte le periferiche avranno software per le espressioni. Sarebbe una vera e propria rivoluzione. Un modo per umanizzare le macchine, e per riprendere in mano emozioni  sopite nel mondo virtuale. Una tecnologia più avanzata, più intelligente che mai, reattiva, in grado di unire e non di spezzare le relazioni umane, ormai a serio rischio a causa della vita digitale. “La grande sfida è che ci sono così tante applicazioni di questa tecnologia che io e il mio team sappiamo di non poter realizzare da soli. Perciò l’abbiamo resa disponibile così che altri sviluppatori possano svilupparla ed essere creativi. Ammettiamo che ci sono rischi potenziali e la possibilità di abuso, ma personalmente, avendo passato tanti anni a farlo, credo che i benefici per l’uomo nell’avere una tecnologia emotivamente intelligente siano di gran lunga maggiori del potenziale uso improprio. E vi invito a essere tutti parte della conversazione. Più persone conoscono questa tecnologia, più possiamo tutti avere voce su come va usata”.

The following two tabs change content below.

Ginevra Montanari

Nasce a Roma il 4 settembre 1993. Diplomata al liceo linguistico europeo Sacro Cuore, attualmente frequenta la facoltà di Scienze Politiche alla Luiss Guido Carli. Da sempre appassionata di cinema, musica e teatro.
blog comments powered by Disqus