È italiano il primo assistente virtuale capace di interagire e parlare la lingua dei segni, PROGETTO nato grazie alla collaborazione tra QuestIT, società specializzata nell’intelligenza artificiale, Santa Chiara Fab Lab dell’Università di Siena, l’Istituto di Scienze e Tecnologie della Cognizione del Consiglio Nazionale delle Ricerche, IGOODI, la prima avatar factory italiana fondata da Billy Berlusconi e il Gruppo per lo studio e l’informazione della Lingua dei Segni Italiana.
QuestIT, è una company toscana nata come spin-off dell’Università di Siena e specializzata nella realizzazione di tecnologie proprietarie d’intelligenza artificiale. “Per innovare il presente serve tanta ricerca e, soprattutto, la tecnologia giusta – afferma Ernesto Di Iorio, CEO di QuestIT – per questo motivo abbiamo sfruttato le incredibili potenzialità dell’intelligenza artificiale per strutturare un assistente virtuale di ultima generazione che conosce alla perfezione la Lingua dei Segni Italiana. Grazie ad esso, potenziamo la «digitalaccessibility» e diamo l’opportunità ai cittadini sordi di accedere autonomamente ad informazioni e servizi offerti da enti e realtà del territorio come la Pubblica Amministrazione e le banche. Sostenibilità e intelligenza artificiale vanno di pari passo, nel senso che l’intelligenza artificiale può essere un abilitatore per rendere veramente equo qualsiasi servizio ai cittadini, equità nel concetto di sostenibilità non significa dare le stesse risorse a tutti, ma mettere tutti nello stesso piano e allo stesso livello. Il mio sogno – continua di Iorio – è che la lingua dei segni sia come una qualsiasi lingua su un qualsiasi sistema, da Google a Microsoft, traducibile. Questo non accade ancora per la lingua dei segni, perché sono tecnologie molto più complesse, che richiedono una combinazione di know-how e competenze molto variegate. Mi auguro che tra un anno o tra due al massimo ci sia una tale maturità tecnologica rispetto alla elaborazione, alla comprensione e alla produzione di lingua dei segni , all’altezza delle altre lingue parlate”.
“L’avatar’, nella nostra filosofia tecnologica significa utilità nella vita reale – spiega Maurizio Sala, Chief Marketing Officer di IGOODI, l’azienda milanese fondata da Billy Berlusconi nel 2015 -gli Avatar, potenziati dalle tecnologie di oggi, dall’artificial intelligence alla blockchain, rendono il nostro Avatar unico, infalsificabile e inconfondibile. Stiamo assistendo al debutto di una vera e propria avatar economy, non solo in Italia, un po’ in tutto il mondo, trainata dall’AI del Metaverso ma, mentre sappiamo che il Metaverso richiederà ancora molti anni prima di giungere a maturazione, noi oggi con gli avatar siamo già pronti a un livello evoluto di servizio. Noi come IGOODI – continua Sala – in relazione al mondo degli avatar, siamo tra le prime company del mondo, il nostro non è l’avatar del videogioco, ma è proprio una concezione particolare dell’avatar incluso di smart body. I nostri avatar sono copie originali delle persone, non soltanto fisicamente, includono un dataset di informazioni cioè tutte le misure del corpo, gli indici di massa grassa, massa magra, massa corporea, le analisi della bodyshame, la propria formazione corporea, le taglie derivate dalle misure fisiche, un pacchetto di informazioni che rende l’avatar in grado di essere strumento utile”.
“Siamo riusciti a sviluppare il concetto di human-centered design – ha detto Patrizia Marti, docente di Università di Siena e ricercatrice di experience design spesso si pensa al design come al lipstick on the pig, cioè il rossetto sul maialino, quello che viene alla fine, quello che rende belle le cose. Invece experience design significa far sentire le persone a loro agio, farle sentire accettate, dare loro una possibilità di autonomia. Ecco questo è un processo molto lungo, è un processo culturale. Io mi occupo di inclusione da tanto tempo, dirigo un laboratorio tecnologico molto avanzato a Siena e ci poniamo proprio come anello mancante tra chi sviluppa tecnologie e chi le usa, cerchiamo di interpretare i bisogni, cerchiamo di capire quali sono i contesti in cui questo questa tecnologia va usata, cerchiamo anche di capire cose che tra gli umani sono normali : il tono della voce, il guardarsi negli occhi, il modo anche di muovere il corpo. Tutto questo fa esperienza e questa è una parte importante, l’altra parte importante è culturale, per chi non è fluente in italiano, i sordi non sono fluenti, è importante che noi aiutiamo gli udenti a sviluppare una sensibilità, come ad esempio disporre lo spazio in un certo modo: essere accoglienti significa mettersi nei panni degli altri, vuol dire empatizzare. Ecco l’experience design fa questo”.
Dopo decenni di utilizzo la lingua dei segni è stata riconosciuta come lingua soltanto due anni fa, adesso il primo virtual human in Italia è capace di produrre e comprendere la LIS, un progetto in cui sono stati coinvolti non utenti generici ma sordi con una reale consapevolezza della lingua e capacità metalinguistiche, come Alessio Di Renzo, linguista e primo ricercatore sordo in Italia e il laboratorio di Language and Communication Across Modalities del CNR diretto da Olga Capirci.
Giornalista, autrice e conduttrice tv ha prodotto per quasi un decennio un noto programma televisivo sull’arte e la cultura in Sicilia, Profile Magazine tv.
Scrive per diverse testate ed è stata Direttore Responsabile di CulturaIdentità.
Oggi è Coordinatore Nazionale e responsabile della comunicazione dell’Unione Nazionale Vittime(UNAVI).