Da un rimprovero ad un colpo di genio. La storia della studentessa indiana Priyanjali Gupta parte dal monito della madre: «Fai qualcosa ora che studi ingegneria!». E così è stato.
La ragazza infatti, al terzo anno di scienza dei dati presso il Vellore Institute of Technology di Tamil Nadu, ha realizzato un modello di intelligenza artificiale che traduce immediatamente la lingua dei segni americana (ASL) in inglese.
«Mamma mi ha preso in giro. Ma mi ha fatto riflettere su cosa avrei potuto fare con le mie conoscenze e competenze. Un bel giorno, durante le conversazioni con Alexa, l’idea di una tecnologia inclusiva mi ha colpito. Ciò ha innescato una serie di piani», ha spiegato Gupta.
Per realizzare il suo progetto ha sfruttato l’API di rilevamento degli oggetti Tensorflow, utilizzando il transfer learning attraverso un modello pre-addestrato denominato ssd_mobilenet. Quando ha pubblicato la sua ricerca su LinkedIn, il post è diventato virale.
«Il set di dati viene creato manualmente eseguendo il file Python della raccolta di immagini che raccoglie immagini dalla tua webcam per o tutti i segni menzionati di seguito nella lingua dei segni americana: Ciao, ti amo, grazie, per favore, sì e no», ha aggiunto la studentessa.
Il modello, per ora, viene addestrato su singoli fotogrammi. Per rilevare i video, il modello deve essere ancora addestrato. «Sono solo una studentessa amatoriale ma sto imparando. E credo che, prima o poi, la nostra comunità open source, che è molto più esperta di me, troverà una soluzione».
Sebbene l’ASL sia considerata la terza lingua più comunemente usata negli Stati Uniti, dietro l’inglese e lo spagnolo, le applicazioni e le tecnologie per tradurla in un’altra lingua devono ancora recuperare.