Un gruppo di studenti belgi hanno costruito  una mano robotica stampata in 3D che interpreta la lingua dei segni per i sordi

Un gruppo di ingegneri dell’Università di Anversa in Belgio hanno messo le proprie abilità nell’invenzione di un robot umanoide stampato in 3D che può tradurre il linguaggio de segni. Il bot di ispirazione è chiamato “Progetto Aslan”, che rappresenta il nodo attivo nel segno di Antwerp.

Il progetto Aslan è stato avviato nel 2014 da un team di tre studenti al master in ingegneria: Guy Fierens, Stijn Huys e Jasper Slaets. L’ispirazione per il progetto è derivata dalla realizzazione della mancanza di traduttori dei linguaggi dei segni in particolare in Belgio, dove è necessario non solo interpreti francesi ma anche di interpreti in lingua fiamminga.

“Stavo parlando con gli amici della mancanza di interpreti nella lingua dei segni in Belgio, in particolare nelle Fiandre dove si parla il fiammingo”, ha spiegato Huys. “Volevamo fare qualcosa a riguardo. Volevo anche lavorare sulla robotica , quindi abbiamo combinato i due fattori.

Ci sono voluti  tre anni per i tre studenti (così come molti altri) e il risultato è in parte figlio delle  tecnologie di stampa 3D. Come spiegano gli studenti, hanno scelto di utilizzare la stampa 3D, per render i componenti facilmente accessibili al fine di mantenere economico il progetto Aslan.

Il progetto di ricerca, sponsorizzato dall’Istituto Europeo di Otorinolaringoiatria, è attualmente costituito da un braccio robotizzato stampato in 3D con dita articolate controllate da un software dedicato. Quando l’utente inserisce il testo nel software, la mano robotica traduce il testo nella lingua dei segni.

Il braccio robotico è collegato a una rete locale che consente agli utenti di tutto il mondo di inserire i messaggi che la mano può poi descrivere nella lingua dei segni. La rete locale consente anche al robot di cercare nuovi aggiornamenti nelle lingue dei segni.

La stampa 3D è stata usata estensivamente nella prototipazione della mano robotica, in quanto il primo prototipo, secondo quanto riferito, era costituito da 25 parti stampate 3D, nonché da numerosi servomotori, controller una Arduino Due e molto altro ancora. Le parti stampate sono state fatte su una normale stampante 3D desktop utilizzando il filamento PLA e il bot ha riferito che ci sono volute 10 ore per assemblare il tutto  una volta che la stampa fosse stata completata.

Con la prima iterazione della mano robotica completa, i ricercatori di Anversa stanno passando le loro conoscenze alla prossima generazione di studenti master che continueranno a lavorare al progetto in modi nuovi ed innovativi.

Le indicazioni possibili per lo sviluppo della mano robotica includono lo sviluppo di una configurazione a due bracci, aggiungendo un volto espressivo al robot e esplorando la possibilità di utilizzare una webcam  per rendere il robot più intelligente. Come spiegano i ricercatori, la lingua dei segni richiede movimenti e espressioni non solo dalle mani, ma anche dalle spalle e del volto, per cui una webcam potenzialmente può essere integrata per insegnare a un robot più sviluppato le sfumature delle espressioni facciali e del movimento delle spalle.

In definitiva, i ricercatori non mirano ad automatizzare la professione di interpretazione della lingua dei segni, ma per offrire una soluzione potenziale e accessibile nei casi in cui non sia disponibile alcun traduttore. Mentre il progetto avanza, il team di ricerca dichiara he intende rendere il robot di Aslan open source  in modo che chiunque possa costruirsi il robot ed eventualmente farlo evolvere..

 

Ma anche le italiche menti avevano ben quattro anni fa prodotto un sistema simile come vediamo nel video

Questo progetto open-source crea una voce automatizzata per firmare il traduttore di lingua per la comunicazione con i sordi utilizzando tecnologie aperte ed integrate. Il prototipo è costituito da una mano robotica disegnata con OpenSCAD e realizzata con una stampante 3D a basso costo che riproduce uniformemente l’alfabeto della lingua dei segni controllata solo dalla voce.

L’automazione del nucleo è costituita da un controller UNODO Arduino utilizzato per attivare una serie di servomotori che seguono le istruzioni di un mini-computer Raspberry Pi installando il motore di riconoscimento vocale Julius.

 

 

Lascia un commento