Come parlare al computer con i movimenti di mani e corpo

Una nuova tecnologia, in grado di rilevare i movimenti degli individui, è stata progettata dai ricercatori dell’Istituto della Robotica della Carnegie Mellon University. Tante le applicazioni, dall’ambito medicale a quello dell’automotive.

ad astra
ad astra
Jul 25, 2017 · 2 min read

Alcuni ricercatori dell’Istituto della Robotica della Carnegie Mellon University hanno sviluppato un sistema in grado di tracciare e interpretare i gesti e i movimenti delle persone da un video girato in tempo reale; per la prima volta vengono rilevati anche i movimenti delle dita.

La capacità di riconoscere i gesti e i movimenti delle mani, permetterà alle persone di interagire con i computer in modi più naturali, semplicemente indicando oggetti.

Questo sistema inoltre consentirà ai robot di percepire cosa gli esseri umani stanno facendo, il loro umore, e quando è il caso d’interromperli. Le auto a guida autonoma riceveranno tempestivamente un avviso prima che un pedone si appresti ad attraversare la strada monitorando il linguaggio del corpo.

Questa tecnologia sarà utile anche per preparare diagnosi comportamentali e terapie di riabilitazione per pazienti affetti da autismo, dislessia e depressione, secondo il parere dei ricercatori.

Questo metodo innovativo è stato progettato dal Panoptic Studio, una struttura finanziata dalla Carnegie Mellon University e composta da una cupola a due piani con 500 videocamere incorporate. Allo stadio attuale, l’esperimento può essere condotto con l’ausilio di una singola telecamera e di un computer.

I ricercatori hanno distribuito il codice sorgente del programma, denominato OPENPOSE, che viene già ora utilizzato da gruppi di ricerca; come se non bastasse più di 20 aziende commerciali, che operano anche nel settore dell’automotive, hanno espresso interesse in questa tecnologia, avviando l’iter per ottenere delle apposite licenze, come spiega Yaser Sheikh, professore associato di robotica.

Tracciare i movimenti delle persone in tempo reale, presenta molte sfide, soprattutto se si vuole operare in situazioni sociali complesse dove i soggetti interagiscono tra di loro. Sheikh e i suoi colleghi hanno scelto un approccio bottom-up, che si focalizza prima sulle parti del corpo in scena (braccia, gambe, facce, etc) e poi le associa a specifici individui.

Sheikh e il suo team di ricerca presenteranno un report scientifico ufficiale sulla nuova metodologia alla Computer Vision and Pattern Recognition Conference (CVPR 2017), che avrà luogo ad Honolulu dal 21 al 26 luglio.


Tradotto in Italiano. Articolo originale: Kurzweil AI


VISIONARI è un network di imprenditori, scienziati, artisti, scrittori e changemakers che pensano e agiscono al di fuori degli schemi.
Puoi fare domanda per entrare qui: https://bit.ly/visionari-entra

VISIONARI | Scienza e tecnologia al servizio delle persone

Pensare e agire fuori dagli schemi

ad astra

Written by

ad astra

Per diventare socio, partecipare ai nostri eventi e attività, o fare una donazione visita: https://visionari.org

VISIONARI | Scienza e tecnologia al servizio delle persone

Pensare e agire fuori dagli schemi

Welcome to a place where words matter. On Medium, smart voices and original ideas take center stage - with no ads in sight. Watch
Follow all the topics you care about, and we’ll deliver the best stories for you to your homepage and inbox. Explore
Get unlimited access to the best stories on Medium — and support writers while you’re at it. Just $5/month. Upgrade