Dentro la testa di un robot: robot telecomandati tramite realtà virtuale.

Ricercatori dell’MIT hanno creato uno spazio virtuale che permette di controllare le azioni di robot così da svolgere mansioni di produzione direttamente da casa.

(credit: Jason Dorfman, MIT CSAIL)

I ricercatori del Laboratorio di Informatica e Intelligenza Artificiale del MIT (CSAIL) hanno sviluppato un sistema di realtà virtuale (VR) che consente di teleoperare un robot utilizzando un headset Oculus Rift o HTC Vive VR.

Il sistema “Homunculus Model” (il concetto classico di una piccola persona seduta all’ interno del cervello e che controlla le azioni del corpo) di CSAIL vi incorpora in una sala di controllo VR con più display a sensore, facendovi sentire come se foste dentro la testa del robot. Utilizzando i gesti, è possibile controllare i movimenti corrispondenti del robot per eseguire varie attività.

Il sistema può essere collegato tramite una rete locale cablata o tramite una connessione wireless via Internet. (Il team ha dimostrato che il sistema poteva pilotare un robot a centinaia di chilometri di distanza, provandolo sulla rete wireless di un hotel a Washington, DC per controllare Baxter al MIT).

Secondo Jeffrey Lipton, ricercatore associato post-doc della CSAIL ed autore principale di un documento di arXiv ad accesso aperto sul sistema (presentato questa settimana alla conferenza internazionale IEEE/RSJ sui robot e sistemi intelligenti (IROS) di Vancouver), “con robot teleoperanti da casa, gli operai sarebbero in grado di telecommutare e beneficiare della rivoluzione informatica proprio come fanno ora gli impiegati.”

Offerte di lavoro anche per video-gamer

I ricercatori immaginano che un tale sistema possa anche aiutare a inserire video-gamer disoccupati in posizioni di produzione “simili ad un videogioco”. Infatti i ricercatori hanno scoperto tramite dei test, che gli utenti con esperienza di gioco entravano più facilmente in confidenza con il robot.

Per rendere possibili questi movimenti, lo spazio umano viene mappato nello spazio virtuale, e lo spazio virtuale viene poi mappato nello spazio robot per fornire un senso di co-locazione.

Il team ha mostrato il sistema Homunculus Model utilizzando il robot umanoide Baxter di Rethink Robotics, ma l’approccio potrebbe lavorare su altre piattaforme robot, hanno detto i ricercatori.

Homunculus Model: un robot Baxter (a sinistra) è dotato di una camera stereoscopica e di vari dispositivi funzionali. Una sala di controllo virtuale (vista dell’utente, al centro), generata su un Oculus Rift CV1 (a destra), consente all’utente di sentirsi dentro la testa di Baxter mentre lo utilizza. Utilizzando i controllori dei dispositivi VR, compresi i tracker manuali Razer Hydra utilizzati per gli input (a destra), gli utenti possono interagire con i controlli che appaiono nello spazio virtuale — aprendo e chiudendo le pinze per raccogliere, spostare e recuperare gli elementi. L’utente può pianificare i movimenti in base alla distanza tra il marcatore di posizione del braccio e la sua mano guardando la visualizzazione live del braccio. (credito: Jeffrey I. Lipton et al. /arXiv).

Nei test che hanno riguardato le operazioni di prelievo e posizionamento, assemblaggio e produzione (come ad esempio “prelevare un oggetto e impilarlo per l’assemblaggio”), confrontando il sistema Homunculus Model con il telecomando automatizzato esistente allo stato dell’arte, il sistema Homunculus Model di CSAIL ha avuto un tasso di successo del 100% rispetto a un tasso di successo del 66% per i sistemi automatizzati all’avanguardia. Il sistema CSAIL è risultato anche migliore nell’afferrare gli oggetti 95 per cento delle volte e 57 per cento più veloce nello svolgimento di attività.

Il sistema Homunculus Model risolve un problema di ritardo con i sistemi esistenti, che utilizzano una GPU o una CPU, introducendo un ritardo. La ricostruzione 3D dalle telecamere stereo HD viene invece effettuata dalla corteccia visiva dell’uomo, in modo che l’utente riceva costantemente feedback visivo dal mondo virtuale con una latenza minima (ritardo). Questo evita anche la stanchezza e la nausea dell’utente causate dalla malattia da movimento (nota come malattia simulatore) generata da “incongruenze inaspettate, come ritardi o movimenti relativi, tra propriocezione e visione[che] può portare alla nausea,” spiegano i ricercatori nel documento.

“Questo contributo rappresenta una pietra miliare nello sforzo di collegare l’utente con lo spazio del robot in modo intuitivo, naturale ed efficace,” afferma Oussama Khatib, professore di Informatica presso la Stanford University, che non è stato coinvolto nel paper.

Il team prevede di concentrarsi sulla possibilità di rendere il sistema più scalabile, con molti utenti e diversi tipi di robot compatibili con le attuali tecnologie di automazione.

Tradotto in Italiano. Articolo originale: Kurzweil AI

VISIONARI è un network di imprenditori, scienziati, artisti, scrittori e changemakers che pensano e agiscono al di fuori degli schemi.
Puoi fare domanda per entrare qui: https://bit.ly/visionari-entra

Seguici sulla nostra pagina Facebook per scoprire nuovi progetti innovativi:
Visionari

--

--

ad astra
VISIONARI | Scienza e tecnologia al servizio delle persone

Per diventare socio, partecipare ai nostri eventi e attività, o fare una donazione visita: https://visionari.org