Mobile AR – Al di là dello specchio

Il telefono in mezzo all’esperienza può essere un ostacolo, ma non è invalicabile.

Davide Giovanni Steccanella
I Diari del Digitale
5 min readOct 12, 2017

--

Nell’articolo precedente, ci siamo soffermati su una delle prime cose da tenere a mente se si vuole progettare un’app per dispositivo mobile che implementi la realtà aumentata.

L’angolo di visione e il fatto che buona parte del tempo il telefono lo teniamo inclinato verso il basso, con un’angolazione di circa tredici gradi, sono stati i primi elementi da inserire nella checklist di una buona UX in AR.

Non sono gli unici punti da tenere in considerazione, però.

In questa storia parleremo infatti dello schermo inteso come il vetro che si infrappone tra l’utente e l’esperienza.

Può essere capitato a voi o ad altri, una o più volte: aprite un’app che, grazie alla realtà aumentata, proietta sul tavolo un gattino e, d’istinto, allungate una mano come per toccarlo.
La mano appare nella telecamera, la vedete, ma non c’è il feedback tattile del gatto.

La vostra mente non vi sta ingannando ma sta solo facendo il suo dovere — c’è un’oggetto nle campo visivo che rispetta le leggi dell’ottica, dunque deve per forza trovarsi dietro il dispositivo.

Ma dietro non c’è nulla.

Sembra una storiella molto carina e priva di alcuna conseguenza per l’esperienza utente ma, in realtà, è un esempio concreto dei vincoli che l’AR mobile-first racchiude in sè.

Un occhio AR raccoglie dati sul mondo circostante e proietta sullo schermo materiale virtuale — è come se la telecamera vi dicesse:

«Questo è il tuo salotto e là, tra le poltrone, si trova questa pianta»

Viene fatto credere davvero all’utente che là a due metri si trovino oggetti che può manipolare per poi far saltare tutto in fumo: se l’utente prova a interagire come farebbe davvero con oggetti realmente disposti a due metri da lui, ottiene il nulla.

Il sistema cognitivo, dunque, viene caricato di un ulteriore fattore di astrazione: posso interagire con oggetti a due metri da me, ma solo attraverso il vetro dello schermo.

È un’operazione di per sè innaturale e non spontanea, che ha delle conseguenze:

  • rende conscio l’utente dell’effettiva “non-realtà” del materiale visualizzato, annullando gli effetti di realismo e finzione;
  • interrompe il flusso dell’esperienza utente;
  • aumenta il carico cognitivo;
  • genera attrito che può portare a frustrazione.

Sono tutte conseguenze inevitabili perchè, per il momento, gli unici dispositivi a disposizione delle masse per usufruire della realtà aumentata sono i cellulari e il loro limite è questo: non possiamo andare oltre i confini del display.

Esistono, però, tre soluzioni per trasformare tale vincolo a proprio favore.

Comandi

Avete mai giocato alla Playstation? Con l’X-Box o la Wii?

Il principio è simile: anche in quei contesti, vi trovate a dover interagire con oggetti distanti da voi come se fossero alla vostra portata — di solito, il volante di una macchina lo si pilota tenendolo far le mani, non seduti a qualche metro.

E ci hanno inventato i telecomandi che, letteralmente, significando «coloro che guidano da lontano» — self-explanatroy, no?

Con la realtà aumentata è la stessa cosa.

Riprendendo l’esempio delle piante: vogliamo spostarle? Facciamo apparire sullo schermo dei cursori come il controller di una consolle di gioco.

Dal punto di vista della UX, è un buon sostituto: fa percepire le distanze, permette di compiere molte azioni senza sposytarsi troppo e sono patterns cognitivi già consolidati da anni di gaming.

Touchscreen

Per aumentare il realismo, si può far sì che si possa interagire con gli oggetti visualizzati tramite tocco diretto sul touchscreen solo se essi si “avvicinano” all’utente.

È come se dietro allo schermo ci fossero elementi toccabili.

Tale approccio, però, presenta dei flaws già a un primo sguardo:

  • gli oggetti rischiano di uscire dai limiti dello schermo, inficiandone intelleggibilità e leggibilità;
  • si possono eseguire solo gesti e movimenti che si limitano ai confini del display.

Cellulare

Un altro metodo di risoluzione è il cellulare stesso — per interagire con l’ambiente e con gli oggetti proiettati si può far credere che il telefono sia uno strumento che, nel mondo AR proiettato, abbia una determinata funzione.

A esempio, il cellulare può diventare un pennello, che traccia nello spazio tratti di pennello continui e colorati, come in PaintSpace AR.

Oppure divejtare una bacchetta magica per lanciare incantesimi, come nel gioco Maguss Wand.

Fino a ora, futuro AR designer (o actual UX designer), abbiamo visto come la realtà aumentata, applicata al mondo mobile, introduca molte potenzialità ma anche dei vincoli all’esperienza che devono essere presi in considerazione per creare la UX perfetta del tuo prodotto mobile che integra l’AR.

Ora sai che:

  • gli utenti usano spesso il telefono inlcinato verso il basso di circa 13 gradi, lo usano spesso con una mano e lo tengono in alto, ad altezza occhi, per poco tempo;
  • il cellulare impone di interfacciarsi con elementi anche distanti solo attraverso lo schermo di vetro, che ha pure una superficie limitata.

Nella prossima storia faremo un viaggio nello spazio (con la esse minuscola) — preparati!

--

--