Quelques démos d’ARKit le framework Apple qui va accélérer la réalité augmentée (la troisième va vous étonner !)

Le grand public a vraiment découvert la réalité augmentée l’été dernier, à travers Pokemon Go. Depuis, Apple, qui distribue le jeu via son AppStore, a bien compris son intérêt et les applications qui pourraient en découler. Le mois dernier, la marque à la Pomme, à l’occasion de la WWDC a annoncé son propre framework de réalité augmentée à destination des développeurs d’applications. Les premiers retours commencent à arriver et le moins qu’on puisse dire, c’est que les usages en sont déjà impressionnants.

Sur cette vidéo, on peut voir la précision du rendu qui est réalisé à partir d’un simple iPhone, aucun lag, aucun saut, on y croirait presque. Le rendu des ombres et les effets de lumière en temps réel sur la marionnette est comparable à ce que le cinéma produisait il y a quelques années.

Cette application de simulation d’une Tesla Model 3, réalisée par un développeur impatient de recevoir la sienne, est aussi très impressionnante. Les reflets fonctionnent à merveille. À la fin de la vidéo, on peut même la voir surmonter un obstacle. C’est vraiment hallucinant qu’un simple iPhone ait une aussi bonne connaissance de l’environnement 3D dans lequel il se trouve.

La précision, c’est justement ce qui va permettre aux développeurs de proposer un nouveau type d’application qui devrait venir garnir les rayons de l’AppStore, les mètres virtuels.

On voit sur la vidéo qu’on est sur des écarts inférieurs à quelques millimètres.

Comment Apple peut-elle réaliser de telles prouesses ?

Pour commencer, Apple réserve cette fonctionnalité aux appareils iOS qui ont un processeur supérieur à l’A9, c’est à dire à partir de l’iPhone 6s, des iPad Pro et de l’iPad 2017. Cela signifie que dès la sortie d’iOS 11, début octobre, plusieurs dizaines de millions d’appareils seront compatibles. Et c’est ce qui fera la force d’ARKit comparé au kit que Google a lancé il y a quelques année, Tango. En effet, le gros défaut de ce dernier est qu’il n’est supporté que par deux smartphones sur le marché, ce qui explique le peu d’engouement des développeurs. A contrario, c’est là toute la force de l’approche verticale d’Apple : arriver en force sur un marché avec des appareils compatibles, des API performantes et une gigantesque communauté de développeurs.

Mais comment cette précision est-elle possible ? Pour commencer, Apple a, ces dernières années, doté les iDevices de capteurs de plus en plus performants : boussole, GPS, gyroscope à trois axes, baromètre, accéléromètre. Toutes les données de ces capteurs sont agrégées et corrigées par ARKit afin de fiabiliser la position de l’iPhone, c’est ce qui permet d’éviter des lag ou “sauts” comme on en voyait avec la réalité augmentée auparavant.

La dernière possibilité introduite par ARKit, c’est l’identification automatique de points intéressants, comme l’explique très bien cet article de Macg. Par le passé, les applications de réalité augmentée s’appuyaient sur des marqueurs visuels, dits marqueurs fiduciaires. Avec le nouveau framework, ces marqueurs sont remplacés par des points intéressants de l’image.

Le grand avantage de ces méthodes, outre leur précision, c’est que si on passe devant la caméra, le modèle incrusté reste présent.

Toutes ces méthodes combinées vont nous permettre de créer de nouvelles applications. On voit déjà pointer des usages, mais nous sommes probablement encore aux balbutiements d’une nouvelle génération d’applications. On murmure qu’Ikea est en train de peaufiner la prochaine version de son app pour prévisualiser ses futurs meubles. Et vous, à quels usages pensez-vous ?

Anyway, well done Cupertino.

Show your support

Clapping shows how much you appreciated Thomas André’s story.