Mes prédictions technologiques pour 2019

Cette petite tradition annuelle a bien été appréciée fin 2017 et au fur et à mesure de ses mises à jour en 2018.

Florent Morin
Morin Innovation
9 min readDec 28, 2018

--

Pour ceux que ça intéresse, vous pouvez aussi lire l’édition 2018 (avec son bilan, évidemment).

Reconnaissance faciale pour tous

Avec l’iPhone X fin 2017, Apple avait promis une technologie qui aurait 2 années d’avance. Ce qui expliquait un tranche tarifaire élevée.

Démonstration de Face ID par Apple

Parmi ces technologies se trouvait TrueDepth, qui permet une numérisation 3D du visage. Couplée aux technologies de sécurité sur puce et de Machine Learning, cette technologie permet d’identifier un visage via Face ID.

Avec l’iPhone XS, l’iPhone XR et l’iPad Pro 2018, il est clair que la tendance est confirmée sur le haut de gamme.

Cette tendance pourrait s’étendre aux autres gammes en 2019. Et, par la même occasion, les autres constructeurs pourraient proposer des technologies similaires.

TrueDepth au dos de l’iPhone 2019 ?

En s’appuyant sur la technologie TrueDepth, Apple pourrait utiliser le capteur au dos de l’iPhone pour de meilleurs rendus dans les photos. Mais aussi et surtout la numérisation d’objets en 3D.

À moins que la technologie TrueDepth utilisant le Machine Learning et les 2 capteurs présents au dos des iPhone haut de gamme ne suffisent à numériser des objets en 3D.

En couplant la puissance des puces Bionic et la capacité des capteurs, cet exploit est à la portée de la firme à la Pomme.

Hasard du calendrier, Sony a annoncé des capteurs 3D pour ses futurs appareils photos de smartphone.

Du Machine Learning toujours plus accessible

En 2018, nous avons eu droit à de multiples avancées.

Google a présenté Cloud AutoML (beta) qui permet de simplifier la création de modèles mais aussi de nombreuses API de reconnaissance d’images, texte et autres. Tout en améliorant TensorFlow. Et bien sûr, ML Kit est venu concurrencer le Core ML d’Apple sur mobile.

Apple a commencé par mettre Turi Create en open-source. Puis a sorti Core ML 2, qui rend les choses encore plus simple et plus performantes que la première mouture. Le tout agrémenté de Create ML, qui permet de créer des modèles en peu de temps sans grandes connaissances du Machine Learning.

Microsoft a suivi le mouvement en lançant ML.NET, une plateforme Machine Learning open-source et multi-plateforme.

Vers des usages plus concrets du Machine Learning

Depuis 2017, le Machine Learning est le sujet bullshit par excellence. On vend partout de l’Intelligence Artificielle qui correspond la plupart du temps à de l’algorithmique de base : if-then-else .

Maintenant que tout le monde commence à se rendre compte que le soulèvement des machines n’est pas pour demain, on commence à réfléchir à des usages plus concrets.

Déjà, le Machine Learning est venu en renfort pour la sécurité, la réalité augmentée, la prise de photos et autres technologies intégrées aux OS.

L’usage le plus courant du Machine Learning

En 2019, les développeurs mobiles pourraient profiter de ces technologies en intégrant la capacité d’apprentissage. Les puces récentes (Bionic côté Apple) ont des capacités sous-exploitées. Si ces puces étaient utilisées pour de l’apprentissage en temps réel, ce serait une vraie révolution technologique : la confidentialité des données serait assurée tout en offrant des performances optimales.

Cette capacité de reconnaissance pourrait être appliquée dans un premier temps à l’image (reconnaître des objets, des animaux ou des personnes) ou à l’audio (reconnaître un morceau musical, un cri d’animal, une voix).

Apple a sorti le premier appareil compatible avec la réalité augmentée en 2015 : il s’agissait de l’iPhone 6S. Les capacités de sa puce ont été exploitée 2 ans plus tard avec ARKit. L’hypothèse de l’exploitation des puces Bionic en 2019 correspond à ce calendrier.

HomePod 2 Bionic en fin d’année ?

Le HomePod actuel est équipé d’une puce A8, qui est suffisante pour un Siri connecté mais insuffisante pour un Siri autonome.

Un nouvel HomePod ayant les capacités des puces Bionic pourrait peut-être faire de la reconnaissance vocale sans connexion. Un récent brevet déposé par Apple va en ce sens.

L’intérêt est évident en termes de protection des données. Mais le travail de recherche et développement qui va avec est colossal.

La réalité augmentée à maturité

La réalité augmentée pourrait être intégrée directement dans les appareils photos mobiles de iOS et Android.

Mais ses capacités en termes d’interactivité ont trouvé leur limites.

La réalité augmentée selon Microsoft

À moins que les constructeurs ne mettent des capteurs 3D au dos de leurs appareils, cette technologie est loin d’être démocratisée sur mobile. La faute à un usage trop complexe et trop lent en termes de préparation.

Peut-être qu’un dispositif visuel grand public sera proposé cette année, sous forme de lunettes ou autre. Mais cela semble compliqué.

Sécurité / web : TLS 1.3 + HTTP/3

Commençons par TLS 1.3 : de nombreux navigateurs l’intègrent et la technologie est présente (mais non activée) dans les OS Apple. Cela devrait se démocratiser dans le premier semestre de l’année.

TLS 1.3 permet de contrôler les certificats SSL de la même manière que le font les procédés de pinning SSL. Sauf que le système est plus poussé et géré par le navigateur et/ou par l’OS. Le tout avec de meilleurs performances et un niveau de sécurité plus élevé.

Pour ce qui est de HTTP/3, il s’agit du successeur de HTTP/2. Mais avec quelques grosses évolutions : l’usage du protocole QUIC au lieu de TCP / UDP, TLS 1.3 obligatoire et 2–3 autres petites choses. Ce ne sera donc pas avant 2020.

Les montres connectées démocratisées

L’Apple Watch est sortie en 2015. Elle a eu ses early adopters, puis s’est démocratisée en 2018.

Elle semble avoir des concurrents côté Google, notamment grâce à une nouvelle puce de Qualcomm qui devrait offrir des performances suffisantes.

En parallèle, les kits de développement arrivent à maturité. Et les usages se sont affirmés.

Il y a de bonnes chances pour que les montres se soient vendues comme des petits pains pendant la période de Noël. Cela pourrait faire évoluer le paysage des apps.

La tablette remplace l’ordinateur à la maison

L’iPad Pro 2018 a été annoncé comme plus performant que 92 % des ordinateurs vendus la même année. Avec des performances proches de la console de jeux XBox One S.

Toutes les imprimantes qui sortent peuvent imprimer sans fil depuis une tablette. Les photos sont transférées sans fil. On y trouve la suite Office, la messagerie, les services de VOD, des petits jeux.

Du montage photo / vidéo sur iPad Pro avec un écran externe

Et tout ça sans que ça ne prenne de place et sans avoir à installer d’anti-virus. Cerise sur le gâteau : ça ne rame pas.

Il ne manque plus que 2 choses : des systèmes d’exploitation un peu plus adaptés et des apps qui conviennent à des usages plus poussés.

Pour le reste, tout est là.

Le déploiement de UIKit sur macOS

Cela a été annoncé par Apple en 2018 au travers du projet Marzipan.

UIKit, l’outil de conception d’interface sur iOS, va arriver sur macOS en 2019.

Les développeurs iOS pourront alors porter leurs apps sur macOS sans un coût énorme. Surtout s’ils ont codé en Swift et ont utilisé des frameworks pour centraliser les parties communes du code.

Une nouvelle interface iOS ?

Apple pourrait profiter de la fusion de UIKit dans macOS pour aller plus loin et faire évoluer ses éléments d’interface iOS.

Cela pourrait se faire en ajoutant un mode sombre, mais aussi en améliorant les composants d’interface pour iPad, histoire de le rendre plus complet, plus proche de l’ordinateur.

Swift 5

print(“Hello, world!”)

Le langage open-source d’Apple arrive à maturité. Swift 5 est l’ultime étape de son évolution : une évolution essentiellement technique.

Les apps seront alors automatiquement plus performantes et plus légères.

Pour les développeurs, de nouvelles possibilités ont été mises en place pour simplifier le code qui s’exécute de manière asynchrone.

On y sera sûrement au printemps.

En parallèle, les solutions serveurs de Swift devrait continuer à se développer. Ainsi que de nouvelles plateformes. (Raspberry Pi entre autres)

Kotlin / Native

println(“Hello, World!”)

Le langage Kotlin, utilisé notamment pour Android, pourrait arriver sur la plateforme LLVM utilisée par iOS notamment.

Je ne serai pas étonné qu’un énième framework open-source s’appuie dessus pour faire des apps multi-plateformes.

Mais le véritable intérêt est pour le futur de Android, qui pourrait se passer du bytecode de la JVM et profiter du bitcode de LLVM. Et aussi pour les solutions orientées serveurs.

En 2019, Kotlin / Native pourrait donc faire des avancées significatives.

Flutter : premières gueules de bois

print(‘Hello, World!’);

Flutter a été lancé en grandes pompes par Google en 2017, et une version 1.0 est sortie en 2018.

Il s’agit d’un framework hype qui fait la même promesse que ses prédécesseurs : un seul code qui permet de concevoir des apps géniales qui fonctionnent partout.

Même si Google ne recommande pas plus que ça Flutter pour les apps Android, beaucoup se jettent à corps perdu dedans.

Les premiers projets vont sortir début 2019 : ce sera l’euphorie.

Fin 2019, le bilan risque d’être tendu. Le code n’est pas adapté aux plateformes (ex. pas de bitcode sur iOS, donc pas mal de limites), le langage utilisé n’est pas commun, et dès qu’une nouvelle fonctionnalité sera proposée aux utilisateurs dans la mise à jour de l’OS, les développeurs ne sauront pas l’adapter.

Bref. AirBnb est passé cette année de React Native aux langages natifs pour ces raisons. Tout comme Betclic qui a du réécrire son app codée en Xamarin. Ce sera la même chose pour Flutter : déceptions en cascade.

Comment cela va-t-il se passer ?

Cela va se passer comme d’habitude. Prédiction facile.

Les apps vont être écrites dans un nouveau langage adapté à la version du moment de l’OS (Android, iOS).

Idem pour les différents plugins. L’emballement de la communauté va faire que les développeurs open-source vont s’investir plus que la normale.

La nouvelle version de l’app sort : tout le monde se félicite et se gargarise du succès.

Cela dure 6 mois. Jusqu’à ce que les nouvelles versions de iOS / Android sortent.

Les utilisateurs vont commencer à demander des fonctionnalités plus avancées (raccourcis Siri, push interactif, extensions diverses) : ce ne sera pas possible immédiatement. Il n’y aura aucune documentation en Flutter dans un premier temps. Si toutefois la fonctionnalité peut être implémenté, ce qui n’est pas garanti.

Les contraintes techniques peuvent aussi arriver : si Apple exige (comme sur watchOS et tvOS) l’utilisation de bitcode pour accéder à l’App Store, aucune app Flutter ne pourra être diffusée sur l’App Store.

Ou bien de nouvelles règles qui nécessitent de mettre à jour les plugins : c’est ce qui a précipité la chute de Cordova avec dépréciation du composant UIWebView de iOS.

Et c’est en général à ce moment-là qu’une nouvelle technologie hybride mais sans les défauts des autres technologies hybrides arrivent.

Hormis pour les apps 3D (via Unity, Unreal Engine), les technologies hybrides durent rarement dans le temps.

Et le reste ?

Le reste est encore une inconnue.

L’an dernier, j’ai râté le bien-être numérique. Qui sait quelles autres surprises les constructeurs nous réservent !

--

--