Neurosciences, e-trading et Arduino en scène pour le Hackday de juin

Chez Zengularity, les Hackdays se suivent mais ne se ressemblent pas. Les deux jours de juin consacrés à l’exploration technologique ont une fois encore démontré l’ouverture d’esprit des Zengulars. Focus sur trois projets aux thématiques très éloignées de nos activités quotidiennes.

Le trading mobile de la crypto monnaie

Dans la catégorie entrepreneur né, il y a Benjamin. Un jour, oui un jour, il aura l’idée qui le rendra riche. En attendant, il teste à tout va de potentielles sources business et s’est assez naturellement intéressé à l’argent virtuel.

C’est en s’apercevant qu’il n’existe pas d’application mobile de trading sur le marché de l’e-monnaie que Benjamin s’est demandé s’il n’y avait pas là une place à prendre. L’objectif donné sur ces deux jours est donc d’abord un objectif marketing (quand on vous dit qu’il a ça dans le sang). Romain, Housnati et Benjamin ont opté pour la création d’un prototype et d’une landing page afin d’évaluer l’intérêt du public pour ce type de produit.

Commençons par une mise au point. Nous avons chez nous des experts de l’UX design et rien ne remplacera la finesse de leur perception des besoins de l’utilisateur. Ceci étant dit, deux jours, ça reste court. Aussi pour produire rapidement un prototype destiné à tester l’intérêt du marché, des solutions comme Origami ou Axure Software font correctement le job.

Le principe est simple : il s’agit de proposer au grand public une application simple et fiable, (et à terme évidemment stable et solide) pour vendre et acheter des valeurs sur le marché immense de la crypto-monnaie. Si l’on connaît tous le Bitcoin, on sait moins qu’il existe à ce jour plus de 700 monnaies virtuelles. Certaines sont destinées à des œuvres humanitaires, d’autres aux professionnels de la finance… etc. Toutes ont en commun d’être particulièrement volatiles mais elles ont également pour avantage d’être décorrélées des autres actifs financiers, ne subissent pas de politiques inflationnistes et sont affranchies des frais de change. Ça commence à vous parler n’est-ce pas ?

Interface de l’application Tradr.

Destinée à être 100 % mobile et gratuite (sans publicité), l’application veut offrir la plus grande simplicité d’usage, avec deux boutons principaux : acheter et vendre. Pour l’heure, une landing page via l’advertising de Facebook et MailChimp soumet le prototype à l’intérêt du public, qui pourra suivre l’évolution du produit si le besoin est confirmé.

Le langage détermine-t-il la perception des couleurs ?

Pour comprendre comment l’idée de travailler sur la perception de la couleur et plus particulièrement sur la façon de nommer les couleurs, est venue à Daniel, il faut d’abord regarder cette vidéo :

Partout dans le monde, nous avons tous une perception relativement similaire des couleurs. Mais, cette vidéo, ainsi qu’un certain nombre de projets scientifiques à l’étude, laissent entendre que notre perception des couleurs et les mots dont on dispose pour les nommer seraient déterminés par notre environnement.

La question s’est donc posée de savoir si cette même perception ne serait pas induite par un modèle de référence que nous offrirait la nature. Existe-t-il une nuance de vert, de bleu, de rouge qui serait prédominante et serait perçue comme l’archétype de la couleur considérée ?

Les méthodes jusqu’ici utilisées pour tenter de répondre à cette interrogation montrent les limites de l’investigation, puisque les échantillons de populations interrogées restent de l’ordre de quelques milliers.

C’est pourquoi Daniel, Aurélien et Maxime se sont demandés si le Big Data ne serait pas une solution à cette limitation. Il ne s’agirait donc plus de tester la perception des couleurs sur des populations d’individus issues des 4 coins du monde mais d’exploiter directement les images du monde, disponibles sur le web.

S’il va sans dire que le projet n’est pas destiné à publication et reste de l’ordre de la vulgarisation scientifique, son premier objectif sur ces deux jours portait surtout sur sa faisabilité.

Un algorithme a donc été mis en place et testé sur quelques centaines d’images. Le POC a réussi à démontrer le potentiel de l’idée, notamment sa capacité à combiner plusieurs images pour en obtenir une moyenne, à la grande satisfaction de l’équipe.

Une des principales difficultés portait sur le calcul de l’empreinte des couleurs d’une photo. La gestion d’une image reste fastidieuse de prime abord. L’approche est mathématique, requiert des transformations d’espaces de couleurs, des réductions de dimensionnalité, des traitements sur les pixels.

Par ailleurs, l’encodage de la couleur se fait classiquement en trois dimensions, c’est le cas du RGB et du CMJN. Mais ce sont des encodages faits pour la machine, pas pour l’œil humain. Aussi, l’équipe a choisi de travailler avec Lab, qui capture les valeurs chromatiques en deux dimensions, la troisième ne concernant que la luminosité, exclue du protocole.

Sanity check : test de véracité de la méthode RGB vers CIELab

Dès lors, Daniel et ses coéquipiers ont pu créer des images en 2D, auxquelles s’ajoute la fréquence de chaque couleur, représentée en troisième dimension par l’intensité des pixels.

Les étapes suivantes consisteraient évidemment à lancer le procédé dans le cloud sur des milliards d’images pour des résultats vraiment significatifs. Au demeurant, et même si le projet fut jalonné de nombreux challenges techniques, la satisfaction est totale. Surtout quand les résultats obtenus prennent des airs de peintures expressionnistes abstraites, façon Jackson Pollock.

Exemple du résultat : l’intensité des couleurs à droite représente leur fréquence dans l’image du gauche

Programmation d’un micro contrôleur Arduino

Sur proposition de Franck, Anton, Vincent et Baptiste se sont joints à lui pour un projet tout ce qu’il y a de plus réjouissant, la fabrication de petits véhicules autonomes ! Et parce que Franck s’est récemment offert un starter kit Arduino qu’il lui tardait d’explorer, l’occasion a fait le larron. (A la vérité, il semble que ce soit l’inverse…).

Arduino, c’est le monde de l’électronique et celui de la programmation, concentrés dans un micro contrôleur, simple mais aussi performant que ludique. C’est aussi pour les membres de l’équipe l’occasion de manipuler, au sens tactile du terme, un projet de code qui d’habitude n’a pas ou peu de consistance, en particulier pour un développeur back. Il y a toujours quelque chose de très satisfaisant à contempler la réalité physique de son travail. Surtout quand on peut lui faire faire n’importe quoi (foncer dans un mur, rouler sur les pieds…)

Le premier jour, l’équipe a exploré quelques mini projets, sachant que Franck avait pris un peu d’avance pour être sûr de présenter un rendu au moins quasi abouti le soir aux collègues.

Les tarifs d’un starter kit sont très accessibles mais cela suppose d’aimer bricoler pour que tout tienne ensemble et de ne pas avoir peur d’abuser des clous, des vis et des élastiques. En milieu d’après-midi du deuxième jour, l’équipe cherchait encore à embarquer convenablement les batteries du moteur et du micro contrôleur, qui exigent des sources d’énergie différentes. 
Compte tenu du temps investi pour rendre les véhicules fonctionnels, le choix s’est porté sur une intelligence artificielle relativement basique, de type irobots domestiques ou jeu de suivi de mouvements.

A partir d’un même modèle dupliqué, les 4 électroniciens du jour ont donc créé deux véhicules, dotés chacun d’un algorithme offrant un comportement autonome différent. L’un doit être un follower, l’autre, un obstacle avoider. Seul le robot éviteur d’obstacles a pu faire sa démonstration, mais il a manifestement obtenu le succès escompté puisque Franck et son équipe ont obtenu le premier prix. A croire que les membres du jury voulaient tous faire partie de la prochaine équipe à tester Arduino ! Il faut dire qu’ils ne manquent pas d’idées.

Beaucoup d’autres projets ont été présentés et la moisson du mois de juin est abondante et qualitative ! Nous se saurions terminer cet article sans mentionner les deuxième et troisième prix attribués par le jury respectivement à “Zen screen” pour l’automatisation de la diffusion des potins de Zen, et “HyperGraphQL++DeLuxe w/cheese”, qui s’est proposé de répondre à la problématique “Comment intégrer graphQL dans une stack REST friendly”.

Bravo à tous !

Par l’équipe de Hackday de Zengularity.

Vous voulez nous rejoindre, c’est par ici : carriere.zengularity.com

One clap, two clap, three clap, forty?

By clapping more or less, you can signal to us which stories really stand out.