L’audio n’a pas dit son dernier mot.

L’audio n’a pas dit son dernier mot : une exploration du web, de l’audio et la radio, à travers la démarche “audio first design” formalisée à l’occasion d’une conférence à Paris Web.

En répondant à lappel annuel de ParisWeb pour la première fois, j’avais en tête de m’adresser à une audience composée de développeurs, intégrateurs, webdesigner, spécialistes de l’UI, de l’UX, de l’accessibilité et du marketing digital, travaillant dans une industrie du web portée sur le html. A cet égard l’audio, et la radio en particulier, font office de sujet quelque peu “surprise”.

Car même si les expérimentations existent en matière de son et de web, elles sont généralement issues de projet de création d’artistes, d‘expérimentation, ou le fruit de projets unitaires, parfois éditoriaux, non reproductibles, qui se diffusent peu, restant dans leur niche.

Pour le médium audio, rencontrer le code et les algorithmes est un enjeu. J’aborde cette question avec mon parcours fortement marqué par l’éditorial et la production radio, l’approche “nouveaux médias”, et la démarche qui m’anime autour de l’innovation que l’industrie de la radio doit relever pour proposer de nouvelles expériences à ses audiences.

Ci-dessous, l’intégralité de la conférence en vidéo.

L’évolution des pratiques audio sur le web: musique first

“Et je coupe le son!” Sur le web au milieu des années 90, on a commencé par “muter” le volume. A mesure que les sites proposaient une surenchère d’animations orchestrées par “Flash” et son “action script”, proposant boucle sonore ou bande-son entêtante, frisant parfois la pop-up au palmarès des objets web non sollicités.

On s’est ensuite tourné vers des pratiques qui allaient nous apporter de la valeur ajoutée personnelle: écouter de la musique en mp3 grâce aux plates-formes de peer to peer, aux webradios du monde entier comme une invitation au voyage (voire créer la sienne avec les mp3 suscités, un serveur shoutcast et l’aide de quelques amis geek), ou se connecter au premier réseau social musical, Myspace.

Aujourd’hui ces pratiques sont balayées par de nouvelles, avec l’émergence des plates-formes de streaming musicaux (Deezer, Spotify, Apple, Soundcloud, etc…), des réseaux sociaux, des agrégateurs de webradios, des services de webradio clés et outils en main et en ligne (Radionomy, Radioking, etc..), changeant notre rapport à la propriété (ipod is dead, saas is coming) au profit de l’accès à la location (à condition d’en payer le prix ou la pub).

Le player et après?

Dans cette même genèse de l’audio sur le web, on se souviendra, peut être avec émotion, des premiers pas des players personnalisables comme Radioblog club, ou du dewplayer que l’on pouvait intégrer à son blog en toute simplicité. Les médias se saisirent à leur tour de la possibilité de proposer l’écoute de leurs programmes, en flux continu ou en streaming sur demande grâce notamment à realplayer.

On peut aujourd’hui constater que l’apport technologique des plates-formes de streaming musical n’est pas négligeable. En se saisissant de la problématique du player en situation de la mobilité (format du smartphone et non connectivité), elles ont investi sur l’ergonomie de l’interface, la personnalisation de l’expérience, l’utilisation de la mémoire cache, et proposent, parfois, des api ouvertes.

Mais si le html5 en a aujourd’hui solutionné les problématiques liées à l’écoute (player en pop-up versus player persistant, univers IOS ne supportant pas flash, interface du smartphone réduite, problèmes de compression), c’est désormais l’industrie liée à la vidéo ou aux jeux vidéos qui dope l’innovation. Le développement de la vidéo 360 et de la réalité virtuelle imposent de développer les outils adéquats.

Les médias audiovisuels mettent quant à eux le focus sur le “réceptacle” que constitue le player, notamment sur la “délivrabilité” des contenus dans des tuyaux adaptés privilégiant une approche de distribution et de redistribution qui laisse aujourd’hui encore peu de place à l’exploration intelligente, l’interaction et l’expérience autour du son. Hors “player”, peu de nouveaux patterns de conception concernant le son sont disponibles, notamment dans l’univers du libre.

Découper la radio pour la diffuser en flux rss

L’expérience du podcast

Dans les années 2000 qui voient l’émergence des flux rss mais aussi de l’ipod, la radio saisit l’opportunité de découper ses programmes pour mieux les distribuer. Apple va être l’acteur déclencheur de ces pratiques, en intégrant dans Itunes en 2005 la syndication de contenus audio, imposant alors le modèle de l’abonnement et de la gratuité de l’écoute de rattrapage et ouvre ce service aussi bien à l’industrie de la radio qu’aux particuliers.

Apple, avec Itunes n’a, depuis, que très peu investi dans le développement de l’écosystème du podcast. Les catégories et leurs arborescences sont demeurent inchangées, rendant parfois étranges les regroupements de thématiques et les intitulés (“jeux et hobbies”, “gouvernement et ONG”..) des podcasts avec des catégories offrant peu de rebonds. L’équipe est réduite, et le business est ailleurs. D’autre part, la promotion des podcasts sur iTunes reste très opaque, les statistiques disponibles sont limitées et ne favorisent pas la monétisation.

Dans un monde numérique où l’on consomme toujours plus de contenus, avec de moins en moins de temps disponible, l’expérience du podcast reste assez contraignante. Il faut explorer, s’abonner, synchroniser ses abonnements, faire des compromis avec la mémoire de son smartphone…

Les plateformes de streaming ont bien compris l’enjeu de mélanger les genres: associer offre musicale et contenu parlé, en proposant en streaming l’écoute de podcasts agrégés, proposés par les radios hertziennes et les nouveaux acteurs du podcast indépendant. Spotify avec sa version mobile, et tout récemment Deezer au delà de l’agrégation, commence à produire ses propres contenus. (Nostalgie 2050)

Si l’on peut se réjouir du nombre grandissant d’acteurs, de sites et d’applications qui agrègent les offres, la problématique du contenu audio réside dans la matière même du son, qu’il faudrait pouvoir transcrire, contextualiser, afin de traiter le langage parlé par le code, traiter le champ sémantique de ce contenu, supprimer les sons parasites, traiter la ponctuation et lever les ambiguïtés des mots par la “contextualisation”. Des acteurs s’y attèlent, Google en tête avec sa Speech Api, la startup française Voxygen ou le projet Audiosearch.

La maturité des outils de “speech to text” ou de “radio to text” dans les prochains mois ou années, permettra de faire naître des innovations autour du son, qui viendront enrichir et proposer de nouvelles expériences.

Visualisation fonctionnelle de l’audio par des icônes.

“Audio First Design”, une approche de l’expérience des contenus sonores.

La participation à ParisWeb a été l’occasion de nourrir une exploration autour des contenus sonores et leur “mise en web”, dans une approche UX et UI. “Audio first design” ne fait pas référence au design sonore au sens de l’ingénieur du son ou au marketing sonore, ni même à la “sonification” des objets industriels.

Audio First design en proximité avec l’approche Mobile First. Car si le smartphone s’impose rapidement dans les usages et qu’il est l’accessoire incontournable de la mobilité, il est aussi celui du “son” à emporter. Audio “first”, car c’est une facilité de penser que la “vidéo” doit être privilégiée car elle capte l’attention et connait ses heures de succès. Le son n’a pas d’images, mais, a toutes celle que notre imagination sait créer. C’est le médium de l’inspiration. Et à défaut d’avoir des images animées pour le dénaturer et lui enlever sa sève, rien n’empêche l’audio de se vêtir de sa plus belle interface.

Mais que signifierait donc « designer l’audio » et proposer de nouvelles expériences ? Designer les contenus et les formats sonores, les interfaces, les interactions, les images, les couleurs, les formes et les émotions transmises par le son ? De l’écoute à la prise de parole, quelle place pour l’utilisateur à l’heure du smart(micro)phone roi et des incontournables réseaux sociaux?

Je vous propose d’aborder ces questions à travers un panorama d’approches originales, de pistes de recherche et d’innovations émergentes.

Sons et matière, source d’inspiration design ?

Collection “Seijaku” (automne-hiver 2016/201) d’Iris Van Herpen, à l’oratoire du Louvre

Le son et la haute couture.

La cymatique (visibilité des vibrations sonores), inspiration de la créatrice néerlandaise Iris Van Herpen pour sa collection “Seijaku”

Les figures d’Ernst Chladni (1756–1827), fondateur de l’acoustique moderne.

Le son et la géométrie

L’expérience de Chladni : une plaque métallique saupoudrée de sable ou de sel, mise en vibration par un archet, révèle des formes géométriques au fur et à mesure que les fréquences changent.

Graphisme en mouvement, et en musique

Le site Audiograph.xyz est un projet artistique qui met en scène un album de musique électronique. Les visuels sont en mouvement permanent, les formes géométriques se succèdent sans jamais se répéter, les jeux de couleurs évoluent, formant un kaléidoscope hypnotique. Boucle musicale et boucle algorithmique se marient pour le meilleur de l’interface, en proposant une expérience tactile et interactive. Imaginez maintenant à la place de la musique, de la parole. Et à l’image des formes et des couleurs, les mots pourraient être généré par la transcription du son et du contenu parlé en texte (speech to text). On pourrait extraire du champ sémantique phrases ou mots clés qui permettrait de proposer une interface avec une navigation issue des mots générés par le son. Un trip :)

Couleurs et chaud/froid : contenus jetables ou durables ?

Lorsque l’on parle de couleur du son, on évoque le plus souvent ses propriétés physiques. Je m’intéresse ici aux couleurs que l’on pourrait conceptualiser autour du contenu sonore, et en particulier les contenus et programmes radio.

Ce média du “chaud” et de l’instantané n’a que très peu fait évoluer ses formats de programmes, ses modes de production et la mise à l’antenne. Quand on pense “timeline” au mieux, on “marbre” à l’avance des sujets à venir ou l’on “rediffuse” des contenus déjà passé à l’antenne, affublant de “best of” ou “rediffusion” en tentant plus ou moins de re-contextualiser le programme lors de la diffusion. Chaque jour les stations produisent des contenus “chauds” d’actualité immédiate, et des contenus froids de type magazine, enquêtes, documentaires, etc… Les moyens sont mobilisés en adéquation avec la production nécessaire, mais n’ayant le nez que sur leurs grilles, leurs audiences Médiamétrie et leurs chiffres web, les radios n’optimisent et valorisent que très peu leurs contenus après la diffusion hertzienne. Il y aurait le podcast pour cela. Suffisant ?

Prenons le cercle chromatique d’un côté et un vu-mètre sonore de l’autre. Le vert est une couleur chaude, le rouge une couleur froide. Le vu-mètre d’un signal sonore est formalisé avec du vert représentant le volume et ses variation, avec les pics de volume en rouge, et une proportion 4/5 pour le vert en général.

Considérons maintenant qu’à la radio on produit quotidiennement beaucoup de contenu “chaud”, disons “rouge” du contenu qui doit se renouveler en permanence, et mais aussi du contenu “froid’, donc vert, pour proposer une grille de programmes de 24h.

Un contenu de type rouge (actualité, infos) “jetable” ne descend que très peu dans la zone verte (patrimoniale) à l’exception de la diffusion d’archives. Et le contenu vert plus pérenne, n’est que très peu remis en avant, re-packagé, re-contexualisé, re-découpé (ou même conçu dès l’origine pour avoir une vie propre en dehors de sa diffusion de grille d’antenne).

Tandis que du côté des auditeurs, ces deux besoins de contenus jetables (actualité immédiate, connexion avec le temps réel) et pérennes (propice à la réflexion, le savoir, la connaissance, le divertissement) coexistent. Mais comme pour accéder à ces deux types de contenus, l’auditeur doit faire le tri lui même, et cet effort de temps de recherche paraît trop coûteux. Si l’écoute de rattrapage en streaming sur les sites des stations augmente à mesure que les sites deviennent plus accessibles, responsives, et les applications stables, il reste encore des expériences à proposer autour des contenus et de leur valorisation.

L’audio et les réseaux sociaux : toujours un clic de trop!

Où en est-on de la viralité du son sur les réseaux sociaux? La radio généraliste fait de la radio visuelle pour mettre en avant humoristes et politiques et toucher un nouveau public (l’effet guillon 2009) en mettant les vidéos sur les plateformes de streaming. Depuis 2016, elles s’essayent à Facebook live avec la contrainte de proposer un son “antenne” en filmant avec un smartphone. Quelques bidouilles plus tard, ça roule.

Les offres de radio “web” comme Arte Radio ou les podcasteurs indépendants, sont très présents sur les réseaux sociaux, twitter en tête, et construisent leurs communautés et leurs outils pour faire connaitre leurs productions. Arte Radio, qui s’illustre avec sa célèbre newsletter depuis sa création, expérimente sur twitter avec succès la punchline graphique (jolie typo et aplat de couleur) pour rendre plus visible la parole.

le show “2 Dope Queens” sur Twitter

Sur Twitter, il est déjà plus facile d’embeder certains players audio, et notamment soundcloud. Mais il y a souvent un clic de trop vers un lien externe. La radio new yorkaise WNYC a livré fin 2016 “Audiogram”, un player open source, dont le visuel est personnalisable, et l’animation automatisée en fonction du spectre sonore.

L’audio peut-il être un réseau social?

En France, la startup Bobler a essayé de démocratiser l’audio et de l’expression radiophonique par l’utilisation du smartphone. En 2012, le projet Bobler, lancé avec l’ambition d’être la version audio d’Instagram, proposait une application et un site web qui permettaient d’enregistrer des bulles sonores, par l’utilisation du microphone du téléphone. Les messages vocaux d’une durée de 2mn maximum devaient être géolocalisés, et vous pouviez suivre les profils des “bloblers”, une communauté de journalistes, créateurs sonores, curieux et même politiques. L’application affichait jusqu’à 10000 abonnées, mais un taux d’utilisateurs actifs autrement moindre.

L’approche de l’application qui valorisait le contenu sonore qualitatif n’a pas eu le succès attendu. Une niche trop petite, comme l’explique son créateur Marc-Antoine Durand, faisant le constat amer que l’audio est un média pour les professionnels. La startup a réalisée un pivot stratégie en juin 2015, pour faire naître l’application de doublage Lipp.

Depuis 2016, la start-up new-yorkaise Anchor, s’essaye aussi à l’audio social, avec une approche “social graph” et la constitution d’une communauté de radio lovers. Elle a adopté une approche où elle n’essaie (pas encore) d’être une “radio” (avec une posture de média diffuseur), mais reprends les codes des réseaux sociaux en proposant des fils de discussions audio, dont les messages, les questions et réactions s’enchainent, formant une forme de flux audio tout autant qu’une exploration. Le tweets sont des “waves” enregistrées sur l’application par le biais du microphone du smartphone. Une proposition qui fait le mix entre l’interactivité de pair à pair du forum quora, l’instantanéité d’un Instagram audio, et la navigation avec hashtag de twitter.

version beta d’anchor (octobre 2016) pour voir et écouter, rdv à la 31ème minute de la conférence

La formule a l’avantage de créer un intérêt dans l’écoute, mais aussi dans la participation, de créer un dialogue entre les utilisateurs. Mais faire de l’acquisition d‘audience et de producteurs de contenus dans le même mouvement, temps, expérience et application, c’est assez complexe et c’est un véritable défi. Anchor se relance (avec une levée de fonds de 2,8 millions de dollars), et vient de sortir une nouvelle version de son application.

Anchor 2.0 présenté sur medium

Tout en proposant de nouvelles fonctionnalités avancées pour produire du son (ajouts de sons externes, remix de sons, transitions et effets), Anchor a fait le choix de privilégier l’expérience d’écoute et d’exploration des contenus en mobilité, mais également d’être présent dans la sphère domestique, en étant présent sur Amazon Echo et Google Home. Alors qu’en France, on ne peut toujours pas se procurer les objets connectés).

Objet connecté, demain, en mobilité, le smartphone se commande (vraiment) à la voix, son interface devient télécommande, et la maison s’enrichit d’objets connectés et intelligents. Peut-être.

Les technologies d’intelligence artificielle (algorithmes de recommandation et de prédiction, machine learning, etc) appliqués aux contenus et associés à une expérience vocale, personnalisée et relationnelle pour l’utilisateur, promettent de belles innovations pour le medium audio.

L’audio et les interactions homme / machine

Nao réagit à la voix et détecte les émotions

Avec le robot Nao, le laboratoire Limso (CNRS) travaille sur les dimensions affectives et sociales. Les recherches portent sur l’interaction homme-machine, les émotions, le dialogue et la robotique.

No interface ?

Si un robot est capable, juste en nous écoutant d’interagir avec nous, est ce que demain, l’interface visuelle est toujours nécessaire? Peut-être que le medium audio pourra se suffire à lui même pour être une interface d’interaction. Nao, Siri ou Alexa tracent la voie. Lors du dernier concours Lépine, un casque audio qui transmet le son à l’oreille interne par les os de la boîte crânienne (conduction osseuse) a obtenu la Médaille d’or du concours. Notre corps devient une interface…

Enfin, avec ou sans smartphone, avec ou sans interface graphique, demain, chacun choisira vraisemblablement son interface, selon ses goûts et ses besoins d’accessibilité. La connaissance des contenus et leur mise en forme, les interactions possibles et les expériences sont se dessiner. Il ne reste qu’à suivre le fil de l’audio, qui n’est pas un long flux tranquille.

quelques liens et ressources

  • Audiogram, l’outil open-source de WNYC, sur Github
  • Le projet musique et graphisme Audiograph
  • L’application audio/radio Anchor
  • Emotions et Robots, interview (France Inter) Laurence Devilliers (cnrs)
  • Le jeu entièrement sonore Blind Legend
  • L’expérience de Chadlni en vidéo
Show your support

Clapping shows how much you appreciated Carine Fillot’s story.