Retour sur l’AWS Summit 2024 à Paris

Axel Pavageau
ekino-france
Published in
7 min readJun 14, 2024
photo de Conny Schneider (unsplash)

Le 3 avril s’est déroulée l’édition 2024 du AWS Summit Paris, un événement annuel organisé par Amazon Web Services (AWS) qui offre l’opportunité de se tenir informés des dernières tendances de l’écosystème du cloud computing, en mettant particulièrement l’accent sur les études de cas concrets.

Nous étions présents sur place, et voici quelques réflexions sur les présentations auxquelles nous avons pu assister.

ANT114 : IA, comment se lancer en tant qu’entreprise

Virginie Mathivet (Hemelopse) a abordé l’évolution de l’intelligence artificielle à travers ses différentes branches tout en nous éclairant sur les stratégies de déploiement de l’IA en tant qu’entreprise, que ce soit dans des secteurs industriels, éducatifs, logiciels, et autres.

Elle a abordé également l’EU AI Act (législation européenne sur l’IA), en expliquant sa nature, son incidence sur les projets d’IA actuels, son cadre juridique et les démarches pour s’y conformer.

Ce qu’on peut retenir de cette présentation c’est que malgré l’engouement qu’elle suscite, l’AI Générative n’est évidemment pas toujours la réponse aux besoins d’une entreprise.

Il est essentiel de choisir l’outil et l’approche adaptés aux besoins de l’entreprise. De plus, il est recommandé d’examiner les implications de l’AI Act avant de se lancer dans un projet de grande envergure.

API206 : Mesurer et optimiser la durabilité de vos applications dans le cloud

La présentation a abordé les défis écologiques rencontrés par les acteurs du Cloud, en établissant un parallèle entre le modèle de responsabilité partagée pour la durabilité et celui de la sécurité dans le Cloud.

Selon ce modèle, AWS est responsable de la durabilité du Cloud (comme la durée de vie des serveurs, le refroidissement des centres de données, le type d’énergie utilisée). De leur côté, les clients ont la responsabilité d’optimiser l’utilisation des ressources et de leurs applications dans le Cloud.

Le pilier “durabilité” du cadre AWS Well-Architected a été présenté, mettant en avant ses axes d’identification et d’amélioration en matière de développement durable.

Plusieurs outils AWS ont été mentionnés, tels que le Customer Carbon Footprint Tool (outil de mesure de l’impact carbone) ou le framework open source “CUDOS” (mesure et optimisation de l’utilisation des ressources).
Enfin, un retour d’expérience a été partagé par le fournisseur d’énergie renouvelable Ekwateur, détaillant les mesures mises en place dans leur infrastructure. Cela inclut notamment l’arrêt des environnements de développement en dehors des heures ouvrées et la mise en place d’un pare-feu applicatif web (WAF) pour filtrer le trafic légitime, entre autres initiatives.

API207 : Résilience à l’échelle : les secrets d’Amazon

Cette présentation a examiné les différentes stratégies de résilience à grande échelle appliquées aux infrastructures de PrimeVidéo, Alexa et Ring (318 milliards de transactions réalisées sur Aurora pendant le PrimeDay 2023).

Elle a également mis en lumière l’architecture cellulaire, ou chaque “cellule” est une instance complète et indépendante du service. Dans le cas d’Amazon Vidéo / Music la supervision de ces cellules est assurée par des des Route53 HealthCheck et des alarmes cloudwatch basé sur les taux d’erreurs des Elastic Load Balancers.

Dans le cas d’Alexa nous avons pu en apprendre plus sur leur stratégie de “chaos engineering”. Cette méthode permet non seulement de détecter des problèmes cachés, mais aussi d’évaluer l’efficacité de l’observabilité des alarmes.
Pour ce faire nous avons pu avoir un bref aperçu d’AWS Fault Injection Service, le service de Chaos Engineering d’Amazon, utilisé pour simuler la perte d’une zone de disponibilité.

Ce fut une présentation extrêmement enrichissante, tant sur le plan technique que pratique opérationnelle notamment dans le contexte d’applications à grande échelle.

API212 : Insufflez les bonnes pratiques Well-Architected à l’échelle

La présentation a porté sur les tenants et aboutissants du Framework AWS Well-Architected, soulignant son utilité pour orienter les équipes dans la conception et l’exploitation d’architectures cloud efficaces.

Une attention particulière a été accordée à l’importance de ce Framework pour mener des audits approfondis, offrant ainsi une structure précieuse pour évaluer la robustesse, la sécurité et les performances de l’infrastructure.

La présentation a également mis l’accent sur la pertinence de l’utilisation à grande échelle du Well Architected Tool (https://aws.amazon.com/fr/well-architected-tool/) , avec la possibilité de centraliser les données de tous les comptes affiliés.

Cette approche offre une vue d’ensemble cruciale, permettant une gestion plus cohérente et une analyse approfondie des architectures cloud déployées à travers diverses équipes et projets.

API309 : Optimisez les coûts et la mise à l’échelle d’EKS avec Karpenter

Depuis un certain temps, nous avons intégré Karpenter dans nos propres infrastructures pour gérer les ressources de notre système d’information ainsi que nos environnements de CI/CD.

Cette présentation a bien souligné les capacités déjà en place tout en mettant particulièrement en avant la nouvelle fonctionnalité “spot to spot” (https://aws.amazon.com/blogs/compute/applying-spot-to-spot-consolidation-best-practices-with-karpenter/).

Du point de vue pratique, le témoignage de l’éditeur de jeux mobiles Voodoo a mis en lumière deux points majeurs : les économies de coûts directes résultant de l’adoption de Karpenter, et la simplification de leur architecture grâce à la réduction du nombre d’autoscaling groups à gérer.

API311 : Les architectures multi-régions sur AWS, un atout pour la résilience

Lors de cette conférence, deux techniques d’architecture multi-régions ont été mises en avant, visant à assurer le meilleur taux de disponibilité sur AWS.

D’abord, l’architecture “actif-passif” où l’une des deux régions reste en stand-by en cas d’indisponibilité de la région active. La redirection du trafic, les tests de disponibilité et de mise à l’échelle, ainsi que la bascule vers la deuxième région en cas de panne sont gérés par AWS Route 53 Application Recovery Controller. Le déploiement du code d’application est effectué via AWS Code Pipeline, permettant le déploiement d’une version par région afin de pouvoir basculer sur la région en stand-by en cas de problème lors du déploiement.

Ensuite, l’architecture “actif-actif” où le trafic est réparti entre les deux régions. Dans ce modèle, la réplication des données (bucket S3, bases RDS, etc.) est essentielle, et des services AWS managés tels qu’AWS DataSync ou S3 Replication répondent à ce besoin.

Ce sujet nous rappelle qu’il est toujours intéressant de réfléchir aux conséquences techniques des choix concernant la haute disponibilité, et de questionner les besoins avant de se lancer dans l’implémentation.

DOP304 : Modernisez votre architecture grâce au serverless et l’orienté événement

La session a revisité les différents modèles et services AWS associés au monde du microservice et de l’architecture événementielle : traitements asynchrones, file de message, fan-out, bus d’événement, etc.

Peu de nouvelles techniques ont été présentées sur le sujet. En revanche, l’étude de cas de la marque de prêt-à-porter Sezane a illustré les contraintes de la vie réelle, notamment lorsque tout le monde n’est pas au niveau du “cloud native”, et la nécessité de trouver des solutions pragmatiques pour l’échange de fichiers via FTP.

GAI111 : Utiliser l’IA pour s’adapter aux changements climatiques

Durant cet atelier, nous avons assisté à une démonstration d’Amazon Q et à sa configuration simplifiée en quelques clics.

Ensuite, nous avons découvert comment Amazon a contribué à mettre en place une détection rapide des feux de forêts en utilisant les services Amazon Ground Station ainsi que des services de calcul/ML, avec un besoin de stockage des données en exaoctets.

Puis, une autre application de l’IA dans le domaine de l’écologie a été présentée, notamment dans la prédiction urbaine. Cette dernière permet d’évaluer plusieurs scénarios de température en ville en fonction des solutions naturelles au sol adoptées, impliquant la génération d’images par IA et des prévisions météorologiques.

Enfin, nous avons eu une démonstration d’un outil de génération de rapports ESG (Environnement Social Gouvernance) appelé SiaGPT par SiaPartners, intéressant dans l’aide qu’il apporte pour s’adapter aux nouvelles normes écologiques en constante évolution.

GAI215 : Et si, demain nous éradiquions le cancer ? Découvrez l’impact de l’IA et les dernières avancées des LLM pour accélérer la médecine de précision

La conférence a abordé la mise en place d’outils IA par One Biosciences pour assister les chercheurs dans leurs travaux de recherche.

Dans ce domaine, il est essentiel de rester à jour dans sa bibliographie sur des sujets spécifiques, comme le cancer du cerveau, où il peut y avoir plus de 140 000 publications en une année.

À travers l’utilisation d’un chatbot développé sur la base d’AWS Bedrock et AWS Kendra, les chercheurs peuvent explorer de manière ciblée un sujet particulier parmi une vaste base de données de publications scientifiques.

GAI302 : Améliorez vos applications d’IA générative avec RAG sur Amazon Bedrock

Il s’agissait d’une nouvelle incursion dans le domaine de l’IA générative, avec cette fois-ci une démonstration de l’intégration de contenu personnalisé pour enrichir les réponses d’un modèle fonctionnant sur Bedrock.

La facilité d’intégration proposée par Bedrock Knowledge Base démontre, de façon évidente, la rapidité avec laquelle ce domaine évolue.

Il est intéressant de noter que l’architecte de solutions AWS et l’intervenant UCPA insistent tous deux sur la nécessité de bien définir certains paramètres clés (notamment le chunking pour l’ingestion des données), mais fournissent assez peu de pistes pour trouver les bonnes valeurs. Nous sommes restés un peu sur notre faim.

Conclusion

Les présentations variées ont abordé des sujets allant de l’IA en entreprise à la durabilité dans le cloud, en passant par les architectures réseau et les meilleures pratiques de développement d’applications.

Globalement, et sans grande surprise, les sujets s’orientaient très largement vers l’IA Générative (avec au passage l’annonce de la disponibilité de Bedrock sur la région France). Les sujets d’infrastructure, notamment autour de Kubernetes étaient comparativement très en retrait par rapport à l’année dernière.

(Article collectif écrit par Andréa, Axel, Badr, Issa, Loïc et Maxence)

--

--