Retour sur la conférence ConFoo 2023

Laëtitia Constantin
abbeal’s tech blog
5 min readMay 24, 2023

La Conférence ConFoo 2023, qui s’est déroulée le 21–22–23 février 2023, a réuni des experts et des passionnés du domaine de la technologie pour discuter des dernières tendances et des bonnes pratiques en ingénierie logicielle. Les conférenciers ont partagé leurs connaissances et leurs expériences, offrant ainsi aux participants un aperçu approfondi des avancées technologiques actuelles. Dans cet article, nous passerons en revue quelques unes des conférences du 21 Février.

Qu’est-ce qui fait un bon ingénieur logiciel

Alexis Agahi a animé une présentation inspirante sur le thème “Qu’est-ce qui fait un bon ingénieur logiciel”. Voici les points clés à retenir :

🔸 La passion, la curiosité et la capacité à prendre de bonnes décisions sont des qualités essentielles pour être un développeur d’exception. Ces traits de caractère permettent d’aller au-delà des compétences techniques et de s’investir pleinement dans son travail.

🔸 La qualité de l’écriture du code joue un rôle crucial dans sa compréhension et sa maintenance par d’autres personnes. Un code bien structuré, clair et bien documenté facilite la collaboration et l’évolution du projet.

🔸 La génération de code par les machines montre un fort potentiel, mais des améliorations supplémentaires sont nécessaires pour garantir sa fiabilité.

Remplacer Docker avec Podman

Voici les informations clés à retenir de la conférence “Remplacer Docker avec Podman”, animée par Arne Blankerts :

🔸 Les conteneurs offrent de nombreux avantages tels que l’isolation, la réutilisabilité, éviter les conflits de dépendances entre les projets et faciliter les déploiements.

🔸 Podman propose une alternative intéressante à Docker en s’exécutant via le Kernel plutôt qu’en passant par Daemon, et en permettant l’exécution des commandes sans privilèges de superutilisateur (root).

🔸Les containers de Podman sont dans des Pods partagés en local, ce qui signifie que les containers sont accessibles via localhost remplaçant ainsi les networks de Docker.

🔸 L’intégration de Podman avec SystemD de Linux et Selinux renforce la sécurité et la gestion des conteneurs.

Frontend microservices

Voici les principaux enseignements à retenir de la conférence “Frontend microservices” par Gil Tayar :

🔸 La modularité des microservices frontend permet des processus de construction, de test et de déploiement plus rapides et faciles. En découpant les frontends en modules indépendants, les équipes de développement peuvent travailler de manière agile et efficace.

🔸 La découpe des frontends en composants ou en pages distinctes offre une meilleure organisation et une meilleure compréhension du code. Cette approche favorise la maintenabilité et facilite l’ajout de nouvelles fonctionnalités.

🔸 Cependant, il est important de noter que chaque micro frontend a un poids, variant entre 0,5 et 2 Mb par page. Il convient donc de trouver un équilibre entre la modularité et les performances pour assurer une expérience utilisateur optimale.

Scaling Real-time Machine Learning

Présentation captivante de Fawaz Ghali sur le thème “Scaling Real-time Machine Learning”, voici les points forts de cette conférence :

🔸L’évolutivité de l’apprentissage automatique en temps réel est essentielle pour traiter les données de streaming et mettre à jour les caractéristiques et les modèles en temps réel. Dans un monde où les données sont générées à un rythme effréné, il est crucial d’avoir des systèmes d’apprentissage automatique capables de suivre le rythme et de fournir des résultats en temps réel.

🔸L’ingénierie des caractéristiques (features) joue un rôle clé dans le traitement des données en continu. Il s’agit de sélectionner et d’extraire les bonnes caractéristiques des données de streaming afin de maximiser la précision des modèles d’apprentissage automatique utilisés. Une bonne ingénierie des caractéristiques peut conduire à des résultats plus fiables et significatifs.

🔸 L’utilisation de modèles d’apprentissage automatique multiples permet de basculer entre eux en fonction des besoins, offrant ainsi une meilleure flexibilité et des performances améliorées. En fonction des caractéristiques des données de streaming et des objectifs de l’application, il peut être nécessaire d’utiliser différents modèles d’apprentissage automatique pour obtenir les meilleurs résultats. Cette approche polyvalente offre des possibilités d’adaptation et d’optimisation en temps réel.

Qu’est-ce qui peut mal se passer avec un modèle d’IA ?

Voici un aperçu des défis liés aux modèles d’IA à ne pas négliger ! Présentation captivante intitulée “Qu’est-ce qui peut mal se passer avec un modèle d’IA ?” animée par Alexis Fortin-Côté :

🔸 Les problèmes potentiels liés à l’utilisation de modèles d’IA peuvent surgir de différentes sources. Des résultats inattendus peuvent découler d’un étiquetage incorrect des données utilisées pour l’entraînement des modèles. Il est crucial d’accorder une attention particulière à la qualité des données et à leur représentativité pour éviter les biais indésirables.

🔸 Les problèmes de détection peuvent également survenir en raison d’erreurs dans les pipelines de traitement des données. Des étapes mal conçues ou mal exécutées peuvent entraîner des résultats peu fiables ou des prédictions incorrectes. Il est donc essentiel de mettre en place des processus de contrôle de qualité et de validation rigoureux pour garantir la précision des modèles.

🔸 De plus, des erreurs de traitement des couleurs peuvent altérer les performances des modèles d’IA, notamment dans des domaines tels que la vision par ordinateur. Comprendre et résoudre ces problèmes spécifiques est un défi essentiel pour garantir la qualité des prédictions et des résultats.

🔸 Il est primordial de tester régulièrement les modèles d’IA dans des scénarios réels et de les évaluer en fonction de critères de performance pertinents. Les contrôles de sécurité doivent être mis en place pour détecter et minimiser les risques potentiels. La transparence et la compréhension des limites du modèle sont également essentielles pour une utilisation responsable de l’IA.

🔸 Rappelons que les données sont souvent à la source des problèmes rencontrés avec les modèles d’IA. Une collecte rigoureuse, un nettoyage adéquat et une représentation équilibrée sont des facteurs clés pour obtenir des résultats fiables et éviter les biais indésirables.

En conclusion, la conférence ConFoo 2023 a offert une diversité de sujets fascinants et des échanges enrichissants. Que ce soit en explorant les qualités essentielles d’un bon ingénieur logiciel, en découvrant les avantages des microservices frontend, en examinant les défis de l’évolutivité de l’apprentissage automatique en temps réel ou en discutant des problèmes potentiels des modèles d’IA, cette expérience a été un véritable catalyseur de connaissances et de réflexions.

Ces conférences nous ont ouvert de nouvelles perspectives sur l’avenir de la technologie, tout en soulignant l’importance de l’innovation, de la collaboration et de la remise en question constante.

N’hésitez pas à partager les conférences qui vous ont le plus plu en commentaire !

#Confoo2023 #Technologie #Innovation #DeveloppementWeb #IA #RealTime #IntelligenceArtificielle

--

--