Le Récap’ du 29 juillet : #RecrutementSurIA, #ProgrammationOrientéeObjet, #ModérationDeContenus, #IAAct&Compétitivité

Renaissance Numérique
Le Récap’ de la semaine
5 min readJul 29, 2021

#RecrutementSurIA

Le recours à des jeux fondés sur l’intelligence artificielle (IA) est un phénomène de plus en plus répandu dans les processus de recrutement des entreprises. Si les concepteurs de ces systèmes affirment qu’ils permettent de limiter les discriminations à l’embauche, ils peuvent également significativement impacter la recherche d’emploi des personnes atteintes de handicaps. Ces systèmes reposent en effet sur la collecte de données auprès des employés considérés comme étant performants aux postes pour lesquels les entreprises cherchent à recruter. Ces données sont ensuite comparées à un échantillon aléatoire de « joueurs » afin d’identifier les compétences spécifiques des employés en réussite, qui sont ensuite érigées en critères d’évaluation des candidats. Toutefois, dès le début, le candidat peut être amené à faire un choix entre la version normale d’un jeu ou une version adaptée à un éventuel handicap (dyslexie, daltonisme, etc.). D’entrée, cela constitue un dilemme. D’un côté, le candidat peut craindre d’être directement disqualifié pour l’emploi en sélectionnant l’une des catégories de handicap. De l’autre, s’il ne la choisit pas, il est assuré d’avoir un mauvais résultat au test. En outre, les dispositifs d’embauche fondés sur l’IA échouent souvent à inclure les personnes souffrant de handicaps, ces dernières étant largement sous-représentées dans les bases de données récoltées auprès des salariés. Dans ce contexte, les acteurs engagés en faveur de la défense des droits des citoyens en situation de handicap réclament une plus grande accessibilité dans les outils d’embauche. Fin 2020, onze sénateurs américains ont exprimé leur inquiétude auprès de la Commission de l’égalité de l’accès à l’emploi (EEOC). L’instance gouvernementale a cependant estimé que mener une enquête serait trop complexe et qu’il n’y avait pas suffisamment d’éléments factuels permettant d’observer une discrimination avérée du fait de l’utilisation de tels systèmes. (Lire l’article)

#ProgrammationOrientéeObjet

En réponse au manque de puissance des ordinateurs de l’époque empêchant le traitement de grandes quantités de données, les années 1960 ont vu naître la programmation orientée objet (object oriented programming en anglais, ou OOP). Ce paradigme de programmation est fondé sur la fragmentation des données d’un programme au sein d’« objets » dans lesquels elles sont structurées (cette structure est nommée « classe »). Dans ce processus, le concept dit « d’encapsulation » est fondamental : il permet de rendre les données et les fonctions comprises dans un objet invisibles de l’extérieur garantissant ainsi leur intégrité. L’interaction avec le contenu de différents objets se fait alors par le biais de messages. Deux propriétés essentielles ont vu le jour au cours du développement de cette méthode, qui ont grandement simplifié la vie des codeurs : l’héritage (la possibilité de créer des sous-classes à partir de classes génitrices) et le polymorphisme (toute méthode ou objet peut servir de modèle à d’autres et transmettre ses caractéristiques). À partir de 1981, l’OOP gagne fortement en popularité et ne cesse d’attirer les développeurs de logiciels. Cependant, aujourd’hui, ce paradigme est de plus en plus critiqué et la programmation fonctionnelle lui est souvent préférée. Sommes-nous alors en train d’assister à la disparition de l’OOP ? Certains de ses défauts majeurs sont en tout cas pointés du doigt. Les relations de dépendance des classes du fait de l’héritage ou du polymorphisme rendent très complexe la réutilisation d’objets pour bâtir de nouveaux programmes, ce qui implique des efforts de maintenance importants. En outre, plus les propriétés d’une classe sont nombreuses, plus il est difficile d’établir des hiérarchies entre elles et de les organiser. En réalité, bien que l’OOP soit imparfaite, le vrai problème se situe plutôt du côté de l’exploitation d’un paradigme unique. Chaque paradigme comporte ses failles et l’important est de savoir lequel utiliser au moment approprié. Si la programmation fonctionnelle est de plus en plus efficace aujourd’hui (notamment pour l’analyse de données ou le machine learning), la programmation orientée objet a encore de beaux jours devant elle. (Lire l’article)

#ModérationDeContenus

Dans un article rédigé pour Protocol, les chercheurs Yonatan Lupu et Nicolás Velasquez Hernandez (George Washington University) reviennent sur leur étude sur la modération en ligne publiée au mois de juin. La diffusion massive de fausses informations, de contenus malveillants et d’idéologies extrémistes sur les réseaux sociaux connaît un essor phénoménal aux États-Unis. Dans ce contexte, la question de la modération des contenus en ligne est souvent citée dans les débats comme constituant une grande partie de la solution. Toutefois, dans leurs tentatives d’endiguer le phénomène, les acteurs de la tech et les régulateurs publics voient émerger une opposition de plus en plus radicale à leurs actions, celles-ci connaissant des résultats inégaux. Certes, des études montrent que le fait de bannir les individus « néfastes » des plateformes, de retirer certains contenus ou de diffuser des contre-messages permet de ralentir la propagation de fausses informations et de contenus extrémistes. Mais cela a un coût immense. En outre, ces mesures sont de plus en plus facilement contournées par les acteurs à l’origine de la diffusion de ces contenus, ces derniers migrant de plus en plus vers des plateformes où la réglementation est plus souple. Cependant, les chercheurs de l’Université George Washington relèvent dans leur étude des similitudes dans les manières de procéder des différents groupes extrémistes en ligne. Ils affirment ainsi qu’en comprenant les mécanismes qui sous-tendent ces logiques de diffusion de l’information, on peut fortement ralentir la croissance de ces groupes. À cet effet, les deux chercheurs ont notamment mis au point une équation mathématique visant à analyser la croissance des groupes extrémistes via les plateformes en ligne. Outre l’analyse des processus de diffusion de l’information, les chercheurs suggèrent aux plateformes de faire remonter intentionnellement des contenus « non malveillants » dans les feeds de leurs utilisateurs ou de modifier leur fonctionnement afin d’allonger le chemin que doivent parcourir les contenus malveillants entre différentes « communautés haineuses » en ligne. Enfin, selon les deux professeurs, la coopération entre les régulateurs, les chercheurs et les différents acteurs du numérique est incontournable. Ils encouragent en outre ces derniers à dépasser leurs réticences à partager les détails de fonctionnement de leurs systèmes afin de réduire considérablement le temps et les efforts consacrés à la modération. (Lire l’article)

#AIAct&Compétitivité

Dans un récent rapport, le Center for Data Innovation interroge l’impact potentiel de la proposition de règlement sur l’IA (l’Artificial Intelligence Act) publiée en avril dernier par la Commission européenne. Si cette proposition est l’une des plus complète jamais établie et définit un cadre de protection inédit pour les citoyens européens contre les usages potentiellement abusifs de l’intelligence artificielle (IA), elle est aussi porteuse, selon le Center for Data Innovation, de nombreux coûts qui pourraient affecter la compétitivité de l’Union européenne en l’absence de dispositifs pour la soutenir. En s’appuyant sur l’analyse d’impact réalisée par la Commission européenne sur sa proposition de texte, le Center for Data Innovation estime à 31 milliards d’euros le coût de la mise en œuvre de l’AI Act et à 20% la chute des investissements dans l’IA en Europe sur 5 ans. Selon le think tank, ces résultats entrent en contradiction avec l’objectif de la Commission européenne de voir 75 % des entreprises européennes utiliser l’IA à l’horizon 2030. En effet, 35% des entreprises de l’UE évoluent dans un secteur d’activité pour lequel le recours à des systèmes d’IA est considéré comme étant à « haut risque » selon l’AI Act (éducation, finance, assurance, santé). Le rapport souligne ainsi le risque que les industries les plus à la pointe en termes d’IA migrent vers des pays où les législations sont plus souples et plus avantageuses, ​​au détriment de la compétitivité européenne. (Lire l’article)

--

--