Les algorithmes publicitaires de Facebook excluent toujours les femmes des offres d’emploi
Écrit par Nicolas Bariteau
Les algorithmes du système publicitaire de diffusion d’annonces de Facebook affichent des offres d’emploi différentes pour les femmes et les hommes, même si les emplois exigent les mêmes qualifications. Un nouvel exemple de discrimination par des biais algorithmiques chez Facebook qui n’en est pas à son coup d’essai.
Facebook a mis en place un système d’offre d’emplois discriminant
Selon un article sur la nature des algorithmes de recherche d’emploi conçus par Facebook, paru dans la MIT Technology Review, Facebook ne diffuse pas certaines offres d’emploi aux femmes en raison de leur sexe. Selon le dernier audit du service d’annonces de Facebook, mené par des chercheurs indépendants de l’Université de Californie du Sud (USC), le système de diffusion d’annonces de Facebook affiche des offres d’emploi différentes pour les femmes et les hommes, même si les emplois exigent les mêmes qualifications. Cela est considéré comme une discrimination fondée sur le sexe en vertu de la loi américaine sur l’égalité des chances en matière d’emploi, qui interdit le ciblage publicitaire basé sur des caractéristiques protégées. Les conclusions surviennent malgré des années de plaidoyer et de poursuites judiciaires, et après les promesses de Facebook de revoir la façon dont il diffuse des publicités.
Comment ont-ils procédé ? Les chercheurs se sont inscrits en tant qu’annonceurs sur Facebook et ont acheté des paires d’annonces pour des emplois ayant des qualifications identiques mais des données démographiques réelles différentes. Ils ont fait de la publicité pour deux emplois de chauffeur de livraison, par exemple : un pour Domino’s (livraison de pizza) et un pour Instacart (livraison d’épicerie). Il y a actuellement plus d’hommes que de femmes qui conduisent pour Domino’s, et vice versa pour Instacart.
Bien qu’aucun public n’ait été défini sur la base d’informations démographiques, les algorithmes montraient toujours les annonces à des groupes démographiques statistiquement distincts. L’annonce du Domino a été montrée à plus d’hommes que de femmes, et l’annonce d’Instacart a été montrée à plus de femmes que d’hommes. Les chercheurs ont trouvé le même modèle avec des annonces pour deux autres paires d’emplois : les ingénieurs logiciels pour Nvidia (homme asymétrique) et Netflix (femme asymétrique), et les associés de vente pour les voitures (homme asymétrique) et les bijoux (femme asymétrique).
Les biais de la discrimination dans les algorithmes publicitaires de Facebook
Les résultats suggèrent que les algorithmes de Facebook reprennent d’une manière ou d’une autre la répartition démographique actuelle de ces emplois, qui diffèrent souvent pour des raisons historiques. (Les chercheurs n’ont pas été en mesure de discerner pourquoi, parce que Facebook ne dira pas comment fonctionne son système de diffusion de publicités.) « Facebook reproduit ces biais lorsqu’il diffuse des publicités, même s’il n’y a aucune justification de qualification », explique Aleksandra Korolova, professeure adjointe à l’USC, qui a coécrit l’étude avec son collègue John Heidemann et leur conseiller au doctorat Basileal Imana.
L’étude fournit les dernières preuves que Facebook n’a pas résolu ses problèmes de discrimination publicitaire depuis que ProPublica avait dévoilé l’affaire pour la première fois en octobre 2016. À l’époque, ProPublica avait révélé que la plate-forme permettait aux annonceurs d’offres d’emploi et de logement d’exclure certains publics caractérisés par des traits tels que le sexe et la race. Ces groupes bénéficiant d’une protection spéciale en vertu de la loi américaine, cette pratique était totalement illégale. Il a fallu deux ans et demi et plusieurs escarmouches juridiques pour que Facebook supprime finalement cette fonctionnalité.
Mais quelques mois plus tard, le département américain du logement et du développement urbain (HUD) avait intenté un nouveau procès, alléguant que les algorithmes de diffusion d’annonces de Facebook excluaient toujours les audiences pour les annonces de logement sans que l’annonceur ne spécifie l’exclusion. Une équipe de chercheurs indépendants, dont Korolova, dirigée par Muhammad Ali et Piotr Sapieżyński de l’Université du Nord-Est, avait corroboré ces allégations une semaine plus tard. Ils avaient constaté, par exemple, que les maisons à vendre étaient montrées plus souvent aux utilisateurs blancs et que les maisons à louer étaient montrées plus souvent aux utilisateurs minoritaires.
Facebook reproduit ces biais lorsqu’il diffuse des publicités, même s’il n’y a aucune justification de qualification .
Korolova a voulu réexaminer la question avec sa dernière vérification parce que le poids de la preuve pour la discrimination au travail est plus élevé que pour la discrimination en matière de logement aux États-Unis. Bien que toute distorsion dans l’affichage d’annonces basées sur des caractéristiques protégées soit illégale dans le cas du logement, la législation américaine sur l’emploi juge justifiée si l’asymétrie est due à des différences de qualification légitimes. La nouvelle méthodologie contrôle ce facteur.
« La conception de l’expérience est très propre », explique Sapieżyński, qui n’a pas participé à la dernière étude. Bien que certains puissent soutenir que les associés de vente de voitures et de bijoux ont effectivement des qualifications différentes, dit-il, les différences entre la livraison de pizzas et la livraison d’épiceries sont négligeables. « Ces différences entre les sexes ne peuvent s’expliquer par des différences de qualifications entre les sexes ou un manque de qualifications », ajoute-t-il. « Facebook ne peut plus dire [c’est] défendable par la loi. »
Facebook aurait-il des préjugés en matière d’IA ?
La publication de cet audit intervient au milieu d’un examen approfondi du travail de Facebook sur les préjugés en matière d’IA. En mars, la MIT Technology Review a publié les résultats d’une enquête de neuf mois sur l’équipe responsable de l’IA de l’entreprise, créée en 2018. Selon l’étude, l’équipe responsable de l’IA chez Facebook avait négligé de travailler sur des questions telles que l’amplification algorithmique de la désinformation et la polarisation en raison de son accent clignotant sur le biais de l’IA. La société a publié un billet de blog peu de temps après, soulignant l’importance de ce travail et disant en particulier que Facebook cherche à « mieux comprendre les erreurs potentielles qui peuvent affecter notre système publicitaire, dans le cadre de notre travail continu et plus large d’étude de l’équité algorithmique dans les publicités ».
« Nous avons pris des mesures significatives pour résoudre les problèmes de discrimination dans les publicités et des équipes travaillent aujourd’hui sur l’équité publicitaire », a déclaré le porte-parole de Facebook Joe Osborn dans un communiqué. « Notre système prend en compte de nombreux signaux pour essayer de diffuser des annonces aux personnes qui les intéresseront le plus, mais nous comprenons les préoccupations soulevées dans le rapport… Nous continuons de travailler en étroite collaboration avec la communauté des droits civils, les organismes de réglementation et les universitaires sur ces questions importantes. »
Malgré ces affirmations, cependant, Korolova dit n’avoir trouvé aucun changement notable entre l’audit de 2019 et celui-ci dans la façon dont fonctionnent les algorithmes de diffusion publicitaire de Facebook. « De ce point de vue, c’est vraiment décevant, parce que nous avons porté cela à leur attention il y a deux ans », dit-elle. Elle a également proposé de travailler avec Facebook sur la résolution de ces problèmes, dit-elle. « Nous n’avons pas eu de nouvelles. Au moins pour moi, ils n’ont pas tendu la main. »
Lors d’entrevues précédentes, l’entreprise a déclaré qu’elle n’était pas en mesure de discuter des détails de la façon dont elle travaillait pour atténuer la discrimination algorithmique dans son service publicitaire en raison d’un litige en cours. L’équipe des annonces a déclaré que ses progrès ont été limités par des défis techniques.
Sapieżyński, qui a maintenant effectué trois audits de la plate-forme, dit que cela n’a rien à voir avec le problème. « Facebook n’a toujours pas reconnu qu’il y a un problème », dit-il. Alors que l’équipe élabore les problèmes techniques, ajoute-t-il, il existe également une solution intermédiaire facile : elle pourrait désactiver le ciblage publicitaire algorithmique spécifiquement pour les annonces de logement, d’emploi et de prêt sans affecter le reste de son service. C’est vraiment juste une question de volonté politique, dit-il.
Christo Wilson, un autre chercheur du Nord-Est qui étudie les biais algorithmiques mais n’a pas participé aux recherches de Korolova ou de Sapieżyński, est d’accord : « Combien de fois les chercheurs et les journalistes doivent-ils trouver ces problèmes avant d’accepter simplement que tout le système de ciblage publicitaire soit en faillite ? »
Facebook n’a toujours pas reconnu qu’il y a un problème.
Articles similaires
Similaires
Évolution du marketing d’influence en 2022
Le domaine du marketing d'influence a évolué depuis le début de la pandémie, conduisant à faire évoluer la relation entre les influenceurs, les marques et les consommateurs. Des recherches récentes fournissent quelques conseils pour aider les spécialistes du marketing...
Les Reels ont plus de portée que les autres formats sur Instagram
Les données d'une étude menée en juillet 2022 par HypeAuditor montrent que les Reels Instagram sont la meilleure option, à l'heure actuelle, pour maximiser la portée et l'engagement des posts. Pourtant, malgré un battage médiatique croissant autour des contenus cours,...
Pourquoi les algorithmes de Facebook sont dangereux
Les révélations de Frances Haugen à l'audience du Sénat le 5 octobre a soulevé de sérieuses questions sur le fonctionnement et la dangerosité des algorithmes de Facebook - et fait écho à de nombreuses conclusions tirées d'une enquête précédente de la MIT Technology...
Join
Abonnez-Vous Pour Obtenir des Mises À Jours & des Offres