Dans des expériences menées dans le monde entier de 2015 à 2019, LinkedIn, détenu par Microsoft, a fait varier de manière aléatoire la proportion de contacts faibles et forts suggérés par son algorithme "People You May Know" (PYMK) - le système automatisé de l'entreprise pour recommander de nouvelles connexions à ses utilisateurs. Des chercheurs de LinkedIn, du Massachusetts Institute of Technology (MIT), de Stanford et de la Harvard Business School ont ensuite analysé les données agrégées de ces tests dans une étude publiée ce mois-ci dans la revue Science. L'expérience aurait porté sur environ 20 millions d'utilisateurs de la plateforme.
En modifiant l'algorithme de la plateforme de réseautage professionnel, les chercheurs ont tenté de déterminer, au moyen de tests A/B, si les utilisateurs obtiennent davantage d'opportunités d'emploi lorsqu'ils se connectent à des personnes connues ou inconnues. Pour évaluer la force des connexions entre les utilisateurs, qu'elles soient faibles ou fortes, qu'il s'agisse de connaissances ou d'inconnus, ils ont analysé des facteurs tels que le nombre de messages qu'ils se sont envoyés ou le nombre d'amis communs qu'ils ont partagés, en mesurant l'évolution de ces facteurs au fil du temps après la connexion sur la plateforme de médias sociaux.
L'étude a confirmé ce que les chercheurs décrivent comme "l'une des théories sociales les plus influentes du siècle dernier" sur la mobilité professionnelle : plus les liens des utilisateurs sont faibles, meilleure est la mobilité professionnelle. Alors que LinkedIn affirme que ces résultats conduiront à des changements dans l'algorithme afin de recommander aux chercheurs d'emploi des connexions plus pertinentes en tant que PYMK à l'avenir, des critiques et des experts en éthique ont déclaré que l'étude "soulevait des questions sur la transparence de l'industrie et la supervision de la recherche".
Les expériences algorithmiques de LinkedIn peuvent surprendre des millions de personnes, car la société n'a pas informé les utilisateurs que les tests étaient en cours. Les géants de la technologie comme LinkedIn, qui est le plus grand réseau professionnel du monde, mènent régulièrement des expériences à grande échelle dans lesquelles ils testent différentes fonctionnalités d'applications, des conceptions Web et des algorithmes sur différentes personnes. Les utilisateurs n'ont souvent aucune idée que les entreprises effectuent ces tests sur eux. La méthodologie de LinkedIn est fortement décriée par les organismes de défense des droits numériques.
Selon les critiques, les changements apportés par LinkedIn sont révélateurs de la façon dont des ajustements à des algorithmes largement utilisés peuvent devenir des expériences d'ingénierie sociale à très grande échelle avec des conséquences qui peuvent changer la vie de nombreuses personnes. Des experts qui étudient les impacts sociétaux de l'informatique ont déclaré que le fait de mener des expériences à long terme et à très grande échelle sur des personnes qui pourraient affecter leurs perspectives d'emploi, de manière invisible pour elles, soulève des questions sur la transparence de l'industrie et la surveillance de la recherche.
Mais LinkedIn a déclaré que l'entreprise conteste cette caractérisation de ses recherches, affirmant que personne n'a été désavantagé par les expériences. LinkedIn a déclaré que, pendant l'étude, il avait "agi de manière cohérente" avec l'accord d'utilisation, la politique de confidentialité et les paramètres des membres de la société. Selon la politique de confidentialité, LinkedIn utilise les données personnelles des membres à des fins de recherche. Elle ajoute que l'entreprise a utilisé les dernières techniques de science sociale "non invasives" pour répondre à d'importantes questions de recherche "sans aucune expérimentation sur les membres".
Karthik Rajkumar, coauteur de l'étude et expert en mégadonnées de LinkedIn, a déclaré que les critiques confondent "le test A/B et la nature d'observation des données, ce qui donne l'impression d'une expérimentation sur les gens, ce qui est inexact". Il a expliqué que l'étude est née parce que LinkedIn a remarqué que l'algorithme recommandait un plus grand nombre de connexions avec des liens plus faibles à certains utilisateurs et un plus grand nombre de liens plus forts à d'autres. « Notre test A/B de PYMK avait pour but d'améliorer la pertinence des recommandations de connexions, et non d'étudier les résultats de l'emploi », a-t-il déclaré.
Au lieu de cela, l'objectif de son équipe était de découvrir quelles connexions comptent le plus pour accéder à des emplois et les sécuriser. Mais bien qu'il s'agisse d'un "test A/B", suggérant qu'il s'agit de comparer deux options, LinkedIn ne s'est pas contenté d'examiner les liens faibles par rapport aux liens forts. L'entreprise a plutôt expérimenté sept "variantes de traitement" différentes de l'algorithme, notant que les différentes variantes donnaient des résultats différents, tels que des utilisateurs formant moins de liens faibles, créant plus de liens, créant moins de liens, ou créant le même nombre de liens faibles ou forts.
D'une part, l'étude de LinkedIn a révélé que l'algorithme semble vous encourager à établir de nombreuses connexions entre amis - ce qui est utile pour développer un réseau social - mais d'autre part, l'utilité d'une connexion, dans ce contexte de recherche d'emploi, diminue si vous êtes trop connecté aux gens. Cependant, Arthur Caplan, expert en éthique de la recherche à la Grossman School of Medicine de l'université de New York, a déclaré que le problème ne concernait pas uniquement les tests A/B de LinkedIn, mais également l'éthique commerciale. Il critique le fait que l'entreprise s'est passée du consentement éclairé des utilisateurs.
« Leur conclusion est intéressante, elle est utile. Ce n'est pas que j'essaie de dire que c'est une mauvaise science des données. J'essaie simplement de dire que c'est fait sans une éthique appropriée pour cette science des données », a-t-il déclaré. Selon lui, lorsque les réseaux sociaux demandent aux utilisateurs un consentement général pour participer à la recherche en acceptant leurs politiques d'utilisation - comme c'est le cas ici - cela place la recherche dans une zone juridique grise où un utilisateur pourrait intenter un procès et essayer de convaincre un tribunal qu'il n'a pas compris comment ses informations étaient utilisées.
Bien qu'il semble peu probable que cette étude donne lieu à des poursuites judiciaires, pour les demandeurs d'emploi qui auraient pu vouloir se retirer - par exemple, si on leur avait dit directement qu'ils pourraient occasionnellement avoir un flux avec moins d'opportunités d'emploi en donnant leur consentement - Caplan a déclaré que LinkedIn ne donne aucune possibilité et ne clarifie jamais pour l'utilisateur comment sa recherche pourrait les affecter. « Quelqu'un qui cherchait désespérément un emploi et qui se trouvait au milieu d'une expérience visant à déterminer l'importance des connexions aurait pu dire : "je ne veux pas faire ça" », a-t-il déclaré.
Source : L'étude de LinkedIn
Et vous ?
Quel est votre avis sur le sujet ?
Que pensez-vous des résultats de l'étude de LinkedIn ?
Que pensez-vous des préoccupations en matière d'éthique que soulève l'étude ?
Selon vous, peut-on qualifier une telle étude d'ingénierie sociale comme le suggèrent certains experts ?
Voir aussi
LinkedIn accepte de payer une amende de 1,8 million de dollars pour avoir payé moins les femmes que les hommes, mais n'admet aucun acte répréhensible
52 % des femmes professionnelles de la technologie estiment que leur genre les empêche de progresser autant qu'elles le souhaitent dans leur carrière, selon une enquête menée par Ipsos
Trouver un bon job 2022 ? Amazon, Alphabet, IBM et Apple seraient les meilleures sociétés pour travailler dans la tech, d'après une étude de LinkedIn
DuckDuckGo surpris en train de donner l'autorisation à Microsoft de déployer des traceurs publicitaires suite à un accord, malgré une solide réputation de confidentialité