IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI a payé la société américaine SAMA 12 dollars de l'heure par travailleur pour former l'IA, mais les travailleurs au Kenya n'ont reçu que 2 dollars.
Une enquête dénonce des pratiques de travail déloyales

Le , par Stéphane le calme

19PARTAGES

6  0 
Dans l’univers des grandes entreprises technologiques, les chiffres impressionnent : des milliards de dollars en revenus, des innovations spectaculaires et une influence globale inégalée. Pourtant, derrière ce vernis de succès, une ombre grandissante se dessine : les conditions de travail dans les économies émergentes, notamment en Afrique. Des rapports récents révèlent que certaines entreprises technologiques paient des travailleurs kenyans parfois moins de 2 dollars par heure.

Les emplois dans le domaine de l'IA ont semblé être une opportunité en or

À Nairobi, au Kenya, où le taux de chômage des jeunes atteint le chiffre stupéfiant de 67 %, les emplois dans le domaine de l'IA ont d'abord semblé être une opportunité en or. Des travailleurs comme Naftali Wambalo, diplômé en mathématiques, pensaient avoir pris pied dans l'avenir technologique. Engagés pour étiqueter et trier des données pour des géants mondiaux de la technologie comme OpenAI et Meta, Wambalo et ses collègues étaient chargés d'entraîner les systèmes d'IA à tout reconnaître, des schémas de circulation aux anomalies médicales.

Mais la triste réalité s'est vite imposée : SAMA, une société d'externalisation américaine qui a embauché pour Meta et OpenAI, employait plus de 3 000 personnes au Kenya. Les documents examinés par 60 Minutes montrent qu'OpenAI a accepté de payer à SAMA 12,50 dollars de l'heure par travailleur, soit beaucoup plus que les 2 dollars que les travailleurs ont effectivement reçus, bien que SAMA affirme que ce qu'elle a payé est un salaire équitable pour la région.

Cette disparité flagrante met en évidence un modèle plus large d'exploitation dans la chaîne d'approvisionnement mondiale de l'IA, où les travailleurs des pays en développement endurent des salaires bas et des contrats précaires pour alimenter les ambitions de la Silicon Valley.

Nerima Wako-Ojiwa, militante kenyane des droits civiques, a déclaré que le désespoir des travailleurs, dans un pays où le taux de chômage est élevé, a conduit à une culture de l'exploitation avec des salaires injustes et aucune sécurité de l'emploi. « Il est terrible de voir combien d'entreprises américaines agissent mal ici », a déclaré Wako-Ojiwa. « C'est quelque chose qu'elles ne feraient pas chez elles, alors pourquoi le faire ici ? »

On entend souvent dire que l'intelligence artificielle va supprimer des emplois humains, mais à l'heure actuelle, elle crée également des emplois. Des millions de personnes travaillent à l'échelle mondiale pour assurer le bon fonctionnement de l'intelligence artificielle. Il s'agit d'un travail pénible qui doit être effectué avec précision et rapidité. Pour le faire à moindre coût, le travail est souvent confié à des pays en développement comme le Kenya.

Nairobi, au Kenya, est l'une des principales plaques tournantes de ce type de travail. C'est un pays qui manque cruellement d'offres d'emploi.


Kenya : une plaque tournante pour les « humains dans la boucle »

Le Kenya s'est activement présenté comme une « Silicon Savannah » favorable à la technologie, offrant des incitations financières et des lois du travail moins strictes pour attirer des géants tels que Google, Microsoft et OpenAI. Chaque année, un million de jeunes Kényans arrivent sur le marché du travail, désespérément à la recherche d'un emploi. Pour beaucoup d'entre eux, les postes dans le secteur émergent de l'IA semblaient être une bouée de sauvetage.

Dans la pratique, ces emplois - surnommés « humains dans la boucle » - consistaient à étiqueter des images, des vidéos et des textes pour former des modèles d'IA. Les travailleurs passaient des heures à examiner des contenus nuisibles et souvent explicites, notamment des images de violence et d'abus. Les sociétés d'externalisation employées par les entreprises américaines ont présenté ces emplois comme une voie vers un avenir meilleur, mais les conditions sur le terrain racontent une autre histoire.

« La main-d'œuvre est si nombreuse et si désespérée qu'elle peut payer n'importe quoi et avoir n'importe quelles conditions de travail, et il y aura toujours quelqu'un pour prendre ce travail », a déclaré Wako-Ojiwa.

Les travailleurs affirment que SAMA les a poussés à terminer les tâches plus rapidement que prévu, achevant souvent des contrats de six mois en seulement trois mois, les laissant sans salaire pour le reste du temps. Bien que SAMA nie ces allégations, les travailleurs ont déclaré que la seule récompense pour leur rapidité était un geste symbolique : « Ils nous remerciaient en nous offrant un soda et deux morceaux de poulet KFC », a déclaré Naftali Wambalo.

Une autre entreprise, Remotasks, gérée par la société américaine Scale AI, a fait l'objet d'accusations similaires. Les travailleurs, payés à la tâche, ont déclaré que leur salaire leur était parfois refusé, que leurs comptes étaient brusquement fermés et qu'ils étaient accusés d'avoir enfreint la politique de l'entreprise juste avant le jour de paie. « Il n'y a aucun recours ni moyen de se plaindre », a déclaré Ephantus Kanyugi.

En mars, après un tollé général, Remotasks a mis fin à ses activités au Kenya, bloquant les comptes des travailleurs. L'entreprise a insisté sur le fait que tous les travaux achevés et conformes à ses directives avaient été payés.


Pratiques de travail déloyales

Ce qui semblait être un billet pour l'avenir s'est rapidement avéré être tout autre chose pour certains humains dans la boucle, qui disent avoir été exploités. Les emplois n'offrent aucune stabilité : certains contrats ne sont conclus que pour quelques jours, d'autres pour une semaine ou pour un mois, a expliqué Wako-Ojiwa. Elle qualifie ces lieux de travail d'ateliers clandestins où les ordinateurs remplacent les machines à coudre.

Les travailleurs ne sont généralement pas embauchés directement par les grandes entreprises technologiques, mais par des sociétés d'externalisation essentiellement américaines.

Le salaire des humains dans la boucle est de 1,50 à 2 dollars de l'heure. « Et c'est du brut, avant impôts », précise Wambalo.

« Si les grandes entreprises technologiques veulent continuer à faire des affaires, elles doivent le faire de la bonne manière », a-t-il déclaré. Ce n'est pas parce que vous réalisez que le Kenya est un pays du tiers-monde que vous dites : « Ce travail, je le paierais normalement 30 dollars aux États-Unis, mais comme vous êtes au Kenya, 2 dollars vous suffisent ».

Wambalo, Nathan Nkunzimana et Fasica Berhane Gebrekidan étaient employés par SAMA.

Nkunzimana a déclaré qu'il avait accepté ce travail parce qu'il avait une famille à nourrir.

Berhane Gebrekidan a vécu d'un salaire à l'autre, sans pouvoir épargner quoi que ce soit. Elle dit avoir vu des gens se faire licencier pour s'être plaints. « Nous marchions sur des œufs », a-t-elle déclaré.


Naftali Wambalo

Les conséquences psychologiques de la formation à l'IA

Les travailleurs affirment que certains des projets menés pour Meta et OpenAI leur ont également causé des dommages psychologiques. Wambalo a été chargé de former l'IA à reconnaître et à éliminer la pornographie, les discours haineux et la violence excessive des médias sociaux. Il a dû passer au crible les pires contenus en ligne pendant des heures.

« J'ai vu des gens se faire massacrer », a expliqué Wambalo. « J'ai vu des gens ayant des relations sexuelles avec des animaux, des gens abusant d'enfants physiquement et sexuellement. Des gens qui se suicident ».

Berhane Gebrekidan pensait avoir été engagée pour un travail de traduction, mais elle explique qu'elle s'est retrouvée à passer en revue des contenus présentant des corps démembrés et des victimes d'attaques de drones. « Je trouve qu'il est difficile d'avoir des conversations avec les gens », dit-elle. « Je trouve qu'il est plus facile de pleurer que de parler ».

Wambalo a déclaré que les documents qu'il a dû consulter en ligne ont nui à son mariage. « Après avoir vu sans cesse ces activités sexuelles, la pornographie au travail, que je faisais, je déteste le sexe », a-t-il déclaré.

SAMA affirme que des conseils en matière de santé mentale ont été fournis par des « professionnels agréés ». Les travailleurs affirment que ces services sont tout à fait insuffisants. « Nous voulons des psychiatres », a déclaré Wambalo. « Nous voulons des psychologues qualifiés, qui sachent exactement ce que nous traversons et comment ils peuvent nous aider à y faire face ».

SAMA, qui a également travaillé avec Meta jusqu'au début de l'année 2023, a fait l'objet de poursuites judiciaires de la part de ses modérateurs pour mauvaises conditions de travail et salaires inadéquats. Les plaintes s'étendent aux allégations selon lesquelles SAMA a mis sur liste noire d'anciens employés lorsque le contrat de l'entreprise avec Meta a pris fin, les empêchant de trouver un travail similaire auprès de l'entrepreneur qui l'a remplacée, Majorel.

Kauna Malgwi, une travailleuse, a raconté le lourd tribut que représente l'examen quotidien de milliers de messages explicites : « Vous passez au crible les meurtres, les viols et les suicides. Cela vous colle à la peau », a-t-elle déclaré.

Un problème plus large dans l'externalisation des technologies

Le Kenya n'est pas le seul pays dans ce cas. Des centres d'externalisation similaires existent en Inde, aux Philippines et au Venezuela, où les bas salaires et le taux de chômage élevé permettent aux géants de la technologie de réduire leurs coûts. Ces pays fournissent une main-d'œuvre instruite, prête à effectuer les travaux minutieux dont les systèmes d'intelligence artificielle ont besoin pour fonctionner.

Mais les implications éthiques sont flagrantes. Alors que les entreprises technologiques vantent le potentiel de l'IA à révolutionner les industries, le travail humain qui alimente ces systèmes n'est souvent pas reconnu.

Cori Crider, cofondatrice de Foxglove, une association juridique à but non lucratif qui milite pour de meilleures conditions pour les travailleurs de la technologie, a fait remarquer : Après des années de brimades et d'intimidations de la part des grandes entreprises technologiques, les modérateurs disent : « Notre travail est important ».

Source : vidéo dans le texte

Et vous ?

Les géants de la tech ont-ils une responsabilité morale ou seulement économique envers les employés des pays émergents ?

Dans le cas d'OpenAI qui verse 12 dollars par heure et par travailleur à SAMA tandis que le travailleur reçoit au final 2 dollars par heure, parfois moins, qu'en pensez-vous ?

Peut-on justifier des écarts salariaux importants entre les travailleurs des pays développés et ceux des pays en développement pour des tâches identiques ?

Le recours à des sous-traitants est-il un moyen légitime de réduire les coûts ou une manière de contourner les responsabilités ?

Les gouvernements africains devraient-ils imposer des salaires minimums aux entreprises étrangères opérant sur leur territoire ?

Quelles alternatives pourraient permettre aux grandes entreprises de réduire leurs coûts tout en garantissant des conditions de travail dignes ?

Voir aussi

OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique, les experts jugent ce tarif faible en raison des "tâches ingrates" des employés

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de edrobal
Membre averti https://www.developpez.com
Le 26/11/2024 à 11:49
Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
6  0 
Avatar de OuftiBoy
Membre éprouvé https://www.developpez.com
Le 03/12/2024 à 16:08


Citation Envoyé par edrobal Voir le message
Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
Oui, l'IA n'existe pas. C'est juste, comme tu le dis bien, un habillage marketing, où l'on remplace le terme "Algorithme" par le terme "IA". La différence de perception, seuls des gens sachant de quoi ils parlent savent la comprendre.

Mr. et Md. "tout-le-monde" y croyent car avant on leur parlait de "technique", et ça leur passait au-dessus de la tête. Renommer algorithme par IA, et ça les touchent un peu plus, car dans le terme IA, il y a "intelligence", chose qu'ils "comprennent mieux".

Quand on me parle de l'IA, je finis toujours par : "Et à fin, il y a un 'IF'. Un oui ou non.

Mais l'IA est une "nouvelle" sorte d'algo, qui fait un énorme traitement, d'une toute aussi énorme masse de données, et utilisant une gigantesque quantité d'énergie. Cette manière de procéder est nouvelle, dans le sens où elle n'était (par des limites matérielles) pas possible auparavant.

Comme beaucoups d'autres "inventions", il y aura du bon et du mauvais. Cette manière de procéder sera adaptée à certains domaines, et n'apportera rien dans d'autres domaines. Cela dépendra aussi de la qualité et de la pertinence des données que pourra traiter une IA.

Un peu d'histoire...

  • L'imprimerie en tant que "technique" ne faisait rien de "miraculeux", mais ça a aidé à diffuser le "savoir". L'imprimerie étant plus rapide qu'un moine copiste.
  • La radio ne créait rien non plus, mais a permis une plus grande diffusion du savoir.
  • Internet, à ses débuts, a aider à partager le savoir.
  • Les moteurs de recherche on permis de "trouver plus vite" le savoir.
  • L'IA va aider a mettre en pratique un savoir, et c'est là le danger. L'IA ne va rien "inventer", mais va permettre à des "non initiés" de "(re)produire" des "choses" qu'ils ne maîtrissent pas. Où est le danger ? Pour moi, l'écart va se creuser entre ceux "qui savent" et d'autres "qui font".


En résumant, ce n'est pas parce que l'on sait utiliser une calculatrice, qu'il ne faut pas continuer a apprendre les mathématiques.

BàV et Peace & Love.
4  0 
Avatar de Eye_Py_Ros
Membre du Club https://www.developpez.com
Le 26/11/2024 à 15:22
On a inventé le big data,

On ramasse masse de données comme des sangsues
On étiquette les données à la chaîne.
On a trouvé un truc pour exploiter le bigdata avec quelque chose capable de requêter une base compilé en langage naturel.

Comme ça semble magique on a appel ça I.A.

Certes les LLM c'est un outil puissant, mais l'IA n'existe pas encore; change my mind

la phase "entrainement " n'est qu'une compilation compression avec perte
Le jour où l'on aura un réseau multiagent "self-aware" de son environnement capable d'enchaîner des prises de décision cohérente et pas sortir une ânerie du style il y a 2 r dans strawberry on aura fait du progrès
en attendant, la prise de décision des LLM c'est un double random de lancé de dés entre des choix préexistants ou hallucination le cas échéant.
1  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 26/11/2024 à 19:07
Citation Envoyé par Stéphane le calme Voir le message
Le salaire des humains dans la boucle est de 1,50 à 2 dollars de l'heure. « Et c'est du brut, avant impôts », précise Wambalo.
La confusion entre brut et net signifie que ce travail ne cotise à rien du tout, ni maladie, ni chômage, ni retraite.

De la pure fraude de bout en bout, qu'en plus on n'est pas plus assuré de coincer que dans le cas de Google ...
0  0 
Avatar de Fluxgraveon
Membre actif https://www.developpez.com
Le 27/11/2024 à 8:56
Mais ces gens ne peuvent pas créer de l'intelligence, seulement accumuler des données ce qui n'est pas de l'intelligence. Cela rappelle le débat entre Montaigne et Rabelais : une tête bien pleine ou une tête bien faite. Je prêche dans le vide mais je répète que l'IA cela n'existe pas, c'est juste un habillage de marketing pour des algorithmes de traitement de masses de données.
Comme ça semble magique on a appel ça I.A. Certes les LLM c'est un outil puissant, mais l'IA n'existe pas encore; change my mind
Tout d'abord, merci pour ces rappels
J'aime aussi le terme "magique", il donne une assez bonne indication de là où nous en sommes ...
Ensuite, il convient de ne pas oublier que tout cela est lié à quelques intentions, qui sont loin d'être neuves, qui ont à voir avec notre conception du pouvoir et qui s'inscrivent dans un contexte planétaire : des régimes essentiellement ploutocratiques nécessitant pour une minorité détenant la plus grande partie des richesses de se prémunir face une à majorité "pauvre" (en regard de la minorité en question) via les outils éprouvés (depuis fort longtemps) de contrôle, surveillance, répression, etc.
(juste la forme, qui change)
Il y a sans doute quelques allumés pour attendre qu'un lapin sorte du chapeau, tout équipé d'une des dernières horloges à la mode (genre strontium) pour nous emmener dans le terrier, qui mène à Wonderland. Mais pouvons-nous comprendre Wonderland, éventuellement ce qui y réside et qu'irions-nous y faire ?
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 03/12/2024 à 20:05
Citation Envoyé par Stéphane le calme Voir le message
Pourquoi ChatGPT refusait d'écrire certains noms comme « David Mayer » ?
Lancer une requête sur le sujet mettait prématurément fin à la discussion, un comportement inattendu qui a suscité la curiosité d'Internet

Ouille, entre le titre et le texte, il y a pas mal de sujets, évoqués dans ce fil.

Le titre, tout d'abord. Il nous a fallu un sacré paquet de dizaines d'années avant d'interdire aux juges de réclamer une preuve que quand on verse des tonnes de mercure dans une rivière, ce n'est pas bon pour la santé des poissons. Eh bien le problème a tendance à apparaître encore dans les pays qui n'ont pas parcouru les mêmes étapes. A ce qui est dit ici, le même report peut être observé pour les faits d'esclavage des "temps modernes". Dans le textile on commence à savoir faire la publicité qu'il faut, et encore s'agit-il de voir si ça marche autant qu'il faut.

Si maintenant c'est Microsoft qu'il s'agit de placer devant ses responsabilités, par où est-ce qu'on commence ?

Après le titre, voyons voir maintenant le texte. Il nous adresse une mise en garde intéressante, qui fait toutefois se demander si l'auteur ne souffre pas d'un cruel manque d'information. Une recherche sur "harcèlement suicides adolescentes" permettra une première approche.

Et alors effectivement, ce n'était pas la peine d'automatiser la pensée si c'était pour arriver aux mêmes dérives.
Il aurait été intéressant que les auteurs d'"IA" mettent eux-mêmes les garde-fous sans qu'il soit besoin de le leur demander. Si ça n'a pas été le cas, quelle action doit être menée, par qui ? La représentation nationale pourrait être une idée assez spontanée de vers qui se tourner, mais le spectacle qu'elle nous offre actuellement peut rendre prudent de ce côté.
0  0 
Avatar de Gluups
Membre émérite https://www.developpez.com
Le 08/12/2024 à 10:30
Oui, là on ne peut pas vraiment parler de rupture.

Rappelez-vous que quand vous avez un problème avec la barre des langues sous Windows, Microsoft vous conseille, avant qu'autre chose ait pu être évoqué, d'utiliser sa solution bureautique, 365.

A d'autres moments on vous affiche en début de discussion un bouton "Débloquer", qui au lieu de débloquer le problème évoqué installe 365, moyennant finances de la part de l'utilisateur final.

Pour sûr, ça va corriger les problèmes de barre de langue de Windows.
0  0