IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique,
Les experts jugent ce tarif faible en raison des "tâches ingrates" des employés

Le , par Bill Fassinou

4PARTAGES

9  0 
Derrière les prouesses inédites de ChatGPT se cachent peut-être des travailleurs maltraités et sous-payés. C'est ce que révèle un récent rapport sur OpenAI. L'entreprise se serait appuyée sur des travailleurs kényans externalisés, dont beaucoup auraient été payés moins de 2 dollars par heure, pour passer au crible certains des coins les plus sombres d'Internet afin de créer un système de filtre d'IA qui serait intégré à ChatGPT. Le filtre devrait permettre de scanner le chatbot à la recherche de signes des pires horreurs de l'humanité. OpenAI est vivement critiqué et accusé de s'engager sur la même voie que les géants de la Silicon Valley comme Apple, Amazon et Meta.

Le monde apparemment simple, brillant et propre associé à la technologie semble inévitablement et presque toujours soutenu par quelque chose de plus sombre caché juste sous la surface. Il y a trois ans, Apple, Foxconn, et 81 autres grandes marques de technologie avaient été accusées d'être impliquées dans le travail forcé des Ouïghours en Chine. En mars 2020, l'ONG Australian Strategic Policy Institute (ASPI) a allégué dans un rapport qu'entre 2017 et 2019, plus de 80 000 Ouïghours ont été déplacés hors de Xinjiang, leur région d'origine, vers des camps de détention ou des usines pour y travailler de force pour des entreprises comme Apple.

Dernièrement, c'est OpenAI, le laboratoire américain d'IA à l'origine de ChatGPT, qui est accusé de "torture envers ses travailleurs externalisés". Alors que ChatGPT captive toutes les attentions depuis son lancement fin novembre, une nouvelle enquête du Time affirme qu'OpenAI a fait appel à des travailleurs kényans pour l'aider à mettre au point un outil qui marque les contenus problématiques. Le détecteur devrait se charger de filtrer les réponses de ChatGPT, qui compte à ce jour plus d'un million d'utilisateurs, pour le rendre acceptable par le grand public. Mais ces travailleurs auraient été payés à une modique somme inférieure à 2 dollars par heure.



En outre, le filtre aiderait à supprimer les entrées toxiques des grands ensembles de données utilisés pour former ChatGPT. Pendant que les utilisateurs finaux recevaient un produit poli et hygiénique, les travailleurs kényans agissaient essentiellement comme une sorte de gardien de l'IA, parcourant des bribes de texte qui décriraient des récits saisissants d'abus sexuels sur des enfants, tortures, meurtres, suicides et inceste, le tout avec des détails graphiques. En fait, pour apprendre à l'IA à reconnaître et à supprimer les contenus horribles, il fallait une base de données étiquetée de contenus horribles, et c'est en partie ce sur quoi ces employés ont travaillé.

OpenAI aurait travaillé avec une société américaine appelée Sama, mieux connue pour employer des travailleurs au Kenya, en Ouganda et en Inde pour effectuer des tâches d'étiquetage de données pour le compte de géants de la Silicon Valley comme Google et Meta. Sama était en fait le plus grand modérateur de contenu de Meta (Facebook) en Afrique avant que la société n'annonce ce mois-ci qu'elle avait cessé de travailler ensemble en raison du "climat économique actuel". Sama et Meta font actuellement l'objet d'un procès intenté par un ancien modérateur de contenu qui prétend que les entreprises ont violé la constitution kényane.

Dans le cas d'OpenAI, le rapport indique que les travailleurs kényans auraient gagné entre 1,32 et 2 dollars par heure. Selon certains analystes, ce montant est très faible pour une entreprise telle qu'OpenAI qui a levé des centaines de millions de dollars au cours de ces dernières années. Microsoft a investi plus d'un milliard de dollars dans la société en 2019 et les récents rapports indiquent que le géant de Redmond s'apprêterait de nouveau à injecter environ 10 milliards de dollars dans la société d'IA. D'autres investisseurs devraient également participer à ce tour de table. Si cela se produit, OpenAI devrait être évalué à 29 milliards de dollars.

Cependant, selon certains commentaires, le tarif payé par OpenAI aux travailleurs kényans serait en adéquation avec la réalité sur le terrain. « Pour mettre les choses en perspective, le revenu moyen au Kenya est d'environ 1,25 dollar par heure et, en tant que Kényan, je ne vois vraiment pas cela comme une mauvaise chose. Beaucoup de gens ici vivent dans une pauvreté abjecte, dans des situations que vous ne pouvez pas vraiment imaginer. Toute forme d'aide est donc la bienvenue », affirme un internaute qui se présente comme un Kényan. Toutefois, les analystes estiment qu'OpenAI pourrait mieux faire compte tenu des tâches des travailleurs.

Qu'il s'agisse de modérateurs de contenu souffrant de troubles mentaux qui passent au crible des torrents de messages Facebook infâmes ou d'enfants surmenés qui extraient le cobalt nécessaire à la fabrication de véhicules électriques de luxe et d'autres types d'appareils électroniques, l'efficacité sans friction a un coût humain. « Notre mission est de faire en sorte que l'intelligence artificielle générale profite à l'ensemble de l'humanité, et nous travaillons dur pour construire des systèmes d'IA sûrs et utiles qui limitent les préjugés et les contenus nuisibles », a déclaré le développeur du chatbot ChatGPT dans un communiqué au Time.

« Classer et filtrer les contenus nuisibles est une étape nécessaire pour minimiser la quantité de contenus violents et sexuels inclus dans les données d'entraînement et créer des outils capables de détecter les contenus nuisibles », a-t-il ajouté. Pourtant, la nature du travail a causé une détresse sévère pour certains étiqueteurs de données. Comme certains modérateurs de contenu, les travailleurs de Sama ont déclaré que leur travail restait souvent avec eux après qu'ils se soient déconnectés. L'un d'entre eux dit avoir eu des troubles récurrents de la vision après avoir lu la description d'un homme ayant des relations sexuelles avec une chienne.

« C'était une torture », a-t-il déclaré. Au total, les équipes de travailleurs étaient chargées de lire et d'étiqueter environ 150 à 250 passages de texte au cours d'une période de travail de neuf heures. Bien que les travailleurs aient eu la possibilité de consulter des conseillers en bien-être, ils ont néanmoins déclaré au Time qu'ils se sentaient mentalement marqués par ce travail. Sama a contesté ces chiffres, déclarant au Time que les travailleurs ne devaient étiqueter que 70 passages par poste. Sama a déclaré au Time qu'il offrait aux employés des conseils individuels en matière de santé mentale et des programmes de bien-être pour les déstresser.

Sama, qui aurait signé trois contrats avec OpenAI d'une valeur d'environ 200 000 dollars, a décidé de quitter entièrement l'espace d'étiquetage des données nuisibles, du moins pour l'instant. Plus tôt ce mois-ci, il aurait annoncé qu'il annulerait le reste de son travail avec le contenu sensible, à la fois pour OpenAI et d'autres pour se concentrer plutôt sur "les solutions d'annotation de données de vision par ordinateur". Les conclusions de l'enquête interviennent alors que les entreprises qui ont adapté l'IA pour améliorer leurs produits et services continuent de sous-traiter à des employés externalisés à bas salaire le travail de modération de contenu.

Certains contractants signalent régulièrement des impacts négatifs sur leur santé physique ou mentale. Des entreprises comme Amazon auraient embauché des réviseurs de vidéos en Inde et au Costa Rica pour regarder des milliers de vidéos. Cela aurait entraîné des maux physiques comme des maux de tête et des douleurs oculaires chez ces personnes. En 2019, après que certains contractants de Facebook ont déclaré souffrir de SSPT (syndrome de stress post-traumatique) à cause du travail de modération, le PDG Mark Zuckerberg a qualifié les rapports de ces plaintes d'"un peu trop dramatiques", minimisant ainsi les impacts sur la santé mentale des travailleurs.

Le rapport révèle, dans des détails explicites, les pénibles difficultés humaines qui sous-tendent le développement d'une telle technologie. Bien que les nouvelles technologies, apparemment sans friction, créées par les plus grandes entreprises technologiques du monde annoncent souvent leur capacité à résoudre de gros problèmes avec des frais généraux réduits, la dépendance d'OpenAI à l'égard des travailleurs kényans, comme la grande armée de modérateurs de contenu internationaux des entreprises de médias sociaux, met en lumière l'importance de la main-d'œuvre humaine souvent inséparable d'un produit final.

Source : Time

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la rémunération des travailleurs kényans ?
Que dites-vous des accusations de torture des travailleurs qui visent OpenAI ?
Que pensez-vous du sort réservé aux travailleurs externalisés employés par les entreprises de la Silicon Valley ?
À votre avis, pourquoi ces conditions de travail perdurent malgré les dénonciations et les nombreux cas de dépressions des travailleurs ?
Selon vous, qui est à blâmer ? Les gouvernements indien, chinois, kényan, etc. ou les grosses multinationales comme Apple ou Facebook ?

Voir aussi

Apple, Foxconn, et 81 autres grandes marques sont impliquées dans le travail forcé des Ouïghours en Chine, d'après une ONG

Une modératrice qui a regardé des heures de vidéos traumatisantes poursuit TikTok pour avoir échoué à protéger sa santé mentale

Des travailleurs chinois décrivent des conditions extrêmement difficiles dans une usine de montage d'iPhone, mais Apple déclare qu'il n'en est rien

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de thamn
Membre averti https://www.developpez.com
Le 19/02/2023 à 21:59
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
Ah oui bien sur, pour changer de boulot suffit de traverser la rue comme disait l'autre.
Essaye de changer de job sans debaler ton joli diplome qui t'aurais couté un bras au US, et revient nous en causer apres.
13  0 
Avatar de babacool421
Nouveau membre du Club https://www.developpez.com
Le 10/02/2023 à 12:52
Citation Envoyé par Mat.M Voir le message
la méga différence entre Google et ChatGPT c'est que le premier est une entreprise vraiment commerciale qui gagne du cash.
ChatGPT je sais pas ce que c'est, est-ce un outil développé par un collectif d'universitaires ?
Comment ce truc 'est financé ?

Google est dirigé par des informaticiens, Serguei Brin en particulier, est un ingénieur/chercheur brillant qui développe et intervient sur les projets R&D encore aujourd'hui. Serguei est convaincu pour avoir eu la chance de participer à une conférence "intimiste" que l'émergence de l'IA forte est primordiale et une étape importante dans l'évolution de notre civilisation (voir pour sa survie). L'IA forte nous permettrait, selon lui, de faire un nouveau bon technologique et de résoudre plus rapidement des problématiques hors de portée de l'intelligence humaine à ce jour (amélioration importante de la durée de vie, maitrise de la fusion nucléaire ou des réactions matières/anti-matière, maitrise du voyage interstellaire (trou de vers, métrique d’Alcubierre,...),...
N'oublions pas qu'à tout moment un évènement stellaire pourrait détruire notre habitat (comète, sursaut gamma, trou noir errant) et même le réveil des trapps de sibérie pour rendre notre planète inhabitable. Cet évènement arrivera et nous ne pouvons prédire quand. Demain peut-être.

remarque pertinente..sans trop faire du H.S. j'espère que c'est possible pour nos "fleurons" hexagonaux comme Cap ou Atos quand on voit les déboires d'Atos...
Citez moi une innovation technologique impactante à l'échelle de l'humanité (même de l'Europe) développée de Cap ou Atos ? Pour avoir travaillé pour ces entreprises et d'autres ESN, ces sociétés détournent les dispositifs comme le CIR/CII pour améliorer leur marge au lieu de financer de vrais projets R&D et développer des nouvelles technologies. Et même les ratios de ces "faux" budgets R&D sont ridicules comparés aux investissements de Google ou Amazon.
En France, nous sommes très bons en recherche fondamentale ou en recherche appliquées de part notre réseau universitaire et d'école assez performant. Mais, les entreprises françaises qui profitent de ses travaux sont dirigés par des investisseurs, des ignorants en science, incapable de juger par eux même de la pertinence d'une thèse par rapport à une autre. Nous avons probablement entre 10 et 15 ans de retard sur la R&D sur le domaine de l'informatique, l'IA ou la robotique par rapport à Google et Amazon.
11  0 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/03/2023 à 9:28
Bonjour,

Le problème avec ChatGPT, ou plus généralement à notre époque, c'est qu'on a énormément d'informations à disposition MAIS il y a de bonnes et de fausses informations mélangées.
De plus, un certain nombre de bonnes informations sont parfois méconnues.

C'est vrai dans tous les domaines.

J'ai 42 ans, ingénieur généraliste, passionné de bricolage, j'en apprends encore tous les jours, et notamment des choses que "j'aurais dû savoir avant"

Quelques exemples :

J'ai fait moi-même mon chauffage central il y a 15 ans.
J'ai découvert il y a 2 ou 3 ans qu'un mitigeur thermostatique n'était pas compatible avec une chaudière à production d'eau chaude instantanée
Et qu'il fallait ajuster la température de l'eau chaude au minimum, de façon à ne se doucher qu'avec de l'eau chaude (qui est en fait tiède)
La chaudière (modèle à condensation) fonctionne mieux, avec un meilleur rendement, et il n'y a pas de risque sanitaire car il n'y a pas d'accumulation d'eau chaude, étant donné que la production d'eau chaude est instantanée. C'est uniquement quand de l'eau chaude stagne (cumulus) qu'il faut qu'elle soit suffisamment chaude pour éviter un risque sanitaire.
Cette information, beaucoup de gens, y compris "du métier", ne la connaissent pas ou pire disent qu'elle est fausse.

Autre sujet : le béton.
La meilleure façon de bien couler du béton c'est :
- de mettre la quantité d'eau minimum : quand sur le sac c'est écrit "2,7 à 3 litres d'eau" il faut mettre 2,7 litres d'eau pas plus
- d'ajouter du fluidifiant (produit spécifique)
- de vibrer le béton une fois coulé
Beaucoup de gens l'ignorent, et notamment mettent trop d'eau => le béton est fragile, il y a un risque de malfaçon importante voir un danger si la structure est porteuse...
Même en magasin de bricolage, j'ai vu des vendeurs conseiller de doser l'eau au pifomètre !
Même des "professionnels" ajoutent de l'eau dans la toupie pour travailler plus facilement
Ces gens sont incompétents, ce sont des escrocs qui mettent des vies en danger.

ChatGPT se base sur Internet.
Internet est démocratique.
Mais, comme l'a dit mon prof de physique en 1re année de prépa (cela m'avait choqué à l'époque) :
"Le problème avec la démocratie, c'est quand 10 personnes se trompent et 9 personnes ont juste, et bien on donne raison aux 10 personnes qui se trompent"
Les réseaux sociaux, en permettant à n'importe qui de publier très facilement n'importe quoi, ont amplifié le phénomène.
Avant les réseaux sociaux, créer un site demandait un minimum de travail, et pour avoir des visiteurs il fallait publier des contenus intéressants, ça faisait office de filtre (même si il pouvait y avoir pas mal de conneries quand même mais nettement moins qu'aujourd'hui )
D'autant que les algorithmes des réseaux sociaux sont conçus pour amplifier les contenus émotionnels négatifs.
ChatGPT va juste faire la moyenne de tout.
Certes pour quelqu'un qui n'y connais rien sur un sujet, ChatGPT va probablement apporter une réponse.
Mais par rapport aux experts de chaque domaine, ChatGPT est clairement en dessous.
L'IA aboutit donc à un nivellement par le bas

Ainsi le créationnisme en vient à être enseigné dans certains pays comme théorie aussi valable que la théorie de l'évolution
Et on voit, en 2023, des gens croire que la terre est plate.

Que dire de l'IA ? On devrait plutôt parler de connerie artificielle
11  0 
Avatar de
https://www.developpez.com
Le 30/01/2023 à 23:01
Si je resume, je dois travailler jusqu'a 64 ans mais je serais remplacé par une IA prochainement... Quelle belle époque !
Bon, faut donc que je trouve une méthode pour vivre des aides, tranquille, loin du stress...
11  1 
Avatar de electroremy
Membre éprouvé https://www.developpez.com
Le 02/02/2023 à 11:10
Que penser de toute cette agitation autour de "l'intelligence artificielle" ?

D'abord, sur le principe il n'y a rien de nouveau. Les réseaux de neurones, algorithmes génétiques, la logique floue, les systèmes experts existent depuis des décennies. Au début des années 2000, j'avais moi même utilisé un algorithme génétique qui donnait "presque miraculeusement" rapidement de bons résultats à un problème d'optimisation.

Aujourd'hui, nous avons juste à disposition :

- des ordinateurs beaucoup plus rapides avec beaucoup plus de mémoire

- beaucoup de données exploitables facilement et directement, grâce (ou à cause) de l'usage de l'informatique dans la vie quotidienne et professionnelle.

Les résultats sont impressionnants, notamment grâce à la façon dont ils sont présentés : langage "naturel", synthèse vocale de bonne qualité, avatars en 3D voire vidéos réalistes.

Il faut garder la tête froide : ces dispositifs ne "réfléchissent" et ne "comprennent" pas du tout. Ce sont des boites noires, qui arrivent à sortir rapidement un résultat connu depuis les données dont ils disposent.

Ils sont similaires à une grande encyclopédie : une étagère complète de livres épais qui "connaissent" toutes les définitions, toutes les biographies, tous les faits historiques... pourtant personne ne va trouver une encyclopédie "intelligente".

Cette "intelligence artificielle" peut se planter de façon totalement imprévisible, comme le montrent les expérimentations sur la conduite autonome des voitures dans un milieu ouvert.

De plus, elle ne semblent pas pouvoir inventer des choses réellement nouvelles - attention, la grande quantité de données dont elles disposent peuvent laisser croire le contraire, car les capacités des datacenters actuels dépassent les capacités de mémorisations du commun des mortels. Si une IA vous donne l'impression d'avoir fait quelque chose de nouveau, c'est probablement parce qu'elle a des données sur quelque chose que vous ne connaissez pas, ce qui vous laisse croire que c'est nouveau.

En fait c'est ça la véritable leçon de l'histoire : aujourd'hui, l'humanité a accumulé tellement de connaissances sur tellement de sujets qu'il est impossible pour quelqu'un de tout savoir. Même si vous êtes touche-à-tout, que vous lisez beaucoup de livres et écoutez beaucoup de musique, à la fin de votre vie vous n'aurez vu, entendu et compris qu'une toute petite partie de ce qui a été dit ou écrit...
11  1 
Avatar de schlebe
Membre actif https://www.developpez.com
Le 08/06/2023 à 19:26
La moindre des choses à exiger des articles publiés par ChatGPT et qu'il les signe afin de permettre aux lecteurs de connaître la véritable source des articles.

Il faudrait également sanctionner les sociétés qui publient des articles générés par ChatGPT avec du contenus inventés ou mensongers.

Une amende de 2% du chiffre d'affaire par articles mensongers publiés et une amende de 2% du chiffre d'affaire par jour et par articles mensongers constatés et toujours publiés plus d'une semaine après le constat.

Dans moins d'un mois, on ne parlera plus de ChatGPT de la même façon et il faudra engager du personnel pour vérifier tout ce qu'il aura écrit.
12  2 
Avatar de steel-finger
Membre confirmé https://www.developpez.com
Le 20/02/2023 à 13:07
Citation Envoyé par Erviewthink Voir le message
Si il n'est pas content il change de boulot, personne ne l'a obligé à faire ça.

Pas compliqué si ? C'est à cause des personnes comme ça qu'il y a du dumping social.

Si les gens refusaient ces boulots sous payés il n'y aurait pas ce problème.

Mais bon comme la majorité des gens n'ont pas ou peu de dignité...
La vie ne fonctionne pas comme ça, il faut que tu sortes de ton cocon pour t'en rendre compte.
Malheureusement, il y a des personnes qui préfèrent nourrir leur enfant en prenant les boulots qui nuise à la dignité plutôt que de n'avoir aucune rentrée d'argent !
8  0 
Avatar de walfrat
Membre émérite https://www.developpez.com
Le 07/04/2023 à 9:55
"Hey chatGPT, voilà toutes les donneés confidentielles économiques de mon entreprises, fait moi le rapport financier stp, j'ai la flème".
8  0 
Avatar de Jon Shannow
Membre extrêmement actif https://www.developpez.com
Le 09/06/2023 à 14:59
Citation Envoyé par coolspot Voir le message
Macron si on peut dire c'est un Poutine avec 20 ans de moins. Il se prépare deja à vouloir bidouiller la constitution ou faire comme la presse commence à le dire une "Poutine/Medvedev" pour etre président à vie
Heu ! Tu as des infos la dessus ? Non seulement sur la préparation, mais aussi la faisabilité...
8  0 
Avatar de totozor
Membre expert https://www.developpez.com
Le 09/06/2023 à 15:48
Citation Envoyé par Ryu2000 Voir le message
C'est pas marrant d'être sans emploi.
C'est pas marrant d'être sans emploi dans un système capitaliste.
Que se passerait il si les gens n'avaient plus besoin de se salarier pour vivre?
La plupart travailleraient.
Par exemple que font les retraités qui ont la santé?
Il s'investissent dans les associations, ils gardent leurs petits enfants, ils investissent dans leur quartier, ils s'entreaident etc.
(Et ceux qui revaient d'être rentiers partent en voyage)

Pourquoi ceci n'est pas souhaitable?
Comment nos dirigeants s'assureraient d'avoir de la main d'oeuvre (au sens large)?
Bernard Arnault perdrait "de la valeur" (je ne dit pas qu'il n'en aurait plus) et Gérard l'éboueur, Géraldine l'aide soignante, Marcel le passionné d'astronomie en gagneraient

Oui le monde que je décrit est peut être idéaliste mais il y a des faisceau de pistes qui suggèrent que c'est viable
Et ce n'est qu'un monde à envisager parmi d'autres
Celui dans lequel on vit ne semble pas viable pour la majorité.
9  1