IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

OpenAI a fait appel à des travailleurs kényans payés moins de 2 dollars par heure pour rendre ChatGPT moins toxique,
Les experts jugent ce tarif faible en raison des "tâches ingrates" des employés

Le , par Bill Fassinou

1PARTAGES

9  0 
Derrière les prouesses inédites de ChatGPT se cachent peut-être des travailleurs maltraités et sous-payés. C'est ce que révèle un récent rapport sur OpenAI. L'entreprise se serait appuyée sur des travailleurs kényans externalisés, dont beaucoup auraient été payés moins de 2 dollars par heure, pour passer au crible certains des coins les plus sombres d'Internet afin de créer un système de filtre d'IA qui serait intégré à ChatGPT. Le filtre devrait permettre de scanner le chatbot à la recherche de signes des pires horreurs de l'humanité. OpenAI est vivement critiqué et accusé de s'engager sur la même voie que les géants de la Silicon Valley comme Apple, Amazon et Meta.

Le monde apparemment simple, brillant et propre associé à la technologie semble inévitablement et presque toujours soutenu par quelque chose de plus sombre caché juste sous la surface. Il y a trois ans, Apple, Foxconn, et 81 autres grandes marques de technologie avaient été accusées d'être impliquées dans le travail forcé des Ouïghours en Chine. En mars 2020, l'ONG Australian Strategic Policy Institute (ASPI) a allégué dans un rapport qu'entre 2017 et 2019, plus de 80 000 Ouïghours ont été déplacés hors de Xinjiang, leur région d'origine, vers des camps de détention ou des usines pour y travailler de force pour des entreprises comme Apple.

Dernièrement, c'est OpenAI, le laboratoire américain d'IA à l'origine de ChatGPT, qui est accusé de "torture envers ses travailleurs externalisés". Alors que ChatGPT captive toutes les attentions depuis son lancement fin novembre, une nouvelle enquête du Time affirme qu'OpenAI a fait appel à des travailleurs kényans pour l'aider à mettre au point un outil qui marque les contenus problématiques. Le détecteur devrait se charger de filtrer les réponses de ChatGPT, qui compte à ce jour plus d'un million d'utilisateurs, pour le rendre acceptable par le grand public. Mais ces travailleurs auraient été payés à une modique somme inférieure à 2 dollars par heure.



En outre, le filtre aiderait à supprimer les entrées toxiques des grands ensembles de données utilisés pour former ChatGPT. Pendant que les utilisateurs finaux recevaient un produit poli et hygiénique, les travailleurs kényans agissaient essentiellement comme une sorte de gardien de l'IA, parcourant des bribes de texte qui décriraient des récits saisissants d'abus sexuels sur des enfants, tortures, meurtres, suicides et inceste, le tout avec des détails graphiques. En fait, pour apprendre à l'IA à reconnaître et à supprimer les contenus horribles, il fallait une base de données étiquetée de contenus horribles, et c'est en partie ce sur quoi ces employés ont travaillé.

OpenAI aurait travaillé avec une société américaine appelée Sama, mieux connue pour employer des travailleurs au Kenya, en Ouganda et en Inde pour effectuer des tâches d'étiquetage de données pour le compte de géants de la Silicon Valley comme Google et Meta. Sama était en fait le plus grand modérateur de contenu de Meta (Facebook) en Afrique avant que la société n'annonce ce mois-ci qu'elle avait cessé de travailler ensemble en raison du "climat économique actuel". Sama et Meta font actuellement l'objet d'un procès intenté par un ancien modérateur de contenu qui prétend que les entreprises ont violé la constitution kényane.

Dans le cas d'OpenAI, le rapport indique que les travailleurs kényans auraient gagné entre 1,32 et 2 dollars par heure. Selon certains analystes, ce montant est très faible pour une entreprise telle qu'OpenAI qui a levé des centaines de millions de dollars au cours de ces dernières années. Microsoft a investi plus d'un milliard de dollars dans la société en 2019 et les récents rapports indiquent que le géant de Redmond s'apprêterait de nouveau à injecter environ 10 milliards de dollars dans la société d'IA. D'autres investisseurs devraient également participer à ce tour de table. Si cela se produit, OpenAI devrait être évalué à 29 milliards de dollars.

Cependant, selon certains commentaires, le tarif payé par OpenAI aux travailleurs kényans serait en adéquation avec la réalité sur le terrain. « Pour mettre les choses en perspective, le revenu moyen au Kenya est d'environ 1,25 dollar par heure et, en tant que Kényan, je ne vois vraiment pas cela comme une mauvaise chose. Beaucoup de gens ici vivent dans une pauvreté abjecte, dans des situations que vous ne pouvez pas vraiment imaginer. Toute forme d'aide est donc la bienvenue », affirme un internaute qui se présente comme un Kényan. Toutefois, les analystes estiment qu'OpenAI pourrait mieux faire compte tenu des tâches des travailleurs.

Qu'il s'agisse de modérateurs de contenu souffrant de troubles mentaux qui passent au crible des torrents de messages Facebook infâmes ou d'enfants surmenés qui extraient le cobalt nécessaire à la fabrication de véhicules électriques de luxe et d'autres types d'appareils électroniques, l'efficacité sans friction a un coût humain. « Notre mission est de faire en sorte que l'intelligence artificielle générale profite à l'ensemble de l'humanité, et nous travaillons dur pour construire des systèmes d'IA sûrs et utiles qui limitent les préjugés et les contenus nuisibles », a déclaré le développeur du chatbot ChatGPT dans un communiqué au Time.

« Classer et filtrer les contenus nuisibles est une étape nécessaire pour minimiser la quantité de contenus violents et sexuels inclus dans les données d'entraînement et créer des outils capables de détecter les contenus nuisibles », a-t-il ajouté. Pourtant, la nature du travail a causé une détresse sévère pour certains étiqueteurs de données. Comme certains modérateurs de contenu, les travailleurs de Sama ont déclaré que leur travail restait souvent avec eux après qu'ils se soient déconnectés. L'un d'entre eux dit avoir eu des troubles récurrents de la vision après avoir lu la description d'un homme ayant des relations sexuelles avec une chienne.

« C'était une torture », a-t-il déclaré. Au total, les équipes de travailleurs étaient chargées de lire et d'étiqueter environ 150 à 250 passages de texte au cours d'une période de travail de neuf heures. Bien que les travailleurs aient eu la possibilité de consulter des conseillers en bien-être, ils ont néanmoins déclaré au Time qu'ils se sentaient mentalement marqués par ce travail. Sama a contesté ces chiffres, déclarant au Time que les travailleurs ne devaient étiqueter que 70 passages par poste. Sama a déclaré au Time qu'il offrait aux employés des conseils individuels en matière de santé mentale et des programmes de bien-être pour les déstresser.

Sama, qui aurait signé trois contrats avec OpenAI d'une valeur d'environ 200 000 dollars, a décidé de quitter entièrement l'espace d'étiquetage des données nuisibles, du moins pour l'instant. Plus tôt ce mois-ci, il aurait annoncé qu'il annulerait le reste de son travail avec le contenu sensible, à la fois pour OpenAI et d'autres pour se concentrer plutôt sur "les solutions d'annotation de données de vision par ordinateur". Les conclusions de l'enquête interviennent alors que les entreprises qui ont adapté l'IA pour améliorer leurs produits et services continuent de sous-traiter à des employés externalisés à bas salaire le travail de modération de contenu.

Certains contractants signalent régulièrement des impacts négatifs sur leur santé physique ou mentale. Des entreprises comme Amazon auraient embauché des réviseurs de vidéos en Inde et au Costa Rica pour regarder des milliers de vidéos. Cela aurait entraîné des maux physiques comme des maux de tête et des douleurs oculaires chez ces personnes. En 2019, après que certains contractants de Facebook ont déclaré souffrir de SSPT (syndrome de stress post-traumatique) à cause du travail de modération, le PDG Mark Zuckerberg a qualifié les rapports de ces plaintes d'"un peu trop dramatiques", minimisant ainsi les impacts sur la santé mentale des travailleurs.

Le rapport révèle, dans des détails explicites, les pénibles difficultés humaines qui sous-tendent le développement d'une telle technologie. Bien que les nouvelles technologies, apparemment sans friction, créées par les plus grandes entreprises technologiques du monde annoncent souvent leur capacité à résoudre de gros problèmes avec des frais généraux réduits, la dépendance d'OpenAI à l'égard des travailleurs kényans, comme la grande armée de modérateurs de contenu internationaux des entreprises de médias sociaux, met en lumière l'importance de la main-d'œuvre humaine souvent inséparable d'un produit final.

Source : Time

Et vous ?

Quel est votre avis sur le sujet ?
Que pensez-vous de la rémunération des travailleurs kényans ?
Que dites-vous des accusations de torture des travailleurs qui visent OpenAI ?
Que pensez-vous du sort réservé aux travailleurs externalisés employés par les entreprises de la Silicon Valley ?
À votre avis, pourquoi ces conditions de travail perdurent malgré les dénonciations et les nombreux cas de dépressions des travailleurs ?
Selon vous, qui est à blâmer ? Les gouvernements indien, chinois, kényan, etc. ou les grosses multinationales comme Apple ou Facebook ?

Voir aussi

Apple, Foxconn, et 81 autres grandes marques sont impliquées dans le travail forcé des Ouïghours en Chine, d'après une ONG

Une modératrice qui a regardé des heures de vidéos traumatisantes poursuit TikTok pour avoir échoué à protéger sa santé mentale

Des travailleurs chinois décrivent des conditions extrêmement difficiles dans une usine de montage d'iPhone, mais Apple déclare qu'il n'en est rien

Une erreur dans cette actualité ? Signalez-le nous !

Avatar de Matthieu Vergne
Expert éminent https://www.developpez.com
Le 21/01/2023 à 20:26
Mais qu'est-ce que ça peut me faire qu'un résumé soit généré par une IA ? Le résumé est ce qu'on lit pour déterminer si ça vaut le coup de lire l'article complet. Le jugement et ensuite fait sur l'article complet, et non le résumé. Ceux qui s'arrêtent au résumé ne font pas leur travail correctement et ceux qui se plaignent de ne pas pouvoir faire la différence ne font qu'avouer leur incompétence à juger l'article.

Si on n'arrive pas à faire la différence, c'est que l'outil a joué son rôle et fait donc de bons résumés. Les scientifiques peuvent se concentrer sur le contenu de l'article lui-même et leurs erreurs de frappes ou de raisonnements.
2  0 
Avatar de onilink_
Membre émérite https://www.developpez.com
Le 24/01/2023 à 13:02
Citation Envoyé par marsupial Voir le message
Ils sont en retard et Sparrow ne sait pas coder apparemment.
Ils ne sont pas en retard. C'est Google Brain qui a inventé les transformers en 2017.
Transformers qui sont la base de GPT et de ces technologies de chatbots.

C'est aussi eux qui ont inventé les itérations suivantes des transformers, plus efficaces ou moins énergivore.

OpenAI n'inventent pas. OpenAI font du "cool washing" et du buzz, et n'ont d'open que leur nom.
Ils ont sorti ChatGPT au détriment de tous les problèmes de sécurités présents dans le modèle, et font de la désinformation quand aux capacités de leur modèle qui je cite:
May occasionally generate incorrect information
Ce qui est totalement faux dans les faits. C'est un modèle d'auto complétion de texte qui ne comprend pas ce qu'il raconte.
Ce n'est pas fait pour générer des choses vrai ou fausses, et pourtant ils vendent ça comme un modèle plutôt fiable.

Trained to decline inappropriate requests
N'importe qui qui a essayé plus de 5 minutes le bot à réussi a contourner cette "sécurité".

Google préfèrent probablement rester prudents un minimum avant de déployer leur modèle au public, car contrairement à OpenAI ils ont une image de marque à entretenir.
Y a qu'a voir ce qui c'était passé quand Microsoft avaient déployés Tay sur les réseaux sociaux

En tout cas ça me rassure un peu qu'ils considèrent un minimum les notions de sécurité en IA, en tout cas plus qu'OpenAI.
Car j'ai l'impression que tout le monde s'en fout complètement, et encore plus le public qui ne voit que les avancées positives de l'IA, et fait la pub d'OpenAI gratuitement sans essayer de comprendre la technologie.
2  0 
Avatar de Prox_13
Membre actif https://www.developpez.com
Le 25/01/2023 à 16:32
Citation Envoyé par AoCannaille Voir le message
Intéressant, et effectivement intriguant si c'est vrai. Source?
Ce sont des Kenyans qui ont été employés par OpenAI. Je te laisse te faire ton propre avis, cherche sur Google "OpenAI Kenyan".

Je t'avoue que je trouvais ça complètement loufoque moi-même.
2  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 30/01/2023 à 11:04
Citation Envoyé par HaryRoseAndMac Voir le message
Je t'ai déjà répondu à ce sujet, mais, encore une fois : non.
Effectivement, tu radotes Papi, vu que je ne suis pas intervenu entre tes deux réponses à exactement le même message

Citation Envoyé par HaryRoseAndMac Voir le message
Ce n'est pas comme ça que fonctionne un modèle de langage, il réponds avec des probas, des occurrences, de la variance/co-variance/...

Donc non, il ne réponds pas, par rapport à du "texte qui est habituellement présent dans les textes appris autour des notions proposés dans les questions", il émet bel et bien du texte sur un instant T, qui est le résultat du meilleur taux statistiques selon les poids des mots et de ce qu'il a compris de l'ensemble de l'argument + des connaissances qu'il a été chercher.
Si tu veux, ta façon de présenter la chose est plus technique que ma simplification, mais le fond est le même : ChatGPT ne comprend rien à ce qu'il lit ni à ce qu'il génère, ne sait pas ce qui est pertinent ou ne l'est pas.

Le fait que ses réponses semblent pertinentes est corrélé à la qualité des sources, pas du tout à l'algorithme.

Donc, dans un cadre d'entrainement lié à une extraction massive de données sans filtres sur internet, la qualité des sources est donc très variables sur les sujets et donc la pertinence perçue également.
3  1 
Avatar de kain_tn
Expert éminent https://www.developpez.com
Le 19/01/2023 à 14:14
Citation Envoyé par Bill Fassinou Voir le message
Quel est votre avis sur le sujet ?
Que le risque de "réponses toxiques" réduit dont parle Google est fait de la même façon que pour ChatGPT, si l'on en croit la vidéo que j'ai dénichée dans le post juste au dessus

La seule différence, c'est que ceux qui font le sale travail ne sont pas forcément Kényans!
1  0 
Avatar de eric44000
Membre actif https://www.developpez.com
Le 19/01/2023 à 15:11
Citation Envoyé par Bill Fassinou Voir le message
Selon vous, Sparrow pourrait-il permettre à Google de rivaliser avec ChatGPT ?
Tout le monde dit que ChatGPT est un risque de disparition de Google. C'est oublier Sparrow de Google et que MS fait également du suivi et de la collecte de données personnelles.

Personnellement, je ne pense pas que MS investisse dans OpenAI pour concurrencer Google mais pour augmenter ses bénéfices venant de ses services de cloud computing (avec Service Azure OpenAI) et de sa suite Office 365 (en y intégrant ChatGPT).

Il est fort à parier que beaucoup d'entreprises vont refondrent leur système d'information en se tournant vers Azure OpenAI.
1  0 
Avatar de _toma_
Membre régulier https://www.developpez.com
Le 23/01/2023 à 22:57
Salut,

voilà une vidéo de Monsieur Phi et Science4All que j'ai trouvé intéressante. Ils parlent du principe de fonctionnement de ChatGPT et expliquent pourquoi on se retrouve parfois (souvent ?) avec des réponses complètement délirantes :


C'est marrant de voir comme la quasi intégralité des gens présentent cet outil comme un outil sur lequel on peut se reposer pour répondre à toute sorte de questions alors qu'en fait son seul rôle c'est de générer du texte intelligible, pas de répondre à des questions, ni de savoir quoi que ce soit.
C'est la première fois que je vois ChatGPT présenté de cette façon et même si j'y connais rien en IA, leur façon de le présenter me semble beaucoup plus honnête.
1  0 
Avatar de totozor
Membre chevronné https://www.developpez.com
Le 24/01/2023 à 8:12
Citation Envoyé par eric44000 Voir le message
L'intérêt de ChatGPT est qu'il est généraliste (ou multi-spécialisé plutôt). Les IA qui sont bons pour traduire, jouer aux échecs, au go... sont dépassées. ChatGPT les remplace tous.[...]
ChatGPT est il vraiment un meilleur joueur de go ou d'échec que les IA spécialisées dedans? J'ai de sérieux doutes. Certains ont essayé de jouer à pierre papier ciseaux avec lui et il n'y arrive pas alors des jeux complexes comme les échecs et le go je suis curieux de voir.
Je penses qu'on doit déjà redéfinir à chaque coup pour lui l'ensemble du plateau ce qui rend la chose rapidement chiante.
1  0 
Avatar de marsupial
Expert éminent https://www.developpez.com
Le 24/01/2023 à 10:27
Que pensez-vous de l'approche de DeepMind ?
Ils sont en retard et Sparrow ne sait pas coder apparemment.
1  0 
Avatar de AoCannaille
Expert confirmé https://www.developpez.com
Le 25/01/2023 à 14:58
Citation Envoyé par HaryRoseAndMac Voir le message
Ce que j'ai écrit est vrai et mis sur le site officiel de ChatGPT, des africains sont payés à la tâche toute la journée pour valider dans les dialogues avec les utilisateurs ce qui est ou non "morale" (selon eux) et ce qui s'avère avoir été une très mauvaise idée[...]
Intéressant, et effectivement intriguant si c'est vrai. Source?

[...]puisqu'on est passé d'un ChatGPT il y a 3 totalement pertinent dans ses réponses à un truc qui raconte des trucs faux et à désormais un avis sur la religion qui est plus proche de valider la pseudo thèse d'un dieu que l'inverse.
Pour rappel, ChatGPT ne raconte rien de pertinent. jamais. Il n'a pas été conçu comme ça. C'est un modèle de langage : il est entrainé à générer du texte qui est habituellement présent dans les textes appris autour des notions proposés dans les questions.

C'est exactement pour ça qu'il est manipulable : il suffit de lui poser une question qui ressemble de manière générale à un discours faux courant pour qu'il enchaine en racontant du faux dans le même ton.

ChatGPT n'extrait pas la Vérité d'internet, mais uniquement le contenu majoritaire, ce qui n'en fait pas une vérité.

Au même titre que Google n'a jamais trié ses résultats par pertinence, mais par popularité, vu qu'il compte le nombre de lien pointant vers la page contenant l'information qui intéresse.
2  1