OSIRIS

Observatoire sur les systèmes d’information, les réseaux et les inforoutes au Sénégal

Show navigation Hide navigation
  • OSIRIS
    • Objectifs
    • Partenaires
  • Ressources
    • Société de l’Information
    • Politique nationale
    • Législation et réglementation
    • Etudes et recherches
    • Points de vue
  • Articles de presse
  • Chiffres clés
    • Le Sénégal numérique
    • Principaux tarifs
    • Principaux indicateurs
  • Opportunités
    • Projets

Accueil > Articles de presse > Archives 1999-2025 > Année 2023 > Juin 2023 > Comment une décision de justice au Kenya fragilise la sous-traitance des (…)

Comment une décision de justice au Kenya fragilise la sous-traitance des multinationales du web

mardi 27 juin 2023

Contenus numériques

L’histoire commence en mai 2022 au Kenya : Daniel Motaung, un ancien modérateur de contenu de la société locale Samasource Ltd dépose alors une plainte (petition en anglais) contre ses dirigeants, ainsi que leurs donneurs d’ordre, de nombreux géants du web, dont Meta (la société mère de Facebook).

Dans cette plainte, Daniel Motaung accuse Sama et Meta de traite d’êtres humains, de démantèlement de syndicats et de ne pas fournir un soutien adéquat en matière de santé mentale.

Sama - leader dans le domaine de l’annotation - emploie des « étiqueteurs », qui ont pour mission de visionner et de taguer des contenus très éclectiques, souvent consternants, parfois extrêmement violents, provenant de divers réseaux sociaux et d’internet. L’objectif : modérer les contenus sur les réseaux sociaux et fournir des bases de données équilibrées pour l’apprentissage des intelligences artificielles.

Neuf mois, plus tard, le 6 février 2023, une première décision historique a été rendue par le juge kényan Jakob Gakeri : ce dernier a statué sur le fait que les cours kényanes étaient compétentes pour juger des sociétés étrangères dont des filiales se trouvent au Kenya, ainsi que la responsabilité des donneurs d’ordre. La procédure est en cours pour de nouvelles audiences.

C’est la première fois qu’une telle affaire est jugée dans les pays où vivent ces « forçats du numérique », et que le jugement se fait selon les termes de la plainte déposée. Une façon d’exposer à la planète entière les coûts humains du numérique.

Les termes de la plainte

Sama fait ainsi travailler des milliers d’opérateurs venant de toute l’Afrique subsaharienne pour modérer et étiqueter des contenus des géants du web comme Meta, Microsoft et OpenAI (la société à l’origine de ChatGPT) dans le cadre de « partenariats d’externalisation ». Cette dernière a d’ailleurs confirmé que les employés de Sama l’avaient aidé à filtrer certains contenus toxiques.

Le juge a entériné les termes de la pétition sur la violation des droits constitutionnels de ces opérateurs, et dénonce ainsi les conditions matérielles et psychologiques déplorables dans lesquelles ils travaillent.

Avec cette décision, le juge a aussi retenu le bien-fondé des termes de la demande qui, élaborant sur les salaires insuffisants pour vivre décemment à Nairobi, sur la détresse psychologique des salariés (le demandeur souffrant de troubles du stress post-traumatique - selon ses conseils) et sur la définition du Haut-Commissariat des Nations unies aux Droits de l’Homme (HCDH), soutenait que la situation vécue par les étiqueteurs pouvait être qualifiée d’exploitation en vue d’un gain économique, en d’autres termes, de « traite d’êtres humains »... d’autant plus que les soutiens psychologiques contractuellement annoncés n’auraient jamais été mis en oeuvre (à nouveau, selon les attendus de la pétition et les termes des conseils du demandeur).

Meta a tenté de faire appel de cette décision du juge Gakeri afin d’éviter le procès, sans succès. De plus, suite à cette décision du juge Gakeri, le contrat de Sama avec Meta a été annulé, et le repreneur, Majorel, aurait essayé de blacklister les étiqueteurs de Sama. Deux cent d’entre eux ont porté plainte contre Meta et Sama pour licenciement abusif, dans une autre procédure.

L’étiquetage des données permet les services de modération du web et l’apprentissage des systèmes d’IA

Cette décision du juge Gakeri - et les suivantes - pourrait avoir un impact majeur sur les services de modération portés par les grandes plates-formes Internet, en particulier celles qui utilisent l’intelligence artificielle.

En effet, l’étiquetage précis des données est essentiel pour que les algorithmes d’intelligence artificielle puissent apprendre et arbitrer correctement leurs résultats : par exemple, si une image est étiquetée « route » alors qu’il s’agit d’un mur, l’IA équipant une voiture autonome pourrait se tromper et provoquer un accident.

L’étiquetage des données consiste à fournir des informations pour aider les machines à apprendre à partir de données brutes comme des images, des fichiers texte et des vidéos. Cependant, différents types d’apprentissages existent (supervisé, semi-supervisé, par renforcement...) et on a besoin de plus ou moins de données en fonction de l’expérience utilisateur escomptée.

L’étiquetage des données est source de valeur pour les acteurs du numérique

Ces informations viennent des bases de données constituées par les géants du net lors d’opérations d’étiquetage et de modération des contenus. Celles-ci sont censées prévenir et protéger tous les individus d’un accès non désiré à certaines données - comme une vidéo de décapitation par exemple - en créant et complétant les métadonnées, des données qui informent sur le contenu du fichier associé. Cette méthodologie a permis la création d’immenses bases de métadonnées, informées - et informant - en temps réel de la nature des contenus transitant par les réseaux.

Les métadonnées font le lien entre contenu et information, ce qui a permis de rénover le modèle économique des acteurs du web et des réseaux, qui ont réalisé la valeur de ces métadonnées. En effet, celles-ci peuvent servir à entraîner certains algorithmes d’intelligence artificielle : ce n’est pas un hasard si Facebook a changé son nom pour Meta. Les coûts de la modération sont colossaux, car pour que les algorithmes de modération soient précis et efficaces, les données doivent être soigneusement contrôlées et décrites - une tâche qui nécessite une analyse de haute qualité et donc onéreuse - et ce d’autant plus qu’elle doit faire l’objet de validations multiples afin d’éviter les biais des étiqueteurs.

Sous réserve de maintenir la qualité, ces coûts se sont donc transformés en valeur pour les géants du net. En effet, un algorithme mal entraîné peut rapidement devenir toxique, biaisé ou même produire des hallucinations (c’est-à-dire créant des résultats qui ne correspondent à aucune donnée sur laquelle l’algorithme a été entraîné, ou qui ne suivent aucun autre modèle discernable). Ceci détériore la confiance dans les contenus, ce qui affecte l’audience et donc l’intérêt des annonceurs.

Du côté des algorithmes d’apprentissage des systèmes d’IA, comme leur crédibilité est avant tout fondée sur la capacité à fournir des réponses plausibles et précises, une tâche impossible sans données bien étiquetées.

Pour ces différentes raisons, une bonne qualité d’étiquetage nécessite un grand nombre d’étiqueteurs. En d’autres termes, cette industrie est à forte intensité de main-d’oeuvre... d’autant qu’au moins 10 % à 15 % des données crées chaque jour sont nouvelles et uniques.

Quel modèle économique pour l’étiquetage ?

Les industriels cherchent à trouver un équilibre entre la nécessité d’innover et le coût de cette innovation. Par exemple, le fonctionnement de ChatGPT coûte 700 000 dollars par jour sans amélioration des modèles, alors que pour encourager l’adoption d’un outil numérique, on considère généralement que le prix doit être modéré pour l’utilisateur (environ 20 euros par mois pour ChatGPT+ par exemple).

Les coûts de main-d’oeuvre (d’étiquetage) représentent une grande partie des dépenses dans ce secteur. Dans une approche un peu obsolète de la division du travail et de réduction des coûts, l’étiquetage a donc été sous-traité à des acteurs spécialistes comme Sama aux États-Unis ou Majorel au Luxembourg, qui disposent de filiales au Kenya.

Ce travail implique une exposition continue à des images, des sons, des contenus parfois insoutenables. Dans le cas Sama, il a été rémunéré à hauteur de 1,5 euro de l’heure après impôts - soit moins de la moitié du salaire moyen dans le secteur informatique kenyan qui est à 4,3 euros de l’heure.

Ce sont les conditions de cette sous-traitance qui sont à l’origine de la décision du Juge Gakeri.

Les impacts des décisions des juges

L’originalité de cette lecture juridique tient au fait qu’elle bat en brèche la stratégie usuelle des entreprises du secteur des technologies de l’information, qui sont de fait des entreprises de main-d’oeuvre, mais qui refusent d’être qualifiées comme telles et dissimulent leurs importants besoins humains derrière une chaîne de sous-traitants - bien loin des productions sans humains fantasmées à la fin du XXe siècle.

Cette pratique constitue un non-sens économique, puisque c’est la connaissance, la maîtrise sur toutes leurs phases des processus productifs et leur optimisation qui permettent la consolidation des marges et la pérennisation des modèles concernés.

Peut-être que la position du juge Gakeri apportera aux multinationales du web une aide précieuse en matière d’amélioration de leur rentabilité et de leur modèle économique. Toujours est-il que désormais, le donneur d’ordre sera autant responsable et justiciable que son prestataire en matière de conditions de travail, voire davantage.

On scrute aujourd’hui l’impact environnemental d’une structure dans toutes ses ramifications planétaires. Évaluera-t-on demain la responsabilité sociale des entreprises de la même manière, en considérant le processus de production des technologies de l’information comme un tout mondialisé ?

Au-delà de l’éthique des usages de l’IA, faut-il inventer une éthique des processus de sa fabrication ?

L’usage des technologies d’intelligence artificielle soulève déjà des questions éthiques, par exemple celle d’utiliser ou non la décision algorithmique pour établir des demandes de remboursement de prestations sociales.

On voit désormais émerger le besoin impérieux d’une éthique de la production des systèmes d’intelligence artificielle, car ici l’absence d’éthique sanctionne en temps réel la qualité et la confiance que l’on peut avoir dans les algorithmes produits. Si un algorithme mal entraîné peut demain faire dérailler un train ou une chaîne de production, la qualité de l’annotation devient non négociable - et cette activité demande mieux et plus que les conditions constatées au Kenya.

Le procès en cours depuis mars (puisque le juge a validé la compétence des cours kényanes dans ce domaine) changera peut-être la donne. D’autres secteurs confrontés à ces problématiques, la mode par exemple, ont amélioré leurs pratiques, la transparence de leurs fournisseurs et de leurs méthodologies de productions, notamment du fait d’opérations massives de « Name and shame » par la société civile, qui ont amené progressivement des utilisateurs finaux à se détourner des marques non vertueuses (sans pour autant que ces dernières ne le deviennent toutes).

Il n’est pas certain que, dans le domaine des technologies de l’information et d’intelligence artificielle, l’utilisateur final puisse effectuer ce type d’arbitrage, car ceux-ci deviennent de plus en plus partie intégrante des outils de productivité informatique utilisés quotidiennement par tous. En outre, les critères constituant les processus de production éthiques de l’IA demeurent à inventer. L’affaire en cours pourrait-elle constituer une bonne motivation pour penser à ces derniers ?

Caroline Gans Combe

(Source : The Conversation, 27 juin 2023)

Fil d'actu

  • Charte de membre Africollector Burkina NTIC (25 février 2026)
  • TIC ET AGRICULTURE AU BURKINA FASO Étude sur les pratiques et les usages Burkina NTIC (9 avril 2025)
  • Sortie de promotion DPP 2025 en Afrique de l’Ouest Burkina NTIC (12 mars 2025)
  • Nos étudiant-es DPP cuvée 2024 tous-tes diplomés-es de la Graduate Intitute de Genève Burkina NTIC (12 mars 2025)
  • Retour sur images Yam Pukri en 2023 Burkina NTIC (7 mai 2024)

Liens intéressants

  • NIC Sénégal
  • ISOC Sénégal
  • Autorité de régulation des télécommunications et des postes (ARTP)
  • Fonds de Développement du Service Universel des Télécommunications (FDSUT)
  • Commission de protection des données personnelles (CDP)
  • Conseil national de régulation de l’audiovisuel (CNRA)
  • Sénégal numérique (SENUM SA)

Navigation par mots clés

  • 4453/5277 Régulation des télécoms
  • 363/5277 Télécentres/Cybercentres
  • 3585/5277 Economie numérique
  • 1912/5277 Politique nationale
  • 5277/5277 Fintech
  • 533/5277 Noms de domaine
  • 2299/5277 Produits et services
  • 1507/5277 Faits divers/Contentieux
  • 760/5277 Nouveau site web
  • 4983/5277 Infrastructures
  • 1818/5277 TIC pour l’éducation
  • 198/5277 Recherche
  • 253/5277 Projet
  • 3633/5277 Cybersécurité/Cybercriminalité
  • 1923/5277 Sonatel/Orange
  • 1648/5277 Licences de télécommunications
  • 282/5277 Sudatel/Expresso
  • 1169/5277 Régulation des médias
  • 1300/5277 Applications
  • 1091/5277 Mouvements sociaux
  • 1751/5277 Données personnelles
  • 130/5277 Big Data/Données ouvertes
  • 607/5277 Mouvement consumériste
  • 369/5277 Médias
  • 667/5277 Appels internationaux entrants
  • 1639/5277 Formation
  • 192/5277 Logiciel libre
  • 2459/5277 Politiques africaines
  • 1095/5277 Fiscalité
  • 172/5277 Art et culture
  • 617/5277 Genre
  • 1786/5277 Point de vue
  • 1111/5277 Commerce électronique
  • 1507/5277 Manifestation
  • 324/5277 Presse en ligne
  • 127/5277 Piratage
  • 211/5277 Téléservices
  • 933/5277 Biométrie/Identité numérique
  • 317/5277 Environnement/Santé
  • 353/5277 Législation/Réglementation
  • 390/5277 Gouvernance
  • 1788/5277 Portrait/Entretien
  • 153/5277 Radio
  • 751/5277 TIC pour la santé
  • 306/5277 Propriété intellectuelle
  • 60/5277 Langues/Localisation
  • 1113/5277 Médias/Réseaux sociaux
  • 2021/5277 Téléphonie
  • 195/5277 Désengagement de l’Etat
  • 1092/5277 Internet
  • 115/5277 Collectivités locales
  • 421/5277 Dédouanement électronique
  • 1275/5277 Usages et comportements
  • 1077/5277 Télévision/Radio numérique terrestre
  • 568/5277 Audiovisuel
  • 3720/5277 Transformation digitale
  • 395/5277 Affaire Global Voice
  • 162/5277 Géomatique/Géolocalisation
  • 325/5277 Service universel
  • 670/5277 Sentel/Tigo
  • 181/5277 Vie politique
  • 1556/5277 Distinction/Nomination
  • 36/5277 Handicapés
  • 708/5277 Enseignement à distance
  • 714/5277 Contenus numériques
  • 605/5277 Gestion de l’ARTP
  • 181/5277 Radios communautaires
  • 1811/5277 Qualité de service
  • 434/5277 Privatisation/Libéralisation
  • 137/5277 SMSI
  • 497/5277 Fracture numérique/Solidarité numérique
  • 3009/5277 Innovation/Entreprenariat
  • 1394/5277 Liberté d’expression/Censure de l’Internet
  • 46/5277 Internet des objets
  • 176/5277 Free Sénégal
  • 866/5277 Intelligence artificielle
  • 201/5277 Editorial
  • 2/5277 Gaming/Jeux vidéos
  • 24/5277 Yas

2026 OSIRIS
Plan du site - Archives (Batik)

Suivez-vous