OSIRIS

Observatoire sur les systèmes d’information, les réseaux et les inforoutes au Sénégal

Show navigation Hide navigation
  • OSIRIS
    • Objectifs
    • Partenaires
  • Ressources
    • Société de l’Information
    • Politique nationale
    • Législation et réglementation
    • Etudes et recherches
    • Points de vue
  • Articles de presse
  • Chiffres clés
    • Le Sénégal numérique
    • Principaux tarifs
    • Principaux indicateurs
  • Opportunités
    • Projets

Accueil > Articles de presse > Année 2026 > Février 2026 > Intelligences artificielles génératives : Au-delà des biais, le risque (…)

Intelligences artificielles génératives : Au-delà des biais, le risque potentiel des hallucinations

mercredi 4 février 2026

Intelligence artificielle

Les intelligences artificielles génératives produisent aujourd’hui des textes, des images et des décisions dont la crédibilité apparente peut aller jusqu’à l’illusion. Parfois cette crédibilité est excessive. Derrière la fluidité se cachent deux grands risques. D’une part les biais dérivés du matériel humain. D’autre part, les hallucinations, ces inventions crédibles mais fausses. Un phénomène encore imparfaitement compris, qui a des impacts concrets sur la recherche, la justice, la médecine, les affaires et la démocratie.

L’un d’entre vous interroge une intelligence artificielle générative. La réponse arrive. Elle est fluide, structurée, confiante. Elle semble maîtriser son sujet. Pourtant, elle est parfois fausse. Pas approximative. Pas imprécise. Fausse. C’est ce que les chercheurs appellent une hallucination. Une définition abrégée est tirée du document de travail qui sert de base à cet article. Un modèle hallucine lorsqu’il génère des informations sans aucun fondement dans la réalité ou les données d’entraînement, tout en présentant tous les signes extérieurs de la vérité.

Cette distinction est cruciale. Une erreur factuelle est encore vérifiable. Une hallucination invente. C’est une source inventée, un précédent juridique imaginaire, une étude scientifique fantôme. Le modèle ne ment pas. Il ne sait pas qu’il se trompe. Il prédit une séquence de mots statistiquement cohérente. La littérature scientifique confirme cette affirmation. Les architectures probabilistes sous-tendent les grands modèles de langage. Ils prennent des milliards d’exemples textuels et optimisent la probabilité du token suivant. Ils n’ont ni un sens sémantique du monde ni une vue directe de la réalité empirique.

Et c’est ce que les travaux classiques (Bender et al. sur les « perroquets stochastiques », le document de l’Association for Computing Machinery en 2021) clarifient. L’IA ne sait pas. Elle calcule. Elle réagit parce que nous voulons une réponse. Cela crée un biais fondamental. Le biais de satisfaction. Le modèle privilégie de donner une réponse plutôt que de gérer l’incertitude. Ce biais est technique. Il est aussi humain. La réponse est trop bien construite, et l’utilisateur semble bien content.

Les biais ne s’arrêtent pas là. Le rapport distingue deux types principaux. Les biais algorithmiques, issus des données d’entraînement. Et les préjugés sociaux qui reflètent les déséquilibres du monde réel. Le biais de genre est encore l’exemple le plus connu. Les recherches de l’UNESCO et de l’OCDE suggèrent que les modèles associent plus fréquemment les femmes aux services de soins et les hommes aux postes de direction. Ainsi, le document rend ce mécanisme concret.

Le biais culturel s’inscrit dans la même logique. Les grands modèles sont entraînés sur des corpus anglophones, occidentaux, nord-américains. Il dit que certains choix lexicaux, certaines moeurs de politesse ou de moralité proviennent d’une certaine culture. Cette observation est cohérente avec les analyses menées par l’Institut de l’IA centrée sur l’humain de Stanford. Le rapport AI Index 2024 de l’institut cite la grande sous-représentation des langues africaines, asiatiques et locales dans les ensembles de données de référence.

Ces biais deviennent d’autant plus prononcés lorsqu’ils croisent les hallucinations. Le document fournit quelques exemples spécifiques des deux pour illustrer le point. Dans le domaine de la recherche scientifique, un modèle peut inventer des résultats et des références lorsqu’il est privé de données. Ce risque est documenté. En 2023, plusieurs mises en garde contre les IA génératives non contrôlées dans l’écriture scientifique sont apparus dans Nature. Des références inexistantes ont été détectées dans des manuscrits soumis à des revues à comité de lecture.

Le document mentionne un cas réel survenu aux États-Unis. Un avocat a déposé des conclusions de précédents tirés d’un modèle GPT. Ces précédents n’existaient pas. En juin 2023, le tribunal fédéral de New York a confirmé le cas. Le résultat a été des sanctions disciplinaires.

En médecine, la menace est encore plus évidente. Le document note des erreurs dans la transcription des notes médicales et des silences perçus comme des omissions d’informations que le modèle a tenté de couvrir. Cette constatation correspond à un travail que nous avons vu du MIT selon lequel les modèles présentent un biais structurel face aux zones de silence informationnel.

Les hallucinations ne sont pas marginales. Elles sont systémiques. Elles augmentent lorsque vous ne donnez pas de contexte au modèle, lorsque votre question n’est pas claire, ou qu’un utilisateur ne sait pas quelle est la réponse et attend une réponse quoi qu’il en coûte. Et c’est ce que le document souligne vraiment. Un prompt sert de structure cognitive. Permettre un rôle, un contexte et une limitation aide à réduire la taille des hallucinations. Cela est soutenu par les recommandations de Google DeepMind et OpenAI dans leurs guides d’utilisation consciencieuse.

Réduire l’accès à Internet peut également aider à réduire le risque, mais ne l’élimine pas de l’image. Les modèles connectés peuvent également ingérer de fausses informations en ligne. Les fausses nouvelles ne disparaissent pas. Elles changent d’échelle. La quantité de contenu généré par l’IA pourrait dépasser celle générée par les humains en masse. Plusieurs études, notamment celle menée par l’OCDE, indiquent que la production de contenus synthétiques progresse plus rapidement que les capacités de vérification.

Le risque est circulaire. Les IA formées sur le contenu créé par les IA. Une perte de diversité informationnelle de manière progressive. Depuis 2023, des chercheurs de l’Université de Stanford ont observé ce phénomène, autrement connu sous le nom d’effondrement du modèle.

Face à ces risques, la modération humaine à grande échelle est une solution pratique mais irréaliste. Le volume est trop important. Les plateformes misent sur l’auto-modération algorithmique. Cela crée une nouvelle opacité. La transparence, alors, devient centrale. Afficher les sources ne suffit pas si ces sources sont elles-mêmes fragiles. La confiance ne peut pas être entièrement déléguée à la machine.

C’est à ce stade que la responsabilité de l’utilisateur doit intervenir. Relire. Vérifier. Recouper. Contester la réponse. Demander au modèle sa certitude. La version croisée des LLM commence à être explorée par les universitaires. Comment intégrer une idée simple. L’IA générative n’est pas une autorité. C’est un outil de production probabiliste.

Plus l’utilisation dans des domaines à fort impact est grande, plus l’exigence humaine devrait l’être. Les hallucinations crédibles à grande échelle peuvent influencer les opinions, propager des récits sans fondement, saper les processus électoraux.

Depuis 2023, il y a eu un certain nombre de rapports de l’Union européenne et de l’ONU avertissant de ce danger. Mais cela ne signifie pas rejeter les intelligences artificielles génératives. Leur pouvoir est réel. Leur utilité est démontrée. Mais leur fiabilité n’est pas automatique. Elle se construit. Elle se contrôle. Elle se vérifie. Une IA qui parle n’est pas une IA qui dit la vérité. Et plus elle se sent sûre d’elle, plus vous devez être sûr de votre esprit critique.

Alioune Ba

(Source : Sud Quotidien, 4 février 2026)

Fil d'actu

  • Charte de membre Africollector Burkina NTIC (25 février 2026)
  • TIC ET AGRICULTURE AU BURKINA FASO Étude sur les pratiques et les usages Burkina NTIC (9 avril 2025)
  • Sortie de promotion DPP 2025 en Afrique de l’Ouest Burkina NTIC (12 mars 2025)
  • Nos étudiant-es DPP cuvée 2024 tous-tes diplomés-es de la Graduate Intitute de Genève Burkina NTIC (12 mars 2025)
  • Retour sur images Yam Pukri en 2023 Burkina NTIC (7 mai 2024)

Liens intéressants

  • NIC Sénégal
  • ISOC Sénégal
  • Autorité de régulation des télécommunications et des postes (ARTP)
  • Fonds de Développement du Service Universel des Télécommunications (FDSUT)
  • Commission de protection des données personnelles (CDP)
  • Conseil national de régulation de l’audiovisuel (CNRA)
  • Sénégal numérique (SENUM SA)

Navigation par mots clés

  • 4507/5471 Régulation des télécoms
  • 359/5471 Télécentres/Cybercentres
  • 3578/5471 Economie numérique
  • 1934/5471 Politique nationale
  • 5471/5471 Fintech
  • 533/5471 Noms de domaine
  • 2423/5471 Produits et services
  • 1506/5471 Faits divers/Contentieux
  • 816/5471 Nouveau site web
  • 4977/5471 Infrastructures
  • 1891/5471 TIC pour l’éducation
  • 194/5471 Recherche
  • 256/5471 Projet
  • 3901/5471 Cybersécurité/Cybercriminalité
  • 1917/5471 Sonatel/Orange
  • 1670/5471 Licences de télécommunications
  • 287/5471 Sudatel/Expresso
  • 1103/5471 Régulation des médias
  • 1301/5471 Applications
  • 1085/5471 Mouvements sociaux
  • 1736/5471 Données personnelles
  • 135/5471 Big Data/Données ouvertes
  • 616/5471 Mouvement consumériste
  • 370/5471 Médias
  • 661/5471 Appels internationaux entrants
  • 1605/5471 Formation
  • 186/5471 Logiciel libre
  • 2428/5471 Politiques africaines
  • 1146/5471 Fiscalité
  • 175/5471 Art et culture
  • 600/5471 Genre
  • 1769/5471 Point de vue
  • 1208/5471 Commerce électronique
  • 1536/5471 Manifestation
  • 327/5471 Presse en ligne
  • 126/5471 Piratage
  • 214/5471 Téléservices
  • 912/5471 Biométrie/Identité numérique
  • 318/5471 Environnement/Santé
  • 349/5471 Législation/Réglementation
  • 422/5471 Gouvernance
  • 1795/5471 Portrait/Entretien
  • 147/5471 Radio
  • 823/5471 TIC pour la santé
  • 301/5471 Propriété intellectuelle
  • 63/5471 Langues/Localisation
  • 1074/5471 Médias/Réseaux sociaux
  • 2064/5471 Téléphonie
  • 209/5471 Désengagement de l’Etat
  • 1085/5471 Internet
  • 120/5471 Collectivités locales
  • 476/5471 Dédouanement électronique
  • 1254/5471 Usages et comportements
  • 1054/5471 Télévision/Radio numérique terrestre
  • 589/5471 Audiovisuel
  • 3711/5471 Transformation digitale
  • 399/5471 Affaire Global Voice
  • 160/5471 Géomatique/Géolocalisation
  • 329/5471 Service universel
  • 669/5471 Sentel/Tigo
  • 179/5471 Vie politique
  • 1623/5471 Distinction/Nomination
  • 34/5471 Handicapés
  • 724/5471 Enseignement à distance
  • 705/5471 Contenus numériques
  • 605/5471 Gestion de l’ARTP
  • 180/5471 Radios communautaires
  • 1853/5471 Qualité de service
  • 440/5471 Privatisation/Libéralisation
  • 139/5471 SMSI
  • 481/5471 Fracture numérique/Solidarité numérique
  • 3000/5471 Innovation/Entreprenariat
  • 1380/5471 Liberté d’expression/Censure de l’Internet
  • 48/5471 Internet des objets
  • 176/5471 Free Sénégal
  • 817/5471 Intelligence artificielle
  • 206/5471 Editorial
  • 3/5471 Gaming/Jeux vidéos
  • 24/5471 Yas

2026 OSIRIS
Plan du site - Archives (Batik)

Suivez-vous