OSIRIS

Observatoire sur les systèmes d’information, les réseaux et les inforoutes au Sénégal

Show navigation Hide navigation
  • OSIRIS
    • Objectifs
    • Partenaires
  • Ressources
    • Société de l’Information
    • Politique nationale
    • Législation et réglementation
    • Etudes et recherches
    • Points de vue
  • Articles de presse
  • Chiffres clés
    • Le Sénégal numérique
    • Principaux tarifs
    • Principaux indicateurs
  • Opportunités
    • Projets

Accueil > Articles de presse > Année 2026 > Février 2026 > Intelligences artificielles génératives : Au-delà des biais, le risque (…)

Intelligences artificielles génératives : Au-delà des biais, le risque potentiel des hallucinations

mercredi 4 février 2026

Intelligence artificielle

Les intelligences artificielles génératives produisent aujourd’hui des textes, des images et des décisions dont la crédibilité apparente peut aller jusqu’à l’illusion. Parfois cette crédibilité est excessive. Derrière la fluidité se cachent deux grands risques. D’une part les biais dérivés du matériel humain. D’autre part, les hallucinations, ces inventions crédibles mais fausses. Un phénomène encore imparfaitement compris, qui a des impacts concrets sur la recherche, la justice, la médecine, les affaires et la démocratie.

L’un d’entre vous interroge une intelligence artificielle générative. La réponse arrive. Elle est fluide, structurée, confiante. Elle semble maîtriser son sujet. Pourtant, elle est parfois fausse. Pas approximative. Pas imprécise. Fausse. C’est ce que les chercheurs appellent une hallucination. Une définition abrégée est tirée du document de travail qui sert de base à cet article. Un modèle hallucine lorsqu’il génère des informations sans aucun fondement dans la réalité ou les données d’entraînement, tout en présentant tous les signes extérieurs de la vérité.

Cette distinction est cruciale. Une erreur factuelle est encore vérifiable. Une hallucination invente. C’est une source inventée, un précédent juridique imaginaire, une étude scientifique fantôme. Le modèle ne ment pas. Il ne sait pas qu’il se trompe. Il prédit une séquence de mots statistiquement cohérente. La littérature scientifique confirme cette affirmation. Les architectures probabilistes sous-tendent les grands modèles de langage. Ils prennent des milliards d’exemples textuels et optimisent la probabilité du token suivant. Ils n’ont ni un sens sémantique du monde ni une vue directe de la réalité empirique.

Et c’est ce que les travaux classiques (Bender et al. sur les « perroquets stochastiques », le document de l’Association for Computing Machinery en 2021) clarifient. L’IA ne sait pas. Elle calcule. Elle réagit parce que nous voulons une réponse. Cela crée un biais fondamental. Le biais de satisfaction. Le modèle privilégie de donner une réponse plutôt que de gérer l’incertitude. Ce biais est technique. Il est aussi humain. La réponse est trop bien construite, et l’utilisateur semble bien content.

Les biais ne s’arrêtent pas là. Le rapport distingue deux types principaux. Les biais algorithmiques, issus des données d’entraînement. Et les préjugés sociaux qui reflètent les déséquilibres du monde réel. Le biais de genre est encore l’exemple le plus connu. Les recherches de l’UNESCO et de l’OCDE suggèrent que les modèles associent plus fréquemment les femmes aux services de soins et les hommes aux postes de direction. Ainsi, le document rend ce mécanisme concret.

Le biais culturel s’inscrit dans la même logique. Les grands modèles sont entraînés sur des corpus anglophones, occidentaux, nord-américains. Il dit que certains choix lexicaux, certaines moeurs de politesse ou de moralité proviennent d’une certaine culture. Cette observation est cohérente avec les analyses menées par l’Institut de l’IA centrée sur l’humain de Stanford. Le rapport AI Index 2024 de l’institut cite la grande sous-représentation des langues africaines, asiatiques et locales dans les ensembles de données de référence.

Ces biais deviennent d’autant plus prononcés lorsqu’ils croisent les hallucinations. Le document fournit quelques exemples spécifiques des deux pour illustrer le point. Dans le domaine de la recherche scientifique, un modèle peut inventer des résultats et des références lorsqu’il est privé de données. Ce risque est documenté. En 2023, plusieurs mises en garde contre les IA génératives non contrôlées dans l’écriture scientifique sont apparus dans Nature. Des références inexistantes ont été détectées dans des manuscrits soumis à des revues à comité de lecture.

Le document mentionne un cas réel survenu aux États-Unis. Un avocat a déposé des conclusions de précédents tirés d’un modèle GPT. Ces précédents n’existaient pas. En juin 2023, le tribunal fédéral de New York a confirmé le cas. Le résultat a été des sanctions disciplinaires.

En médecine, la menace est encore plus évidente. Le document note des erreurs dans la transcription des notes médicales et des silences perçus comme des omissions d’informations que le modèle a tenté de couvrir. Cette constatation correspond à un travail que nous avons vu du MIT selon lequel les modèles présentent un biais structurel face aux zones de silence informationnel.

Les hallucinations ne sont pas marginales. Elles sont systémiques. Elles augmentent lorsque vous ne donnez pas de contexte au modèle, lorsque votre question n’est pas claire, ou qu’un utilisateur ne sait pas quelle est la réponse et attend une réponse quoi qu’il en coûte. Et c’est ce que le document souligne vraiment. Un prompt sert de structure cognitive. Permettre un rôle, un contexte et une limitation aide à réduire la taille des hallucinations. Cela est soutenu par les recommandations de Google DeepMind et OpenAI dans leurs guides d’utilisation consciencieuse.

Réduire l’accès à Internet peut également aider à réduire le risque, mais ne l’élimine pas de l’image. Les modèles connectés peuvent également ingérer de fausses informations en ligne. Les fausses nouvelles ne disparaissent pas. Elles changent d’échelle. La quantité de contenu généré par l’IA pourrait dépasser celle générée par les humains en masse. Plusieurs études, notamment celle menée par l’OCDE, indiquent que la production de contenus synthétiques progresse plus rapidement que les capacités de vérification.

Le risque est circulaire. Les IA formées sur le contenu créé par les IA. Une perte de diversité informationnelle de manière progressive. Depuis 2023, des chercheurs de l’Université de Stanford ont observé ce phénomène, autrement connu sous le nom d’effondrement du modèle.

Face à ces risques, la modération humaine à grande échelle est une solution pratique mais irréaliste. Le volume est trop important. Les plateformes misent sur l’auto-modération algorithmique. Cela crée une nouvelle opacité. La transparence, alors, devient centrale. Afficher les sources ne suffit pas si ces sources sont elles-mêmes fragiles. La confiance ne peut pas être entièrement déléguée à la machine.

C’est à ce stade que la responsabilité de l’utilisateur doit intervenir. Relire. Vérifier. Recouper. Contester la réponse. Demander au modèle sa certitude. La version croisée des LLM commence à être explorée par les universitaires. Comment intégrer une idée simple. L’IA générative n’est pas une autorité. C’est un outil de production probabiliste.

Plus l’utilisation dans des domaines à fort impact est grande, plus l’exigence humaine devrait l’être. Les hallucinations crédibles à grande échelle peuvent influencer les opinions, propager des récits sans fondement, saper les processus électoraux.

Depuis 2023, il y a eu un certain nombre de rapports de l’Union européenne et de l’ONU avertissant de ce danger. Mais cela ne signifie pas rejeter les intelligences artificielles génératives. Leur pouvoir est réel. Leur utilité est démontrée. Mais leur fiabilité n’est pas automatique. Elle se construit. Elle se contrôle. Elle se vérifie. Une IA qui parle n’est pas une IA qui dit la vérité. Et plus elle se sent sûre d’elle, plus vous devez être sûr de votre esprit critique.

Alioune Ba

(Source : Sud Quotidien, 4 février 2026)

Fil d'actu

  • TIC ET AGRICULTURE AU BURKINA FASO Étude sur les pratiques et les usages Burkina NTIC (9 avril 2025)
  • Sortie de promotion DPP 2025 en Afrique de l’Ouest Burkina NTIC (12 mars 2025)
  • Nos étudiant-es DPP cuvée 2024 tous-tes diplomés-es de la Graduate Intitute de Genève Burkina NTIC (12 mars 2025)
  • Retour sur images Yam Pukri en 2023 Burkina NTIC (7 mai 2024)
  • Quelles différences entre un don et un cadeau ? Burkina NTIC (22 avril 2024)

Liens intéressants

  • NIC Sénégal
  • ISOC Sénégal
  • Autorité de régulation des télécommunications et des postes (ARTP)
  • Fonds de Développement du Service Universel des Télécommunications (FDSUT)
  • Commission de protection des données personnelles (CDP)
  • Conseil national de régulation de l’audiovisuel (CNRA)
  • Sénégal numérique (SENUM SA)

Navigation par mots clés

  • 4607/5194 Régulation des télécoms
  • 365/5194 Télécentres/Cybercentres
  • 3651/5194 Economie numérique
  • 1922/5194 Politique nationale
  • 5009/5194 Fintech
  • 547/5194 Noms de domaine
  • 2887/5194 Produits et services
  • 1548/5194 Faits divers/Contentieux
  • 793/5194 Nouveau site web
  • 5194/5194 Infrastructures
  • 1728/5194 TIC pour l’éducation
  • 200/5194 Recherche
  • 257/5194 Projet
  • 4353/5194 Cybersécurité/Cybercriminalité
  • 1841/5194 Sonatel/Orange
  • 1640/5194 Licences de télécommunications
  • 297/5194 Sudatel/Expresso
  • 1012/5194 Régulation des médias
  • 1350/5194 Applications
  • 1154/5194 Mouvements sociaux
  • 1754/5194 Données personnelles
  • 130/5194 Big Data/Données ouvertes
  • 616/5194 Mouvement consumériste
  • 385/5194 Médias
  • 675/5194 Appels internationaux entrants
  • 1951/5194 Formation
  • 99/5194 Logiciel libre
  • 2248/5194 Politiques africaines
  • 1049/5194 Fiscalité
  • 170/5194 Art et culture
  • 614/5194 Genre
  • 1914/5194 Point de vue
  • 1045/5194 Commerce électronique
  • 1542/5194 Manifestation
  • 341/5194 Presse en ligne
  • 136/5194 Piratage
  • 213/5194 Téléservices
  • 959/5194 Biométrie/Identité numérique
  • 314/5194 Environnement/Santé
  • 406/5194 Législation/Réglementation
  • 420/5194 Gouvernance
  • 2010/5194 Portrait/Entretien
  • 155/5194 Radio
  • 813/5194 TIC pour la santé
  • 309/5194 Propriété intellectuelle
  • 68/5194 Langues/Localisation
  • 1115/5194 Médias/Réseaux sociaux
  • 2096/5194 Téléphonie
  • 221/5194 Désengagement de l’Etat
  • 1051/5194 Internet
  • 133/5194 Collectivités locales
  • 502/5194 Dédouanement électronique
  • 1249/5194 Usages et comportements
  • 1082/5194 Télévision/Radio numérique terrestre
  • 580/5194 Audiovisuel
  • 3282/5194 Transformation digitale
  • 402/5194 Affaire Global Voice
  • 163/5194 Géomatique/Géolocalisation
  • 327/5194 Service universel
  • 700/5194 Sentel/Tigo
  • 192/5194 Vie politique
  • 1647/5194 Distinction/Nomination
  • 35/5194 Handicapés
  • 720/5194 Enseignement à distance
  • 729/5194 Contenus numériques
  • 635/5194 Gestion de l’ARTP
  • 187/5194 Radios communautaires
  • 1946/5194 Qualité de service
  • 457/5194 Privatisation/Libéralisation
  • 139/5194 SMSI
  • 477/5194 Fracture numérique/Solidarité numérique
  • 2809/5194 Innovation/Entreprenariat
  • 1392/5194 Liberté d’expression/Censure de l’Internet
  • 48/5194 Internet des objets
  • 180/5194 Free Sénégal
  • 760/5194 Intelligence artificielle
  • 232/5194 Editorial
  • 24/5194 Yas

2026 OSIRIS
Plan du site - Archives (Batik)

Suivez-vous