IA et cybersécurité bancaire : Bouclier et épée de Damoclès
vendredi 3 avril 2026
La masterclass de lancement de l’édition 2026 du Programme certifiant COFEB-HEC Paris a révélé, ce jeudi 2 avril 2026, l’ampleur de la menace que représente l’intelligence artificielle pour le secteur financier africain. Cette conférence en ligne animée par Marc Israel, Expert HEC, a démontré comment les mêmes algorithmes qui protègent les banques sont désormais entre les mains des cybercriminels.
« Pendant un conseil d’administration, un des administrateurs reçoit un message WhatsApp vocal. Pendant la pause, il l’écoute et reconnaît la voix d’un des directeurs présents dans la salle. Sa surprise : ’Mais comment m’as-tu envoyé ce vocal ?’ En fait, il ne l’avait pas envoyé. C’était un deepfake. »
Cette anecdote de Marc Israël, Expert HEC, est symptomatique de la problématique autour de laquelle il a animé en ligne, ce jeudi 2 avril 2026, la masterclass de lancement de l’édition 2026 du Programme certifiant COFEB-HEC Paris : « Intelligence artificielle et cybersécurité bancaire : opérationnaliser une double transformation ».
Ainsi que l’a rappelé Ferdinand Aboutou, conseiller du directeur général du COFEB, « La sécurité du secteur financier constitue actuellement une priorité majeure pour l’ensemble des acteurs, notamment les régulateurs et les dirigeants des institutions financières ».
L’acuité du thème est à la mesure du contexte actuel marqué par l’accélération des mutations technologiques qui transforment en profondeur les pratiques et les modèles à faire des institutions du système bancaire et financier de notre Union. Il traduit la volonté de mieux appréhender ces évolutions, d’en mesurer les implications concrètes et d’en faire des véritables leviers de performance.
Deepfakes en 3 secondes
« Avec l’intelligence artificielle, il ne faut plus rien croire et il faut douter de tout. » La phrase, lâchée par Marc Israël, à peine vingt minutes après le début de sa présentation, a de quoi interroger. L’ancien directeur technologique de Microsoft Afrique a ainsi planté le décor d’une ère où la réalité, elle-même, peut être falsifiée en quelques secondes.
« Trois secondes suffisent pour qu’un attaquant prenne le profil de votre voix et lui fasse dire ce qu’il veut », a précisé Marc Israël, fondateur de la société AETES spécialisée dans le déploiement de l’IA en Afrique.
Cette capacité de falsification ne se limite pas à la voix. Concernant la vidéo, Marc Israël a été tout aussi catégorique : « À partir du moment où on a une photo, ou qu’on a intercepté quelques secondes de vidéo passées sur WhatsApp, on a suffisamment de matière pour refaire une vidéo en moins d’une minute. »
Le constat est brutal : « Avec l’intelligence artificielle, il ne faut plus rien croire et il faut douter de tout. » L’expert a cité les modèles d’IA comme Sora (développé par OpenAI mais récemment arrêté) et ses nombreuses alternatives toujours disponibles. Ces outils permettent de créer des vidéos « plus vraies que vraies », destinées notamment à contourner les procédures de vérification d’identité (KYC - Know Your Customer) dans les banques.
La loi de Moore : un milliard de fois plus puissant
Pour expliquer cette accélération vertigineuse, Marc Israël est remonté à 1965 et à la fameuse loi de Moore, théorisée par le fondateur d’Intel. Cette loi stipule que la puissance des ordinateurs double tous les 12 à 18 mois.
Plus inquiétant encore : « Ce que nous avons aujourd’hui sera un milliard de fois moins puissant que ce que nous aurons dans deux ans. » Car si c’est un milliard de fois plus rapide aujourd’hui, ce sera deux milliards de fois plus rapide dans deux ans.
Marc Israël a cependant identifié un « point d’inflexion » critique survenu en décembre 2025, il y a seulement quatre mois : l’émergence de nouveaux modèles d’intelligence artificielle dits « agentiques », dotés d’une « rapidité et une puissance de calcul que nous n’avions jamais eues dans le monde. »
Le paradoxe : les mêmes armes des deux côtés
La thèse centrale de la masterclass repose sur un paradoxe dérangeant : les mêmes algorithmes, les mêmes modèles d’intelligence artificielle, les mêmes outils logiciels servent à la fois à défendre et à attaquer les systèmes bancaires.
Côté défense : des applications déjà en place
Marc Israël a rappelé que l’IA n’est pas nouvelle dans le secteur bancaire. Elle y opère depuis plus de vingt ans, notamment à travers :
1. La détection de fraude en temps réel : Tous les systèmes bancaires aujourd’hui, les core banking, les systèmes de cartes de crédit, sont équipés d’outils de détection de fraude quasi en temps réel. « Vous avez tous, si vous avez voyagé ou acheté des choses sur internet avec votre carte, connu des situations où la carte ne passe pas. Pourquoi ? Parce qu’un système de détection de fraude a généré une alerte qui protège l’utilisateur et le vendeur », explique l’Expert.
2. L’analyse comportementale : « Une anomalie, une tentative de fraude, une transaction obéit à des règles. Plus on amasse d’informations, plus on comprend les comportements de ces transactions et de ces utilisateurs. Donc quand il se passe quelque chose de pas normal, on va pouvoir le détecter. »
3. L’automatisation des réponses aux incidents : Marc Israël a évoqué la « théorie du signal », vieille de plusieurs décennies : « Il faut détecter les signaux au milieu du bruit. Ce sont ces signaux qui sont importants et qui vont nous permettre de répondre et d’alerter. »
4. L’évaluation dynamique du risque : « Comment évaluer une demande de crédit, comment évaluer le risque sur une transaction ? Ces choses sont directement reliées à notre posture de cybersécurité. » L’expert a mentionné avoir assisté à un conseil d’administration de sa banque (BankOne, banque mauricio-kényane dont il est administrateur) « il y a une dizaine de jours », où l’appétit au risque était au cœur des discussions.
Côté attaque : un arsenal qui s’étoffe
Face à ces défenses, les attaquants disposent désormais d’un arsenal redoutable :
1. Les deepfakes vocaux et vidéo : déjà évoqués, ils permettent l’usurpation d’identité de dirigeants, le contournement des procédures KYC et l’émission d’ordres de virement frauduleux.
2. Les attaques adversariales (adversarial attacks) : Marc Israël a promis d’expliquer « de manière simple ce qu’elles sont », mais la transcription s’interrompt avant cette explication. Ces attaques consistent à manipuler les algorithmes d’IA pour les tromper.
3. L’empoisonnement de données (data poisoning) : À partir du moment où on peut accéder à des modèles d’entraînement, on peut empoisonner ces modèles. « Donc on va pouvoir prendre des décisions et obtenir des scoring de risque qui sont en fait faux, tout simplement parce que les données sous-jacentes ont été empoisonnées. »
L’implication est terrifiante : une banque pourrait accorder des crédits à des clients insolvables ou refuser des clients sains, sans jamais comprendre que son système d’IA a été corrompu.
4. Le phishing amélioré par IA générative : « L’hameçonnage s’est grandement amélioré ces 12-18 derniers mois parce qu’on a utilisé les IA génératives. » Les emails frauduleux sont désormais indétectables : grammaire parfaite, personnalisation extrême, contexte adapté.
La démonstration a pris tout son sens lorsque Marc Israël a montré une diapositive révélant que « les mêmes modèles d’intelligence artificielle, les mêmes outils logiciels nous servent à la fois pour nous défendre et pour nous attaquer. »
« Comme Napoléon le disait, la meilleure défense c’est l’attaque. À partir du moment où on connaît les attaques, on va pouvoir mieux s’en défendre », a-t-il ajouté.
Les banques, cible numéro un
Le conférencier n’a pas mâché ses mots : « Le secteur bancaire est une cible. C’est aujourd’hui, et j’irais vers le numéro 1, mais il y a deux cibles majeures : les systèmes financiers et les systèmes de santé. »
Pourquoi cette focalisation ? « En raison de la valeur de ses actifs, de la sensibilité des données qu’il détient et du rôle systémique qu’il joue dans nos économies », avait expliqué en ouverture Ferdinand Aboutou, conseiller du directeur général du COFEB.
La menace est d’autant plus préoccupante que, comme l’a souligné M. Aboutou, « l’intelligence artificielle permet d’automatiser la réponse aux incidents et d’améliorer significativement les dispositifs de détection des fraudes, mais elle offre aussi aux cybercriminels des outils redoutables dont le taux de succès est constamment en progression. »
La BCEAO déjà mobilisée
La masterclass intervient dans un contexte où la BCEAO multiplie les initiatives. Ferdinand Aboutou a énuméré les actions déjà entreprises comme le Bureau de connaissance et de suivi des fintechs ; le déploiement du système de paiement instantané (PI-SPI) ; le lancement de laboratoires d’innovation financière ; le Programme de formation sur la digitalisation et la cybersécurité. « Ces initiatives confirment l’engagement de la Banque centrale à promouvoir l’innovation financière, tout en veillant à préserver les acquis de notre Union en matière de stabilité et de sécurité financière », a insisté M. Aboutou.
Cette masterclass visait à fournir aux institutions financières des outils pour opérationnaliser une transformation technologique en adoptant l’IA pour renforcer leur résilience tout en sécurisant rigoureusement leur propre modèle.
Malick Ndaw
(Source : Le Journal de l’économie sénégalaise, 3 avril 2026)
OSIRIS