L’IA utilisée comme arme pour la cybercriminalité: un danger sans précédent
Claude Gélinas
30 août 2025
L’intelligence artificielle (IA) révolutionne notre société, offrant des avancées majeures dans de nombreux secteurs.
Mais il y a d’importantes zones d’ombres, aussi car elle devient également une arme puissante entre les mains des cybercriminels.
Des chercheurs et experts en cybersécurité alertent à propos d’une utilisation inédite et massive de l’IA pour commettre des cybercrimes, de l’extorsions, des fraudes et des attaques par rançonnage à une échelle jusqu’ici jamais vue.
L’essor de l’IA agentique au service de la cybercriminalité
La cybercriminalité a toujours évolué avec les technologies. Aujourd’hui, l’IA joue un rôle clé dans cette transformation, permettant aux malfaiteurs de lancer des attaques plus sophistiquées, automatisées et personnalisées sans nécessiter une expertise technique poussée.
Les rançogiciels pilotés par IA, la fraude par hameçonnage ultra-réaliste, les maliciels adaptatifs et les hypertrucages en sont les porte étendards pour ainsi dire.
Selon un rapport récent de la startup Anthropic, l’IA agentique (des systèmes d’IA autonomes capables de prendre des décisions tactiques et stratégiques) est utilisée pour orchestrer des campagnes d’extorsion, de fraude et de rançogiciels.
Ces systèmes analysent les données extraites des victimes, choisissent les cibles prioritaires et adaptent les demandes de rançon en temps réel, augmentant ainsi considérablement leur efficacité et leur impact financier.
Cette automatisation supprime presque la barrière technique, laissant la porte ouverte à des acteurs moins qualifiés mais tout aussi dangereux.
Exemples concrets récents
En 2021, le groupe DarkSide a attaqué Colonial Pipeline aux États-Unis avec un rançogiciel capable de s’adapter aux défenses du réseau, provoquant une paralysie majeure des infrastructures et un paiement de plusieurs millions de dollars en rançon.
En 2023, une attaque contre Royal Mail au Royaume-Uni a montré un écosystème de rançogiciel automatisé par l’IA capable de scanner les réseaux, d’ajuster l’attaque et de négocier automatiquement avec les victimes via des chatbots sophistiqués.
En 2022, un hôpital français a été piraté par des cybercriminels utilisant des algorithmes d’IA pour identifier les fichiers les plus sensibles, maximisant ainsi la pression pour l’extorsion.
Le rançogiciel PromptLock, découvert en août 2025, est le premier rançogiciel intelligent entièrement animé par l’IA générative, capable d’auto-adaptation ce qui complexifie considérablement sa détection.
Un cas d’ingénierie sociale révélateur s’est produit lorsqu’un employé a reçu un appel en visioconférence de « son PDG » demandant un virement urgent alors qu’il s’agissait d’un hypertrucage IA hautement réaliste.
Ces quelques exemples illustrent comment l’IA permet des attaques ciblées, rapides, efficaces et difficiles à contrer. Les criminels peuvent automatiser des tâches complexes, multiplier les points d’entrée, contourner les protections classiques et personnaliser leurs attaques à grande échelle.
Les méthodes d’attaque alimentées par l’IA
Les forces destructrices de l’IA se traduisent par l’usage de diverses techniques (nouvelles ou amplifiées) de cyberattaques, comme…
Hameçonnage automatisé et hyper-personnalisé: Les modèles de langage génèrent des emails ou des messages SMS d’hameçonnage très convaincants, s’appuyant sur les données publiques des victimes (réseaux sociaux, courriels, etc.) pour maximiser le taux d’ouverture des messages et d’interactions, par la suite.
Malwares adaptatifs et polymorphes: Ces logiciels malveillants modifient leur code et comportement via l’IA en temps réel pour éviter la détection par des antivirus et des systèmes de sécurité classiques.
Usurpation biométrique et hypertrucages: L’IA crée des images, des vidéos et des voix synthétiques réalistes (« deepfakes ») pour tromper les systèmes de reconnaissance et les personnes. Il est devenu possible de cloner la voix d’un dirigeant ou de falsifier une vidéo pour manipuler des décisions ou escroquer.
Automatisation des attaques et rançogiciels autonomes: Certaines IA agissent seules pour scanner, attaquer et exfiltrer les données des réseaux et même négocier les rançons, réduisant la nécessité d’un opérateur humain expert.
Attaques ciblées sur les systèmes d’IA: Les algorithmes d’IA eux-mêmes sont devenus des cibles (par ex.: empoisonnement des données d’apprentissage, manipulation des décisions), ce qui peut provoquer des choix erronés critiques, notamment dans la santé ou la finance.
Les risques et les conséquences pour les organisations et les individus
Le recours à l’IA dans la cybercriminalité multiplie les risques et aggrave les impacts:
Une augmentation de la fréquence et de la sophistication des attaques met les organisations en posture défensive permanente, rendant la gestion des incidents plus complexe, dispendieuse et stressante.
Des pertes financières importantes sont constatées, tant par les paiements directs de rançons que les coûts liés aux interruptions d’activité, incidents de sécurité et atteintes à la réputation.
L’erosion de la confiance des clients et des partenaires peut découler de ces cyberattaques répétées et souvent spectaculaires, entrainant des impacts à long terme sur les marchés.
Pour les individus, le risque de fraude à l’identité, l’usurpation vocale, les arnaques sentimentales ou financières est en hausse et s’accompagne d’une difficulté accrue à discerner le vrai du faux dans les contenus numériques.
La sécurité nationale et les infrastructures critiques sont plus exposées, tel qu’illustré par les attaques sur pipelines, contre les hôpitaux ou des services publics.
Conseils pour se défendre contre l’IA lorsqu’elle est utilisée comme une arme
Face à ces dangers, comment protéger efficacement les systèmes, les organisations et les personnes?
Pour les organisations
Mettre en place une stratégie de cybersécurité incluant l’IA défensive: Utiliser des systèmes d’IA capables de détecter en temps réel les comportements anormaux, l’adaptation des malwares et les tentatives de hameçonnage. Ces systèmes d’IA défensive sont capables d’apprendre et de s’ajuster continuellement aux nouvelles menaces.
Effectuer un audit complet des chaînes d’approvisionnement de ses solutions IA: Vérifier la sécurité à chaque étape du cycle de vie des systèmes IA pour éviter leur compromission ou l’exploitation.
Former continuellement les employés à la reconnaissance des attaques sophistiquées (par ex.: hameçonnage personnalisé, hypertrucages ou appels téléphoniques suspects). La sensibilisation est une barrière clé.
Mettre en œuvre des systèmes d’authentification forte et multi-facteurs, notamment pour les accès aux systèmes critiques et les transactions financières.
Prévoir des mécanismes de réponse rapide et d’isolement des incidents pour limiter l’impact en cas d’intrusion ou d’une attaque par rançogiciel.
Surveiller activement les réseaux et les comportements via des solutions adaptées afin d’identifier les tentatives d’attaque basées sur l’IA dès la phase initiale.
Pour les particuliers
Être vigilant face aux messages et aux appels inattendus demandant des informations sensibles ou un transfert d’argent, même s’ils semblent provenir d’une source fiable (par ex.: les hypertrucages vocaux ou visuels).
Ne jamais cliquer sur des liens ou télécharger des pièces jointes douteuses et vérifier l’authenticité des expéditeurs par des moyens complémentaires.
Utiliser des mots de passe forts et uniques, ainsi que l’authentification multi-facteurs pour les comptes importants.
Mettre régulièrement à jour ses appareils et logiciels pour bénéficier des dernières protections.
Sensibiliser les proches aux techniques d’arnaques utilisant l’IA, pour limiter l’impact à l’échelle familiale ou communautaire.
Perspectives d’avenir et nécessité d’une régulation adaptée
L’IA dans la cybercriminalité est une menace en pleine expansion. Les cybercriminels intègrent de plus en plus d’agents IA autonomes capables d’actions complexes, multipliant les attaques simultanées et variant leurs méthodes pour échapper aux défenses.
La frontière entre les attaques humaines et celles de l’IA s’estompe, rendant la lutte contre ces menaces d’autant plus ardue.
Les experts appellent à un renforcement des législations et des régulations autour de l’intelligence artificielle pour encadrer le développement, le déploiement et l’usage des technologies d’IA, notamment celles qui sont génératives. Il apparaît donc crucial d’instaurer des mécanismes de responsabilité, de contrôle et de surveillance afin de limiter les abus sans toutefois tomber dans la dystopie d’un État policier (ce qui demeure une inquiétude de tous les instants, vu les visées malveillantes de ceux que je qualifie de mercenaires mondialistes, au service d’oligarques qui cherchent à imposer un contrôle total sur les peuples).
Par ailleurs, la collaboration internationale et la mise en commun des ressources en cybersécurité IA sont vitales pour contrer ces attaques transnationales. Les organisations doivent également investir dans la recherche et l’innovation en IA défensive tout en restant dans un état vigilant de veille permanente en regard de l’évolution des tactiques cybercriminelles.
Les arnaqueurs vont continuer à profiter des ventres mous, pour ainsi dire.
Ainsi, l’utilisation de l’intelligence artificielle comme arme pour la cybercriminalité marque une étape majeure et inquiétante.
Les attaques automatisées, intelligentes et adaptatives rendent les défenses traditionnelles quasi obsolètes. La compréhension de ces menaces, l’anticipation des risques et la mise en œuvre de mesures spécifiques, techniques et humaines sont indispensables pour se protéger efficacement, aujourd’hui et encore davantage, demain.
L’intelligence artificielle est exploitée comme une arme inédite en cybercriminalité, automatisant extorsion, fraude et rançogiciels Elle rend les attaques plus sophistiquées, personnalisées et accessibles à des criminels moins qualifiés, décuplant…
Les pales d’éoliennes libèrent des micro- et nano-plastiques qui contaminent progressivement les sols agricoles proches, menaçant leur fertilité et la santé environnementale. Ce risque émergent nécessite des études approfondies et…
Au Québec, refusez le don d'organe via le registre de la RAMQ avec un autocollant sur la carte d'assurance ou via le notaire. Au menu des risques: diagnostics erronés de…
À 54 ans, par exemple, un Canadien peut investir jusqu’à 102 000 $ dans un CELI, libre d’impôt, pour la retraite ou des projets, avec flexibilité et avantages successoraux.
Le mode professionnel de Facebook transforme votre profil pour créer, monétiser et analyser du contenu. Gagnez en visibilité tout en contrôlant votre confidentialité et audience.
Mark Cook expose la manipulation sophistiquée des élections électroniques, centralisées, et propose un retour au vote local, transparent, vérifiable pour restaurer la confiance citoyenne.
Les failles canadiennes incluent le financement par des sociétés-écrans, la désinformation numérique, le lobbying non enregistré et l’exploitation des diasporas, permettant l’ingérence étrangère dans les élections et politiques.
Au Québec, donner une maison par succession évite l’impôt immédiat pour le propriétaire et offre au bénéficiaire une propriété sans taxe d’héritage, un espoir rare.