La cybercriminalité exploitant l’IA : une menace croissante
Les cybercriminels trouvent de nouvelles façons d’utiliser l’intelligence artificielle (IA) pour mener leurs attaques de manière plus efficace et crédible. L’IA générative, largement popularisée par ChatGPT, un robot conversationnel, se répand dans le monde de la cybercriminalité. Des domaines tels que le phishing, les rançongiciels, les escroqueries et même les arnaques au président bénéficient de cette évolution des outils utilisés par les criminels.
L’IA se démocratise chez les cybercriminels
La montée en puissance de l’IA chez les cybercriminels les rend plus efficaces et crédibles, selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr. Les méthodes utilisées par ces criminels restent les mêmes, mais le volume des attaques et leur pouvoir de persuasion augmentent considérablement.
L’évolution sophistiquée du phishing
Les e-mails de phishing, qui promettent des cadeaux gratuits ou des réductions, deviennent de plus en plus sophistiqués et évitent les erreurs de syntaxe ou d’orthographe grossières. Les escrocs s’adaptent au langage de leurs cibles et utilisent des contextes appropriés pour les convaincre de cliquer sur des liens ou des sites suspects.
L’IA générative pour créer des logiciels malveillants personnalisés
L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés, exploitant des vulnérabilités connues des programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des acteurs malveillants.
L’utilisation de l’IA par les hackers pour exploiter les données
Les hackers utilisent l’IA pour trier et exploiter une grande quantité de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.
L’arnaque au président et l’IA
L’IA est également utilisée dans le cadre de l’arnaque au président, où les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio « deepfake », ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement.
Les rançongiciels et le vishing également concernés
Les entreprises et les hôpitaux font face aux rançongiciels qui utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.
Des contenus synthétiques générés par l’IA pour tromper les victimes
La police britannique a signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.
Adopter la règle du « zero trust »
Face à ces nouvelles menaces, il est crucial d’appliquer la règle du « zero trust » en matière de cybersécurité et d’IA. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.
Conclusion
La cybercriminalité utilisant l’IA représente une menace croissante. Les cybercriminels exploitent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.