IA open source : comment elle révolutionne le hacking selon le FBI

L’impact de l’IA open source sur le hacking : Le FBI s’exprime

Utilisation de l’IA par les cybercriminels

Les cybercriminels exploitent de plus en plus l’intelligence artificielle (IA) open source pour améliorer leurs outils et piéger les internautes. Ils utilisent des chatbots basés sur des modèles de langage tels que ChatGPT, Google Bard ou Claude pour faciliter leurs activités malveillantes. En manipulant ces IA grâce à leur expertise, ils parviennent à contourner les mesures de sécurité et les restrictions mises en place par les créateurs de ces outils. Le FBI a tiré la sonnette d’alarme quant à l’utilisation massive des modèles de langage par la communauté criminelle.

Les modèles open source, un outil privilégié par les hackers

Les hackers préfèrent utiliser des modèles d’IA open source gratuits et personnalisables plutôt que ceux contrôlés par des entreprises. Ces modèles open source, accessibles à tous sur internet, permettent de générer du contenu illicite. De plus, ils sont plus légers et demandent moins de puissance de calcul que les grands modèles développés par des géants du secteur. Les hackers peuvent ainsi les utiliser localement, sur leur ordinateur ou même sur leur smartphone, ce qui est un avantage considérable pour eux. Sur le dark web, il existe également de nombreux chatbots conçus par des hackers pour générer du contenu illégal, comme des malwares. Certains chatbots spécialisés dans les activités criminelles ont même fait leur apparition sur les marchés noirs, tels que WormGPT et FraudGPT, capables de créer des courriels de phishing persuasifs, de coder des virus ou même de générer des logiciels falsifiant des cartes de crédit.

Les différentes utilisations de l’IA par les cybercriminels

Les pirates utilisent l’IA de différentes manières pour mener leurs activités illicites. Ils conçoivent des pages de phishing qui imitent l’interface de plateformes officielles, comme les sites bancaires. De plus, ils exploitent les capacités des IA génératives pour créer des virus polymorphes, capables de modifier leur code à chaque exécution, rendant leur détection plus complexe pour les antivirus traditionnels. Les escrocs utilisent également la technologie deepfake pour extorquer de l’argent à leurs victimes en générant des images et des vidéos falsifiées les mettant en scène dans des situations compromettantes. Ils utilisent ensuite ces contenus pour les diffuser sur les réseaux sociaux ou les sites pornographiques. Les hackers n’hésitent pas non plus à utiliser une IA de clonage vocal pour manipuler leurs victimes au téléphone en imitant la voix de proches, afin de les convaincre de leur donner de l’argent.

L’avenir de l’IA et du hacking

Le FBI prévoit une augmentation de l’utilisation criminelle de l’IA à mesure que cette technologie se démocratise. Il est donc nécessaire de développer des stratégies de prévention et de protection pour contrer cette utilisation malveillante. La sécurisation des modèles d’IA open source et la mise en place de mesures de sécurité plus robustes sont essentielles pour éviter les manipulations. Il est important de promouvoir une utilisation responsable et éthique de l’IA, qui a le potentiel de bénéficier à la société dans de nombreux domaines.

Source: PCMag

Partagez votre avis