Les cybercriminels ont découvert un nouvel allié pour rendre leurs activités illicites plus efficaces et dangereuses : l’intelligence artificielle (IA). Selon le Federal Bureau of Investigation (FBI), les hackers exploitent de plus en plus les modèles d’IA open source afin d’améliorer leurs outils et de piéger les internautes.
Les hackers utilisent des chatbots basés sur des modèles de langage tels que ChatGPT, Google Bard ou Claude pour faciliter leurs activités malveillantes. Grâce à leur expertise dans le domaine, ils parviennent à manipuler ces IA pour contourner les mesures de sécurité et les restrictions mises en place par les créateurs de ces outils.
Le FBI met en garde contre l’utilisation massive des modèles de langage par les cybercriminels. Cependant, il constate que les modèles d’IA les plus populaires auprès des internautes, comme GPT, ne sont pas les plus prisés des hackers.
Les hackers préfèrent utiliser des modèles d’IA open source gratuits et personnalisables plutôt que ceux contrôlés par des entreprises. Ces modèles open source, accessibles à tous sur internet, permettent de générer facilement du contenu illicite. De plus, ils sont plus légers et demandent moins de puissance de calcul que les grands modèles développés par des géants du secteur. Cela leur offre un avantage non négligeable pour les développeurs et les cybercriminels.
Il est intéressant de souligner que les criminels utilisent également des modèles d’IA personnalisés développés par d’autres hackers. Sur le dark web, on peut trouver de nombreux chatbots conçus pour générer du contenu illégal, notamment des malwares. Des chatbots dédiés exclusivement aux activités criminelles, tels que WormGPT et FraudGPT, sont disponibles à la vente à des prix élevés sur ces marchés noirs. Les pirates utilisent l’IA de différentes manières pour mener leurs activités illicites. Ils l’utilisent pour concevoir des pages de phishing imitant l’interface de plateformes officielles. De plus, ils exploitent les capacités des IA génératives pour créer des virus polymorphes, rendant ainsi leur détection plus compliquée pour les antivirus traditionnels.
Les escrocs utilisent également la technologie deepfake pour extorquer de l’argent à leurs victimes. Ils génèrent des images et des vidéos falsifiées, mettant en scène leurs cibles dans des situations compromettantes. Ils utilisent ensuite ces contenus pour harceler leurs victimes en les diffusant sur les réseaux sociaux ou les sites pornographiques. Les hackers n’hésitent pas non plus à utiliser une IA de clonage vocal pour manipuler leurs victimes au téléphone en imitant la voix de proches, afin de leur soutirer de l’argent.
Il est fort probable que les criminels continueront d’utiliser les avancées de l’IA pour améliorer leurs activités illicites. Le FBI estime même que l’utilisation criminelle de l’IA augmentera à mesure que cette technologie se démocratise. Par conséquent, il considère l’intelligence artificielle comme une priorité nationale.
Pour contrer l’utilisation malveillante de l’IA par les hackers, il est essentiel de développer des stratégies de prévention et de protection. Cela implique de sécuriser les modèles d’IA open source et de mettre en place des mesures de sécurité plus robustes pour éviter les manipulations. Il est primordial de veiller à une utilisation responsable et éthique de l’IA, qui a le potentiel de bénéficier à la société dans de nombreux domaines.
Source: PCMag
L’impact de l’IA open source sur le hacking selon le FBI