Déplier le sommaire Replier le sommaire
Les modèles de langage utilisés dans l’intelligence artificielle ne sont pas exempts de vulnérabilités lorsqu’ils sont utilisés à des fins malveillantes.
Les avancées technologiques en matière d’intelligence artificielle sont à la fois bénéfiques et préoccupantes. Les modèles de langage de grande envergure, comme toutes les technologies, peuvent être utilisés à des fins malveillantes. Des attaques sophistiquées telles que le phishing peuvent être facilitées par ces modèles, comme l’a démontré Julian Hazell dans ses travaux sur la cybersécurité. Des contenus trompeurs créés par des outils tels que ChatGPT peuvent être dangereusement convaincants.
Le MIT met également en évidence la facilité avec laquelle ces modèles pourraient être utilisés pour créer des agents biologiques nuisibles. Les données confidentielles peuvent être incorporées par erreur dans les bases de connaissances des modèles de langage et être exposées si des requêtes spécifiques sont faites aux assistants virtuels.
Depuis le lancement de ChatGPT, les modèles de langage de grande envergure sont de plus en plus utilisés de manière détournée par des individus malveillants. Des exemples tels que FraudGPT et WormGPT, des modèles spécialisés dans la fraude, illustrent cette tendance préoccupante. Les entreprises à l’origine de ces modèles, y compris OpenAI, n’ont pas encore mis en place de mesures pour empêcher leur utilisation abusive. Même les systèmes censés être sécurisés peuvent être contournés relativement facilement et à moindre coût.
Malgré les efforts déployés par certains leaders du secteur, comme Google, pour atténuer ces vulnérabilités, le manque de consensus au sein d’OpenAI et l’évolution rapide des modèles de langage GPT rendent difficile la recherche d’un équilibre entre innovation et sécurité. En conclusion, bien que l’intelligence artificielle offre des perspectives technologiques prometteuses, les développements récents soulèvent des défis complexes et potentiellement dangereux, nécessitant une vigilance accrue et des mesures de sécurité.
L’examen des risques associés aux modèles de langage de grande envergure
Les risques d’utilisation abusive en augmentation
Des solutions pour contrer le phénomène