Les cybercriminels utilisent l’intelligence artificielle (IA) de manière plus efficace et crédible
Les cybercriminels exploitent de plus en plus l’intelligence artificielle (IA) pour mener leurs attaques de manière plus efficace et crédible. L’utilisation de l’IA générative, qui a été popularisée auprès du grand public par le robot conversationnel ChatGPT, se répand dans le monde de la cybercriminalité. Le phishing, les rançongiciels, les escroqueries et même les arnaques au président bénéficient d’une mise à jour des outils utilisés par les criminels.
L’IA démocratise les cybercriminels et les rend plus efficaces et crédibles
Selon Jean-Jacques Latour, directeur de l’expertise en cybersécurité de Cybermalveillance.gouv.fr, l’IA se démocratise chez les cybercriminels et les rend plus efficaces et crédibles. Les méthodes utilisées par ces criminels ne changent pas, mais le volume des attaques et leur force de persuasion augmentent considérablement.
Des attaques de phishing plus sophistiquées grâce à l’IA
L’e-mail de phishing, qui promet des cadeaux gratuits ou des réductions, devient de plus en plus sophistiqué, évitant les erreurs grossières de syntaxe ou d’orthographe. Les escrocs s’adaptent au langage de leurs cibles et utilisent des contextes appropriés pour les convaincre de cliquer sur des liens ou des sites douteux.
L’IA générative utilisée pour créer des logiciels malveillants personnalisés
L’IA générative peut être détournée pour créer des logiciels malveillants personnalisés, exploitant des vulnérabilités connues de programmes informatiques. Des programmes tels que ThreatGPT, WormGPT et FraudGPT se développent sur le Darknet et gagnent en popularité auprès des acteurs malveillants.
L’utilisation de l’IA par les hackers pour exploiter les données
De plus, l’IA est utilisée par les hackers pour trier et exploiter une masse de données après avoir infiltré un système informatique. Cela leur permet de maximiser leurs profits en ciblant les informations les plus pertinentes.
L’IA au service de l’arnaque au président
L’IA est également utilisée dans le cadre de l’arnaque au président, où les hackers collectent des informations sur les dirigeants d’entreprises pour autoriser des virements frauduleux. Grâce aux générateurs d’audio “deepfake”, ils peuvent imiter parfaitement la voix des dirigeants pour donner des ordres de virement.
Les rançongiciels et le vishing également concernés par l’utilisation de l’IA
Malheureusement, les entreprises et les hôpitaux sont également confrontés aux rançongiciels qui utilisent déjà l’IA pour modifier leur code et échapper à la détection des outils de sécurité. De plus, la technique du vishing, où un faux banquier demande un transfert d’argent, pourrait également être améliorée grâce à l’IA.
Les contenus synthétiques générés par l’IA utilisés pour tromper, harceler ou extorquer des victimes
La police britannique a déjà signalé des cas où des contenus synthétiques générés par l’IA ont été utilisés pour tromper, harceler ou extorquer des victimes. Bien que les premiers cas en France n’aient pas été officiellement recensés, des doutes subsistent quant à l’utilisation de l’IA par les criminels.
La règle du « zero trust » pour contrer les nouvelles menaces
Face à ces nouvelles menaces, il est primordial d’appliquer la règle du “zero trust”, c’est-à-dire de ne faire confiance à aucun élément a priori en matière de cybersécurité et d’IA. Les hackers les plus actifs sont généralement des réseaux bien organisés d’Europe de l’Est, mais il ne faut pas négliger les pirates étatiques de pays en marge.
La cybercriminalité exploitant l’IA représente une menace croissante
En conclusion, la cybercriminalité exploitant l’IA représente une menace croissante. Les cybercriminels utilisent de plus en plus l’IA pour améliorer leurs techniques et mener des attaques plus crédibles. Il est essentiel de rester vigilant et de mettre en place des mesures de protection appropriées pour contrer ces menaces.