L’IA booster de la cybercriminalité
Puissance des modèles linguistiques
Les modèles linguistiques contribuent à une augmentation des différentes formes d’attaques cybernétiques.
Plus de 90 % des PDG canadiens dans un sondage de KPMG estiment que l’IA générative les rendra plus vulnérables aux violations.
Un rapport du gouvernement britannique indique que l’IA constitue une menace pour les prochaines élections du pays.
Bien que les menaces liées à l’IA en soient encore à leurs débuts, le volume et la sophistication des attaques basées sur l’IA augmentent chaque jour.
Les organisations doivent se préparer à ce qui les attend.
4 façons dont les cybercriminels exploitent l’IA
Il existe quatre principales façons dont les attaquants utilisent des outils d’IA couramment disponibles tels que ChatGPT, Dall-E et Midjourney :
- les attaques de phishing automatisées,
- les attaques d’usurpation d’identité,
- les attaques d’ingénierie sociale
- les chatbots de support client frauduleux.
Les attaques de spear-phishing bénéficient grandement de l’IA.
Par le passé, il était plus facile d’identifier les tentatives de phishing simplement parce que beaucoup étaient truffées de fautes de grammaire et d’orthographe. Les lecteurs perspicaces pouvaient repérer ces communications étranges et non sollicitées, supposant qu’elles étaient probablement générées depuis un pays où l’anglais (ou une autre langue) n’est pas le langage natif.
ChatGPT élimine pratiquement cet indice de détection.
Avec l’aide de ChatGPT, un cybercriminel peut rédiger un e-mail avec une grammaire parfaite et un usage correct de l’anglais, rédigé dans le style d’une source légitime.
Les cybercriminels peuvent envoyer des communications automatisées imitant, par exemple, une autorité bancaire demandant aux utilisateurs de se connecter et de fournir des informations sur leurs comptes Lorsqu’un utilisateur clique sur un lien pour commencer à fournir des informations, le pirate prend le contrôle du compte.
À quel point cette astuce est-elle populaire ?
Une augmentation de 1265% des e-mails de phishing
Le rapport SlashNext State of Phishing 2023 attribue une augmentation de 1 265 % des e-mails de phishing malveillants depuis le quatrième trimestre de 2022 largement du à des compromissions ciblées d’e-mails professionnels utilisant des outils d’IA.
Usurpations d’identité
Les attaques d’usurpation d’identité sont également en hausse. En utilisant ChatGPT et d’autres outils, des escrocs usurpent l’identité de personnes et d’organisations réelles, commettant des vols d’identité et des fraudes. Tout comme avec les attaques de phishing, ils utilisent des chatbots pour envoyer des messages vocaux se faisant passer pour un ami, un collègue ou un membre de la famille de confiance dans le but d’obtenir des informations ou un accès à un compte.
Un exemple s’est produit en Saskatchewan, au Canada, début 2023.
Un couple de personnes âgées a reçu un appel d’une personne se faisant passer pour leur petit-fils prétendant avoir eu un accident de voiture et être retenu en prison.
L’appelant a raconté une histoire selon laquelle il avait été blessé, avait perdu son portefeuille et avait besoin de 9 400 $ en espèces pour régler avec le propriétaire de l’autre voiture afin d’éviter des poursuites.
Les grands-parents se sont rendus à leur banque pour retirer l’argent, mais ont évité d’être arnaqués lorsqu’un responsable de la banque les a convaincus que la demande n’était pas légitime.
Alors que les experts de l’industrie pensaient que cette utilisation sophistiquée de la technologie de clonage vocal par IA se développerait dans quelques années, peu s’attendaient à ce qu’elle devienne aussi efficace aussi rapidement.
Influence sur la vie publique
Les cybercriminels utilisent ChatGPT et d’autres chatbots IA pour mener des attaques d’ingénierie sociale qui favorisent le chaos. Ils utilisent une combinaison de clonage vocal et de technologie de deepfake pour faire croire que quelqu’un dit quelque chose de provocateur.
Cela s’est produit la nuit précédant les élections municipales de Chicago en février. Un pirate informatique a créé une vidéo deepfake et l’a publiée sur X, montrant le candidat Paul Vallas faisant de fausses déclarations incendiaires et défendant des positions politiques controversées. La vidéo a généré des milliers de vues avant d’être supprimée de la plateforme.
Faux Chatbots commerciaux
La dernière tactique, les faux chatbots de service client, existe, mais elle est probablement à un ou deux ans de devenir largement populaire.
Un site bancaire frauduleux pourrait être créé en utilisant un chatbot de service client qui semble humain.
Le chatbot pourrait être utilisé pour manipuler des victimes crédules et leur faire remettre des informations personnelles et des informations de compte sensibles.
Vous souhaitez vérifier la maturité cyber de votre entreprise ?
Profitez dès maintenant d’un diagnostic gratuit en prenant rendez-vous ici : https://bit.ly/43Vrqgd