A new report found that more than half of the cyber security teams said that they were underfunded.

Jean Delaunay

L’IA rend les cyberattaques plus sophistiquées et les équipes de cybersécurité ont du mal à suivre le rythme

Un nouveau rapport révèle que plus de la moitié des équipes de cybersécurité déclarent être sous-financées.

Les attaques de cybersécurité sont en augmentation, mettant à rude épreuve les cyberprofessionnels, d’autant plus que l’intelligence artificielle (IA) les rend plus sophistiqués, disent les experts.

Une nouvelle étude de l’Information Systems Audit and Control Association (ISACA) révèle que 39 pour cent des quelque 6 000 organisations mondiales interrogées admettent être confrontées à davantage de cyberattaques, et 15 pour cent d’entre elles subissent davantage de violations de la vie privée qu’il y a un an. .

L’étude a également révélé que les équipes de cybersécurité en Europe ont du mal à faire face aux attaques.

Plus de 60 pour cent des professionnels européens de la cybersécurité déclarent que l’équipe de cybersécurité de leur organisation manque de personnel, et plus de la moitié (52 pour cent) estiment que le budget de cybersécurité de leur organisation est sous-financé.

La majorité de ces cyberattaques sont des ransomwares, qui consistent à verrouiller les données ou les fichiers d’un utilisateur jusqu’à ce qu’une rançon soit payée. « La sophistication de l’IA rend ces attaques très très difficiles à détecter », a déclaré à L’Observatoire de l’Europe Chris Dimitriadis, directeur de la stratégie mondiale à l’ISACA. Suivant.

Il a expliqué que l’IA générative (GenAI) peut analyser les profils des victimes au sein des organisations, puis générer du contenu qui simule fidèlement un être humain.

« Dans le passé, nous avons vu, par exemple, des e-mails traduits dans les langues locales qui comportaient de nombreuses erreurs… Il était donc un peu plus facile pour la victime de comprendre que ce n’était absolument pas légitime », a déclaré Dimitriadis.

« Mais avec la génération AI, ce que nous constatons, c’est que c’est très, très proche de la répartition d’une personne humaine, extrêmement précise en ce qui concerne la langue, le style ou la culture et aussi en ce qui concerne les informations qui y sont incluses. ciblé avec précision ou peut-être plus profondément sur l’environnement de la victime ».

C’est comme avoir votre propre conseiller financier corrompu personnalisé sur votre mobile 24h/24 et 7j/7.

Marit Rødevand

PDG de Strise

Une enquête distincte menée par Strise, une start-up norvégienne d’IA anti-blanchiment d’argent, a montré que ChatGPT peut facilement obtenir des conseils sur la manière de commettre des délits financiers en ligne.

Il a découvert qu’il pouvait exploiter les banques ayant de mauvaises pratiques anti-blanchiment d’argent, déguiser des fonds illégaux en prêts légitimes en créant de fausses transactions de prêt et utiliser diverses tactiques pour rendre plus difficile aux autorités la traçabilité de l’origine de l’argent.

« Le niveau de compréhension (de ChatGPT) et sa connaissance de l’action journalistique juridique spécifique, comme ce qui est exigé de certaines banques et comment s’y prendre. Je veux dire, c’est vraiment bien à tous les niveaux », a déclaré Marit Rødevand, PDG et co-fondatrice de Strise, à L’Observatoire de l’Europe Next.

Elle a déclaré qu’en posant des questions au chatbot telles que « comment blanchir de l’argent », il a refusé de le faire, affirmant que c’était illégal et allait à l’encontre de ses politiques.

Mais Rødevand a déclaré que si vous « faites preuve de créativité » en demandant à ChatGPT d’écrire un scénario de film sur la façon d’aider un personnage appelé Shady Shark dans ses transactions illégales, alors il vous donnera des conseils spécifiques.

« Cela a été une véritable révélation. Je ne m’attendais pas à ce que les réponses soient bonnes et précises. C’est comme avoir votre propre conseiller financier corrompu personnalisé sur votre mobile 24 heures sur 24, 7 jours sur 7 », a-t-elle déclaré.

En février, Microsoft et OpenAI ont révélé que les pirates utilisaient des modèles de langage étendus (LLM) pour affiner les cyberattaques. Les sociétés ont détecté des tentatives de la part de la Russie, de la Corée du Nord, de l’Iran et de groupes soutenus par la Chine qui utilisaient des chatbots pour rechercher des cibles et améliorer les scripts.

Les deux sociétés ont déclaré qu’elles s’efforçaient de minimiser les abus potentiels de la part de ces acteurs, mais ont admis qu’elles ne pouvaient pas arrêter chaque cas.

Comment lutter contre les cyberattaques

La manière pour les entreprises de se protéger est de s’assurer qu’elles disposent de plates-formes technologiques adaptées aux menaces futures et de soutenir les professionnels de la cybersécurité, a déclaré Rødevand.

Mais le rapport de l’ISACA révèle que 71 % des entreprises ont déclaré que leur organisation ne propose aucune formation à leur personnel sur la confiance numérique et que plus de la moitié des équipes de cybersécurité ont déclaré qu’elles étaient sous-financées.

« Avec moins de financement, il est très difficile de mettre en œuvre les bonnes capacités de cybersécurité au sein de leurs organisations », a déclaré Dimitriades.

« Si l’on approfondit un peu, l’une des causes de ce sous-financement est que la cybersécurité ne génère pas de revenus si l’on n’opère pas dans le secteur de la cybersécurité.

« Mais surtout, cela signifie que les décideurs au sein de l’organisation n’ont pas encore saisi ou compris la valeur (et) la contribution de la cybersécurité dans le cadre de leurs objectifs pour cette entreprise », a-t-il ajouté.

Laisser un commentaire

quinze + douze =