Rechercher
Contactez-nous Suivez-nous sur Twitter En francais English Language
 











Abonnez-vous gratuitement à notre NEWSLETTER

Newsletter FR

Newsletter EN

Vulnérabilités

Se désabonner

Recorded Future publie les résultats de tests de quatre usages malveillants de l’IA en mode Red Team, des économies significatives pour les cybercriminels

mars 2024 par Recorded Future

Insikt Group, division de recherche sur les menaces de Recorded Future composée d’analystes et de chercheurs en sécurité ayant une grande expérience des gouvernements, des forces de l’ordre, de l’armée et des agences de renseignement, publie les résultats de l’étude de quatre usages malveillants de l’IA : « Adversarial Intelligence : Red Teaming Malicious Use Cases for AI ». Cette étude exhaustive vise à explorer les menaces potentielles liés à l’IA en 2024, en mettant en lumière les vulnérabilités et les capacités des modèles d’IA actuels.

Les expériences menées par les experts de Recorded Future ont porté sur divers domaines de l’IA, notamment les grands modèles de langage (LLM), les modèles d’images multimodales et les modèles de synthèse vocale (TTS). Notamment, tous les projets ont été exécutés à l’aide d’un mélange de modèles disponibles sur le marché et de modèles open source, sans mise au point ni formation, reproduisant ainsi des scénarios réalistes d’acteurs malveillants.

Selon les résultats clés de l’étude, l’utilisation malveillante de l’IA en 2024 devrait se manifester principalement par des attaques ciblées de type deepfake et des opérations d’influence. Les deepfakes générés à l’aide d’outils open source ont déjà été utilisés par des cybercriminels pour usurper l’identité de dirigeants et de personnalités politiques. Ils illustrent ainsi les risques financiers et de réputation potentiels pour les organisations. En outre, l’étude montre que l’IA peut amplifier de manière significative les campagnes de désinformation, conduisant à une réduction au centuple des coûts opérationnels par rapport aux méthodes traditionnelles.

En outre, l’étude met en évidence l’émergence de logiciels malveillants qui s’auto-améliorent et sont capables d’échapper à des mécanismes de détection tels que les règles YARA. Si cela représente un défi important pour la cybersécurité, cela souligne également la nécessité de méthodes de détection innovantes telles que Sigma ou Snort.

Les experts de Recorded Future soulignent l’importance pour les organisations d’élargir leur compréhension de leur surface d’attaque afin d’englober les voix et les images des dirigeants, la stratégie de marque et les images publiques des installations. En s’attaquant de manière proactive à ces menaces émergentes, les organisations peuvent mieux protéger leurs actifs et atténuer les risques potentiels.

Parmi les résultats clés des usages spécifiques expérimentés

1. Des Deepfakes peuvent être générées pour usurper l’identité de dirigeants à l’aide open source nécessitant des clips de moins d’une minute pour l’apprentissage, mais en relevant des défis tels que le contournement des mécanismes de consentement pour le clonage live.

2. L’IA permet des campagnes de désinformation efficaces et aide à cloner des sites web légitimes, bien que l’intervention humaine soit nécessaire pour créer des usurpations crédibles.

3. L’IA générative aide les logiciels malveillants à échapper à la détection en modifiant le code source, bien que le maintien de la fonctionnalité après l’obfuscation de code reste un défi.

4. L’IA multimodale peut traiter des images publiques à des fins de reconnaissance, mais la traduction de ces données en renseignements exploitables reste difficile sans analyse humaine.


Voir les articles précédents

    

Voir les articles suivants