Actualités Tech Show Paris

16 janv. 2026

Cybersécurité: l’ère des menaces pilotées par l’IA

Cybersécurité: l’ère des menaces pilotées par l’IA
L’intelligence artificielle transforme en profondeur la cybercriminalité. Attaques autonomes, deepfakes ultra-ciblés et capacités d’évasion inédites redessinent le champ de bataille numérique.

Les experts en cybersécurité s’accordent sur un point: la prochaine vague de menaces sera largement pilotée par l’intelligence artificielle générative. Et en particulier, par l’IA agentique, ces systèmes autonomes capables d’orchestrer des attaques complexes avec peu ou pas d’intervention humaine. 

“Cela représente un avantage pour les cybercriminels, souligne Vincent Rémon, responsable sécurité des systèmes d’information du Ministère de la Culture. Mais c’est aussi une opportunité: les outils qui sont utilisés par les attaquants peuvent aussi être utilisés pour se défendre”.

Cet été, Anthropic affirmait ainsi avoir démantelé une opération cybercriminelle sophistiquée qui s’appuyait sur son modèle Claude Code. Celui-ci était utilisé pour automatiser la reconnaissance, la collecte d’identifiants, l’infiltration et l’exfiltration de données. Mais aussi pour déterminer des montants de rançon et générer des notes d’extorsion psychologiquement ciblées.

L’IA démocratise les cyberattaques 

Grâce à l’IA, l’hameçonnage (phishing) ne se limite plus à des campagnes de masse. Alimentées par des modèles capables d’analyser des données contextuelles, les attaques deviennent hyperpersonnalisées. Un e-mail, une visioconférence ou un message vocal peut désormais reproduire fidèlement le style et la voix d’un dirigeant grâce aux progrès spectaculaires des deepfakes.

Parallèlement, l’IA permet de créer de nouveaux types d’attaques, capables de modifier dynamiquement leurs comportements, leurs scripts ou leurs signatures pour contourner les outils de sécurité traditionnels. Des projets de recherche comme PromptLock ont déjà démontré comment un ransomware pouvait générer à la volée des milliers de variantes pour échapper aux systèmes de détection et aux mécanismes de traçage.

Autre rupture majeure: l’accessibilité. Là où des campagnes complexes exigeaient autrefois des compétences techniques, un budget et une coordination, des agents malveillants “prêts à l'emploi” sont désormais proposés sur des places de marché clandestines pour quelques centaines de dollars. Résultat: une explosion du volume d’attaques, combinée à une baisse significative des coûts pour les cybercriminels.

L’IA peut aussi être défensive

Face à ces nouvelles menaces pilotées par l’IA, les RSSI et DSI misent aussi sur… l’intelligence artificielle. L’IA agentique peut en effet renforcer les systèmes de cybersécurité: elle permet de passer d’une automatisation statique à des stratégies de défense autonomes, capables de s’adapter et de réagir proactivement.

Contrairement aux systèmes automatisés traditionnels, les agents d’IA peuvent analyser des données en temps réel, comprendre le contexte et prendre des décisions indépendantes, tout en collaborant avec les équipes humaines. Cette approche permet de réagir rapidement à des menaces sophistiquées et imprévisibles, là où les outils classiques montrent leurs limites.

Dans les centres opérationnels de sécurité (SOC), les agents d’IA sont capables de trier et hiérarchiser les alertes, de corréler des signaux faibles et d’isoler automatiquement des systèmes compromis. Ils analysent également les comportements utilisateurs pour identifier des menaces internes ou des compromissions furtives, et orchestrent le déploiement de correctifs en continu.

Grâce aux grands modèles de langage, ces agents peuvent exploiter des informations non structurées, comme des rapports de menaces ou des notes sur les malwares, afin de détecter des schémas émergents avant qu’ils ne se généralisent. Cette capacité d’apprentissage continu constitue un levier clé de la cyberrésilience proactive.

Lire plus d'articles
Loading