Pendant longtemps, la cybersécurité a été une compétition entre humains. D’un côté, des attaquants cherchant des failles et les exploite, de l’autre, des défenseurs tentant aussi de les détecter, de les corriger et de contenir les incidents. Cette course existe toujours, mais elle change profondément de nature.
Aujourd’hui, les attaquants généralisent l'usage de l’intelligence artificielle (IA). Génération automatisée de phishing crédible, analyse rapide des vulnérabilités, adaptation des attaques en temps réel : l’IA permet désormais d’industrialiser ce qui relevait autrefois d’un travail manuel.
Face à cette évolution, les défenseurs répondent également avec les mêmes armes. Ils utilisent eux aussi l’IA pour analyser des volumes massifs de données, détecter des comportements anormaux et automatiser une partie des réponses aux incidents. Nous entrons progressivement dans l'ère «la guerre des machines ». Google Threat Intelligence Group observe d’ailleurs que des acteurs malveillants utilisent déjà l’IA pour collecter du renseignement, créer des campagnes de phishing particulièrement réalistes et même développer des malwares. Le combat devient alors un affrontement entre systèmes capables d’apprendre, de s’adapter et de réagir en permanence. Une attaque déclenche une réponse, qui entraîne à son tour une évolution de l’attaque.
La question n’est donc plus seulement de savoir si une entreprise peut être attaquée. La vraie question devient : son IA défensive est-elle capable de réagir plus vite que celle de ses adversaires ?
L’IA n’est plus un simple outil d’assistance
Jusqu’à récemment, l’IA était surtout perçue comme un assistant. Elle aidait à rédiger un email, analyser un fichier, générer du code ou résumer des journaux de sécurité. Mais l’émergence des agents IA change profondément la donne. Un agent ne se contente pas de répondre à une question. Il peut planifier une action, appeler des outils, exécuter des tâches, enchaîner plusieurs étapes et poursuivre un objectif avec une autonomie partielle. C’est ce qui rend cette évolution aussi puissante que préoccupante.
Dans un système d’information, une IA agentique n’est plus seulement un procéssus passif. Elle devient une entité capable d’agir. Elle peut lire, écrire, interagir avec des applications, lancer des commandes, traiter des données et parfois prendre des décisions opérationnelles. Autrement dit, l’IA devient une forme d’identité active dans l’entreprise.
Et comme toute identité active, elle peut être utile ou dangereuse, voire détournée. Les responsables sécurité sont désormais invités à identifier les agents IA autorisés et non autorisés, à encadrer leurs permissions, à surveiller leurs actions et à prévoir des scénarios de réponse spécifiques en cas d’incident. Car le risque n’est pas seulement qu’un attaquant utilise l’IA. Le risque, c’est aussi qu’une IA mal contrôlée devienne elle-même un point d’entrée, un relais ou un accélérateur d’attaque.
Le cas Claude Code : un signal faible devenu signal fort
L’un des exemples les plus marquants reste celui publié par Anthropic en novembre 2025. L’entreprise affirme avoir interrompu une campagne d’espionnage cyber conduite par un groupe étatique chinois. Ce groupe aurait manipulé Claude Code pour tenter d’infiltrer une trentaine de cibles dans le monde, dont des entreprises technologiques, des institutions financières, des industriels de la chimie et des organisations gouvernementales.
Ce qui rend ce cas particulièrement important, ce n’est pas seulement l’utilisation de l’IA. C’est le niveau d’autonomie atteint. Selon Anthropic, l’IA aurait exécuté entre 80 % et 90 % de la campagne, avec une intervention humaine limitée à quelques décisions critiques. Elle aurait participé à la reconnaissance des systèmes, à l’identification de vulnérabilités, à l’écriture de code d’exploitation, à la collecte d’identifiants et à l’exfiltration de données. Ce n’est donc plus simplement un pirate qui demande conseil à une IA. C’est une chaîne d’attaque partiellement orchestrée par une IA. Et c’est là que le changement de paradigme commence. L’attaquant humain ne disparaît pas. Mais il délègue une partie de son travail à une machine capable d’aller plus vite, de tester davantage d’options et de répéter des opérations à grande échelle. L’IA ne rend pas forcément les attaques plus originales. Elle les rend plus rapides, plus nombreuses et plus difficiles à suivre.
La vitesse devient le vrai champ de bataille
L’intérêt principal de l’IA offensive n’est pas forcément de créer des attaques totalement nouvelles. Son intérêt est d’augmenter la vitesse, l’échelle et le degré de personnalisation. Une campagne de phishing peut être adaptée à chaque cible. Une vulnérabilité peut être analysée plus rapidement. C’est là que le rapport de force change. Avant, une attaque sophistiquée demandait du temps, (c'est à dire plusieurs semaines, voir mois) des compétences et une préparation importante. Aujourd’hui, l’IA permet de réduire fortement ce temps de préparation. Elle aide des attaquants moins expérimentés à produire des contenus plus crédibles, à automatiser certaines étapes techniques et à accélérer leurs campagnes.
Le phishing illustre bien cette bascule. Pendant longtemps, les emails frauduleux étaient repérables à leurs fautes, à leur ton générique ou à leur manque de contexte. Avec l’IA générative, ces signaux faibles disparaissent progressivement. Les messages deviennent mieux rédigés, mieux ciblés, adaptés au secteur, au poste ou même au style de communication de la cible. La cybercriminalité gagne ainsi en efficacité. Et pour les défenseurs, cela change tout. La cybersécurité devient moins une question de force brute qu’une question de tempo. Celui qui détecte trop tard perd.
Les défenseurs n’ont pas d’autre choix que d’utiliser l’IA
Face à cette accélération, les défenseurs ne peuvent pas rester dans un modèle entièrement manuel (bien qu'il soit déjà automatisé). Les SOC doivent déjà traiter trop d’alertes. Les équipes sont souvent sous-dimensionnées. Les attaquants, eux, automatisent. C’est pour cette raison que l’IA défensive devient indispensable. Plus les systèmes deviennent autonomes, plus il devient important de garder un cadre de contrôle humain. L’IA peut accélérer l’analyse, elle peut proposer une action et aider à réduire le bruit. Mais elle ne doit pas devenir une boîte noire à laquelle l’organisation délègue aveuglément ses décisions critiques. La défense cyber de demain ne sera donc pas simplement : IA contre humain. Elle sera plutôt : IA + humain contre IA + humain. Et dans cet équilibre, l’humain reste essentiel pour interpréter, arbitrer, prioriser et assumer la responsabilité des décisions.
Quand l’IA défend, elle devient aussi une cible
L’IA défensive apporte une puissance considérable pour réagir aux attaques cyber. Mais elle introduit aussi une nouvelle fragilité. Si une organisation utilise une IA pour détecter des menaces, prioriser des incidents ou recommander des actions, elle doit comprendre comment cette IA fonctionne. C’est un point essentiel : une IA défensive peut elle-même être attaquée. Un modèle peut être trompé. Une donnée peut être manipulée. Un agent peut recevoir une instruction malveillante. Un outil automatisé peut exécuter une action non souhaitée. Les attaques par prompt injection illustrent bien ce nouveau risque. Elles consistent à manipuler un système d’IA en lui envoyant des instructions cachées ou malveillantes, afin de le pousser à ignorer ses règles, révéler des informations ou effectuer une action non prévue.
Dans un environnement où les agents IA sont connectés à des outils, à des fichiers, à des bases de données ou à des applications internes, ce risque devient beaucoup plus sérieux. L’IA ne protège plus seulement le système d’information. Elle en fait partie. Et tout ce qui fait partie du système d’information doit être sécurisé.
Le vrai enjeu : garder la maîtrise
Il serait excessif de dire que l’IA va remplacer les attaquants ou les défenseurs. Mais il serait naïf de penser qu’elle ne modifie pas profondément l’équilibre.
L’IA ne supprime pas les fondamentaux de la cybersécurité. Elle les rend plus urgents.
Les organisations devront renforcer la gouvernance des agents IA, la gestion des identités machine, la limitation des permissions, la supervision des actions automatisées, la journalisation des décisions et les scénarios de réponse à incident impliquant une IA.
La question centrale devient donc : qui contrôle l’IA qui agit dans le système ? Car dans un monde où les agents peuvent lire, écrire, exécuter, corréler, résumer et parfois décider, la frontière entre outil et acteur devient moins évidente. Une IA mal encadrée peut devenir un accélérateur de productivité, mais aussi un accélérateur de risque.
La cybersécurité de la prochaine décennie ne consistera donc pas seulement à se protéger contre des attaquants utilisant l’IA. Elle consistera aussi à protéger les IA que l’entreprise utilise elle-même.
Conclusion
La cybersécurité entre dans une nouvelle phase. Les attaquants utilisent l’IA pour aller plus vite. Les défenseurs l’utilisent pour tenir le rythme. Les deux camps automatisent. Les deux camps apprennent. Ce n’est pas encore une guerre totalement autonome.
Mais ce n’est déjà plus une cybersécurité entièrement humaine. Le champ de bataille devient moins visible, plus rapide, plus algorithmique. Et dans cette nouvelle réalité, la question n’est plus seulement de savoir si une entreprise est protégée.
La question devient : son système de défense est-il capable de comprendre, contrôler et contenir des attaques qui évoluent à la vitesse des machines ?
- Inicie sesión o registrese para enviar comentarios