Alors que l’intelligence artificielle bouleverse les fondements de la cybersécurité, une majorité de responsables informatiques reconnaît que leurs systèmes actuels ne sont pas à la hauteur. Face à des cyberattaques plus rapides, plus sophistiquées et souvent invisibles, la réponse classique ne suffit plus.
L’alerte vient d’en haut : 65 % des décideurs IT estiment leurs systèmes de sécurité dépassés
C’est une confession qui pèse lourd dans le monde feutré des directions informatiques. Selon une enquête internationale conduite récemment par Lenovo, deux tiers des décideurs technologiques affirment que leurs outils de cybersécurité ne sont plus adaptés à la réalité des menaces actuelles. En cause : la montée en puissance de la cybercriminalité dopée par l’intelligence artificielle.
Dans un monde où l’IA ne se cantonne plus à l’analyse de données ou à l’automatisation des tâches, mais devient un vecteur d’attaque à part entière, les responsables de la sécurité informatique constatent un inquiétant décalage entre les outils disponibles et la vitesse à laquelle les menaces évoluent.
« L’intelligence artificielle a redistribué les cartes de la cybersécurité. Les systèmes que nous utilisons aujourd’hui n’ont pas été conçus pour faire face à ce type d’adversaire », confie un responsable sécurité d’un grand groupe français de télécommunications. Le constat est sans appel : les assaillants ont pris de l’avance, en exploitant des technologies encore trop mal comprises par ceux censés nous protéger.
Phishing perfectionné, malwares mutants, deepfakes : une nouvelle génération de menaces
Le paysage des menaces a changé. Là où le cybercriminel se contentait autrefois d’un mail frauduleux mal rédigé, il dispose désormais de puissants générateurs de texte capables de produire des messages quasi indétectables, en apparence envoyés par un collègue, un supérieur, ou un fournisseur.
Le phishing alimenté par IA, les malwares polymorphes qui changent constamment de forme pour échapper aux antivirus, ou encore les deepfakes vocaux et vidéo pour manipuler ou extorquer des données sensibles, sont devenus des réalités tangibles dans les grandes entreprises comme dans les administrations publiques.
Un expert en cybersécurité basé à Lille raconte une anecdote troublante : « Nous avons dû intervenir chez un client du secteur bancaire où un directeur financier a reçu un appel vidéo d’un prétendu PDG, lui demandant de valider en urgence un virement à l’étranger. Tout était factice : l’image, la voix, les mimiques. C’était une deepfake. »
Cybersécurité : le cheval de Troie « DoubleTrouble » infecte les smartphones via Discord
L’insider : l’ennemi venu de l’intérieur… dopé à l’IA
Mais la menace ne vient pas seulement de l’extérieur. Près de 70 % des responsables interrogés craignent que leurs propres collaborateurs utilisent mal, ou détournent, les outils d’intelligence artificielle mis à leur disposition. C’est ce que l’on appelle le risque interne, ou insider threat.
Dans bien des cas, ce danger ne relève pas de la malveillance, mais de l’inconscience : copier-coller des données sensibles dans un chatbot, utiliser une IA pour contourner des règles de conformité, ou alimenter des modèles avec des informations confidentielles. Des erreurs humaines aux conséquences parfois désastreuses.
Pire : selon l’étude, plus de 60 % des dirigeants informatiques estiment que les IA elles-mêmes créent un nouveau type de risque interne, plus subtil, plus difficile à détecter, car il ne suit pas les schémas comportementaux classiques.
Les IA aussi doivent être protégées
Un autre point d’inquiétude, souvent négligé, concerne la protection des systèmes d’intelligence artificielle eux-mêmes. Car ces technologies, pour être efficaces, nécessitent des données massives, des modèles d’apprentissage, des instructions (ou prompts) souvent très détaillées.
Or ces éléments constituent une mine d’or pour les attaquants, à la recherche d’angles morts pour manipuler ou détourner les décisions prises par les IA.
Un exemple ? Dans le secteur de la santé, une IA mal entraînée ou nourrie avec des données biaisées peut recommander de mauvais diagnostics. Dans le domaine de la finance, une IA piratée pourrait favoriser une fraude algorithmique. Ces scénarios, hier de la science-fiction, sont aujourd’hui au centre des préoccupations des RSSI (Responsables de la Sécurité des Systèmes d’Information).
Lenovo appelle à « combattre l’IA avec l’IA »
Face à cette asymétrie croissante entre les attaquants et les défenseurs, Lenovo propose une ligne directrice claire : « Il faut combattre l’IA avec l’IA ».
Son approche repose sur deux piliers : renforcer les capacités de détection et intégrer de manière native l’IA dans les systèmes de défense existants. Concrètement, cela signifie passer d’une sécurité périmétrique classique à une cybersécurité adaptative, intelligente, capable de répondre en temps réel.
Mais l’équation est complexe : les systèmes hérités, encore présents dans de nombreuses entreprises, freinent l’adoption de nouvelles technologies. Le manque de talents qualifiés, en particulier dans les domaines de l’IA appliquée à la cybersécurité, aggrave le problème. Et les contraintes budgétaires limitent la capacité à investir massivement dans de nouvelles architectures.
Malgré ces obstacles, Lenovo estime que les entreprises ont tout à gagner à franchir le pas. Loin d’être un simple rempart, une sécurité moderne et intelligente devient un accélérateur de transformation numérique, voire un levier de compétitivité, à condition de savoir l’exploiter.
Plus d’infos sur le site Web Lenovo
Pour les entreprises françaises, l’urgence est là
En France comme ailleurs, les signaux d’alarme se multiplient. De la sphère publique aux entreprises du CAC 40, les cyberattaques se font plus fréquentes, plus ciblées, plus complexes. Les autorités françaises, via l’ANSSI, recommandent déjà une vigilance renforcée sur les usages de l’IA.
Mais sur le terrain, la prise de conscience reste inégale. Certaines entreprises investissent dans des outils d’analyse comportementale, de détection des signaux faibles ou de Zero Trust Architecture. D’autres, notamment les PME, peinent à franchir le cap, par manque de moyens ou de connaissances.
Pourtant, le message est clair : l’IA va redéfinir les règles de la cybersécurité. L’enjeu n’est plus seulement de se défendre, mais de s’adapter, d’anticiper et de bâtir des écosystèmes résilients. Ceux qui ne prendront pas ce virage risquent d’être, très bientôt, les premières victimes d’une guerre numérique silencieuse, mais implacable.
