De la prise de décision stratégique à l’expérience proposée aux clients, l’usage de l’intelligence artificielle se répand peu à peu au sein des entreprises. Qu’en est-il de son emploi à des fins de protection contre les cybermenaces ? Découvrez-le dans la deuxième partie de cette étude menée par Capterra. 

 IA et cybersécurité : application et enjeux dans les mesures de protection des entreprise en 2024

Répondre aux questions fréquemment posées par les clients par le biais d’un chatbot, automatiser la création et la diffusion d’un contenu de vidéo marketing, ou encore réaliser l’analyse d’un volume important de candidatures pour une offre d’emploi : ces différents exemples illustrent les diverses utilisations de l’intelligence artificielle (IA) au sein des entreprises.

Si son potentiel n’a pas échappé à l’attention des entreprises, il n’est également pas passé inaperçu auprès des cybercriminels. En s’appuyant sur cette technologie, les hackers mènent des attaques de plus en plus difficiles à repérer par les employés et les outils traditionnels de détection. La crainte des menaces alimentées par l’IA est par ailleurs l’une des préoccupations principales évoquées par les entreprises pour 2024 selon les résultats évoqués dans la première partie de notre étude (34 % des personnes interrogées).

Bien que  l'intelligence artificielle présente le risque d'amplifier les cybermenaces, elle joue également un rôle non négligeable dans la protection des informations et des systèmes. En permettant de détecter, d'analyser et de répondre plus rapidement aux attaques malveillantes, elle se profile comme un outil important dans la lutte contre les cybermenaces actuelles et à venir.

Dans quelle mesure ce type de solutions est-il adopté par les entreprises ? Quels avantages, mais aussi quels défis présentent l’alliance de l’intelligence artificielle et de la cybersécurité ? Quels risques peuvent être anticipés pour faciliter l’implémentation de ces solutions ? Voici les thématiques abordées dans ce deuxième article. Notre attention s’est ici portée sur les réponses des 1393 employés, sur un total de 2032 interrogés, qui se sont déclarés comme responsables, impliqués ou pleinement informés des mesures de sécurité appliquées au sein de leur organisation.

Une méthodologie complète est disponible à la fin de cet article.

Sécurité des réseaux, des e-mails et détection des menaces : les domaines de la cybersécurité priorisés par les entreprises investissant dans l’IA

Un coût moyen de deux milliards d’euros en 2022 lié aux cyberattaques réussies (infiltration par phishing, rançongiciels) : telles sont les pertes financières des entreprises françaises selon une étude du cabinet Asterès.

Ayant recours de plus en plus à l’IA pour repérer les vulnérabilités des systèmes informatiques, contourner les contrôles d'accès des utilisateurs, mais aussi lancer des attaques telles que des courriels de phishing plus précis et plus convaincants, la cybercriminalité nouvelle génération fait peser des risques importants sur les activités des entreprises.

La vulnérabilité des réseaux iOT (30 %), les menaces internes provenant d’actes malveillants ou involontaires d’employés (29 %), ou encore les attaques de phishing et d'ingénierie sociale (34 %), sont par ailleurs les raisons principale les ayant incitées à opter pour un moyen de défense spécifique : la cybersécurité alimentée par l’IA.

Il semblerait en effet que l’acquisition de solutions associant IA et cybersécurité fasse partie des options plébiscitées par les entreprises de notre panel pour répondre au défi de ces cybermenaces. 

Pour les 1049 entreprises qui ont choisi de se tourner vers des solutions de cybersécurité pilotées par l’intelligence artificielle, l’investissement dans certains domaines de la cybersécurité a été priorisé, parmi lesquels sont mis en avant : 

  • la sécurité des réseaux informatiques (46 %),
  • la sécurité des e-mails (38 %),
  • la détection et l’analyse des menaces (36 %).
Priorités d’investissement des entreprises en matière d’intelligence artificielle associée à la cybersécurité

L'intelligence artificielle n'est pas une nouveauté dans le secteur de la cybersécurité. Des technologies alimentées par l’IA, telles que le machine learning, sont par exemple déjà utilisées depuis 2015 pour identifier les risques susceptibles de compromettre les systèmes informatiques. Au fur et à mesure du développement de l’IA, et également de l’émergence de menaces nouvelle génération, ces outils tendent à se perfectionner et leur usage à se démocratiser.

Mais en quoi les systèmes de sécurité alimentés par l’IA constituent-ils une amélioration par rapport aux outils de cybersécurité traditionnels ? C’est ce que nous avons cherché à savoir dans la section suivante en nous intéressant aux réponses apportées sur le sujet par les employés dont les entreprises ont investi dans ce type de solutions.

Cybersécurité pilotée par l’IA par rapport à la cybersécurité traditionnelle : quelle valeur ajoutée ? 

Différence d’approche entre cybersécurité traditionnelle et cybersécurité pilotée par l’IA

À l’origine, la cybersécurité traditionnelle s'appuie sur un système de code de signature. Ces outils disposent d’une base de données qui compile des signatures de codes malveillants correspondant à des menaces connues. À partir de ces informations, ils sont en mesure d’analyser et de détecter des activités de trafic suspect pouvant survenir sur des réseaux informatiques et de générer une alerte de sécurité.

Si les outils traditionnels s’appuient sur ce type de protection dit “statique”, consistant à répondre uniquement à une menace connue du système, ceux qui intègrent l’IA s’articulent autour d’une approche de détection dite “dynamique”. Leurs fonctionnalités renforcent la sécurité des réseaux en reconnaissant d’une part les schémas associés aux menaces connues et, surtout, en identifiant des menaces inédites. À l’aide notamment du principe de machine learning permettant d’entraîner l’IA sur des données correspondant à l’activité habituelle du réseau à défendre, l’IA peut identifier des activités potentiellement anormales et les signaler.

En s’appuyant en particulier sur les algorithmes d'apprentissage automatique, les outils se basant sur l’intelligence artificielle peuvent analyser en temps réel une quantité importante de données, et ainsi identifier plus rapidement des modèles représentant des menaces pour les systèmes. Il est alors possible pour les entreprises de détecter les problèmes de sécurité potentiels dès qu'ils se produisent, soit un avantage non négligeable pour lutter contre les cybercriminels. Ce point est par ailleurs mis en avant par 45 % des entreprises utilisant ces solutions. 

Autre avantage de ces outils relevés par ces mêmes répondants par rapport à une approche traditionnelle : celui de l’analyse comportementale (40 % des réponses). Parce qu’elle peut comprendre à partir des données quel est le comportement normal des systèmes d’une organisation et des utilisateurs, l’IA peut identifier les éventuelles actions inhabituelles. Qu’il s’agisse d’une connexion à un appareil non reconnue ou d’un afflux de trafic inhabituel sur la page d’un site, les systèmes pilotés par l’IA ont la possibilité de reconnaître ces incidences et de lancer rapidement des alertes.

Enfin, pour 32 % des répondants concernés, l’automatisation permise par ces solutions fait également partie de leurs atouts principaux. Dans le cadre d’une approche traditionnelle de cybersécurité, il incombe bien souvent aux gestionnaires informatiques de procéder à une analyse manuelle des données récoltées par les outils. Traitement et tri des alertes, analyse des journaux de sécurité, ou encore demande de mise à jour de la base de données au vu d’une menace inédite : ces tâches sont quelques exemples parmi celles qui leur sont dévolues. En automatisant la plupart de ces domaines, l’IA permet de dégager les équipes concernées de certaines tâches chronophages.

Avantages des outils de cybersécurité utilisant l’IA par rapports aux outils de cybersécurité traditionnelles

Comme peuvent l’illustrer les réponses des participants, l’IA dispose d’un véritable potentiel pour améliorer la sécurité des entreprises. Cependant, malgré ses avantages potentiels, cette technologie présente également certaines limites et des défis.

Qualité et volume des données traitées, une limitation de l’IA en cybersécurité soulevée par 35 % des structures concernées

L'une des principales limites de l'IA en matière de cybersécurité évoquée par les répondants est le manque de précision de ses analyses, associé au volume important d’informations générées (35 %). En effet, si les algorithmes d'IA peuvent traiter de grandes quantités de données et identifier des schémas, leur capacité d’analyse repose sur des informations sur lesquelles ils ont été préalablement entraînés. Comme en attestent des exemples récents d’utilisation de ChatGPT à des fins de génération de texte, en cas de données inconnues, l’IA peut apporter des réponses plausibles quoique erronées. 

Se baser sur des données brutes générées par l’IA sans vérification humaine peut amener à tirer des conclusions imprécises voire faussées. À cela, peut s’ajouter le volume important des données traitées susceptible de complexifier l’analyse des résultats obtenus.

Parmi les autres problématiques évoquées par cette partie du panel est également mentionnée la problématique des attaques adverses (30 %). Cette fragilité des outils basés sur l’intelligence artificielle repose sur la possibilité pour des pirates de fournir à un modèle d’apprentissage automatique piloté par l’IA des données de bases inexactes, voire des données malveillantes visant à tromper le modèle et à l’inciter à commettre des erreurs.

Outre ces risques, les “faux positifs” (27 %) et “faux négatifs” (26 %) figurent aussi dans les réponses principales mises en exergue. À l’inverse des humains, l’IA ne dispose pas d’une conscience contextuelle : il lui est donc difficile d’interpréter certains événements si le modèle n’a pas été informé au préalable. L’IA peut alors signaler comme suspecte une activité bénigne de l’entreprise (faux positif) ou à l’inverse ignorer une menace réelle (faux négatif), et donc requérir une attention supplémentaire des gestionnaires informatiques pour trier ces informations. 

Enfin, l’ensemble de ces facteurs peuvent être corrélés à un autre désavantage : celui du manque d’autonomie du système, demandant de ce fait une expertise humaine pour le superviser (26 %). La complexité des modèles d'intelligence artificielle et la nécessité de pouvoir interpréter des données difficiles à comprendre exigent bien souvent des talents ayant une connaissance approfondie en cybersécurité ainsi que des subtilités de ces technologies. Dans un contexte marqué par des difficultés liées à la rétention et l’attraction des talents de l’informatique, cet aspect peut présenter une difficulté  pour certaines entreprises. 

Limitations de l’utilisation de l’IA en cybersécurité

Bien que l'intelligence artificielle puisse aider les entreprises de nombreux secteurs à prendre de meilleures décisions stratégiques dans le domaine de la cybersécurité, il devient de plus en plus évident que ces dernières ne peuvent faire l’impasse sur un facteur important pour exploiter pleinement son potentiel : celui de l’intervention humaine. 

L’importance de l’équilibre entre facteur humain et recours à l’IA au sein d’une stratégie de cybersécurité 

Bien que l'IA ait été développée au point qu’on lui confie certaines tâches importantes au sein de la protection des données de l’entreprise, cette technologie n’est toutefois pas en mesure de reproduire les capacités d’observation, de contextualisation et de prise de décision de l’esprit humain.

C’est pourquoi l’aide  d’experts en cybersécurité peut s’avérer essentielle dans l’efficacité de ces solutions contre la cybercriminalité. Dans quels domaines spécifiques l’intervention d’experts peut-elle aider une entreprise à bénéficier des avantages de l’IA pour la sécurité de ses opérations ?

En premier lieu, la complexité du langage et de l’utilisation de l’intelligence requiert une expertise pouvant faire défaut aux employés peu familiers avec cette technologie. Pour 43 % des entreprises, les experts en cybersécurité ont ici un rôle à jouer pour sensibiliser et former des employés plus novices, un facteur important à l’heure où les cybermenaces ne cessent d’évoluer.

Un expert est également en mesure de développer une compréhension des opérations d’une entreprise, de son cadre réglementaire, ainsi que des exceptions et risques uniques auxquels elle peut être confrontée. 41 % des entreprises perçoivent cette compréhension contextuelle humaine comme essentielle, ce facteur pouvant notamment aider l’IA à améliorer son processus de prise de décision et de détection.

Si l'IA présente de nombreux avantages dans l'analyse des données et l'automatisation des tâches, elle n'est cependant pas exempte de risques d’approximation, d’erreurs, voire de jugements biaisés. Selon les organisations de notre panel, la supervision d’expert peut aider à garantir le bon fonctionnement des systèmes (40 %) et des pratiques de cybersécurité respectant des exigences éthiques (34 %) et réglementaires. 

Évaluation du rôle de l’expertise humaine pour optimiser l’utilisation de l’IA en cybersécurité.

La collaboration entre des employés qualifiés en matière de cybersécurité et l'IA peut aider à garantir une approche stratégique équilibrée. Couplée à la logique, à la compréhension contextuelle et à l’intuition humaine parfois nécessaire, les potentialités de l’IA peuvent aider une organisation à renforcer sa défense contre un éventail toujours plus large de menaces susceptibles d’affecter ses opérations. 

Conseil aux entreprises

Avant d’intégrer l’IA à leurs pratiques de cybersécurité, il est important pour les entreprises d’évaluer soigneusement les avantages de l’IA en matière de cybersécurité par rapport aux coûts et risques associés.

Afin d’analyser ces risques, une entreprise peut choisir de s’appuyer sur des solutions dédiées telles que les logiciels de gestion des risques. Ces outils permettent notamment d'optimiser le processus d’identification et d’évaluation des risques, mais aussi des mesures d’atténuation potentielles à engager.

Contrôle et connaissance des systèmes, des facteurs cruciaux pour l’adoption d’outils de cybersécurité alimentées par l’IA 

Parce qu’elle permet d’automatiser de nombreux processus, d’identifier des menaces en temps réel et d’améliorer les délais de réaction aux incidents, l'IA a le potentiel d'améliorer considérablement les pratiques traditionnelles de cybersécurité.

Cependant, une méconnaissance des outils d’IA et de leurs limitations peut conduire à un échec dans l'adoption de modèles d'intelligence artificielle, voire présenter des risques accrus pour la sécurité des organisations. Pour tirer le meilleur parti de ces solutions dans leur stratégie de cybersécurité, il est important pour une entreprise d’analyser les risques liés aux limites existantes de ces systèmes, de veiller à ce que ces derniers s’intègrent aux protocoles de sécurité existants et de bénéficier de ce fait de l’encadrement d’experts dédiés. 

Et maintenant ? Consultez notre catalogue de logiciels de gestion des risques pour trouver l’outil qu’il vous faut.


Méthodologie

Pour collecter les données de ce rapport, Capterra a mené une enquête en ligne du 10 au 26 novembre 2023 auprès de 2072 employés français. Au sein de ce panel, 1393 sont responsables, participent activement ou sont pleinement informés des politiques de sécurité informatique de leur entreprise. Un groupe de 679 répondants ne sont pas entièrement au fait des politiques de cybersécurité de leur entreprise et ont répondu à des questions spécifiques. 

L’ensemble des répondants ont été sélectionnés selon les critères suivants :

  • Réside en France
  • Âgé(e) de 18 ans à 65 ans
  • Employé(e) à temps plein
  • Travaille au sein d’une entreprise de 1 à plus de 10 000 employé(es)
  • Travaille au sein d’une entreprise disposant d’un système de sécurité