3min. de lecture

Définir ce qu’est l’IA, et surtout ce qu’elle n’est pas

Au niveau le plus fondamental, l’IA est un type d’algorithme conçu pour interagir avec une base de données d’une manière qui imite l’intelligence humaine. À mesure que les algorithmes gagnent en complexité et en spécificité, ils parviennent à produire des résultats qui alimentent la réflexion. Ils peuvent, par exemple, générer un langage semblable à celui des humains, créer des œuvres d’art, et reconnaître des schémas au-delà des capacités humaines. L’IA se contente d’imiter. C’est bien là sa limite. Prenons l’exemple des outils de génération de langage. Il s’agit en réalité d’immenses cartographies de probabilités créées à partir de textes (le plus souvent issus du web), qui génèrent du texte sur la base du degré de probabilité que chaque mot ou expression suivra celui ou celle généré(e) juste avant, en fonction d’un prompt fourni par l’utilisateur. Même si cette approche basée sur la probabilité fonctionne extrêmement bien, elle ne repose toutefois pas sur un réel raisonnement. Par conséquent, elle est moins efficace quand il existe une forte probabilité de plusieurs réponses pour une seule solution correcte possible. Afin d’utiliser l’IA à bon escient, il est essentiel de garder à l’esprit son mode de fonctionnement. L’efficacité de cet outil dépend de l’utilisation qui en est faite.

Le rôle de l’IA dans la cybersécurité

Comme nous venons de le voir, les algorithmes d’IA peuvent créer des cartographies de probabilités pour des ensembles de données spécifiques, puis générer des réponses via un raisonnement probabiliste. Ce même principe peut être appliqué aux outils et comportements afin de déterminer s’ils sont malveillants ou inoffensifs. Ainsi, on commence à entrevoir la possibilité de déterminer la probabilité qu’un fichier, un schéma de trafic ou un comportement soit dangereux, même si l’événement en question est jusqu’ici inconnu. Mais pour que l’IA puisse être un réel allié de la cybersécurité, il faut d’abord résoudre quelques problématiques majeures.

Les défis à relever pour une implémentation réussie De l’IA dans la cybersécurité

  • Défi n° 1 – Données et algorithme : Le socle de l’IA, mais aussi son principal point faible
    L’efficacité d’une IA se mesure aux performances de l’algorithme qui la sous-tend et à la fiabilité des données utilisées pour l’entraîner. Vous aurez beau alimenter votre algorithme avec toutes les données du monde, s’il ne peut pas cartographier les jeux de données en fonction des paramètres qui indiquent une activité suspecte, vous serez incapable de détecter les événements malveillants. Et à l’inverse, si vous disposez d’un algorithme performant, mais que celui-ci n’est pas alimenté avec suffisamment de données fiables, les cartographies ne seront pas en mesure de créer une distribution de probabilité assez précise. Conséquence : votre algorithme tirera la mauvaise conclusion et vous signalera de faux événements (positifs comme négatifs).
  • Défi n° 2 – Obfuscation : Le problème des « boîtes noires »
    Certains fournisseurs font fonctionner leurs modèles d’IA comme des « boîtes noires », avec pour résultat une obfuscation de l’algorithme et de la prise de décisions. Ce manque de visibilité peut s’avérer problématique, car il devient alors difficile, voire impossible, de comprendre pourquoi l’IA signale certains événements comme suspects. Sans parler des préoccupations qu’il soulève en matière de responsabilité et de biais potentiels.
  • Défi n° 3 – Intégration et expertise : L’illusion du « clé en main »
    Les outils d’IA ne sont pas des solutions miracles prêtes à l’emploi. Ils doivent être intégrés à des infrastructures existantes, et nécessitent une certaine expertise pour interpréter et tirer pleinement parti des réponses qu’ils fournissent. Il est donc essentiel de former les équipes de sécurité au fonctionnement de l’IA et à ses limites, et de leur apprendre à l’exploiter au mieux dans le cadre de leur posture de sécurité.

Au-delà des défis à relever, les mythes à déconstruire

Plusieurs mythes viennent teinter la perception de l’IA dans le contexte de la cybersécurité.

  • Mythe n° 1 – L’IA améliore automatiquement n’importe quel outil de sécurité
    Bien que de nombreux fournisseurs de solutions de cybersécurité affirment le contraire, ce n’est simplement pas le cas de la plupart des algorithmes d’IA. Pour la production artistique, par exemple, un algorithme inadapté générera toujours des résultats de mauvaise qualité.
  • Mythe n° 2 – Les solutions d’IA sont universelles
    Il existe différentes solutions d’IA qui répondent à différents besoins. La clé d’une implémentation réussie est de bien cerner les vôtres et d’identifier l’outil capable d’y répondre./li>
  • Mythe n° 3 – Avec l’IA, fini les compromissions de sécurité
    Comme n’importe quelle autre technologie, l’IA n’est pas à l’abri des attaques. Vous devez donc assurer une surveillance continue de vos systèmes d’IA et les faire évoluer afin de pérenniser leur efficacité.

Les causes des échecs passés

La cybersécurité optimisée par l’IA n’est pas exactement une nouveauté. Par le passé, on a notamment pu créer avec succès des modèles capables de reconnaître des schémas simples au sein de fichiers malveillants. Conformes à la définition générale de l’IA, ces modèles sont en quelque sorte les ancêtres des premiers moteurs IDS/IPS. Malheureusement, de par leur manque de robustesse ou d’« intelligence », ils ne sont pas en mesure de résoudre les problématiques auxquelles font face aujourd’hui les équipes de sécurité. Impossible de faire l’impasse sur le bon modèle, et encore moins sur l’expertise nécessaire pour l’élaborer et l’améliorer. Concevoir un modèle capable de réaliser une cartographie probabiliste « d’Internet dans son intégralité » est loin d’être une formalité. Et c’est vrai aussi pour la modélisation des activités malveillantes et inoffensives. Par ailleurs, comme évoqué plus haut, ce modèle doit être alimenté par une quantité massive de données (à l’instar des LLM, qui s’appuient sur tout le web). Et celles-ci doivent être correctement classées et filtrées.

Les éléments indispensables du cahier des charges

L’IA peut s’avérer un puissant allié de la cybersécurité, mais il convient d’en faire bon usage. Une IA lambda aura une connaissance très limitée du champ des menaces. Il faudra donc faire appel à une société pour entraîner le modèle, une tâche extrêmement complexe et gourmande en puissance de calcul. Pour choisir le bon partenaire, évaluez le niveau d’intégration de l’IA dans les solutions qu’il propose, et examinez celles-ci en détail. Si un fournisseur est incapable de vous expliquer comment fonctionne l’algorithme, comment il est entraîné et quels types de données l’alimentent, méfiez-vous. Les risques encourus pourraient être bien plus grands que ceux que sa solution prétend prévenir.