Un article de TechCrunch publié le 24 avril annonce un nouveau produit Google, le Cloud Security AI Workbench, une suite de cybersécurité alimentée par un modèle de langage d’IA spécialisé dans la sécurité appelé Sec-PaLM. Réaction de Benoît Grunemwald, expert en cybersécurité chez Eset France.
Issu du modèle PaLM de Google, Sec-PaLM est « affiné pour les cas d’utilisation en matière de sécurité », explique Google, et intègre des informations de sécurité telles que des recherches sur les vulnérabilités logicielles, les logiciels malveillants, les indicateurs de menace et les profils comportementaux des acteurs de la menace. Cloud Security AI Workbench englobe ainsi une gamme de nouveaux outils alimentés par l’IA, comme Threat Intelligence AI de Mandiant, qui s’appuiera sur Sec-PaLM pour trouver, identifier et agir sur les menaces de sécurité. VirusTotal, autre propriété de Google, utilisera Sec-PaLM pour aider les abonnés à analyser et à expliquer le comportement des scripts malveillants. Par ailleurs, Sec-PaLM aidera les clients de Chronicle, le service de cybersécurité Cloud de Google, à rechercher des événements de sécurité et à interagir « de manière conservatrice » avec les résultats. Les utilisateurs du Security Command Center AI de Google obtiendront quant à eux des explications « lisibles par l’homme » sur l’exposition aux attaques grâce à Sec-PaLM, y compris les actifs touchés, les mesures d’atténuation recommandées et les résumés des risques pour les conclusions relatives à la sécurité, à la conformité et à la confidentialité.
Une supervision humaine indispensable
Pour Benoît Grunemwald, « il ne fait aucun doute que l’IA/ML joue un rôle essentiel dans la gestion des défis quotidiens en matière de cybersécurité. Nous l’utilisons depuis plus de vingt ans. Avec la puissance de calcul actuelle et les progrès réalisés dans la compréhension et l’intégration de l’IA et du ML dans pratiquement tous les domaines technologiques, il est tout à fait naturel que ces modèles permettent des traitements en un temps record. Il ne faut cependant pas oublier que toutes les données d’entraînement et les algorithmes qui en résultent sont réactifs et s’appuient sur ce qui a été vu auparavant. L’IA “ prédictive ” est certainement une technologie prometteuse, mais elle peut potentiellement conduire à un grand nombre de faux positifs, ce qui aboutirait à l’effet inverse de l’objectif initial. Nous devons continuer à compter sur une supervision humaine qualifiée en matière de cybersécurité pour vérifier les résultats de l’IA et valider ses actions. Comme dans tous les domaines de pointe, l’IA apporte une aide indispensable, mais sa mise en œuvre et son pilotage nécessite des compétences multiples et nouvelles, à la fois en IA et dans la discipline à laquelle elle est appliquée. Notre secteur est en tension, les ressources humaines sont rares, le défi repose sur l’attractivité et la formation », ajoute Benoît Grunemwald.