Ein am 24. April veröffentlichter TechCrunch-Artikel kündigt ein neues Google-Produkt an, die Cloud Security AI Workbench, eine Cybersicherheitssuite, die auf einem speziellen Sicherheits-KI-Sprachmodell namens Sec-PaLM basiert. Reaktion von Benoît Grunemwald, Cybersicherheitsexperte bei Eset France.
Aus dem PaLM-Modell von Google, Sec-PaLM ist „fein abgestimmt auf Sicherheitsanwendungsfälle“, erklärt Google, und umfasst Sicherheitsinformationen wie Software-Schwachstellenforschung, Schadsoftware, Bedrohungsindikatoren und Verhaltensprofile von Bedrohungsakteuren. Cloud Security AI Workbench umfasst eine Reihe neuer KI-gestützter Tools, wie Mandiants Threat Intelligence AI, deren Suche auf Sec-PaLM angewiesen ist, Sicherheitsbedrohungen erkennen und darauf reagieren. VirusTotal, sonstiges Eigentum von Google, wird Sec-PaLM verwenden, um Abonnenten bei der Analyse und Erklärung des Verhaltens bösartiger Skripte zu helfen. Darüber hinaus, Sec-PaLM wird Chronicle-Kunden helfen, Der Cloud-Cybersicherheitsdienst von Google, nach Sicherheitsereignissen suchen und „konservativ“ mit den Ergebnissen interagieren. Benutzer der Security Command Center AI von Google erhalten dank Sec-PaLM „für Menschen lesbare“ Erklärungen zur Angriffsgefahr, einschließlich betroffener Vermögenswerte, empfohlene Abhilfemaßnahmen und Risikozusammenfassungen für Sicherheitsschlussfolgerungen, Compliance und Vertraulichkeit.
Unverzichtbare menschliche Aufsicht
Für Benoît Grunemwald, „Es besteht kein Zweifel daran, dass KI/ML eine entscheidende Rolle bei der Bewältigung alltäglicher Cybersicherheitsherausforderungen spielt. Wir verwenden es seit über zwanzig Jahren. Mit der heutigen Rechenleistung und Fortschritten beim Verständnis und der Integration von KI und ML in praktisch jeden Technologiebereich, Es ist völlig natürlich, dass diese Modelle Behandlungen in Rekordzeit ermöglichen. Es sollte jedoch beachtet werden, dass alle Trainingsdaten und daraus resultierenden Algorithmen reaktiv sind und auf dem aufbauen, was zuvor gesehen wurde.. „Predictive“ AI ist sicherlich eine vielversprechende Technologie, aber es kann möglicherweise zu einer großen Anzahl falsch positiver Ergebnisse führen, was zum gegenteiligen Effekt des ursprünglichen Ziels führen würde. Wir müssen uns weiterhin auf eine kompetente menschliche Cybersicherheitsaufsicht verlassen, um die Ergebnisse der KI zu überprüfen und ihre Aktionen zu validieren. Wie in allen hochmodernen Bereichen, KI leistet wesentliche Hilfe, aber seine Umsetzung und Verwaltung erfordert vielfältige und neue Fähigkeiten, sowohl in der KI als auch in der Disziplin, auf die sie angewendet wird. Unsere Branche steht unter Spannung, Die personellen Ressourcen sind knapp, Die Herausforderung liegt in Attraktivität und Ausbildung.“, fügt Benoît Grunemwald hinzu.