Microsoft Security Copilot : de l’IA pour la cybersécurité
La dernière vague de progrès dans le domaine de l’intelligence artificielle a permis à celle-ci de s’infiltrer dans la plupart des secteurs technologiques, notamment les outils de productivité, les médias sociaux et, désormais, la cybersécurité.
Microsoft s’appuie sur la puissance de GPT-4 pour lancer un nouveau produit de sécurité à base d’IA générative appelé Microsoft Security Copilot.
L’idée principale est d’utiliser l’IA conversationnelle pour améliorer les capacités des professionnels de la sécurité, qui sont souvent dépassés par le nombre et la sophistication des attaques actuelles – en partie parce qu’il y a plus de 3 millions d’emplois non pourvus pour les experts en sécurité informatique.
Image : Microsoft.
Microsoft Security Copilot combine la puissance du modèle de grand langage (LLM) le plus avancé d’OpenAI, GPT-4, avec un modèle spécifique à la sécurité de Microsoft. Lorsque Microsoft Security Copilot reçoit une demande d’un professionnel de la sécurité, il utilise son LLM et son modèle spécifique à la sécurité pour déployer des compétences et des requêtes afin d’aider à détecter et à répondre à une menace de sécurité plus rapidement et avec plus de précision. Il est alimenté par le système mondial de renseignement sur les menaces de Microsoft, qui, selon Microsoft, analyse plus de 65 milliards de signaux quotidiens.
publicité
Des résumés de n’importe quel processus ou événement
Avec Microsoft Security Copilot, les défenseurs peuvent répondre aux incidents en quelques minutes, obtenir des conseils critiques étape par étape grâce à des enquêtes basées sur le langage naturel, détecter ce qui serait autrement passé inaperçu et obtenir des résumés de n’importe quel processus ou événement.
Les professionnels de la sécurité pourront utiliser la barre d’invite pour demander des résumés sur les vulnérabilités, les incidents dans l’entreprise, et même plus d’informations sur des liens et des fichiers spécifiques. En utilisant l’IA générative et les informations organisationnelles internes et externes, Copilot génère une réponse avec des références aux sources.
Comme la plupart des modèles d’IA, ses performances ne sont pas toujours parfaites et il peut commettre des erreurs. Cependant, Security Copilot fonctionne dans un système d’apprentissage en boucle fermée qui comprend un outil intégré permettant aux utilisateurs de fournir directement un retour d’information. Et si, au lancement, il intégrera les produits de sécurité de Microsoft, l’entreprise affirme qu’au fil du temps, il « s’étendra à un écosystème croissant de produits tiers ».
Les données ne seront pas utilisées pour former ou enrichir d’autres modèles d’IA
Bien que l’outil soit un moteur d’apprentissage, Microsoft assure les utilisateurs que l’importance de la confidentialité de leurs données est prioritaire et que leurs données ne seront pas utilisées pour former ou enrichir d’autres modèles d’IA et seront protégées par des contrôles de conformité d’entreprise non spécifiés. Le géant de la technologie n’a pas encore révélé son calendrier de déploiement de Security Copilot.
Source : ZDNet.com