Selon IT Home le 8 décembre, Meta a lancé hier une suite de détection d’IA appelée Purple Llama, prétendant fournir une série d’outils pour aider les développeurs à détecter leur propre sécurité d’IA et à « déployer de manière responsable des modèles et des applications d’IA générative ». La suite Purple Llama propose actuellement l’outil d’évaluation « CyberSec _ », le « Input and Output Security Classifier » de Llama Guard, et Meta affirme que d’autres outils seront ajoutés à la suite à l’avenir. Meta a introduit que la suite Purple Llama vise à standardiser son propre modèle de langage Llama, et peut également agir sur les modèles d’IA d’autres concurrents, et le nom de cette suite est basé sur le « concept d’équipe violette » dans le domaine de la sécurité. Meta affirme que l’équipe violette est une combinaison d'« attaque de l’équipe rouge et de défense de l’équipe bleue », et que la suite Purple Llama est conçue pour évaluer et atténuer les menaces potentielles pour les modèles d’IA, « en équilibrant à la fois les stratégies d’attaque et de défense ». Plus précisément, la suite Purple Llama est désormais capable de quantifier les mesures du risque de cybersécurité pour les grands modèles, d’évaluer les vulnérabilités de code possibles et de fournir des informations sur la sécurité du modèle, en plus d’inspecter et de filtrer l’entrée et la sortie du modèle pour empêcher les pirates de « jailbreaker » le modèle en question.