Initié par Meta, le projet Purple Llama propose divers avantages pour les développeurs, axé sur la conception d’outils en open source. Il s’agit d’une possibilité d’évaluer et de renforcer la sécurité et la fiabilité des modèles d’IA générative avant tout déploiement. Les développeurs peuvent donc construire des modèles d’IA de manière responsable.
Gareth Lindahl-Wise, directeur de la sécurité de l’information chez Ontinue, une entreprise spécialisée en cybersécurité, a salué Purple Llama. Il souligne que cette initiative reste une étape « positive et proactive » vers une IA plus sécurisée. Il accentue que l’idée de centraliser le développement sur une plateforme pourrait susciter des opinions divergentes.
Toutefois, le directeur a estimé que fournir une protection prête à l’emploi pour les consommateurs serait bénéfique. Les entités soumises à des obligations internes, clients ou réglementaires strictes doivent donc toujours suivre des évaluations robustes. Ainsi, tout effort visant à apporter de l’ordre à ce qu’il qualifie de « Far West potentiel » serait bénéfique pour l’écosystème.
L’initiative d’Open Source de Meta
Meta reste convaincue concernant les défis posés par l’IA. Ces derniers ne peuvent être relevés de manière isolée. Meta insiste d’ailleurs sur la nécessité d’un partenariat dans le but de garantir la protection technologique. Dans cette dynamique, la définition du portage salarial prend également une place importante.
Meta a également précisé que :
« Les personnes qui construisent des systèmes d’IA ne peuvent pas relever les défis de l’IA en vase clos, c’est la raison pour laquelle nous voulons uniformiser les règles du jeu et créer un socle de confiance et de sécurité ouvertes ».
Purple Llama a pour objectif d’établir une base commune, propice au développement d’une intelligence artificielle générative plus sécurisée, en réponse aux :
- Préoccupations croissantes ;
- Grands modèles de langage ;
- Autres technologies d’IA.
Le projet Purple Llama envisage diverses collaborations avec différentes entités comme :
- Des fournisseurs de logiciels (comme Microsoft) ;
- Des entreprises de semi-conducteurs (Nvidia, AMD et Intel) ;
- Des services cloud (comme AWS et Google Cloud) ;
- Des développeurs d’IA.
Ce partenariat vise à stimuler la création d’outils destinés à un usage commercial et à la recherche. Ces outils doivent être capables d’identifier les risques de sécurité et de tester les aptitudes des modèles d’IA.
Des outils performants par Purple Llama
Llama Guard est un outil capable de détecter un langage offensant. Pour les développeurs, ce modèle de langage leur est utile pour s’assurer qu’aucun contenu dangereux n’est produit.
CyberSecEval est également un autre outil de Purple Llama, proposé dans la première série. Il s’agit d’un instrument qui permet d’évaluer les failles des logiciels générés par l’IA, en termes de cybersécurité. La conception du modèle de langage de CyberSecEval se base sur plusieurs fonctionnalités et aide les développeurs à :
- Détecter les textes inappropriés ;
- Vérifier si les modèles d’IA peuvent porter préjudice, etc.
Dans ce cas, il est possible de :
- Identifier les activités illégales ;
- Dépister les discussions sur la violence ;
- Établir les risques de créer des codes vulnérables, etc.
En effectuant des recherches, Meta avance que les grands modèles de langages suggèrent des codes non sécurisés.
Il importe de souligner l’importance des améliorations continues et des tests, permettant ainsi de renforcer la sécurité de l’IA. Dans ce même contexte, l’intégration de la définition du portage salarial pourrait être pertinente. Cela souligne la nécessité d’une approche collaborative variée pour garantir la fiabilité et la sécurité des outils d’IA.
Cet article vous a-t-il été utile ?
Note moyenne 0 / 5. Votants: 0