Google annonce l'expansion de son programme de récompenses pour la découverte de vulnérabilités (VRP) afin d'inclure des scénarios d'attaque spécifiques à l'IA générative. L'entreprise souhaite ainsi encourager la recherche en matière de sécurité de l'IA et mettre en lumière des problèmes potentiels qui permettront de rendre l'IA plus sûre pour tous.
Google étend également son travail sur la sécurité des logiciels open source afin de rendre l'information sur la sécurité de la chaîne d'approvisionnement de l'IA universellement accessible et vérifiable.
Enfin, Google annonce la disponibilité des premiers prototypes de signature de modèles avec Sigstore et de vérification d'attestation avec SLSA. Ces outils permettront de protéger l'intégrité globale des chaînes d'approvisionnement de l'IA contre les attaques.
Google espère que ces nouvelles initiatives permettront de stimuler la collaboration avec la communauté de la sécurité open source et d'autres acteurs de l'industrie, et de contribuer à rendre l'IA plus sûre pour tous.