Microsoft interdit aux forces de police américaines d'utiliser son outil d'IA d'entreprise
Microsoft interdit aux forces de police américaines d'utiliser son outil d'IA d'entreprise
Microsoft a renforcé sa politique interdisant aux services de police américains d'utiliser son service Azure OpenAI pour la reconnaissance faciale. Cette décision est clairement stipulée dans les conditions de service mises à jour, interdisant spécifiquement aux forces de l'ordre de déployer cette technologie pour la reconnaissance faciale, notamment via les caméras corporelles et les caméras de tableau de bord dans des environnements non contrôlés.
Ce mouvement fait suite à l'introduction controversée par Axon d'un produit utilisant GPT-4 d'OpenAI pour résumer l'audio des caméras corporelles, ce qui a soulevé des inquiétudes concernant les inexactitudes et les biais induits par l'IA. Il reste incertain si la mise à jour de la politique de Microsoft répond directement à la sortie du produit d'Axon.
Notamment, la restriction s'applique uniquement aux États-Unis et ne couvre pas l'utilisation des caméras fixes dans des environnements contrôlés. Cela est en accord avec la position prudente de Microsoft sur les applications de l'IA dans le maintien de l'ordre, bien qu'elle continue de collaborer sur des projets de défense, soulignant une approche nuancée du déploiement de l'IA dans les secteurs sensibles.