Lors de sa dernière conférence des développeurs, Microsoft a annoncé sa contribution à la course à l’intelligence artificielle : un logiciel capable de générer de nouveaux avatars et de nouvelles voix ou de reproduire l’apparence et le discours d’un utilisateur existant, ce qui suscite des inquiétudes quant à la tendance à créer des « deepfakes », des vidéos créées par l’IA d’événements qui n’ont jamais eu lieu.
Annoncé lors de Microsoft Ignite 2023, Azure AI Speech est formé sur des images humaines et permet aux utilisateurs de saisir un script qui peut être « lu » à haute voix par un avatar photoréaliste créé grâce à l’intelligence artificielle.
Les utilisateurs peuvent choisir un avatar Microsoft prédéfini ou télécharger des images d’une personne dont ils souhaitent reproduire la voix et l’apparence. Microsoft a indiqué dans un billet de blog que l’outil pourrait être utilisé pour créer « des agents conversationnels, des assistants virtuels, des chatbots et bien plus encore ».
Le billet précise : « Les clients peuvent choisir entre une voix neuronale préconstruite ou personnalisée pour leur avatar. Si la voix neuronale personnalisée et l’apparence de la même personne sont utilisées pour l’avatar, ce dernier ressemblera étroitement à cette personne ».
L’entreprise a déclaré que le nouveau logiciel de synthèse vocale était assorti d’un certain nombre de limites et de garanties destinées à prévenir les abus.
« Dans le cadre de l’engagement de Microsoft en faveur d’une IA responsable, l’avatar de synthèse vocale est conçu dans le but de protéger les droits individuels et sociaux, de favoriser une interaction transparente entre l’homme et l’ordinateur et de lutter contre la prolifération de deepfakes nuisibles et de contenus trompeurs.
Les clients peuvent télécharger leur propre enregistrement vidéo, que la fonction utilise pour former une vidéo synthétique de l’avatar personnalisé en train de parler.
L’annonce a rapidement suscité des critiques selon lesquelles Microsoft avait lancé un « créateur de deepfake », qui permettrait de reproduire plus facilement l’apparence d’une personne et de lui faire dire et faire des choses qu’elle n’a ni dites ni faites. Le PDG de Microsoft lui-même a déclaré en mai que les « deepfakes » étaient sa « plus grande préoccupation » en ce qui concerne les progrès de l’intelligence artificielle.
Dans un communiqué, l’entreprise a répondu aux critiques en déclarant que les avatars personnalisés sont désormais un outil à « accès limité » pour lequel les clients doivent faire une demande et être approuvés par Microsoft. En outre, les utilisateurs doivent indiquer si l’intelligence artificielle a été utilisée pour créer une voix synthétique ou un avatar.
Grâce à ces mesures de protection, nous contribuons à limiter les risques potentiels et à permettre aux clients d’intégrer des capacités vocales avancées dans leurs applications d’IA de manière transparente et sécurisée.
L’essor de l’IA s’accompagne d’inquiétudes croissantes quant aux capacités de cette technologie. Sam Altman, PDG d’OpenAI, a averti le Congrès qu’elle pourrait être utilisée pour interférer dans les élections et que des mesures de protection devaient être mises en place.
Selon les experts, les « deepfakes » représentent un danger particulier lorsqu’il s’agit d’ingérence dans les élections. Microsoft a lancé ce mois-ci un outil permettant aux politiciens et aux campagnes d’authentifier et de signaler leurs vidéos afin de vérifier leur légitimité et d'empêcher la diffusion de deepfakes. Meta a annoncé cette semaine une politique qui exige la divulgation de l’utilisation de l’IA dans les publicités politiques et interdit aux campagnes d’utiliser les propres outils d’IA générative de Meta pour les publicités.