Microsoft criticada por criar ferramenta para criar “deepfakes” hiperrealistas

Microsoft critiqué pour avoir créé un outil permettant de créer des "deepfakes" hyperréalistes

Na sua última conferência de desenvolvedores, a Microsoft anunciou sua contribuição para a corrida pela inteligência artificial: software capaz de gerar novos avatares e novas vozes ou replicar a aparência e a fala de um usuário existente, o que levanta preocupações sobre a tendência de criação de “deepfakes”, Vídeos criados por IA de eventos que nunca aconteceram.

Anunciado no Microsoft Ignite 2023, o Azure AI Speech é treinado em imagens humanas e permite aos usuários inserir um script que pode ser “lido” em voz alta por um avatar fotorrealista criado com inteligência artificial.

Os usuários podem escolher um avatar predefinido da Microsoft ou fazer upload de imagens de uma pessoa cuja voz e aparência desejam replicar. A Microsoft disse em um blog que a ferramenta poderia ser usada para criar “chatbots, assistentes virtuais, chatbots e muito mais”.

A postagem afirma: “Os clientes podem escolher entre uma voz neural pré-construída ou personalizada para seu avatar. Se a voz neural personalizada e a aparência da mesma pessoa forem usadas para o avatar, o avatar se parecerá muito com essa pessoa.”

A empresa disse que o novo software de conversão de texto em voz vem com uma série de limitações e salvaguardas destinadas a evitar abusos.

“Como parte do compromisso da Microsoft com a IA responsável, o avatar de conversão de texto em fala foi projetado para proteger os direitos individuais e sociais e permitir a interação humana-computador perfeita e combater a proliferação de deepfakes prejudiciais e conteúdo enganoso.

Os clientes podem enviar sua própria gravação de vídeo, que o recurso usa para formar um vídeo sintético do avatar personalizado falando.

O anúncio rapidamente gerou críticas de que a Microsoft havia lançado um “deepfake maker”, que tornaria mais fácil replicar a aparência de uma pessoa e fazê-la dizer e fazer coisas que não disseram, nem fizeram. O próprio CEO da Microsoft disse em maio que os “deepfakes” eram sua “maior preocupação” quando se trata de avanços em inteligência artificial.

Em comunicado, a empresa respondeu às críticas dizendo que os avatares personalizados são agora uma ferramenta de “acesso limitado” à qual os clientes devem se inscrever e ser aprovados pela Microsoft. Além disso, os usuários devem indicar se foi utilizada inteligência artificial para criar uma voz sintética ou avatar.

Com essas proteções, ajudamos a mitigar riscos potenciais e permitimos que os clientes integrem recursos avançados de voz em seus aplicativos de IA de maneira contínua e segura.

Com a ascensão da IA, surgem preocupações crescentes sobre as capacidades desta tecnologia. Sam Altman, CEO da OpenAI, alertou o Congresso que poderia ser usado para interferir nas eleições e que era necessário implementar salvaguardas.

Especialistas dizem que deepfakes representam um perigo particular quando se trata de interferência eleitoral. A Microsoft lançou este mês uma ferramenta que permite que políticos e campanhas autentiquem e sinalizem seus vídeos para verificar sua legitimidade e evitar a propagação de deepfakes. A Meta anunciou uma política esta semana que exige a divulgação do uso de IA em anúncios políticos e proíbe as campanhas de usarem as próprias ferramentas generativas de IA da Meta para anúncios.