Microsoft criticata per aver creato uno strumento per creare “deepfake” iperrealistici

Microsoft critiqué pour avoir créé un outil permettant de créer des "deepfakes" hyperréalistes

Durante l'ultima conferenza degli sviluppatori, Microsoft ha annunciato il suo contributo alla corsa all'intelligenza artificiale: un software in grado di generare nuovi avatar e nuove voci o replicare l'aspetto e il parlato di un utente esistente, il che solleva preoccupazioni sulla tendenza alla creazione di “deepfakes”, Video creati dall'intelligenza artificiale di eventi mai accaduti.

Annunciato a Microsoft Ignite 2023, Azure AI Speech è addestrato su immagini umane e consente agli utenti di inserire uno script che può essere “letto” ad alta voce da un avatar fotorealistico creato utilizzando l'intelligenza artificiale.

Gli utenti possono scegliere un avatar Microsoft predefinito o caricare le immagini di una persona di cui desiderano replicare la voce e l'aspetto. Microsoft ha affermato in un post sul blog che lo strumento potrebbe essere utilizzato per creare “chatbot, assistenti virtuali, chatbot e altro ancora”.

Il post afferma: “I clienti possono scegliere tra una voce neurale predefinita o personalizzata per il proprio avatar. Se per l’avatar vengono utilizzati la voce neurale personalizzata e l’aspetto della stessa persona, l’avatar assomiglierà molto a quella persona”.

La società ha affermato che il nuovo software di sintesi vocale presenta una serie di limitazioni e garanzie intese a prevenire gli abusi.

“Come parte dell’impegno di Microsoft verso un’intelligenza artificiale responsabile, l’avatar di sintesi vocale è progettato per proteggere i diritti individuali e sociali e consentire un’interazione uomo-computer senza soluzione di continuità e combattere la proliferazione di deepfake dannosi e contenuti fuorvianti.

I clienti possono caricare la propria registrazione video, che la funzione utilizza per formare un video sintetico dell'avatar personalizzato che parla.

L'annuncio ha rapidamente suscitato critiche secondo cui Microsoft avrebbe lanciato un “creatore di deepfake”, che renderebbe più semplice replicare l'aspetto di una persona e farle dire e fare cose che non hanno né detto né fatto. Lo stesso CEO di Microsoft ha affermato a maggio che i “deepfakes” sono la sua “più grande preoccupazione” quando si tratta di progressi nell’intelligenza artificiale.

In una dichiarazione, la società ha risposto alle critiche affermando che gli avatar personalizzati sono ora uno strumento ad “accesso limitato” per il quale i clienti devono fare domanda ed essere approvati da Microsoft. Inoltre, gli utenti devono indicare se è stata utilizzata l'intelligenza artificiale per creare una voce sintetica o un avatar.

Con queste misure di salvaguardia, aiutiamo a mitigare i rischi potenziali e consentiamo ai clienti di integrare funzionalità vocali avanzate nelle loro applicazioni IA in modo fluido e sicuro.

Con l’avvento dell’intelligenza artificiale crescono le preoccupazioni sulle capacità di questa tecnologia. Sam Altman, CEO di OpenAI, ha avvertito il Congresso che potrebbe essere utilizzato per interferire nelle elezioni e che è necessario mettere in atto delle misure di salvaguardia.

Gli esperti affermano che i deepfake rappresentano un pericolo particolare quando si tratta di interferenze elettorali. Microsoft questo mese ha lanciato uno strumento che consente a politici e campagne di autenticare e contrassegnare i propri video per verificarne la legittimità e prevenire la diffusione di deepfake. Meta ha annunciato questa settimana una politica che richiede la divulgazione dell'uso dell'intelligenza artificiale negli annunci politici e vieta alle campagne di utilizzare gli strumenti di intelligenza artificiale generativa di Meta per gli annunci.