Microsoft a fost criticat pentru că a creat un instrument pentru a crea „deepfake” hiperrealiste

Microsoft critiqué pour avoir créé un outil permettant de créer des "deepfakes" hyperréalistes

La cea mai recentă conferință pentru dezvoltatori, Microsoft și-a anunțat contribuția la cursa pentru inteligența artificială: software capabil să genereze noi avatare și noi voci sau să reproducă aspectul și vorbirea unui utilizator existent, ceea ce ridică îngrijorări cu privire la tendința de a crea „deepfake”. Videoclipuri create de AI cu evenimente care nu au avut loc niciodată.

Anunțat la Microsoft Ignite 2023, Azure AI Speech este instruit pe imagini umane și permite utilizatorilor să introducă un script care poate fi „citit” cu voce tare de un avatar fotorealist creat folosind inteligența artificială.

Utilizatorii pot alege un avatar Microsoft predefinit sau pot încărca imagini ale unei persoane a cărei voce și aspect doresc să o reproducă. Microsoft a spus într-o postare pe blog că instrumentul ar putea fi folosit pentru a crea „chatboți, asistenți virtuali, chatboți și multe altele”.

Postarea afirmă: „Clienții pot alege între o voce neuronală pre-construită sau personalizată pentru avatarul lor. Dacă vocea neuronală personalizată și aspectul aceleiași persoane sunt folosite pentru avatar, avatarul va semăna foarte mult cu acea persoană.”

Compania a spus că noul software de transformare a textului în vorbire vine cu o serie de limitări și măsuri de protecție menite să prevină abuzul.

„Ca parte a angajamentului Microsoft față de AI responsabilă, avatarul text-to-speech este proiectat pentru a proteja drepturile individuale și sociale și pentru a permite interacțiunea om-computer fără probleme și pentru a combate proliferarea deepfake-urilor dăunătoare și a conținutului înșelător.

Clienții își pot încărca propria înregistrare video, pe care funcția o folosește pentru a forma un videoclip sintetic al vorbirii avatarului personalizat.

Anunțul a stârnit rapid critici că Microsoft a lansat un „deepfake maker”, care ar face mai ușor să reproducă aspectul unei persoane și să le facă să spună și să facă lucruri pe care nici nu le-a spus, nici nu le-a spus. Însuși CEO-ul Microsoft a declarat în mai că „deepfakes” au fost „cea mai mare preocupare” a lui atunci când vine vorba de progresele în inteligența artificială.

Într-o declarație, compania a răspuns criticilor spunând că avatarele personalizate sunt acum un instrument de „acces limitat” pentru care clienții trebuie să aplice și să fie aprobate de Microsoft. În plus, utilizatorii trebuie să indice dacă inteligența artificială a fost folosită pentru a crea o voce sintetică sau un avatar.

Cu aceste măsuri de protecție, ajutăm la atenuarea riscurilor potențiale și le permitem clienților să integreze capabilități vocale avansate în aplicațiile lor AI fără probleme și în siguranță.

Odată cu creșterea AI, apar preocupări tot mai mari cu privire la capacitățile acestei tehnologii. Sam Altman, CEO al OpenAI, a avertizat Congresul că ar putea fi folosit pentru a interveni în alegeri și că trebuie puse măsuri de protecție.

Experții spun că deepfakes reprezintă un pericol deosebit atunci când vine vorba de interferența electorală. Microsoft a lansat luna aceasta un instrument care le permite politicienilor și campaniilor să își autentifice și să semnaleze videoclipurile pentru a le verifica legitimitatea și a preveni răspândirea deepfake-urilor. Meta a anunțat săptămâna aceasta o politică care cere dezvăluirea utilizării AI în reclamele politice și interzice campaniilor să folosească instrumentele AI generative ale Meta pentru reclame.