Microsoft wird dafür kritisiert, ein Tool zur Erstellung hyperrealistischer „Deepfakes“ entwickelt zu haben

Microsoft critiqué pour avoir créé un outil permettant de créer des "deepfakes" hyperréalistes

Auf seiner jüngsten Entwicklerkonferenz kündigte Microsoft seinen Beitrag zum Wettlauf um künstliche Intelligenz an: Software, die in der Lage ist, neue Avatare und neue Stimmen zu generieren oder das Aussehen und die Sprache eines bestehenden Benutzers zu reproduzieren, was Bedenken hinsichtlich des Trends zur Erstellung von „Deepfakes“ aufkommen lässt. Von KI erstellte Videos von Ereignissen, die nie stattgefunden haben.

Azure AI Speech wurde auf der Microsoft Ignite 2023 angekündigt und basiert auf menschlichen Bildern. Es ermöglicht Benutzern die Eingabe eines Skripts, das von einem mit künstlicher Intelligenz erstellten fotorealistischen Avatar „vorgelesen“ werden kann.

Benutzer können einen vordefinierten Microsoft-Avatar auswählen oder Bilder einer Person hochladen, deren Stimme und Aussehen sie nachbilden möchten. Microsoft sagte in einem Blogbeitrag, dass das Tool zur Erstellung von „Chatbots, virtuellen Assistenten, Chatbots und mehr“ verwendet werden könnte.

In dem Beitrag heißt es: „Kunden können zwischen einer vorgefertigten oder einer benutzerdefinierten neuronalen Stimme für ihren Avatar wählen. Wenn die personalisierte neuronale Stimme und das Aussehen derselben Person für den Avatar verwendet werden, wird der Avatar dieser Person sehr ähnlich sein.“

Das Unternehmen sagte, die neue Text-to-Speech-Software sei mit einer Reihe von Einschränkungen und Sicherheitsvorkehrungen ausgestattet, die Missbrauch verhindern sollen.

„Als Teil des Engagements von Microsoft für verantwortungsvolle KI soll der Text-to-Speech-Avatar individuelle und soziale Rechte schützen, eine nahtlose Mensch-Computer-Interaktion ermöglichen und die Verbreitung schädlicher Deepfakes und irreführender Inhalte bekämpfen.

Kunden können ihre eigene Videoaufzeichnung hochladen, aus der die Funktion ein synthetisches Video des sprechenden benutzerdefinierten Avatars erstellt.

Die Ankündigung löste schnell Kritik aus, dass Microsoft einen „Deepfake Maker“ eingeführt habe, der es einfacher machen würde, das Aussehen einer Person nachzubilden und sie dazu zu bringen, Dinge zu sagen und zu tun, die sie weder gesagt noch gesagt oder getan hat. Der CEO von Microsoft selbst sagte im Mai, dass „Deepfakes“ seine „größte Sorge“ seien, wenn es um Fortschritte in der künstlichen Intelligenz gehe.

In einer Erklärung reagierte das Unternehmen auf die Kritik mit der Aussage, dass benutzerdefinierte Avatare nun ein Tool mit „beschränktem Zugriff“ seien, für das Kunden einen Antrag stellen und von Microsoft genehmigt werden müssten. Darüber hinaus müssen Benutzer angeben, ob künstliche Intelligenz zur Erstellung einer synthetischen Stimme oder eines Avatars verwendet wurde.

Mit diesen Schutzmaßnahmen tragen wir dazu bei, potenzielle Risiken zu mindern und ermöglichen Kunden, erweiterte Sprachfunktionen nahtlos und sicher in ihre KI-Anwendungen zu integrieren.

Mit dem Aufstieg der KI wachsen Bedenken hinsichtlich der Leistungsfähigkeit dieser Technologie. Sam Altman, CEO von OpenAI, warnte den Kongress, dass es zur Einmischung in Wahlen genutzt werden könnte und dass Sicherheitsvorkehrungen getroffen werden müssten.

Experten sagen, dass Deepfakes eine besondere Gefahr darstellen, wenn es um Wahlbeeinträchtigungen geht. Microsoft hat diesen Monat ein Tool eingeführt, mit dem Politiker und Kampagnen ihre Videos authentifizieren und kennzeichnen können, um ihre Legitimität zu überprüfen und die Verbreitung von Deepfakes zu verhindern. Meta hat diese Woche eine Richtlinie angekündigt, die die Offenlegung der Verwendung von KI in politischen Anzeigen vorschreibt und Kampagnen verbietet, Metas eigene generative KI-Tools für Anzeigen zu verwenden.