Dies sagte auch der CEO von OpenAI

C'est également ce qu'a déclaré le PDG d'OpenAI

Künstliche Intelligenz (KI) hat in unserer Gesellschaft einen herausragenden Platz eingenommen, doch Experten auf diesem Gebiet warnen. Tatsächlich könnte der unkontrollierte und unverantwortliche Einsatz von KI zum Aussterben der Menschheit führen. Anerkannte Namen wie Sam Altman von OpenAI, Demis Hassabis von Google DeepMind und Dario Amodei von Anthropic schließen sich dem Aufruf an, um der drohenden Gefahr zu begegnen und die mit KI verbundenen Risiken zu mindern. Hier sind ihre Bedenken und warum es wichtig ist, KI als globale Priorität zu betrachten.

Die Risiken künstlicher Intelligenz

Zu den Experten, die Alarm schlagen, gehört Sam Altman, CEO von OpenAI. Ihm und anderen Experten zufolge liegt die Gefahr nicht so sehr in einer Superintelligenz, die die Menschheit dominieren würde, sondern vielmehr in den Folgen eines verantwortungslosen Einsatzes von Algorithmen im Beruf und im Alltag. Eines der Hauptrisiken besteht darin, in die Verbreitung von „Fake News“ einzugreifen und die öffentliche Meinung zu manipulieren. Tatsächlich kann künstliche Intelligenz der Menschheit schaden, indem sie Desinformationskanäle schafft.

Die Unterzeichner des Aufrufs betonen, wie wichtig es ist, sich auf diese aufkommenden Risiken vorzubereiten. Der flächendeckende Einsatz von KI führt in vielen Bereichen zu einer Revolution, wirft aber gleichzeitig auch gravierende Probleme auf. KI durchdringt verschiedene Aspekte des sozialen, wirtschaftlichen, finanziellen, politischen, pädagogischen und ethischen Lebens. Experten sind sich einig, dass es notwendig ist, diese Situationen zu bewältigen und Maßnahmen zu ergreifen, um die Herausforderungen zu bewältigen, die KI mit sich bringt, etwa die Produktion von „Fake News“ oder die Steuerung selbstfahrender Autos.

Der Ruf nach einer globalen Priorität

Altman, Hassabis und Amodei trafen sich kürzlich mit US-Präsident Joe Biden und Vizepräsidentin Kamala Harris, um über künstliche Intelligenz zu diskutieren. Nach dem Treffen sagte Herr Altman vor dem Senat aus und warnte, dass die mit fortschrittlicher KI verbundenen Risiken schwerwiegend genug seien, um ein Eingreifen der Regierung zu rechtfertigen. Er sagte, diese Risiken erforderten eine genaue Regulierung, um Schaden zu verhindern. Experten warnten jedoch nicht nur vor den Gefahren der Technologie, sondern boten auch konkrete Lösungen für einen verantwortungsvollen Umgang mit fortschrittlichen KI-Systemen an.

Experten für künstliche Intelligenz warnen davor, dass das Risiko des Aussterbens der Menschheit als globale Priorität betrachtet werden sollte. KI hat das Potenzial, das Schicksal der Menschheit erheblich zu beeinflussen, daher ist es wichtig, diese Risiken dringend anzugehen. In einem kurzen Brief des Center for AI Safety (Cais) können wir Folgendes lesen

„Die Eindämmung des Risikos des Aussterbens durch künstliche Intelligenz sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“

Zu den Unterzeichnern des Briefes gehören Sam Altman, CEO von OpenAI, der auch für die Entwicklung von ChatGPT bekannt ist, sowie Geoffrey Hinton und Yoshua Bengio, die als Pioniere auf dem Gebiet der KI gelten. Geoffrey Hinton gilt gemeinhin als „Pate der KI“ und beschreibt die Technologie derzeit als „beängstigend“. Yoshua Bengio seinerseits, Professor für Informatik an der Universität Montreal und einer der führenden Experten auf diesem Gebiet, hat bereits seine Besorgnis über die mit dieser Technologie verbundenen Risiken geäußert.

künstliche Intelligenz

Die Meinung von Sam Altman, CEO von OpenAI

Sam Altman ist CEO von OpenAI, dem Unternehmen, das für die Entwicklung von ChatGPT verantwortlich ist, dem berühmten Chatbot, der das öffentliche Interesse an künstlicher Intelligenz geweckt hat. Zusammen mit Demis Hassabis, CEO von Google DeepMind, und Dario Amodei von Anthropic prophezeite Altman die Gefahr des Aussterbens der Menschheit. Doch was bedeutet diese Aussage? Vom 12. bis 15. Juni findet die Abstimmung des Europäischen Parlaments über das KI-Gesetz, die weltweit erste Verordnung zu künstlicher Intelligenz, statt. Es ist interessant festzustellen, dass sich Altman genau in dem Moment, in dem sich eine große Institution darauf vorbereitet, die Handlungsfreiheit und die wirtschaftlichen Entwicklungen im Zusammenhang mit künstlicher Intelligenz einzuschränken, gegen seine eigene Technologie ausspricht. Das ist ein echtes Paradoxon. Auf den ersten Blick erscheint diese Position bedeutungslos. Warum diese unerwartete Aussage?

Altmans Beweggründe

Es gibt mehrere mögliche Theorien, um Altmans Position zu verstehen. Erstens ist es eine gute Werbung für die gesamte Branche, künstliche Intelligenz als allmächtig zu bezeichnen. Der KI-Sektor boomt und seine Beschränkungen scheinen eine schwierige, wenn nicht unmögliche Herausforderung zu sein, die es zu meistern gilt. Eine andere Erklärung könnte ökonomischer Natur sein. Tatsächlich zeigen Daten, dass der KI-Wettlauf hauptsächlich zwei Nationen betrifft: China und die Vereinigten Staaten. Das erste entspricht einer privaten Investition von 13,4 Milliarden Dollar, das zweite insgesamt 47 Milliarden Dollar. Altmans Initiative könnte darauf abzielen, gefährlichen Wettbewerb einzudämmen und die Reichweite der KI zumindest in Europa und den Vereinigten Staaten einzudämmen. Tatsächlich stecken hinter einer solchen Aussage komplexe Machtspiele. Es wird erwartet, dass künftig 800 Milliarden US-Dollar in KI investiert werden, was einen geschätzten Wert von rund 6 Billionen US-Dollar generiert.

Verantwortungsvoller Umgang mit künstlicher Intelligenz

Experten bieten verschiedene Strategien für den verantwortungsvollen Umgang mit KI an. Sie unterstreichen die Notwendigkeit einer Zusammenarbeit zwischen Industrieakteuren auf diesem Gebiet und einer verstärkten Erforschung von Sprachmodellen. Sie schlagen außerdem die Gründung einer internationalen Organisation für KI-Sicherheit vor, ähnlich der Internationalen Atomenergiebehörde (IAEA). Darüber hinaus betonen einige, wie wichtig es ist, Gesetze zu formulieren, die von Entwicklern fortschrittlicher KI-Modelle verlangen würden, sich zu registrieren und eine staatlich regulierte Lizenz zu erhalten.

Der weit verbreitete Einsatz generativer künstlicher Intelligenz mit der Verbreitung von Chatbots wie ChatGPT hat viele Forderungen nach einer Bewertung der Auswirkungen der Entwicklung solcher Tools ausgelöst. Unter anderem warf ein offener Brief, der im vergangenen März ebenfalls von Elon Musk unterzeichnet wurde, die Frage einer sechsmonatigen Pause bei der Entwicklung leistungsstärkerer Modelle von OpenAIs GPT-4 auf. Ziel ist es, Zeit für die Entwicklung gemeinsamer Sicherheitsprotokolle für fortgeschrittene künstliche Intelligenz zu gewinnen. Tatsächlich heißt es in dem Brief,

Leistungsfähige Systeme der künstlichen Intelligenz sollten nur dann entwickelt werden, wenn sicher ist, dass ihre Auswirkungen positiv und ihre Risiken beherrschbar sind.