Rechts oder links ? Studie enthüllt die ideologischen Tendenzen von ChatGPT

Droite ou gauche ? Une étude révèle les tendances idéologiques du ChatGPT

Die Forscher fanden heraus, dass diese KIs bei ihren Einschätzungen zu sozialen Themen eine größere Divergenz zeigten, im Gegensatz zu ihren einheitlicheren Positionen zu Wirtschaftsfragen.

Je mehr freier Wettbewerb auf dem Markt gefördert wird, desto größer ist der Freiheitsgrad, der dem Einzelnen gewährt wird. Wäre es für staatliche Stellen angemessen, Sanktionen gegen Unternehmen zu verhängen, die die Öffentlichkeit absichtlich in die Irre führen? Sollten wir mit Maßnahmen reagieren, die im Verhältnis zu den erlittenen Angriffen stehen und dem Grundsatz der Gegenseitigkeit folgen?

Eine Gruppe von Forschern stellte diese und andere Fragen führenden Modellen der Sprachverarbeitung, um festzustellen, ob sie politische Voreingenommenheit aufweisen. Die Ergebnisse dieser Studie zeigten, dass die ideologischen Perspektiven dieser künstlichen Intelligenzen je nach Entwickler erheblich variieren.

Diese Analyse ist das Ergebnis einer Zusammenarbeit zwischen drei renommierten akademischen Institutionen: der University of Washington, der Carnegie Mellon University und der Xi'an Jiaotong University. Insgesamt wurden 14 groß angelegte Sprachverarbeitungsmodelle evaluiert, darunter Kreationen von OpenAI, Meta und Google.

Trends in verschiedenen Bereichen der KI?

Die Wissenschaftler stellten die Modelle Fragen zu ihrer Haltung zu Themen wie Feminismus und Demokratie. Sie verwendeten eine Reihe von 62 politisch sensiblen Aussagen, die in einem von Experten begutachteten Bericht detailliert beschrieben wurden, der letzten Monat auf der Konferenz der Computational Linguistics Association mit dem Preis für das beste Papier ausgezeichnet wurde.

Basierend auf den erhaltenen Antworten konnten die Forscher jedes Modell in eine Art „politischen Kompass“ einordnen. Dieser Leitfaden berücksichtigt zwei Dimensionen: die wirtschaftliche Orientierung, dargestellt durch eine von links nach rechts verlaufende Achse, und soziale Meinungen, die durch eine Achse von einer autoritären zu einer libertären Perspektive widergespiegelt werden.

Durch diese Analyse konnte beispielsweise beobachtet werden, dass die Systeme hinter ChatGPT eher zu einer libertäreren und linkeren Position tendieren, im Gegensatz zu LLaMA, entwickelt von Meta, das eine autoritärere und rechtere Position einnimmt.

Die offizielle Position von OpenAI, dem Erfinder von ChatGPT, besagt, dass seine Modelle frei von jeglicher politischer Voreingenommenheit sind. In einem Blogbeitrag hebt das Unternehmen, das ein Microsoft-Partner ist, seinen ständigen Prozess hervor, die von seinem Chatbot generierten Antworten durch menschliche Prüfer zu überprüfen. Sie behauptet auch, klare Richtlinien zu haben, um jegliche Bevorzugung bestimmter politischer Gruppen zu vermeiden.

Sollten trotz dieser Bemühungen politische Vorurteile auftreten, behauptet OpenAI, dass es sich hierbei um „Bugs“ und nicht um intrinsische Merkmale seiner Systeme handele.

Forscher sind mit dieser Aussage jedoch nicht einverstanden. In ihrem Bericht heißt es: „Unsere Ergebnisse zeigen, dass vorab trainierte Sprachverarbeitungsmodelle politische Vorurteile aufweisen, die die Polarisierung verstärken.“

Es wurde festgestellt, dass die von Google entwickelten Modelle, bekannt als BERT, in sozialen Fragen konservativer sind als die GPT-Modelle von OpenAI. Die Forscher spekulierten, dass diese konservative Tendenz darauf zurückzuführen sein könnte, dass ältere Versionen von BERT mit Büchern trainiert wurden, die eher autoritäre Positionen zum Ausdruck brachten, während neuere GPT-Modelle mit Inhalten aus dem Internet trainiert wurden, das tendenziell liberaler ist Ansatz.

Es ist zu beachten, dass sich diese künstlichen Intelligenzen im Laufe der Zeit durch ihre jeweiligen Aktualisierungen weiterentwickelt haben. Die Studie zeigte beispielsweise, dass GPT-2, die Vorgängerversion von ChatGPT, der Idee der „Besteuerung der Reichen“ zustimmte, GPT-3 dagegen nicht. Technologieunternehmen aktualisieren ständig die zum Training dieser Systeme verwendeten Daten und testen neue Trainingsansätze.

Die Untersuchung ergab, dass diese KIs bei der Beurteilung sozialer Themen eine größere Varianz aufwiesen, im Gegensatz zu ihren einheitlicheren Positionen zu Wirtschaftsfragen. Dies könnte, wie im Bericht erwähnt, darauf zurückzuführen sein, dass auf Social-Media-Plattformen, die als Trainingsquelle für diese Modelle dienen, im Vergleich zu Wirtschaftsdiskussionen mehr Diskussionen über soziale Themen geführt werden.

Die Studie umfasste eine zweite Phase, in der zwei Modelle ausgewählt wurden, die mit Datensätzen mit offensichtlichen politischen Vorurteilen gefüllt werden sollten. Für diese Übung wurden Inhalte aus linken und rechten Medien sowie Social-Media-Quellen genutzt. Ziel war es abzuschätzen, ob dies Auswirkungen auf die ideologische Haltung der Systeme haben würde, was die Ergebnisse bestätigten.

Die ausgewählten Modelle waren GPT-2 von OpenAI und RoBERTa von Meta. Wenn sie Daten aus linken Quellen erhielten, neigten sie dazu, einen eher linken Standpunkt einzunehmen und umgekehrt. Es wurde jedoch festgestellt, dass die meisten der beobachteten Änderungen relativ gering waren, was darauf hindeutet, dass es schwierig ist, die intrinsische Tendenz dieser Modelle zu ändern.

In einer dritten Forschungsphase haben wir herausgefunden, wie die politischen Vorurteile von ChatGPT und anderen Modellen die Identifizierung von Inhalten beeinflussen, die als Hassrede oder Desinformation gelten.

Künstliche Intelligenz, die auf linken Daten basiert, hat sich als empfindlicher gegenüber Hassreden erwiesen, die sich gegen ethnische Minderheiten, religiöse Minderheiten oder die LGBTQ+-Gemeinschaft richten. Im Gegensatz dazu waren Systeme, die mit rechtsgerichteten Inhalten trainiert wurden, anfälliger für Hassreden gegen christliche weiße Männer.

SIE KÖNNTEN AUCH INTERESSIERT SEIN: Google und Universal Music planen die Entwicklung einer App zum Musikmachen mithilfe künstlicher Intelligenz.