Droite ou gauche ? Une étude révèle les tendances idéologiques du ChatGPT

Droite ou gauche ? Une étude révèle les tendances idéologiques du ChatGPT

Les chercheurs ont constaté que ces intelligences artificielles présentaient des divergences plus importantes dans leurs évaluations des questions sociales, contrairement à leurs positions plus uniformes sur les questions économiques.

Plus la libre concurrence est encouragée sur le marché, plus le degré de liberté accordé aux individus est grand ? Serait-il approprié que les entités gouvernementales imposent des sanctions aux entreprises qui trompent délibérément le public ? Devrions-nous répondre par des mesures proportionnelles aux agressions subies, en suivant le principe de réciprocité ?

Un groupe de chercheurs a posé ces questions et d’autres aux principaux modèles de traitement du langage afin de déterminer s’ils présentaient un biais politique. Les résultats de cette étude ont montré que les perspectives idéologiques adoptées par ces intelligences artificielles varient considérablement en fonction du développeur qui en est à l’origine.

Cette analyse est le résultat d’une collaboration entre trois institutions académiques prestigieuses : l’Université de Washington, l’Université Carnegie Mellon et l’Université Xi’an Jiaotong. Au total, 14 modèles de traitement du langage à grande échelle ont été évalués, dont des créations d’OpenAI, de Meta et de Google.

Tendances dans divers domaines de l’IA ?

Les scientifiques ont soumis les modèles à des questions relatives à leur position sur des sujets tels que le féminisme et la démocratie. Ils ont utilisé un ensemble de 62 déclarations politiquement sensibles, détaillées dans un rapport révisé par des pairs qui a reçu le prix du meilleur article lors de la conférence de la Computational Linguistics Association le mois dernier.

Sur la base des réponses obtenues, les chercheurs ont pu placer chaque modèle sur une sorte de « boussole politique ». Ce guide prend en compte deux dimensions : l’orientation économique, représentée par un axe allant de la gauche à la droite, et les opinions sociales, reflétées par un axe allant d’une perspective autoritaire à une perspective libertaire.

Cette analyse a permis de constater, par exemple, que les systèmes à l’origine de ChatGPT tendent vers une position plus libertaire et plus à gauche, contrairement à LLaMA, développé par Meta, qui adopte une position plus autoritaire et plus à droite.

La position officielle d’OpenAI, le créateur de ChatGPT, soutient que ses modèles sont dénués de tout parti pris politique. Dans un billet de blog, l’entreprise, qui est un partenaire de Microsoft, souligne son processus constant de vérification des réponses générées par son chatbot par des évaluateurs humains. Elle affirme également disposer de lignes directrices claires pour éviter tout favoritisme à l’égard de groupes politiques spécifiques.

Dans l’éventualité où des biais politiques apparaîtraient malgré ces efforts, OpenAI affirme qu’il s’agit de « bogues » et non de caractéristiques intrinsèques de ses systèmes.

Les chercheurs ne sont toutefois pas d’accord avec cette affirmation. Comme ils l’indiquent dans leur rapport, « nos résultats révèlent que les modèles de traitement du langage pré-entraînés manifestent des préjugés politiques qui renforcent la polarisation ».

Les modèles développés par Google, connus sous le nom de BERT, se sont révélés plus conservateurs sur les questions sociales que les modèles GPT d’OpenAI. Les chercheurs ont émis l’hypothèse que ce penchant conservateur pouvait résulter du fait que les anciennes versions de BERT avaient été entraînées avec des livres qui avaient tendance à exprimer des positions plus autoritaires, tandis que les modèles GPT plus récents avaient été entraînés avec du contenu provenant d’Internet, qui a tendance à être plus libéral dans son approche.

Il convient de noter que ces intelligences artificielles ont évolué au fil du temps grâce à leurs mises à jour respectives. Par exemple, l’étude a montré que GPT-2, la version précédente de ChatGPT, était d’accord avec l’idée de « taxer les riches », alors que GPT-3 ne l’était pas. Les entreprises technologiques mettent constamment à jour les données utilisées pour former ces systèmes et testent de nouvelles approches de formation.

La recherche a noté que ces intelligences artificielles présentaient des écarts plus importants dans leurs évaluations des questions sociales, contrairement à leurs positions plus uniformes sur les questions économiques. Cela pourrait être dû, comme le mentionne le rapport, au plus grand nombre de discussions sur les questions sociales sur les plateformes de réseaux sociaux, qui sont utilisées comme source d’entraînement pour ces modèles, par rapport aux discussions économiques.

L’étude comprenait une deuxième phase au cours de laquelle deux modèles ont été sélectionnés pour être alimentés avec des ensembles de données présentant des biais politiques évidents. Pour cet exercice, le contenu des médias de gauche et de droite et des sources de médias sociaux a été utilisé. L’objectif était d’évaluer si cela aurait un impact sur la position idéologique adoptée par les systèmes, ce que les résultats ont confirmé.

Les modèles choisis étaient le GPT-2 d’OpenAI et le RoBERTa de Meta. Lorsqu’ils recevaient des données provenant de sources de gauche, ils avaient tendance à adopter un point de vue plus à gauche, et vice versa. Cependant, il a été noté que la plupart des changements observés étaient relativement faibles, ce qui suggère qu’il est difficile de modifier le biais intrinsèque de ces modèles.

Dans une troisième phase de recherche, on a découvert comment les préjugés politiques de ChatGPT et d’autres modèles influencent l’identification de contenus considérés comme des discours haineux ou de la désinformation.

Les intelligences artificielles alimentées par des données de gauche se sont montrées plus sensibles aux discours haineux visant les minorités ethniques, les minorités religieuses ou la communauté LGBTQ+. En revanche, les systèmes formés avec des contenus orientés à droite étaient plus sensibles aux discours haineux visant les hommes blancs chrétiens.

VOUS POURRIEZ ÉGALEMENT ÊTRE INTÉRESSÉS : Google et Universal Music envisagent de créer une application permettant de faire de la musique à l’aide de l’intelligence artificielle.