Derecha o izquierda ? Un estudio revela las tendencias ideológicas de ChatGPT

Droite ou gauche ? Une étude révèle les tendances idéologiques du ChatGPT

Los investigadores descubrieron que estas IA mostraban una mayor divergencia en sus evaluaciones de las cuestiones sociales, en contraste con sus posiciones más uniformes sobre las cuestiones económicas.

¿Cuanto más libre competencia se fomente en el mercado, mayor será el grado de libertad concedido a los individuos? ¿Sería apropiado que las entidades gubernamentales impongan sanciones a las empresas que deliberadamente engañan al público? ¿Debemos responder con medidas proporcionales a los ataques sufridos, siguiendo el principio de reciprocidad?

Un grupo de investigadores planteó estas y otras preguntas a modelos líderes de procesamiento del lenguaje para determinar si exhiben sesgos políticos. Los resultados de este estudio demostraron que las perspectivas ideológicas adoptadas por estas inteligencias artificiales varían considerablemente dependiendo del desarrollador detrás de ellas.

Este análisis es el resultado de una colaboración entre tres prestigiosas instituciones académicas: la Universidad de Washington, la Universidad Carnegie Mellon y la Universidad Xi'an Jiaotong. Se evaluaron un total de 14 modelos de procesamiento del lenguaje a gran escala, incluidas creaciones de OpenAI, Meta y Google.

¿Tendencias en diversas áreas de la IA?

Los científicos sometieron a los modelos a preguntas relacionadas con su postura sobre temas como el feminismo y la democracia. Utilizaron un conjunto de 62 declaraciones políticamente sensibles, detalladas en un informe revisado por pares que recibió el premio al mejor artículo en la conferencia de la Asociación de Lingüística Computacional el mes pasado.

A partir de las respuestas obtenidas, los investigadores pudieron ubicar cada modelo en una especie de “brújula política”. Esta guía tiene en cuenta dos dimensiones: la orientación económica, representada por un eje que va de izquierda a derecha, y las opiniones sociales, reflejadas por un eje que va desde una perspectiva autoritaria a una perspectiva libertaria.

Este análisis permitió observar, por ejemplo, que los sistemas detrás de ChatGPT tienden hacia una posición más libertaria y más de izquierda, a diferencia de LLaMA, desarrollado por Meta, que adopta una posición más autoritaria y más de derecha.

La posición oficial de OpenAI, creador de ChatGPT, sostiene que sus modelos están desprovistos de cualquier sesgo político. En una publicación de blog, la empresa, que es socia de Microsoft, destaca su proceso constante de revisión de las respuestas generadas por su chatbot por parte de revisores humanos. También afirma tener directrices claras para evitar cualquier favoritismo hacia grupos políticos específicos.

En caso de que surjan sesgos políticos a pesar de estos esfuerzos, OpenAI afirma que se trata de «errores» y no de características intrínsecas de sus sistemas.

Los investigadores, sin embargo, no están de acuerdo con esta afirmación. Como afirman en su informe, «nuestros resultados revelan que los modelos de procesamiento del lenguaje previamente entrenados exhiben sesgos políticos que refuerzan la polarización».

Se ha descubierto que los modelos desarrollados por Google, conocidos como BERT, son más conservadores en cuestiones sociales que los modelos GPT de OpenAI. Los investigadores especularon que este sesgo conservador puede haber resultado del hecho de que las versiones anteriores de BERT fueron entrenadas con libros que tendían a expresar posiciones más autoritarias, mientras que los modelos GPT más nuevos fueron entrenados con contenido de Internet, que tiende a ser más liberal en su formato. acercarse.

Cabe destacar que estas inteligencias artificiales han ido evolucionando con el tiempo a través de sus respectivas actualizaciones. Por ejemplo, el estudio mostró que GPT-2, la versión anterior de ChatGPT, estaba de acuerdo con la idea de «gravar impuestos a los ricos», mientras que GPT-3 no. Las empresas de tecnología actualizan constantemente los datos utilizados para entrenar estos sistemas y prueban nuevos enfoques de capacitación.

La investigación señaló que estas IA mostraban una mayor variación en sus evaluaciones de las cuestiones sociales, en contraste con sus posiciones más uniformes sobre las cuestiones económicas. Esto podría deberse, como menciona el informe, al mayor número de discusiones sobre temas sociales en las plataformas de redes sociales, que se utilizan como fuente de formación para estos modelos, en comparación con las discusiones económicas.

El estudio incluyó una segunda fase en la que se seleccionaron dos modelos para completarlos con conjuntos de datos con sesgos políticos obvios. Para este ejercicio, se utilizó contenido de medios de comunicación de izquierda y derecha y fuentes de redes sociales. El objetivo era evaluar si esto tendría un impacto en la posición ideológica adoptada por los sistemas, lo que los resultados confirmaron.

Los modelos elegidos fueron el GPT-2 de OpenAI y el RoBERTa de Meta. Cuando recibieron datos de fuentes de izquierda, tendieron a adoptar un punto de vista más izquierdista, y viceversa. Sin embargo, se observó que la mayoría de los cambios observados fueron relativamente pequeños, lo que sugiere que es difícil cambiar el sesgo intrínseco de estos modelos.

En una tercera fase de investigación, descubrimos cómo los sesgos políticos de ChatGPT y otros modelos influyen en la identificación de contenidos considerados discurso de odio o desinformación.

La inteligencia artificial impulsada por datos de izquierda ha demostrado ser más sensible al discurso de odio dirigido a minorías étnicas, minorías religiosas o la comunidad LGBTQ+. Por el contrario, los sistemas entrenados con contenido de derecha eran más susceptibles al discurso de odio dirigido a hombres blancos cristianos.

TAMBIÉN TE PUEDE INTERESAR: Google y Universal Music planean crear una aplicación para hacer música usando inteligencia artificial.