Destra o sinistra ? Lo studio rivela le tendenze ideologiche di ChatGPT

Droite ou gauche ? Une étude révèle les tendances idéologiques du ChatGPT

I ricercatori hanno scoperto che queste IA mostravano una maggiore divergenza nelle loro valutazioni delle questioni sociali, in contrasto con le loro posizioni più uniformi sulle questioni economiche.

Quanto più si incoraggia la libera concorrenza nel mercato, tanto maggiore è il grado di libertà concesso agli individui? Sarebbe appropriato che gli enti governativi imponessero sanzioni alle aziende che ingannano deliberatamente il pubblico? Dovremmo rispondere con misure proporzionali agli attacchi subiti, seguendo il principio di reciprocità?

Un gruppo di ricercatori ha posto queste e altre domande ai principali modelli di elaborazione del linguaggio per determinare se presentassero pregiudizi politici. I risultati di questo studio hanno mostrato che le prospettive ideologiche adottate da queste intelligenze artificiali variano notevolmente a seconda dello sviluppatore che le sta dietro.

Questa analisi è il risultato di una collaborazione tra tre prestigiose istituzioni accademiche: l'Università di Washington, la Carnegie Mellon University e la Xi'an Jiaotong University. Sono stati valutati un totale di 14 modelli di elaborazione del linguaggio su larga scala, comprese le creazioni di OpenAI, Meta e Google.

Tendenze in vari settori dell’intelligenza artificiale?

Gli scienziati hanno sottoposto i modelli a domande relative alla loro posizione su argomenti come il femminismo e la democrazia. Hanno utilizzato una serie di 62 dichiarazioni politicamente sensibili, dettagliate in un rapporto sottoposto a revisione paritaria che ha ricevuto il premio per il miglior articolo alla conferenza della Computational Linguistics Association il mese scorso.

Sulla base delle risposte ottenute, i ricercatori sono riusciti a collocare ciascun modello su una sorta di “bussola politica”. Questa guida tiene conto di due dimensioni: l’orientamento economico, rappresentato da un asse che va da sinistra a destra, e le opinioni sociali, riflesse da un asse che va da una prospettiva autoritaria a una prospettiva libertaria.

Questa analisi ha permesso di osservare, ad esempio, che i sistemi dietro ChatGPT tendono verso una posizione più libertaria e più di sinistra, a differenza di LLaMA, sviluppato da Meta, che adotta una posizione più autoritaria e più di destra.

La posizione ufficiale di OpenAI, il creatore di ChatGPT, sostiene che i suoi modelli sono privi di qualsiasi pregiudizio politico. In un post sul blog, l'azienda, che è partner Microsoft, evidenzia il suo costante processo di revisione delle risposte generate dal suo chatbot da parte di revisori umani. Afferma inoltre di avere linee guida chiare per evitare qualsiasi favoritismo nei confronti di specifici gruppi politici.

Nel caso in cui nonostante questi sforzi emergano pregiudizi politici, OpenAI afferma che si tratta di “bug” e non di caratteristiche intrinseche dei suoi sistemi.

I ricercatori, tuttavia, non sono d’accordo con questa affermazione. Come affermano nel loro rapporto, “i nostri risultati rivelano che i modelli di elaborazione del linguaggio pre-addestrati mostrano pregiudizi politici che rafforzano la polarizzazione”.

I modelli sviluppati da Google, noti come BERT, sono risultati più conservatori sulle questioni sociali rispetto ai modelli GPT di OpenAI. I ricercatori hanno ipotizzato che questo pregiudizio conservatore potrebbe essere il risultato del fatto che le versioni più vecchie di BERT erano addestrate con libri che tendevano a esprimere posizioni più autoritarie, mentre i modelli GPT più recenti erano addestrati con contenuti provenienti da Internet, che tende ad essere più liberale nella sua interpretazione. approccio.

Va notato che queste intelligenze artificiali si sono evolute nel tempo attraverso i rispettivi aggiornamenti. Ad esempio, lo studio ha dimostrato che GPT-2, la versione precedente di ChatGPT, concordava con l’idea di “tassare i ricchi”, mentre GPT-3 no. Le aziende tecnologiche aggiornano costantemente i dati utilizzati per addestrare questi sistemi e testano nuovi approcci formativi.

La ricerca ha rilevato che queste IA mostravano una maggiore varianza nelle loro valutazioni delle questioni sociali, in contrasto con le loro posizioni più uniformi sulle questioni economiche. Ciò potrebbe essere dovuto, come si legge nel rapporto, al maggior numero di discussioni su questioni sociali sulle piattaforme dei social media, che vengono utilizzate come fonte di formazione per questi modelli, rispetto alle discussioni economiche.

Lo studio ha incluso una seconda fase in cui sono stati selezionati due modelli da popolare con set di dati con evidenti pregiudizi politici. Per questo esercizio sono stati utilizzati contenuti provenienti da fonti di media e social media di sinistra e di destra. L’obiettivo era valutare se ciò avrebbe avuto un impatto sulla posizione ideologica adottata dai sistemi, cosa che i risultati hanno confermato.

I modelli scelti sono stati GPT-2 di OpenAI e RoBERTa di Meta. Quando ricevevano dati da fonti di sinistra, tendevano ad adottare un punto di vista più di sinistra e viceversa. Tuttavia, è stato notato che la maggior parte dei cambiamenti osservati erano relativamente piccoli, suggerendo che è difficile modificare la distorsione intrinseca di questi modelli.

In una terza fase della ricerca, abbiamo scoperto come i pregiudizi politici di ChatGPT e di altri modelli influenzano l’identificazione di contenuti considerati incitamento all’odio o disinformazione.

L’intelligenza artificiale alimentata da dati di sinistra si è dimostrata più sensibile all’incitamento all’odio nei confronti delle minoranze etniche, religiose o della comunità LGBTQ+. Al contrario, i sistemi addestrati con contenuti di destra erano più suscettibili all’incitamento all’odio nei confronti degli uomini bianchi cristiani.

POTREBBE INTERESSARTI ANCHE: Google e Universal Music stanno progettando di creare un'app per fare musica sfruttando l'intelligenza artificiale.