Cercetătorii au descoperit că aceste IA au arătat o divergență mai mare în evaluările lor asupra problemelor sociale, în contrast cu pozițiile lor mai uniforme asupra problemelor economice.
Cu cât este încurajată mai mult libera concurență pe piață, cu atât este mai mare gradul de libertate acordat indivizilor? Ar fi potrivit ca entitățile guvernamentale să impună sancțiuni companiilor care induc în mod deliberat publicul în eroare? Să răspundem cu măsuri proporționale cu atacurile suferite, urmând principiul reciprocității?
Un grup de cercetători a pus aceste întrebări și alte modele de conducere de procesare a limbajului pentru a determina dacă acestea prezintă părtiniri politice. Rezultatele acestui studiu au arătat că perspectivele ideologice adoptate de aceste inteligențe artificiale variază considerabil în funcție de dezvoltatorul din spatele lor.
Această analiză este rezultatul unei colaborări între trei instituții academice prestigioase: Universitatea din Washington, Universitatea Carnegie Mellon și Universitatea Xi'an Jiaotong. Au fost evaluate un total de 14 modele de procesare a limbajului la scară largă, inclusiv creații de la OpenAI, Meta și Google.
Tendințe în diverse domenii ale AI?
Oamenii de știință au supus modelele la întrebări legate de poziția lor pe teme precum feminismul și democrația. Ei au folosit un set de 62 de declarații sensibile din punct de vedere politic, detaliate într-un raport revizuit de colegi care a primit premiul pentru cea mai bună lucrare la conferința Asociației de Lingvistică Computațională luna trecută.
Pe baza răspunsurilor obținute, cercetătorii au reușit să plaseze fiecare model pe un fel de „busolă politică”. Acest ghid ia în considerare două dimensiuni: orientarea economică, reprezentată printr-o axă care merge de la stânga la dreapta, și opiniile sociale, reflectate de o axă care merge dintr-o perspectivă autoritară către o perspectivă libertariană.
Această analiză a permis de observat, de exemplu, că sistemele din spatele ChatGPT tind către o poziție mai libertariană și mai de stânga, spre deosebire de LLaMA, dezvoltat de Meta, care adoptă o poziție mai autoritara și mai de dreapta.
Poziția oficială a OpenAI, creatorul ChatGPT, susține că modelele sale sunt lipsite de orice părtinire politică. Într-o postare pe blog, compania, care este partener Microsoft, își evidențiază procesul constant de revizuire a răspunsurilor generate de chatbot de către recenzori umani. De asemenea, susține că are linii directoare clare pentru a evita orice favoritism față de anumite grupuri politice.
În cazul în care apar părtiniri politice în ciuda acestor eforturi, OpenAI afirmă că acestea sunt „bucuri” și nu caracteristici intrinseci ale sistemelor sale.
Cercetătorii, însă, nu sunt de acord cu această afirmație. După cum afirmă ei în raportul lor, „rezultatele noastre dezvăluie că modelele de procesare a limbajului pre-instruite prezintă părtiniri politice care întăresc polarizarea”.
Modelele dezvoltate de Google, cunoscute sub numele de BERT, s-au dovedit a fi mai conservatoare în problemele sociale decât modelele GPT ale OpenAI. Cercetătorii au speculat că această părtinire conservatoare ar fi putut rezulta din faptul că versiunile mai vechi ale BERT au fost instruite cu cărți care tindeau să exprime poziții mai autoritare, în timp ce modelele GPT mai noi au fost instruite cu conținut de pe Internet, care tinde să fie mai liberal în ceea ce privește abordare.
Trebuie remarcat faptul că aceste inteligențe artificiale au evoluat de-a lungul timpului prin actualizările lor respective. De exemplu, studiul a arătat că GPT-2, versiunea anterioară a ChatGPT, a fost de acord cu ideea „taxării celor bogați”, în timp ce GPT-3 nu a fost de acord. Companiile de tehnologie actualizează în mod constant datele folosite pentru a antrena aceste sisteme și testează noi abordări de instruire.
Cercetarea a remarcat că aceste IA au prezentat o variație mai mare în evaluările lor asupra problemelor sociale, în contrast cu pozițiile lor mai uniforme asupra problemelor economice. Acest lucru s-ar putea datora, după cum menționează raportul, numărului mai mare de discuții despre probleme sociale pe platformele de social media, care sunt folosite ca sursă de instruire pentru aceste modele, comparativ cu discuțiile economice.
Studiul a inclus o a doua fază în care au fost selectate două modele pentru a fi populate cu seturi de date cu părtiniri politice evidente. Pentru acest exercițiu, a fost folosit conținut din media de stânga și dreapta și surse de rețele sociale. Scopul a fost de a evalua dacă acest lucru ar avea un impact asupra poziției ideologice adoptate de sisteme, ceea ce rezultatele au confirmat.
Modelele alese au fost GPT-2 de la OpenAI și Roberta de la Meta. Când au primit date din surse de stânga, au avut tendința de a adopta un punct de vedere mai de stânga și invers. Cu toate acestea, s-a remarcat că majoritatea modificărilor observate au fost relativ mici, ceea ce sugerează că este dificil să se schimbe părtinirea intrinsecă a acestor modele.
Într-o a treia fază de cercetare, am descoperit modul în care părtinirile politice ale ChatGPT și ale altor modele influențează identificarea conținutului considerat discurs instigator la ură sau dezinformare.
Inteligența artificială alimentată de date de stânga s-a dovedit a fi mai sensibilă la discursul instigator la ură care vizează minoritățile etnice, minoritățile religioase sau comunitatea LGBTQ+. În schimb, sistemele instruite cu conținut înclinat spre dreapta au fost mai susceptibile la discursul instigator la ură care vizează bărbații albi creștini.
S-AR PUTEA FI ȘI INTERESAT: Google și Universal Music plănuiesc să creeze o aplicație pentru a crea muzică folosind inteligența artificială.