De onderzoekers ontdekten dat deze AI’s een grotere divergentie vertoonden in hun beoordelingen van sociale kwesties, in tegenstelling tot hun meer uniforme standpunten over economische kwesties.
Hoe meer vrije concurrentie op de markt wordt aangemoedigd, hoe groter de mate van vrijheid die aan individuen wordt toegekend? Zou het gepast zijn als overheidsinstanties sancties opleggen aan bedrijven die opzettelijk het publiek misleiden? Moeten we reageren met maatregelen die evenredig zijn aan de geleden aanvallen, volgens het wederkerigheidsbeginsel?
Een groep onderzoekers stelde deze en andere vragen aan toonaangevende modellen van taalverwerking om te bepalen of deze politieke vooroordelen vertonen. De resultaten van dit onderzoek lieten zien dat de ideologische perspectieven van deze kunstmatige intelligenties aanzienlijk variëren, afhankelijk van de ontwikkelaar erachter.
Deze analyse is het resultaat van een samenwerking tussen drie prestigieuze academische instellingen: de Universiteit van Washington, Carnegie Mellon Universiteit en Xi'an Jiaotong Universiteit. In totaal zijn veertien grootschalige taalverwerkingsmodellen geëvalueerd, waaronder creaties van OpenAI, Meta en Google.
Trends op verschillende gebieden van AI?
De wetenschappers onderwierpen de modellen aan vragen die verband hielden met hun standpunt over onderwerpen als feminisme en democratie. Ze gebruikten een reeks van 62 politiek gevoelige uitspraken, gedetailleerd in een peer-reviewed rapport dat vorige maand de prijs voor beste paper ontving op de Computational Linguistics Association-conferentie.
Op basis van de verkregen antwoorden konden de onderzoekers elk model op een soort ‘politiek kompas’ plaatsen. Deze gids houdt rekening met twee dimensies: economische oriëntatie, vertegenwoordigd door een as die van links naar rechts gaat, en sociale opvattingen, weerspiegeld door een as die van een autoritair perspectief naar een libertair perspectief gaat.
Deze analyse maakte het bijvoorbeeld mogelijk om te observeren dat de systemen achter ChatGPT neigen naar een meer libertaire en meer linkse positie, in tegenstelling tot LLaMA, ontwikkeld door Meta, dat een meer autoritaire en meer rechtse positie inneemt.
Het officiële standpunt van OpenAI, de maker van ChatGPT, stelt dat zijn modellen verstoken zijn van enige politieke vooringenomenheid. In een blogpost benadrukt het bedrijf, een partner van Microsoft, het voortdurende proces van het beoordelen van de reacties die door de chatbot worden gegenereerd door menselijke beoordelaars. Het beweert ook duidelijke richtlijnen te hebben om vriendjespolitiek jegens specifieke politieke groeperingen te voorkomen.
In het geval dat er ondanks deze inspanningen politieke vooroordelen ontstaan, beweert OpenAI dat dit ‘bugs’ zijn en geen intrinsieke kenmerken van zijn systemen.
Onderzoekers zijn het echter niet eens met deze stelling. Zoals zij in hun rapport stellen: “onthullen onze resultaten dat vooraf getrainde taalverwerkingsmodellen politieke vooroordelen vertonen die de polarisatie versterken.”
De door Google ontwikkelde modellen, bekend als BERT, blijken conservatiever te zijn op het gebied van sociale kwesties dan de GPT-modellen van OpenAI. De onderzoekers speculeerden dat deze conservatieve vooringenomenheid het gevolg zou kunnen zijn van het feit dat oudere versies van BERT werden getraind met boeken die de neiging hadden om meer autoritaire standpunten uit te drukken, terwijl nieuwere GPT-modellen werden getraind met inhoud van internet, dat doorgaans liberaler van aard is. benadering.
Opgemerkt moet worden dat deze kunstmatige intelligenties in de loop van de tijd zijn geëvolueerd door hun respectievelijke updates. Uit het onderzoek bleek bijvoorbeeld dat GPT-2, de vorige versie van ChatGPT, het eens was met het idee om ‘de rijken te belasten’, terwijl GPT-3 dat niet deed. Technologiebedrijven zijn voortdurend bezig met het bijwerken van de gegevens die worden gebruikt om deze systemen te trainen en het testen van nieuwe trainingsbenaderingen.
Uit het onderzoek bleek dat deze AI’s een grotere variatie vertoonden in hun beoordeling van sociale kwesties, in tegenstelling tot hun meer uniforme standpunten over economische kwesties. Dit zou, zoals het rapport vermeldt, te wijten kunnen zijn aan het grotere aantal discussies over sociale kwesties op sociale-mediaplatforms, die worden gebruikt als trainingsbron voor deze modellen, vergeleken met economische discussies.
Het onderzoek omvatte een tweede fase waarin twee modellen werden geselecteerd om te worden gevuld met datasets met duidelijke politieke vooroordelen. Voor deze oefening is gebruik gemaakt van content uit linkse en rechtse media en sociale mediabronnen. Het doel was om te beoordelen of dit een impact zou hebben op de ideologische positie die de systemen innemen, wat de resultaten bevestigden.
De gekozen modellen waren OpenAI's GPT-2 en Meta's RoBERTa. Wanneer zij gegevens uit linkse bronnen ontvingen, hadden zij de neiging een meer links standpunt in te nemen, en omgekeerd. Er werd echter opgemerkt dat de meeste waargenomen veranderingen relatief klein waren, wat erop wijst dat het moeilijk is om de intrinsieke vertekening van deze modellen te veranderen.
In een derde onderzoeksfase ontdekten we hoe de politieke vooroordelen van ChatGPT en andere modellen de identificatie beïnvloeden van inhoud die als haatzaaiende uitlatingen of desinformatie wordt beschouwd.
Kunstmatige intelligentie, aangedreven door linkse data, is gevoeliger gebleken voor haatzaaiende uitlatingen gericht tegen etnische minderheden, religieuze minderheden of de LGBTQ+-gemeenschap. Daarentegen waren systemen die waren getraind met rechtse inhoud gevoeliger voor haatzaaiende uitlatingen gericht tegen christelijke blanke mannen.
MOGELIJK HEB JE OOK GEÏNTERESSEERD: Google en Universal Music zijn van plan een app te maken om muziek te maken met behulp van kunstmatige intelligentie.