Questo è anche ciò che ha detto il CEO di OpenAI

C'est également ce qu'a déclaré le PDG d'OpenAI

L’intelligenza artificiale (AI) ha assunto un posto di rilievo nella nostra società, ma gli esperti del settore lanciano un avvertimento. Infatti, l’uso incontrollato e irresponsabile dell’IA potrebbe portare all’estinzione dell’umanità. Nomi riconosciuti come Sam Altman di OpenAI, Demis Hassabis di Google DeepMind e Dario Amodei di Anthropic si stanno unendo all'appello per affrontare il pericolo incombente e mitigare i rischi associati all'intelligenza artificiale. Ecco le loro preoccupazioni e perché è importante considerare l’intelligenza artificiale come una priorità globale.

I rischi dell'intelligenza artificiale

Tra gli esperti a lanciare l’allarme c’è Sam Altman, CEO di OpenAI. Secondo lui e altri esperti, il pericolo non risiede tanto in una superintelligenza che dominerebbe l’umanità, ma piuttosto nelle conseguenze di un uso irresponsabile degli algoritmi sul lavoro e nella vita di tutti i giorni. Uno dei rischi principali riguarda l’ingerenza nella diffusione di “fake news” e la manipolazione dell’opinione pubblica. L’intelligenza artificiale, infatti, può danneggiare l’umanità creando canali di disinformazione.

I firmatari dell’appello sottolineano l’importanza di prepararsi a questi rischi emergenti. L’uso estensivo dell’intelligenza artificiale porta a una rivoluzione in molti ambiti, ma allo stesso tempo pone seri problemi. L’intelligenza artificiale permea vari aspetti della vita sociale, economica, finanziaria, politica, educativa ed etica. Gli esperti concordano sulla necessità di gestire queste situazioni e adottare misure per affrontare le sfide poste dall’intelligenza artificiale, come la produzione di “fake news” o il controllo delle auto a guida autonoma.

La richiesta di una priorità globale

Altman, Hassabis e Amodei hanno recentemente incontrato il presidente degli Stati Uniti Joe Biden e il vicepresidente Kamala Harris per discutere di intelligenza artificiale. Dopo l’incontro, Altman ha testimoniato davanti al Senato, avvertendo che i rischi associati all’intelligenza artificiale avanzata erano abbastanza gravi da giustificare l’intervento del governo. Ha affermato che questi rischi richiedono una regolamentazione precisa per prevenire qualsiasi danno. Tuttavia gli esperti non solo hanno messo in guardia dai pericoli della tecnologia, ma hanno anche offerto soluzioni concrete per una gestione responsabile dei sistemi avanzati di intelligenza artificiale.

Gli esperti di intelligenza artificiale avvertono che il rischio di estinzione dell’umanità dovrebbe essere considerato una priorità globale. L’intelligenza artificiale ha il potenziale per influenzare in modo significativo il destino dell’umanità, quindi è essenziale affrontare questi rischi con urgenza. In una breve lettera pubblicata dal Centro per la Sicurezza dell'AI (Cais), si legge quanto segue

“La mitigazione del rischio di estinzione dovuto all’intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi a livello sociale come le pandemie e la guerra nucleare”.

Tra i firmatari della lettera figurano Sam Altman, CEO di OpenAI, noto anche per aver creato ChatGPT, nonché Geoffrey Hinton e Yoshua Bengio, considerati pionieri nel campo dell'intelligenza artificiale. Geoffrey Hinton è comunemente considerato il “padrino dell'intelligenza artificiale”, descrivendo attualmente la tecnologia come “spaventosa”. Yoshua Bengio, dal canto suo, professore di informatica all'Università di Montreal e uno dei massimi esperti in questo campo, ha già espresso le sue preoccupazioni sui rischi associati a questa tecnologia.

intelligenza artificiale

Il punto di vista di Sam Altman, CEO di OpenAI

Sam Altman è il CEO di OpenAI, la società responsabile della creazione di ChatGPT, il famoso chatbot che ha catalizzato l'interesse del pubblico per l'intelligenza artificiale. Insieme a Demis Hassabis, amministratore delegato di Google DeepMind, e Dario Amodei di Anthropic, Altman profetizzò il rischio di estinzione umana. Ma qual è il significato di questa affermazione? Dal 12 al 15 giugno si svolgerà il voto del Parlamento europeo sull'AI Act, il primo regolamento al mondo sull'intelligenza artificiale. È interessante notare che proprio nel momento in cui una grande istituzione si prepara a limitare la libertà d’azione e gli sviluppi economici legati all’intelligenza artificiale, Altman si esprime contro la sua stessa tecnologia. Questo è un vero paradosso. A prima vista, questa posizione sembra priva di significato. Perché questa affermazione inaspettata?

Le motivazioni di Altman

Esistono diverse teorie possibili per comprendere la posizione di Altman. Il primo è che definire onnipotente l’intelligenza artificiale è una buona pubblicità per l’intero settore. Il settore dell’IA è in piena espansione e limitante sembra essere una sfida difficile, se non impossibile, da superare. Un’altra spiegazione potrebbe essere economica. Dai dati, infatti, emerge che la corsa all’IA riguarda principalmente due nazioni, Cina e Stati Uniti. Il primo corrisponde ad un investimento privato di 13,4 miliardi di dollari, il secondo un totale di 47 miliardi di dollari. L’iniziativa di Altman potrebbe mirare a limitare la concorrenza pericolosa e contenere la portata dell’intelligenza artificiale, almeno in Europa e negli Stati Uniti. In effetti, dietro tale affermazione si celano complessi giochi di potere. Si prevede che in futuro verranno investiti 800 miliardi di dollari nell’intelligenza artificiale, generando un valore stimato di circa 6 trilioni di dollari.

Gestione responsabile dell’intelligenza artificiale

Gli esperti offrono diverse strategie per gestire l’IA in modo responsabile. Evidenziano la necessità di cooperazione tra gli attori industriali nel settore e di una maggiore ricerca sui modelli linguistici. Suggeriscono inoltre la creazione di un’organizzazione internazionale per la sicurezza dell’intelligenza artificiale, simile all’Agenzia internazionale per l’energia atomica (AIEA). Inoltre, alcuni sottolineano l’importanza di formulare leggi che impongano ai creatori di modelli avanzati di intelligenza artificiale di registrarsi e ottenere una licenza regolamentata dal governo.

L’uso diffuso dell’intelligenza artificiale generativa, con la proliferazione di chatbot come ChatGPT, ha spinto molti a valutare le implicazioni dello sviluppo di tali strumenti. Tra questi, una lettera aperta firmata anche da Elon Musk lo scorso marzo sollevava la questione di una pausa di sei mesi nello sviluppo di modelli più potenti del GPT-4 di OpenAI. L’obiettivo è concedere tempo per sviluppare protocolli di sicurezza condivisi per l’intelligenza artificiale avanzata. Infatti, come riporta la lettera,

Potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando sarà certo che i loro effetti saranno positivi e i loro rischi gestibili.