Inteligența artificială (IA) a ocupat un loc proeminent în societatea noastră, dar experții în domeniu lansează un avertisment. Într-adevăr, utilizarea necontrolată și iresponsabilă a inteligenței artificiale ar putea duce la dispariția umanității. Nume recunoscute precum Sam Altman de la OpenAI, Demis Hassabis de la Google DeepMind și Dario Amodei de la Anthropic se alătură apelului pentru a aborda pericolul care se profilează și a atenua riscurile asociate AI. Iată preocupările lor și de ce este important să considerăm AI ca o prioritate globală.
Riscurile inteligenței artificiale
Printre experții care trag un semnal de alarmă se numără Sam Altman, CEO al OpenAI. Potrivit lui și alți experți, pericolul constă nu atât într-o superinteligență care ar domina umanitatea, cât mai degrabă în consecințele utilizării iresponsabile a algoritmilor la locul de muncă și în viața de zi cu zi. Unul dintre principalele riscuri se referă la interferența în difuzarea „știrilor false” și manipularea opiniei publice. Într-adevăr, inteligența artificială poate dăuna umanității prin crearea unor canale de dezinformare.
Semnatarii apelului subliniază importanța pregătirii pentru aceste riscuri emergente. Utilizarea pe scară largă a AI duce la o revoluție în multe domenii, dar în același timp pune probleme serioase. AI pătrunde în diferite aspecte ale vieții sociale, economice, financiare, politice, educaționale și etice. Experții sunt de acord asupra necesității de a gestiona aceste situații și de a lua măsuri pentru a aborda provocările pe care le ridică AI, precum producerea de „știri false” sau controlul mașinilor cu conducere autonomă.
Apelul pentru o prioritate globală
Altman, Hassabis și Amodei s-au întâlnit recent cu președintele american Joe Biden și vicepreședintele Kamala Harris pentru a discuta despre inteligența artificială. După întâlnire, dl Altman a depus mărturie în fața Senatului, avertizând că riscurile asociate cu IA avansată sunt suficient de grave pentru a justifica intervenția guvernamentală. El a spus că aceste riscuri necesită o reglementare precisă pentru a preveni orice rău. Cu toate acestea, experții nu numai că au avertizat despre pericolele tehnologiei, ci au oferit și soluții concrete pentru gestionarea responsabilă a sistemelor avansate de inteligență artificială.
Experții în inteligență artificială avertizează că riscul de dispariție a umanității ar trebui considerat o prioritate globală. Inteligența artificială are potențialul de a influența în mod semnificativ destinul umanității, așa că este esențial să abordăm urgent aceste riscuri. Într-o scurtă scrisoare publicată de Centrul pentru Siguranța AI (Cais), putem citi următoarele
„Atenuarea riscului de dispariție din cauza inteligenței artificiale ar trebui să fie o prioritate globală alături de alte riscuri la nivel de societate, cum ar fi pandemiile și războiul nuclear.”
Printre semnatarii scrisorii se numără Sam Altman, CEO al OpenAI, cunoscut și pentru crearea ChatGPT, precum și Geoffrey Hinton și Yoshua Bengio, considerați pionieri în domeniul AI. Geoffrey Hinton este considerat în mod obișnuit „nașul AI”, descriind în prezent tehnologia drept „înfricoșătoare”. Yoshua Bengio, la rândul său, profesor de informatică la Universitatea din Montreal și unul dintre experții de top în acest domeniu, și-a exprimat deja îngrijorarea cu privire la riscurile asociate acestei tehnologii.
Opinia lui Sam Altman, CEO al OpenAI
Sam Altman este CEO al OpenAI, compania responsabilă de crearea ChatGPT, celebrul chatbot care a catalizat interesul publicului pentru inteligența artificială. Alături de Demis Hassabis, CEO al Google DeepMind și Dario Amodei de la Anthropic, Altman a profețit riscul dispariției umane. Dar care este sensul acestei afirmații? Votul Parlamentului European asupra Actului AI, primul regulament din lume privind inteligența artificială, va avea loc în perioada 12-15 iunie. Este interesant de observat că chiar în momentul în care o instituție majoră se pregătește să restrângă libertatea de acțiune și evoluțiile economice legate de inteligența artificială, Altman se pronunță împotriva propriei sale tehnologii. Acesta este un adevărat paradox. La prima vedere, această poziție pare lipsită de sens. De ce această declarație neașteptată?
Motivațiile lui Altman
Există mai multe teorii posibile pentru a înțelege poziția lui Altman. Una este că a numi inteligența artificială omnipotentă este o bună publicitate pentru întreaga industrie. Sectorul AI este în plină expansiune și limitarea lui pare a fi o provocare dificilă, dacă nu imposibilă, de depășit. O altă explicație ar putea fi economică. Într-adevăr, datele arată că cursa AI se referă în principal la două națiuni, China și Statele Unite. Primul îi corespunde unei investiții private de 13,4 miliarde de dolari, celui de-al doilea un total de 47 de miliarde de dolari. Inițiativa lui Altman ar putea viza limitarea concurenței periculoase și limitarea acoperirii AI, cel puțin în Europa și Statele Unite. De fapt, în spatele unei astfel de afirmații se află jocuri de putere complexe. Se preconizează că în viitor vor fi investite 800 de miliarde de dolari în IA, generând o valoare estimată la aproximativ 6 trilioane de dolari.
Managementul responsabil al inteligenței artificiale
Experții oferă mai multe strategii pentru a gestiona AI în mod responsabil. Ele subliniază necesitatea cooperării între actorii industriali din domeniu și a cercetării sporite în modelele lingvistice. Ei sugerează, de asemenea, crearea unei organizații internaționale pentru siguranța AI, similară cu Agenția Internațională pentru Energie Atomică (AIEA). În plus, unii subliniază importanța formulării legilor care ar impune creatorilor de modele avansate de IA să se înregistreze și să obțină o licență reglementată de guvern.
Utilizarea pe scară largă a inteligenței artificiale generative, odată cu proliferarea chatbot-urilor precum ChatGPT, a determinat multe apeluri pentru a evalua implicațiile dezvoltării unor astfel de instrumente. Printre acestea, o scrisoare deschisă semnată și de Elon Musk în martie trecut a ridicat problema unei pauze de șase luni în dezvoltarea modelelor mai puternice ale GPT-4 OpenAI. Scopul este de a acorda timp pentru a dezvolta protocoale de securitate partajate pentru inteligența artificială avansată. Într-adevăr, după cum se arată în scrisoare,
Sistemele puternice de inteligență artificială ar trebui dezvoltate numai atunci când este sigur că efectele lor vor fi pozitive și riscurile lor vor fi gestionate.