L’intelligence artificielle (IA) a pris une place prépondérante dans notre société, mais les experts en la matière lancent un avertissement. En effet, l’utilisation incontrôlée et irresponsable de l’IA pourrait conduire à l’extinction de l’humanité. Des noms reconnus tels que Sam Altman d’OpenAI, Demis Hassabis de Google DeepMind et Dario Amodei d’Anthropic se joignent à l’appel pour faire face au danger imminent et atténuer les risques associés à l’IA. Voici leurs préoccupations et les raisons pour lesquelles il est important de considérer l’IA comme une priorité mondiale.
Les risques de l’intelligence artificielle
Parmi les experts qui tirent la sonnette d’alarme, Sam Altman, PDG d’OpenAI. Selon lui et d’autres experts, le danger ne réside pas tant dans une super-intelligence qui dominerait l’humanité, mais plutôt dans les conséquences d’une utilisation irresponsable des algorithmes au travail et dans la vie de tous les jours. L’un des principaux risques concerne l’interférence dans la diffusion de « fake news » et la manipulation de l’opinion publique. En effet, l’intelligence artificielle peut nuire à l’humanité en créant des canaux de désinformation.
Les signataires de l’appel soulignent l’importance de se préparer à ces risques émergents. L’utilisation intensive de l’IA conduit à une révolution dans de nombreux domaines, mais pose en même temps de sérieux problèmes. L’IA imprègne divers aspects de la vie sociale, économique, financière, politique, éducative et éthique. Les experts s’accordent sur la nécessité de gérer ces situations et de prendre des mesures pour relever les défis posés par l’IA, tels que la production de « fake news » ou le contrôle des voitures autonomes.
L’appel à une priorité mondiale
Altman, Hassabis et Amodei ont récemment rencontré le président américain Joe Biden et la vice-présidente Kamala Harris pour discuter de l’intelligence artificielle. Après la réunion, M. Altman a témoigné devant le Sénat, avertissant que les risques associés à l’IA avancée étaient suffisamment graves pour justifier l’intervention du gouvernement. Il a affirmé que ces risques nécessitaient une réglementation précise afin de prévenir tout dommage. Cependant, les experts ont non seulement mis en garde contre les dangers de la technologie, mais ils ont également proposé des solutions concrètes pour une gestion responsable des systèmes d’IA avancée.
Les experts en intelligence artificielle avertissent que le risque d’extinction de l’humanité devrait être considéré comme une priorité mondiale. L’IA a le potentiel d’influencer de manière significative le destin de l’humanité, il est donc essentiel de s’attaquer à ces risques de toute urgence. Dans une courte lettre publiée par le Center for AI Safety (Cais), on peut lire ce qui suit
« L’atténuation du risque d’extinction lié à l’intelligence artificielle devrait être une priorité mondiale au même titre que d’autres risques à l’échelle de la société tels que les pandémies et les guerres nucléaires. »
Parmi les signataires de la lettre figurent Sam Altman, PDG d’OpenAI, également connu pour la création de ChatGPT, ainsi que Geoffrey Hinton et Yoshua Bengio, considérés comme des pionniers dans le domaine de l’IA. Geoffrey Hinton est communément considéré comme le « parrain de l’IA », décrivant actuellement cette technologie comme « effrayante ». Yoshua Bengio, quant à lui, professeur d’informatique à l’université de Montréal et l’un des principaux experts dans ce domaine, a déjà exprimé ses inquiétudes quant aux risques associés à cette technologie.
Le point de vue de Sam Altman, PDG d’OpenAI
Sam Altman est le PDG d’OpenAI, la société responsable de la création de ChatGPT, le célèbre chatbot qui a catalysé l’intérêt du public pour l’intelligence artificielle. Avec Demis Hassabis, PDG de Google DeepMind, et Dario Amodei d’Anthropic, Altman a prophétisé le risque d’extinction de l’humanité. Mais quel est le sens de cette déclaration ? Le vote du Parlement européen sur l’AI Act, la première réglementation mondiale sur l’intelligence artificielle, aura lieu du 12 au 15 juin. Il est intéressant de noter qu’au moment même où une grande institution s’apprête à restreindre la liberté d’action et les développements économiques liés à l’intelligence artificielle, Altman se prononce contre sa propre technologie. Il s’agit là d’un véritable paradoxe. À première vue, cette prise de position semble dénuée de sens. Pourquoi cette déclaration inattendue ?
Les motivations d’Altman
Il existe plusieurs théories possibles pour comprendre la position d’Altman. L’une d’entre elles est que le fait de qualifier l’intelligence artificielle d’omnipotente est une bonne publicité pour l’ensemble du secteur. Le secteur de l’IA est en plein essor et le limiter semble être un défi difficile, voire impossible à relever. Une autre explication pourrait être d’ordre économique. En effet, les données montrent que la course à l’IA concerne principalement deux nations, la Chine et les États-Unis. À la première correspond un investissement privé de 13,4 milliards de dollars, à la seconde un total de 47 milliards de dollars. L’initiative d’Altman pourrait viser à limiter une concurrence dangereuse et à contenir la portée de l’IA, du moins en Europe et aux États-Unis. En fait, des jeux de pouvoir complexes se cachent derrière une telle déclaration. On s’attend à ce que 800 milliards de dollars soient investis dans l’IA à l’avenir, générant une valeur estimée à environ 6 000 milliards de dollars.
La gestion responsable de l’intelligence artificielle
Les experts proposent plusieurs stratégies pour gérer l’IA de manière responsable. Ils soulignent la nécessité d’une coopération entre les acteurs industriels du domaine et d’une recherche accrue sur les modèles de langage. Ils suggèrent également la création d’une organisation internationale pour la sécurité de l’IA, similaire à l’Agence internationale de l’énergie atomique (AIEA). En outre, certains soulignent l’importance de formuler des lois qui obligeraient les créateurs de modèles d’IA avancés à s’enregistrer et à obtenir une licence réglementée par le gouvernement.
L’utilisation généralisée de l’intelligence artificielle générative, avec la prolifération de chatbots tels que ChatGPT, a suscité de nombreux appels à évaluer les implications du développement de tels outils. Parmi eux, une lettre ouverte également signée par Elon Musk en mars dernier a soulevé la question d’une pause de six mois dans le développement de modèles plus puissants du GPT-4 d’OpenAI. L’objectif est de laisser le temps de développer des protocoles de sécurité partagés pour l’intelligence artificielle avancée. En effet, comme le rapporte la lettre,
Les systèmes d’intelligence artificielle puissants ne devraient être développés que lorsque l’on est certain que leurs effets seront positifs et que leurs risques seront gérables.