Isso também é o que o CEO da OpenAI disse

C'est également ce qu'a déclaré le PDG d'OpenAI

A inteligência artificial (IA) assumiu um lugar de destaque na nossa sociedade, mas os especialistas na área estão a alertar. Na verdade, o uso descontrolado e irresponsável da IA ​​poderá levar à extinção da humanidade. Nomes reconhecidos como Sam Altman da OpenAI, Demis Hassabis do Google DeepMind e Dario Amodei da Anthropic estão se juntando ao apelo para enfrentar o perigo iminente e mitigar os riscos associados à IA. Aqui estão as suas preocupações e por que é importante considerar a IA como uma prioridade global.

Os riscos da inteligência artificial

Entre os especialistas que soam o alarme está Sam Altman, CEO da OpenAI. Segundo ele e outros especialistas, o perigo não reside tanto numa superinteligência que dominaria a humanidade, mas sim nas consequências do uso irresponsável de algoritmos no trabalho e na vida quotidiana. Um dos principais riscos diz respeito à interferência na divulgação de “notícias falsas” e à manipulação da opinião pública. Na verdade, a inteligência artificial pode prejudicar a humanidade ao criar canais de desinformação.

Os signatários do apelo sublinham a importância da preparação para estes riscos emergentes. A utilização extensiva da IA ​​conduz a uma revolução em muitas áreas, mas ao mesmo tempo coloca sérios problemas. A IA permeia vários aspectos da vida social, económica, financeira, política, educacional e ética. Os especialistas concordam com a necessidade de gerir estas situações e tomar medidas para enfrentar os desafios colocados pela IA, como a produção de “notícias falsas” ou o controlo de automóveis autónomos.

O apelo a uma prioridade global

Altman, Hassabis e Amodei reuniram-se recentemente com o presidente dos EUA, Joe Biden, e a vice-presidente Kamala Harris para discutir inteligência artificial. Após a reunião, Altman testemunhou perante o Senado, alertando que os riscos associados à IA avançada eram suficientemente graves para justificar a intervenção do governo. Ele disse que esses riscos exigem regulamentação precisa para evitar qualquer dano. No entanto, os especialistas não só alertaram para os perigos da tecnologia, mas também ofereceram soluções concretas para uma gestão responsável de sistemas avançados de IA.

Especialistas em inteligência artificial alertam que o risco de extinção da humanidade deve ser considerado uma prioridade global. A IA tem potencial para influenciar significativamente o destino da humanidade, por isso é essencial enfrentar estes riscos com urgência. Numa pequena carta publicada pelo Centro de Segurança em IA (Cais), podemos ler o seguinte

“A mitigação do risco de extinção provocado pela inteligência artificial deve ser uma prioridade global, juntamente com outros riscos que abrangem toda a sociedade, como pandemias e guerra nuclear.”

Os signatários da carta incluem Sam Altman, CEO da OpenAI, também conhecido por criar o ChatGPT, bem como Geoffrey Hinton e Yoshua Bengio, considerados pioneiros na área de IA. Geoffrey Hinton é comumente considerado o “padrinho da IA”, atualmente descrevendo a tecnologia como “assustadora”. Yoshua Bengio, por sua vez, professor de ciência da computação na Universidade de Montreal e um dos maiores especialistas nesta área, já manifestou a sua preocupação com os riscos associados a esta tecnologia.

inteligência artificial

A visão de Sam Altman, CEO da OpenAI

Sam Altman é o CEO da OpenAI, empresa responsável pela criação do ChatGPT, o famoso chatbot que catalisou o interesse do público pela inteligência artificial. Junto com Demis Hassabis, CEO do Google DeepMind, e Dario Amodei da Anthropic, Altman profetizou o risco de extinção humana. Mas qual é o significado desta afirmação? A votação do Parlamento Europeu sobre a Lei da IA, o primeiro regulamento do mundo sobre inteligência artificial, acontecerá de 12 a 15 de junho. É interessante notar que, no preciso momento em que uma grande instituição se prepara para restringir a liberdade de acção e os desenvolvimentos económicos ligados à inteligência artificial, Altman se manifesta contra a sua própria tecnologia. Este é um verdadeiro paradoxo. À primeira vista, esta posição parece sem sentido. Por que esta declaração inesperada?

As motivações de Altman

Existem várias teorias possíveis para compreender a posição de Altman. Uma delas é que chamar a inteligência artificial de onipotente é uma boa publicidade para toda a indústria. O setor de IA está em franca expansão e a limitação parece ser um desafio difícil, senão impossível, de superar. Outra explicação poderia ser econômica. Na verdade, os dados mostram que a corrida à IA diz respeito principalmente a duas nações, a China e os Estados Unidos. O primeiro corresponde a um investimento privado de 13,4 mil milhões de dólares, ao segundo um total de 47 mil milhões de dólares. A iniciativa de Altman poderia ter como objectivo limitar a concorrência perigosa e conter o alcance da IA, pelo menos na Europa e nos Estados Unidos. Na verdade, complexos jogos de poder estão por trás de tal afirmação. Espera-se que 800 mil milhões de dólares sejam investidos em IA no futuro, gerando um valor estimado em cerca de 6 biliões de dólares.

Gestão responsável da inteligência artificial

Os especialistas oferecem diversas estratégias para gerenciar a IA de maneira responsável. Destacam a necessidade de cooperação entre os intervenientes industriais neste domínio e de uma maior investigação em modelos linguísticos. Sugerem também a criação de uma organização internacional para a segurança da IA, semelhante à Agência Internacional de Energia Atómica (AIEA). Além disso, alguns enfatizam a importância de formular leis que exijam que os criadores de modelos avançados de IA se registem e obtenham uma licença regulamentada pelo governo.

O uso generalizado de inteligência artificial generativa, com a proliferação de chatbots como o ChatGPT, gerou muitos apelos para avaliar as implicações do desenvolvimento de tais ferramentas. Entre eles, uma carta aberta também assinada por Elon Musk em março passado levantou a questão de uma pausa de seis meses no desenvolvimento de modelos mais poderosos do GPT-4 da OpenAI. O objetivo é dar tempo para desenvolver protocolos de segurança compartilhados para inteligência artificial avançada. Na verdade, como relata a carta,

Sistemas poderosos de inteligência artificial só devem ser desenvolvidos quando houver certeza de que os seus efeitos serão positivos e os seus riscos serão controláveis.