Esto también lo dijo el CEO de OpenAI

C'est également ce qu'a déclaré le PDG d'OpenAI

La inteligencia artificial (IA) ha ocupado un lugar destacado en nuestra sociedad, pero los expertos en el campo lanzan una advertencia. De hecho, el uso incontrolado e irresponsable de la IA podría conducir a la extinción de la humanidad. Nombres reconocidos como Sam Altman de OpenAI, Demis Hassabis de Google DeepMind y Dario Amodei de Anthropic se están uniendo al llamado para abordar el peligro inminente y mitigar los riesgos asociados con la IA. Estas son sus preocupaciones y por qué es importante considerar la IA como una prioridad global.

Los riesgos de la inteligencia artificial

Entre los expertos que hacen sonar la alarma se encuentra Sam Altman, director ejecutivo de OpenAI. Según él y otros expertos, el peligro no reside tanto en una superinteligencia que domine a la humanidad, sino en las consecuencias del uso irresponsable de algoritmos en el trabajo y en la vida cotidiana. Uno de los principales riesgos es el de la interferencia en la difusión de “noticias falsas” y la manipulación de la opinión pública. De hecho, la inteligencia artificial puede dañar a la humanidad al crear canales de desinformación.

Los firmantes de la convocatoria enfatizan la importancia de prepararse para estos riesgos emergentes. El uso extensivo de la IA supone una revolución en muchos ámbitos, pero al mismo tiempo plantea graves problemas. La IA impregna varios aspectos de la vida social, económica, financiera, política, educativa y ética. Los expertos coinciden en la necesidad de gestionar estas situaciones y tomar medidas para afrontar los retos que plantea la IA, como la producción de «fake news» o el control de los coches autónomos.

El llamado a una prioridad global

Altman, Hassabis y Amodei se reunieron recientemente con el presidente estadounidense Joe Biden y la vicepresidenta Kamala Harris para discutir la inteligencia artificial. Después de la reunión, Altman testificó ante el Senado y advirtió que los riesgos asociados con la IA avanzada eran lo suficientemente graves como para justificar la intervención del gobierno. Dijo que estos riesgos requerían una regulación precisa para evitar cualquier daño. Sin embargo, los expertos no sólo advirtieron sobre los peligros de la tecnología, sino que también ofrecieron soluciones concretas para una gestión responsable de los sistemas avanzados de IA.

Los expertos en inteligencia artificial advierten que el riesgo de extinción de la humanidad debe considerarse una prioridad global. La IA tiene el potencial de influir significativamente en el destino de la humanidad, por lo que es esencial abordar estos riesgos con urgencia. En una breve carta publicada por el Centro para la Seguridad de la IA (Cais), podemos leer lo siguiente

«La mitigación del riesgo de extinción provocado por la inteligencia artificial debería ser una prioridad mundial junto con otros riesgos que afectan a toda la sociedad, como las pandemias y la guerra nuclear».

Entre los firmantes de la carta se encuentran Sam Altman, director ejecutivo de OpenAI, también conocido por crear ChatGPT, así como Geoffrey Hinton y Yoshua Bengio, considerados pioneros en el campo de la IA. Geoffrey Hinton es comúnmente considerado el «padrino de la IA», y actualmente describe la tecnología como «aterradora». Yoshua Bengio, por su parte, profesor de informática en la Universidad de Montreal y uno de los principales expertos en este campo, ya ha expresado su preocupación por los riesgos asociados a esta tecnología.

inteligencia artificial

La opinión de Sam Altman, director ejecutivo de OpenAI

Sam Altman es el director ejecutivo de OpenAI, la empresa responsable de crear ChatGPT, el famoso chatbot que catalizó el interés del público por la inteligencia artificial. Junto con Demis Hassabis, director ejecutivo de Google DeepMind, y Dario Amodei de Anthropic, Altman profetizó el riesgo de extinción humana. Pero ¿cuál es el significado de esta afirmación? La votación del Parlamento Europeo sobre la AI Act, el primer reglamento del mundo sobre inteligencia artificial, tendrá lugar del 12 al 15 de junio. Es interesante observar que en el mismo momento en que una importante institución se prepara para restringir la libertad de acción y los desarrollos económicos vinculados a la inteligencia artificial, Altman se pronuncia en contra de su propia tecnología. Esta es una verdadera paradoja. A primera vista, esta postura parece carente de sentido. ¿A qué se debe esta inesperada declaración?

Las motivaciones de Altman.

Existen varias teorías posibles para entender la posición de Altman. Una es que llamar omnipotente a la inteligencia artificial es una buena publicidad para toda la industria. El sector de la IA está en auge y sus limitaciones parecen un desafío difícil, si no imposible, de superar. Otra explicación podría ser económica. De hecho, los datos muestran que la carrera de la IA concierne principalmente a dos naciones: China y Estados Unidos. El primero corresponde a una inversión privada de 13,4 mil millones de dólares, el segundo un total de 47 mil millones de dólares. La iniciativa de Altman podría tener como objetivo limitar la competencia peligrosa y contener el alcance de la IA, al menos en Europa y Estados Unidos. De hecho, detrás de tal afirmación se esconden complejos juegos de poder. Se espera que en el futuro se inviertan 800 mil millones de dólares en IA, lo que generará un valor estimado de alrededor de 6 billones de dólares.

Gestión responsable de la inteligencia artificial

Los expertos ofrecen varias estrategias para gestionar la IA de forma responsable. Destacan la necesidad de cooperación entre los actores industriales en este campo y de una mayor investigación sobre modelos lingüísticos. También sugieren la creación de una organización internacional para la seguridad de la IA, similar a la Agencia Internacional de Energía Atómica (OIEA). Además, algunos enfatizan la importancia de formular leyes que requieran que los creadores de modelos avanzados de IA se registren y obtengan una licencia regulada por el gobierno.

El uso generalizado de la inteligencia artificial generativa, con la proliferación de chatbots como ChatGPT, ha provocado muchos llamamientos para evaluar las implicaciones del desarrollo de dichas herramientas. Entre ellos, una carta abierta también firmada por Elon Musk en marzo pasado planteó la cuestión de una pausa de seis meses en el desarrollo de modelos más potentes del GPT-4 de OpenAI. El objetivo es dar tiempo para desarrollar protocolos de seguridad compartidos para la inteligencia artificial avanzada. De hecho, como informa la carta,

Sólo deberían desarrollarse potentes sistemas de inteligencia artificial cuando esté seguro de que sus efectos serán positivos y sus riesgos manejables.