Inteligencia artificial plantea riesgo de extinción como las pandemias y la guerra nuclear, advierten

0

Londres.- La inteligencia artificial(IA) plantea un “riesgo de extinción” comparable al de las pandemias o la guerra nuclear, adviertió este martes en una carta un grupo de más de 300 expertos e investigadores de la industria.

Científicos y directivos de Microsoft, Google y otras empresas de la industria tecnológica emitieron una nueva advertencia acerca de los peligros que representa la inteligencia artificial para la humanidad.

“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, tales como las pandemias y la guerra nuclear”, dice el comunicado publicado online.

Sam Altman, director general de OpenAI, fabricante de ChatGPT, y el científico Geoffrey Hinton, considerado el padrino de la inteligencia artificial, están entre los cientos de personalidades destacadas que firmaron la declaración, publicada en el sitio web de Center for AI Safety (centro por la seguridad de la IA).

También están el director ejecutivo de Google DeepMind, Demis Hassabis; Dario Amodei, director ejecutivo de Anthropic, y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018 -conocido popularmente como el Premio Nobel de la informática- por su trabajo en IA.

Los temores de que sistemas de inteligencia artificial se vuelvan más inteligentes que el ser humano y escapen a todo control se han intensificado con la aparición de una nueva generación de chatbots altamente capacitados como ChatGPT.

La advertencia más reciente fue intencionalmente lacónica -apenas una frase- para abarcar a una coalición amplia de científicos que podrían no estar de acuerdo sobre los riesgos más probables o las mejores soluciones para prevenirlos, dijo Dan Hendrycks, director general del Center for AI Safety, con sede en San Francisco.

“Una variedad de personas de todas las universidades principales y diversas disciplinas están preocupadas por esto y piensan que es una prioridad global”, dijo Hendrycks. “Por eso tuvimos que conseguir gente que saliera de las sombras, por así decir, para hablar sobre esto porque muchos hablaban en silencio entre ellos”.

En marzo, más de mil investigadores y tecnólogos, entre ellos Elon Musk, habían firmado una carta mucho más larga para pedir una pausa de seis meses en el desarrollo de la IA porque crea “profundos riesgos para la sociedad y la humanidad”.

Países en todo el mundo se apresuran a elaborar regulaciones para el desarrollo de la tecnología. La Unión Europea abre el camino con su Ley de IA, que espera aprobar en los próximos meses.

En este mes, mayo, Altman, Hassabis y Amodei se reunieron con el presidente de Estados Unidos, Joe Biden, y la vicepresidenta, Kamala Harris, para hablar sobre la regulación de la AI.

Además, el director ejecutivo de OpenAI testificó ante el Senado estadounidense y advirtió que los riesgos de esta tecnología eran lo suficientemente serios como para justificar la intervención del gobierno.