Advierten científicos e ingenieros sobre la destrucción de la humanidad por la inteligencia artificial

“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, tales como las pandemias y la guerra nuclear”, dice el comunicado publicado online publicado este martes por científicos y directivos de Microsoft, Google y otras empresas de la industria tecnológica sobre los peligros que representa la inteligencia artificial para la humanidad.

 El CEO de OpenAI, Sam Altman, fundador de ChatGPT y creador de OpenAI. AP / EL DIARIO

Más de 1,000 investigadores y tecnólogos, entre ellos Elon Musk, Sam Altman, director general de OpenAI y fabricante de ChatGPT, el científico Geoffrey Hinton y otros cientos de personas destacas en ámbito habían firmado una carta mucho más larga para pedir una pausa de seis meses en el desarrollo de la IA porque crea “profundos riesgos para la sociedad y la humanidad”.

“Una variedad de personas de todas las universidades principales y diversas disciplinas están preocupadas por esto y piensan que es una prioridad global”, dijo Dan Hendrycks, director general del Center for AI Safety. “Por eso tuvimos que conseguir gente que saliera de las sombras, por así decir, para hablar sobre esto porque muchos hablaban en silencio entre ellos”.

Países en todo el mundo se apresuran a elaborar regulaciones para el desarrollo de la tecnología. La Unión Europea abre el camino con su Ley de IA, que espera aprobar en los próximos meses.