Los mayores expertos en inteligencia artificial alertan de que la IA pone en «riesgo de extinción» al ser humano
Apuntan que «mitigar el riesgo» debería ser una «prioridad mundial», como ocurre con las pandemias y el armamento nuclear
El padre de ChatGPT alerta en Madrid de que la IA debe «controlarse como un arma nuclear»
Un grupo de líderes de la industria de la inteligencia artificial (IA), entre los que se encuentran el director ejecutivo de OpenAI, Sam Altman, y el primer ejecutivo de Google DeepMind, Demis Hassabis, han firmado una nueva declaración en la que dejan claro el peligro que puede representar el desarrollo de esta tecnología para la sociedad. Y solo han necesitado 22 palabras en inglés: «Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».
No hay comentarios:
Publicar un comentario