OFFTOPIC: ¿Cómo podría la superinteligencia artificial acabar con la humanidad?

La creación de la superinteligencia artificial acarrea el grave problema de que las máquinas puedan escapar del control humano y actuar con ‘voluntad’ propia. De ser así, podrían acabar con la humanidad en un segundo.

Esta opinión sobre el peligro que acarrea la inteligencia artificial corresponde al matemático y filósofo sueco Nick Bostorm, director del Instituto para el Futuro de la Humanidad, de la Universidad de Oxford, y autor del famoso libro ‘La superinteligencia: caminos, peligros, estrategias’. En una entrevista a la revista ‘Esquire’ el filósofo explicó por qué, desde su punto de vista, no hay que alegrarse mucho de los avances en la investigación de la superinteligencia artificial.

Read More