Superinteligencia artificial y sus peligros en la humanidad

Para Bostrom, esto se debe a que las personas carecen de imaginación y de recursos para cambiar de un mundo liderado por personas, a un mundo en que algún objeto superinteligente pueda dominar.
En su libro, Superintelligence’, el profesor de Oxford y director fundador del Instituto del Futuro de la Humanidad, manifiesta múltiples puntos de reflexión sobre el tema. Con varios ejemplos sobre casos hipotéticos en donde los que dominen sean los elementos superinteligentes y las posibles reacciones de los humanos.
Al leer el ejemplar usted podrá entender: ¿cómo evoluciona el fenómeno conocido como inteligencia artificial (IA)? ¿Por qué la humanidad no está preparada para manejar este tipo de tecnología? Y ¿Qué pasos deben seguir los científicos para poder usar y controlar la Inteligencia Artificial?
GetAbstract recomienda el libro, de 352 hojas de extensión, a personas fanáticas de temas complejos y futuristas, estudiantes de carreras afines con la tecnología, inversionistas, y pensadores interesados en temas complejos como la alta tecnología y su posible función en un mundo nuevo.
Nick Bostrom
Oxford UP
págs. 352
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp