X
0 Artículos
Cistella
0 Artículos
Reserva. Pagament a la botiga
0 Artículos

De moment, aquest servei només està disponible per a recollides a la nostra botiga de Barcelona. No es fan reserves per recollir a la llibreria de Palamós.

Accedir
ENREGISTRAR-ME A FINESTRES
LLIBRERIA
PER A
LLEGIR
0
Compartir
Guardar en favorits
L'autor/a
Yudkowsky, Eliezer
Llegir més
Si alguien la crea, todos moriremos 'Por qué la superinteligencia artificial es una amenaza para la humanidad'
Si alguien la crea, todos moriremos 'Por qué la superinteligencia artificial es una amenaza para la humanidad'
Yudkowsky, Eliezer
Twitter
Facebook
Pinterest
E-mail
Si alguien la crea, todos moriremos 'Por qué la superinteligencia artificial es una amenaza para la humanidad'
Si alguien la crea, todos moriremos 'Por qué la superinteligencia artificial es una amenaza para la humanidad'
Yudkowsky, Eliezer

LA AMENAZA PARA LA HUMANIDAD DE LA IA SUPERINTELIGENTE
En 2023, cientos de expertos en inteligencia artificial advirtieron que supone un grave riesgo de extinción para la humanidad. Desde entonces, la carrera se ha intensificado: empresas y países compiten por crear máquinas más inteligentes que cualquier persona, y el mundo no está preparado. Durante décadas, Yudkowsky y Soares han estudiado cómo pensarán estas inteligencias y concluyen que desarrollarán objetivos propios, en conflicto con los nuestros. Si llega el enfrentamiento, nos aplastarán, pero aún estamos a tiempo de frenar y diseñar políticas que garanticen nuestra seguridad. La conclusión es clara: debemos actuar ahora para que la IA sea una aliada, no una amenaza. Este libro explica por qué, cómo y qué debemos hacer para sobrevivir.

Puede que sea el libro más importante de nuestro tiempo. Tim Urban, Wait But Why
Llegir més
Editorial: Ediciones Destino
Matèria: Tecnologia
ISBN: 978-84-233-6934-8
Idioma: Castellano
Mesures cm: 14.5 x 22.7
Pàgines: 288
Data d'edició: 04-03-2026
0.00(IVA inclòs)
En stock