fbevnts Prima che sia troppo tardi. Perché la superintelligenza artificiale è una minaccia per l'umanità - Eliezer Yudkowsky, Nate Soares - Mondadori - Libro Librerie Università Cattolica del Sacro Cuore
Vai al contenuto della pagina

Prima che sia troppo tardi. Perché la superintelligenza artificiale è una minaccia per l'umanità

novità
Prima che sia troppo tardi. Perché la superintelligenza artificiale è una minaccia per l'umanità
Titolo Prima che sia troppo tardi. Perché la superintelligenza artificiale è una minaccia per l'umanità
Autori ,
Traduttore
Argomento Scienze Umane Scienze
Collana Orizzonti
Editore Mondadori
Formato
Formato Libro Libro
Pagine 300
Pubblicazione 2026
ISBN 9788804803102
Carta del docente Carta Cultura Giovani Acquistabile con Carta del docente o Carta Cultura Giovani
 

Scegli la libreria

Prodotto al momento non ordinabile.
Vuoi essere avvisato quando sarà disponibile?
20,00
 
Compra e ricevi in 2/3 giorni
Da quando l'intelligenza artificiale è entrata nelle nostre vite, abbiamo iniziato a delegarle compiti sempre più complessi, affascinati dalle sue capacità straordinarie. In termini di velocità di calcolo, analisi dei dati e resistenza alla fatica, spesso questi sistemi superano le prestazioni umane. Dove ancora non raggiungono gli standard umani è nella capacità di ragionamento. Le attuali IA infatti non «pensano» veramente, ma si limitano a riconoscere schemi, riprodurre correlazioni e generare risposte sulla base di enormi quantità di dati preesistenti. Simulano l'intelligenza, ma non la incarnano. I progressi in questo ambito di ricerca, però, sono continui e procedono con una rapidità spaventosa. Quasi tutte le aziende sviluppatrici sono già al lavoro per raggiungere il successivo stadio dell'evoluzione: le cosiddette «superintelligenze artificiali» (ASI), in grado di effettuare ragionamenti con una velocità sovrumana, di interagire con il mondo esterno e persino di riprodurre e migliorare se stesse. Chi ne caldeggia la realizzazione afferma che le ASI aiuteranno l'umanità a risolvere problemi che oggi appaiono insormontabili: dalle malattie incurabili al cambiamento climatico, dalle disuguaglianze economiche alla scarsità di risorse. Eppure, non tutti condividono questo ottimismo. Se tali sistemi dovessero davvero raggiungere un livello di autonomia tanto elevato da sviluppare obiettivi propri, chi ci garantisce che non prenderebbero il sopravvento su di noi? Nel 2023 centinaia di esperti hanno firmato una lettera aperta per avvertire di come lo sviluppo di tali intelligenze rappresenti un serio rischio di estinzione per l'umanità. Tra loro, anche Eliezer Yudkowsky e Nate Soares, che spiegano in questo libro perché si tratta di una minaccia concreta, come potrebbe realizzarsi e cosa possiamo fare per evitarla. Tra scenari immaginati (ma nemmeno troppo) e prove scientifiche, un appello urgente ad agire prima che sia troppo tardi.
 

Inserire il codice per il download.

Inserire il codice per attivare il servizio.