ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Cosa succede quando i computer diventano più intelligenti di noi?

Filmed:
4,632,705 views

L'Intelligenza Artificiale sta facendo passi da gigante: entro questo secolo, sostengono gli esperti, un'intelligenza artificiale potrebbe essere tanto "intelligente" quanto un essere umano. E a quel punto, dice Nick Bostrom, prenderà il controllo: nelle sue parole, "L'intelligenza artificiale è l'ultima invenzione che l'umanità dovrà fare." Filosofo e tecnologo, Bostrom ci chiede di pensare seriamente al mondo, governato da macchine pensanti, che stiamo costruendo. Queste macchine intelligenti ci aiuteranno a preservare la nostra umanità e i nostri valori, o avranno valori tutti loro?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchmazzo of mathematiciansmatematici,
philosophersfilosofi and computercomputer scientistsscienziati,
0
570
4207
Lavoro con molti matematici,
filosofi e informatici.
00:16
and we sitsedersi around and think about
the futurefuturo of machinemacchina intelligenceintelligenza,
1
4777
5209
Ci sediamo e pensiamo
al futuro dell'Intelligenza Artificiale,
tra le altre cose.
00:21
amongtra other things.
2
9986
2044
00:24
Some people think that some of these
things are sortordinare of sciencescienza fiction-yfinzione-y,
3
12030
4725
Alcuni pensano che alcune di queste cose
siano roba di fantascienza,
di là da venire, folli.
00:28
farlontano out there, crazypazzo.
4
16755
3101
Ma a me piace dire,
00:31
But I like to say,
5
19856
1470
okay, diamo un'occhiata
alla condizione dell'uomo moderno.
00:33
okay, let's look at the modernmoderno
humanumano conditioncondizione.
6
21326
3604
00:36
(LaughterRisate)
7
24930
1692
(Risate)
È così che vanno le cose, "normalmente".
00:38
This is the normalnormale way for things to be.
8
26622
2402
Ma se ci pensiamo,
00:41
But if we think about it,
9
29024
2285
in realtà noi umani non siamo ospiti
di questo pianeta da molto tempo.
00:43
we are actuallyin realtà recentlyrecentemente arrivedarrivato
guestsospiti on this planetpianeta,
10
31309
3293
00:46
the humanumano speciesspecie.
11
34602
2082
Pensate, se la Terra
fosse stata creata un anno fa,
00:48
Think about if EarthTerra
was createdcreato one yearanno agofa,
12
36684
4746
00:53
the humanumano speciesspecie, then,
would be 10 minutesminuti oldvecchio.
13
41430
3548
la specie umana esisterebbe
da soli 10 minuti.
L'era industriale
sarebbe iniziata due secondi fa.
00:56
The industrialindustriale eraera startediniziato
two secondssecondi agofa.
14
44978
3168
Un altro modo di vederlo è pensare
al PIL mondiale negli ultimi 10.000 anni:
01:01
AnotherUn altro way to look at this is to think of
worldmondo GDPPIL over the last 10,000 yearsanni,
15
49276
5225
mi sono permesso
di mostrarvelo in un grafico.
01:06
I've actuallyin realtà takenprese the troubleguaio
to plottracciare this for you in a graphgrafico.
16
54501
3029
01:09
It lookssembra like this.
17
57530
1774
L'andamento è questo.
(Risate)
01:11
(LaughterRisate)
18
59304
1363
Strana curva,
per una condizione normale.
01:12
It's a curiouscurioso shapeforma
for a normalnormale conditioncondizione.
19
60667
2151
Certo non vorrei sedermi lì.
01:14
I sure wouldn'tno want to sitsedersi on it.
20
62818
1698
(Risate)
01:16
(LaughterRisate)
21
64516
2551
Chiediamoci, qual è la causa
di questa anomalia?
01:19
Let's askChiedere ourselvesnoi stessi, what is the causecausa
of this currentattuale anomalyanomalia?
22
67067
4774
Alcuni direbbero che è la tecnologia.
01:23
Some people would say it's technologytecnologia.
23
71841
2552
Ed è vero, la tecnologia si è accumulata
nel corso della storia umana,
01:26
Now it's truevero, technologytecnologia has accumulatedaccumulato
throughattraverso humanumano historystoria,
24
74393
4668
e ora procede ad un ritmo
estremamente rapido -
01:31
and right now, technologytecnologia
advancesavanzamenti extremelyestremamente rapidlyrapidamente --
25
79061
4652
questa è la causa più immediata,
01:35
that is the proximateproximate causecausa,
26
83713
1565
il motivo per cui ora
siamo così produttivi.
01:37
that's why we are currentlyattualmente
so very productiveproduttivo.
27
85278
2565
Ma vorrei andare a ritroso
fino alla causa fondamentale.
01:40
But I like to think back furtherulteriore
to the ultimatefinale causecausa.
28
88473
3661
Guardate questi due signori,
molto diversi tra loro:
01:45
Look at these two highlyaltamente
distinguisheddistinto gentlemengentiluomini:
29
93114
3766
01:48
We have KanziKanzi --
30
96880
1600
Abbiamo Kanzi --
01:50
he's masteredmasterizzato 200 lexicallessicale
tokenstoken, an incredibleincredibile featfeat.
31
98480
4643
che padroneggia 200 elementi lessicali,
una caratteristica incredibile.
E lui è Ed Witten, che ha lanciato
la 2° rivoluzione delle superstringhe.
01:55
And EdEd WittenWitten unleashedscatenato the secondsecondo
superstringdelle superstringhe revolutionrivoluzione.
32
103123
3694
Guardando sotto la fronte,
ecco cosa troviamo:
01:58
If we look undersotto the hoodcappuccio,
this is what we find:
33
106817
2324
essenzialmente la stessa cosa.
02:01
basicallyfondamentalmente the samestesso thing.
34
109141
1570
Sì, una è un po' più larga,
02:02
One is a little largerpiù grandi,
35
110711
1813
forse è anche cablata un po' meglio.
02:04
it maybe alsoanche has a fewpochi trickstrucchi
in the exactesatto way it's wiredcablata.
36
112524
2758
Tuttavia, queste differenze invisibili
non possono essere troppo complicate
02:07
These invisibleinvisibile differencesdifferenze cannotnon può
be too complicatedcomplicato, howeverperò,
37
115282
3812
perché sono passate
solo 250.000 generazioni
02:11
because there have only
been 250,000 generationsgenerazioni
38
119094
4285
dall'ultimo progenitore comune.
02:15
sinceda our last commonComune ancestorantenato.
39
123379
1732
E sappiamo che i meccanismi complicati
richiedono molto tempo per evolversi.
02:17
We know that complicatedcomplicato mechanismsmeccanismi
take a long time to evolveevolvere.
40
125111
3849
02:22
So a bunchmazzo of relativelyrelativamente minorminore changesi cambiamenti
41
130000
2499
Una manciata di modifiche minori,
quindi, è bastata
a portarci da Kanzi a Witten,
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
dai rami spezzati
ai missili balistici intercontinentali.
02:27
from broken-offrotto-off treealbero branchesrami
to intercontinentalInterContinental ballisticbalistico missilesmissili.
43
135566
4543
Sembra quindi abbastanza ovvio
che tutto ciò che abbiamo conquistato,
02:32
So this then seemssembra prettybella obviousevidente
that everything we'venoi abbiamo achievedraggiunto,
44
140839
3935
e a cui diamo valore,
02:36
and everything we carecura about,
45
144774
1378
derivi sostanzialmente da alcuni ritocchi
che hanno prodotto la mente umana.
02:38
dependsdipende cruciallyfondamentalmente on some relativelyrelativamente minorminore
changesi cambiamenti that madefatto the humanumano mindmente.
46
146152
5228
02:44
And the corollarycorollario, of coursecorso,
is that any furtherulteriore changesi cambiamenti
47
152650
3662
E il corollario, ovviamente,
è che ogni modifica ulteriore
che possa cambiare sostanzialmente
il substrato del pensiero
02:48
that could significantlyin modo significativo changemodificare
the substratesubstrato of thinkingpensiero
48
156312
3477
potrebbe avere conseguenze
potenzialmente enormi.
02:51
could have potentiallypotenzialmente
enormousenorme consequencesconseguenze.
49
159789
3202
Alcuni dei miei colleghi ritengono
che siamo alla vigilia
02:56
Some of my colleaguescolleghi
think we're on the vergelimite
50
164321
2905
di qualcosa che potrebbe causare
un profondo cambiamento in quel substrato,
02:59
of something that could causecausa
a profoundprofondo changemodificare in that substratesubstrato,
51
167226
3908
e quel qualcosa
è la superintelligenza artificiale.
03:03
and that is machinemacchina superintelligencesuperintelligenza.
52
171134
3213
L'Intelligenza Artificiale, un tempo,
consisteva nel dare comandi a una scatola.
03:06
ArtificialArtificiale intelligenceintelligenza used to be
about puttingmettendo commandscomandi in a boxscatola.
53
174347
4739
C'erano programmatori umani
03:11
You would have humanumano programmersprogrammatori
54
179086
1665
che elaboravano "manualmente",
con fatica, tasselli di conoscenza.
03:12
that would painstakinglyfaticosamente
handcraftartigianato knowledgeconoscenza itemselementi.
55
180751
3135
Si costruivano questi sistemi esperti
03:15
You buildcostruire up these expertesperto systemssistemi,
56
183886
2086
che erano utili per qualche scopo,
03:17
and they were kindgenere of usefulutile
for some purposesscopi,
57
185972
2324
ma erano molto "fragili",
difficili da espandere.
03:20
but they were very brittlefragile,
you couldn'tnon poteva scalescala them.
58
188296
2681
Sostanzialmente ottenevi
solo quello che inserivi.
03:22
BasicallyFondamentalmente, you got out only
what you put in.
59
190977
3433
03:26
But sinceda then,
60
194410
997
Ma da allora
c'è stata una rivoluzione
nel settore dell'Intelligenza Artificiale.
03:27
a paradigmparadigma shiftcambio has takenprese placeposto
in the fieldcampo of artificialartificiale intelligenceintelligenza.
61
195407
3467
Oggi, siamo concentrati
sull'apprendimento macchina.
03:30
TodayOggi, the actionazione is really
around machinemacchina learningapprendimento.
62
198874
2770
Invece di inserire a mano rappresentazioni
e caratteristiche della conoscenza,
03:34
So ratherpiuttosto than handcraftingHandcrafting knowledgeconoscenza
representationsRappresentanze and featuresCaratteristiche,
63
202394
5387
creiamo algoritmi che apprendono,
spesso da dati percettivi grezzi.
03:40
we createcreare algorithmsalgoritmi that learnimparare,
oftenspesso from rawcrudo perceptualpercettivo datadati.
64
208511
5554
In pratica, la stessa cosa
che fa un bambino.
03:46
BasicallyFondamentalmente the samestesso thing
that the humanumano infantinfantile does.
65
214065
4998
Il risultato è un'intelligenza artificiale
che non si limita a un solo settore:
03:51
The resultrisultato is A.I. that is not
limitedlimitato to one domaindominio --
66
219063
4207
03:55
the samestesso systemsistema can learnimparare to translatetradurre
betweenfra any pairscoppie of languagesle lingue,
67
223270
4631
lo stesso sistema può imparare
a tradurre tra ogni coppia di linguaggi,
o imparare a giocare
ogni gioco della consolle Atari.
03:59
or learnimparare to playgiocare any computercomputer gamegioco
on the AtariAtari consoleConsole.
68
227901
5437
Naturalmente,
04:05
Now of coursecorso,
69
233338
1779
L'IA non è ancora neanche vicina
alla potente, interdisciplinare
04:07
A.I. is still nowhereDa nessuna parte nearvicino havingavendo
the samestesso powerfulpotente, cross-domaindomini
70
235117
3999
capacità di imparare e progettare
di un essere umano.
04:11
abilitycapacità to learnimparare and planPiano
as a humanumano beingessere has.
71
239116
3219
La corteccia ha ancora
vantaggi algoritmici
04:14
The cortexcorteccia still has some
algorithmicalgoritmico trickstrucchi
72
242335
2126
che non sappiamo riprodurre
nelle macchine.
04:16
that we don't yetancora know
how to matchincontro in machinesmacchine.
73
244461
2355
Quindi la domanda è,
04:19
So the questiondomanda is,
74
247886
1899
quanto manca, prima che le macchine
riescano a recuperare questi vantaggi?
04:21
how farlontano are we from beingessere ablecapace
to matchincontro those trickstrucchi?
75
249785
3500
Un paio di anni fa,
04:26
A couplecoppia of yearsanni agofa,
76
254245
1083
abbiamo fatto un sondaggio
ad alcuni esperti mondiali di IA
04:27
we did a surveysondaggio of some of the world'sIl mondo di
leadingprincipale A.I. expertsesperti,
77
255328
2888
per vedere cosa pensassero,
e una delle domande fu:
04:30
to see what they think,
and one of the questionsle domande we askedchiesto was,
78
258216
3224
04:33
"By whichquale yearanno do you think
there is a 50 percentper cento probabilityprobabilità
79
261440
3353
"Entro quale anno pensate
che vi sia una probabilità del 50%
di ottenere un'intelligenza artificiale
di livello umano?"
04:36
that we will have achievedraggiunto
human-levellivello umano machinemacchina intelligenceintelligenza?"
80
264793
3482
Qui definiamo "di livello umano"
l'abilità di eseguire
04:40
We defineddefinito human-levellivello umano here
as the abilitycapacità to performeseguire
81
268785
4183
quasi ogni lavoro almeno tanto bene
quanto un umano,
04:44
almostquasi any joblavoro at leastmeno as well
as an adultadulto humanumano,
82
272968
2871
quindi di livello veramente umano,
non solo in qualche dominio limitato.
04:47
so realvero human-levellivello umano, not just
withinentro some limitedlimitato domaindominio.
83
275839
4005
E la risposta mediana fu 2040 o 2050,
04:51
And the medianmediano answerrisposta was 2040 or 2050,
84
279844
3650
a seconda del gruppo di esperti
a cui chiedevamo.
04:55
dependingdipendente on preciselyprecisamente whichquale
groupgruppo of expertsesperti we askedchiesto.
85
283494
2806
04:58
Now, it could happenaccadere much,
much laterdopo, or soonerprima,
86
286300
4039
Potrebbe avvenire molto,
molto più tardi, o prima,
la realtà è che nessuno lo sa davvero.
05:02
the truthverità is nobodynessuno really knowsconosce.
87
290339
1940
Quello che sappiamo è che il limite
all'elaborazione di informazioni
05:05
What we do know is that the ultimatefinale
limitlimite to informationinformazione processinglavorazione
88
293259
4412
su un substrato artificale va molto
al di là dei limiti dei tessuti biologici.
05:09
in a machinemacchina substratesubstrato liesbugie farlontano outsideal di fuori
the limitslimiti in biologicalbiologico tissuefazzoletto di carta.
89
297671
4871
Le ragioni si trovano nella fisica.
05:15
This comesviene down to physicsfisica.
90
303241
2378
Un neurone biologico spara, forse,
a 200 Hertz, 200 volte al secondo.
05:17
A biologicalbiologico neuronneurone firesincendi, maybe,
at 200 hertzHertz, 200 timesvolte a secondsecondo.
91
305619
4718
Ma un transistor dei giorni nostri
opera a GigaHertz.
05:22
But even a present-dayOggi transistortransistor
operatesopera at the GigahertzGigahertz.
92
310337
3594
I neuroni si propagano lentamente lungo
gli assoni, a massimo 100 mt/s.
05:25
NeuronsNeuroni propagatepropagare slowlylentamente in axonsassoni,
100 metersmetri perper secondsecondo, topsTop.
93
313931
5297
Ma un computer può instradare
i segnali alla velocità della luce.
05:31
But in computerscomputer, signalssegnali can travelviaggio
at the speedvelocità of lightleggero.
94
319228
3111
Ci sono inoltre limiti dimensionali:
05:35
There are alsoanche sizedimensione limitationslimitazioni,
95
323079
1869
un cervello umano deve stare
all'interno di un cranio,
05:36
like a humanumano braincervello has
to fitin forma insidedentro a craniumcranio,
96
324948
3027
mentre un computer può essere grande
come un magazzino, o di più.
05:39
but a computercomputer can be the sizedimensione
of a warehousemagazzino or largerpiù grandi.
97
327975
4761
Il potenziale della superintelligenza,
quindi, giace nella materia,
05:44
So the potentialpotenziale for superintelligencesuperintelligenza
liesbugie dormantdormienti in matterimporta,
98
332736
5599
proprio come la forza dell'atomo
si è nascosta nella storia umana,
05:50
much like the powerenergia of the atomatomo
layposare dormantdormienti throughoutper tutto humanumano historystoria,
99
338335
5712
attendendo paziente il 1945.
05:56
patientlypazientemente waitingin attesa there untilfino a 1945.
100
344047
4405
In questo secolo,
06:00
In this centurysecolo,
101
348452
1248
06:01
scientistsscienziati maypuò learnimparare to awakenrisvegliare
the powerenergia of artificialartificiale intelligenceintelligenza.
102
349700
4118
gli scienziati potrebbero imparare
a scatenare l'intelligenza artificiale.
E penso che a quel punto potremmo
osservare un'esplosione di intelligenza.
06:05
And I think we mightpotrebbe then see
an intelligenceintelligenza explosionesplosione.
103
353818
4008
La maggior parte delle persone,
quando pensano al genio e all'idiozia,
06:10
Now mostmaggior parte people, when they think
about what is smartinteligente and what is dumbmuto,
104
358406
3957
penso che abbiano in mente più o meno
un'immagine come questa.
06:14
I think have in mindmente a pictureimmagine
roughlyapprossimativamente like this.
105
362363
3023
Abbiamo lo scemo del villaggio
ad un estremo,
06:17
So at one endfine we have the villagevillaggio idiotidiota,
106
365386
2598
e in posizione diametralmente opposta
06:19
and then farlontano over at the other sidelato
107
367984
2483
abbiamo Ed Witten, Albert Einstein
o un altro vostro guru preferito.
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverchiunque your favoritefavorito guruguru is.
108
370467
4756
Ma penso che dal punto di vista
dell'intelligenza artificiale,
06:27
But I think that from the pointpunto of viewvista
of artificialartificiale intelligenceintelligenza,
109
375223
3834
la vera immagine somigli
più probabilmente a questa:
06:31
the truevero pictureimmagine is actuallyin realtà
probablyprobabilmente more like this:
110
379057
3681
l'IA inizia qui, a zero intelligenza,
06:35
AIAI startsinizia out at this pointpunto here,
at zerozero intelligenceintelligenza,
111
383258
3378
e poi, dopo molti, molti anni
di lavoro veramente duro,
06:38
and then, after manymolti, manymolti
yearsanni of really harddifficile work,
112
386636
3011
alla fine forse arriviamo
al livello di intelligenza di un topo,
06:41
maybe eventuallyinfine we get to
mouse-levelmouse-livello artificialartificiale intelligenceintelligenza,
113
389647
3844
qualcosa che possa navigare
in ambienti complessi
06:45
something that can navigatenavigare
clutteredingombra environmentsambienti
114
393491
2430
bene quanto un topo.
06:47
as well as a mousetopo can.
115
395921
1987
E poi, dopo molti, molti anni
di duro lavoro, e molti investimenti,
06:49
And then, after manymolti, manymolti more yearsanni
of really harddifficile work, lots of investmentinvestimento,
116
397908
4313
forse alla fine arriviamo a un'IA
intelligente come uno scimpanzé.
06:54
maybe eventuallyinfine we get to
chimpanzee-levelscimpanzé-livello artificialartificiale intelligenceintelligenza.
117
402221
4639
06:58
And then, after even more yearsanni
of really, really harddifficile work,
118
406860
3210
E poi, dopo ancora molti,
molti anni di lavoro massacrante,
07:02
we get to villagevillaggio idiotidiota
artificialartificiale intelligenceintelligenza.
119
410070
2913
arriviamo a un'IA al livello
di uno scemo del villaggio.
E pochi istanti dopo,
avremo sorpassato Ed Witten.
07:04
And a fewpochi momentsmomenti laterdopo,
we are beyondal di là EdEd WittenWitten.
120
412983
3272
Il treno non si fermerà a Umanopoli.
07:08
The traintreno doesn't stop
at HumanvilleHumanville StationStazione.
121
416255
2970
È più probabile che sfrecci oltre, invece.
07:11
It's likelyprobabile, ratherpiuttosto, to swooshSwoosh right by.
122
419225
3022
Questo ha implicazioni profonde,
07:14
Now this has profoundprofondo implicationsimplicazioni,
123
422247
1984
soprattutto quando si parla di potere.
07:16
particularlysoprattutto when it comesviene
to questionsle domande of powerenergia.
124
424231
3862
Gli scimpanzé, ad esempio, sono forti--
07:20
For exampleesempio, chimpanzeesscimpanzé are strongforte --
125
428093
1899
circa il doppio di un maschio umano
in buona forma fisica.
07:21
poundlibbra for poundlibbra, a chimpanzeescimpanzé is about
twicedue volte as strongforte as a fitin forma humanumano malemaschio.
126
429992
5222
E tuttavia, il destino di Kanzi
e dei suoi pari dipende molto di più
07:27
And yetancora, the fatedestino of KanziKanzi
and his palsPals dependsdipende a lot more
127
435214
4614
dalle nostre azioni che dalle loro.
07:31
on what we humansgli esseri umani do than on
what the chimpanzeesscimpanzé do themselvesloro stessi.
128
439828
4140
Quando arriverà la superintelligenza,
07:37
OnceVolta there is superintelligencesuperintelligenza,
129
445228
2314
anche il nostro destino
potrebbe dipenderne.
07:39
the fatedestino of humanityumanità maypuò dependdipendere
on what the superintelligencesuperintelligenza does.
130
447542
3839
Pensateci:
07:44
Think about it:
131
452451
1057
L'IA è l'ultima invenzione
che l'umanità dovrà mai creare.
07:45
MachineMacchina intelligenceintelligenza is the last inventioninvenzione
that humanityumanità will ever need to make.
132
453508
5044
Le macchine saranno
inventori migliori di noi,
07:50
MachinesMacchine will then be better
at inventinginventare than we are,
133
458552
2973
e agiranno in tempi "digitali".
07:53
and they'llfaranno be doing so
on digitaldigitale timescalesscale cronologiche.
134
461525
2540
Questo significa sostanzialmente
un "avvicinamento" del futuro.
07:56
What this meanssi intende is basicallyfondamentalmente
a telescopingtelescopico of the futurefuturo.
135
464065
4901
Pensate a tutte le tecnologie folli
che forse, a vostro avviso,
08:00
Think of all the crazypazzo technologiestecnologie
that you could have imaginedimmaginato
136
468966
3558
gli umani potrebbero sviluppare:
08:04
maybe humansgli esseri umani could have developedsviluppato
in the fullnesspienezza of time:
137
472524
2798
cure per l'invecchiamento,
colonizzazione spaziale,
08:07
curescure for aginginvecchiamento, spacespazio colonizationcolonizzazione,
138
475322
3258
08:10
self-replicatingauto-replicanti nanobotsNanobot or uploadingcaricamento
of mindsmenti into computerscomputer,
139
478580
3731
nanobot auto-replicanti,
caricare le proprie menti in un computer.
Ogni sorta di roba fantascientifica
08:14
all kindstipi of sciencescienza fiction-yfinzione-y stuffcose
140
482311
2159
08:16
that's neverthelesstuttavia consistentcoerente
with the lawslegislazione of physicsfisica.
141
484470
2737
e nondimeno permessa dalla fisica.
Una superintelligenza potrebbe sviluppare
tutto questo, e forse molto rapidamente.
08:19
All of this superintelligencesuperintelligenza could
developsviluppare, and possiblypossibilmente quiteabbastanza rapidlyrapidamente.
142
487207
4212
Una superintelligenza
con una tale maturità tecnologica
08:24
Now, a superintelligencesuperintelligenza with suchcome
technologicaltecnologico maturityscadenza
143
492449
3558
sarebbe estremamente potente,
08:28
would be extremelyestremamente powerfulpotente,
144
496007
2179
e almeno in qualche scenario,
potrebbe ottenere quel che vuole.
08:30
and at leastmeno in some scenariosscenari,
it would be ablecapace to get what it wants.
145
498186
4546
A quel punto avremmo un futuro
modellato sulle preferenze dell'IA.
08:34
We would then have a futurefuturo that would
be shapeda forma di by the preferencesPreferenze of this A.I.
146
502732
5661
Una buona domanda a quel punto è:
quali sono queste preferenze?
08:41
Now a good questiondomanda is,
what are those preferencesPreferenze?
147
509855
3749
Qui la cosa si fa intricata.
08:46
Here it getsprende trickierpiù complicato.
148
514244
1769
Per trovare una via d'uscita,
08:48
To make any headwayHeadway with this,
149
516013
1435
dobbiamo prima di tutto
evitare l'antropomorfizzazione.
08:49
we mustdovere first of all
avoidevitare anthropomorphizinganthropomorphizing.
150
517448
3276
Ed è ironico perché
ogni articolo di giornale
08:53
And this is ironicironico because
everyogni newspapergiornale articlearticolo
151
521934
3301
sul futuro dell'IA
ha un'immagine come questa.
08:57
about the futurefuturo of A.I.
has a pictureimmagine of this:
152
525235
3855
09:02
So I think what we need to do is
to conceiveconcepire of the issueproblema more abstractlyastrattamente,
153
530280
4134
Quindi penso che dovremmo concepire
la questione in modo più astratto,
non come un film di Hollywood.
09:06
not in termscondizioni of vividvivido HollywoodHollywood scenariosscenari.
154
534414
2790
Dobbiamo pensare all'intelligenza
come a un processo di ottimizzazione,
09:09
We need to think of intelligenceintelligenza
as an optimizationottimizzazione processprocesso,
155
537204
3617
un processo che dirige il futuro verso
un particolare set di configurazioni.
09:12
a processprocesso that steersManzi the futurefuturo
into a particularparticolare setimpostato of configurationsconfigurazioni.
156
540821
5649
09:18
A superintelligencesuperintelligenza is
a really strongforte optimizationottimizzazione processprocesso.
157
546470
3511
Una superintelligenza è un processo
di ottimizzazione davvero potente.
È estremamente capace
di usare i mezzi disponibili
09:21
It's extremelyestremamente good at usingutilizzando
availablea disposizione meanssi intende to achieveraggiungere a statestato
158
549981
4117
per ottenere una condizione
in cui i suoi scopi sono realizzati.
09:26
in whichquale its goalobbiettivo is realizedrealizzato.
159
554098
1909
Quindi non c'è necessariamente
una connessione
09:28
This meanssi intende that there is no necessarynecessario
conenctionconenction betweenfra
160
556447
2672
tra l'essere molto intelligenti
in questo senso
09:31
beingessere highlyaltamente intelligentintelligente in this sensesenso,
161
559119
2734
e avere un obiettivo che noi umani
riterremmo degno o significativo.
09:33
and havingavendo an objectiveobbiettivo that we humansgli esseri umani
would find worthwhileutile or meaningfulsignificativo.
162
561853
4662
Supponiamo di dare all'AI
l'obiettivo di far sorridere gli umani.
09:39
SupposeSi supponga che we give an A.I. the goalobbiettivo
to make humansgli esseri umani smileSorriso.
163
567321
3794
Un'IA debole si limiterebbe
a eseguire azioni utili o divertenti,
09:43
When the A.I. is weakdebole, it performsesegue usefulutile
or amusingin modo divertente actionsAzioni
164
571115
2982
che fanno sorridere il suo utente.
09:46
that causecausa its userutente to smileSorriso.
165
574097
2517
Quando l'IA diventa superintelligente,
09:48
When the A.I. becomesdiventa superintelligentsuper intelligente,
166
576614
2417
capisce che c'è un modo più efficace
di ottenere questo scopo:
09:51
it realizesrealizza that there is a more
effectiveefficace way to achieveraggiungere this goalobbiettivo:
167
579031
3523
prendere il controllo del mondo,
09:54
take controlcontrollo of the worldmondo
168
582554
1922
e infilare elettrodi
nei muscoli facciali degli umani,
09:56
and stickbastone electrodeselettrodi into the facialtrattamento viso
musclesmuscoli of humansgli esseri umani
169
584476
3162
causando una costante,
accattivante smorfia.
09:59
to causecausa constantcostante, beamingraggiante grinsGrins.
170
587638
2941
Un altro esempio:
supponiamo di dare all'IA
10:02
AnotherUn altro exampleesempio,
171
590579
1035
10:03
supposesupporre we give A.I. the goalobbiettivo to solverisolvere
a difficultdifficile mathematicalmatematico problemproblema.
172
591614
3383
un problema matematico duro da risolvere.
Quando l'IA diventa superintelligente,
10:06
When the A.I. becomesdiventa superintelligentsuper intelligente,
173
594997
1937
capisce che il modo più efficace
di ottenere la soluzione al problema
10:08
it realizesrealizza that the mostmaggior parte effectiveefficace way
to get the solutionsoluzione to this problemproblema
174
596934
4171
è trasformare il pianeta
in un computer gigantesco,
10:13
is by transformingtrasformante the planetpianeta
into a giantgigante computercomputer,
175
601105
2930
così da aumentare
la sua capacità di pensiero.
10:16
so as to increaseaumentare its thinkingpensiero capacitycapacità.
176
604035
2246
E notate: questo dà all'IA
una ragione strumentale
10:18
And noticeAvviso that this gives the A.I.s
an instrumentalInstrumental reasonragionare
177
606281
2764
per farci subire cose
che potremmo non approvare.
10:21
to do things to us that we
mightpotrebbe not approveapprovare of.
178
609045
2516
Gli umani diventerebbero una minaccia,
10:23
HumanUmano beingsesseri in this modelmodello are threatsminacce,
179
611561
1935
perché potremmo impedire
la scoperta della soluzione.
10:25
we could preventimpedire the mathematicalmatematico
problemproblema from beingessere solvedrisolto.
180
613496
2921
Ovviamente, non è detto che le cose
andranno male in questo preciso modo;
10:29
Of coursecorso, perceivablysensibilmente things won'tnon lo farà
go wrongsbagliato in these particularparticolare waysmodi;
181
617207
3494
sono esempi da cartone animato.
10:32
these are cartooncartone animato examplesesempi.
182
620701
1753
Ma è importante cogliere il punto:
10:34
But the generalgenerale pointpunto here is importantimportante:
183
622454
1939
se create un processo
di ottimizzazione davvero potente
10:36
if you createcreare a really powerfulpotente
optimizationottimizzazione processprocesso
184
624393
2873
che massimizzi l'obiettivo x,
10:39
to maximizemassimizzare for objectiveobbiettivo x,
185
627266
2234
10:41
you better make sure
that your definitiondefinizione of x
186
629500
2276
sinceratevi che la vostra definizione di x
includa tutto ciò a cui tenete.
10:43
incorporatesincorpora everything you carecura about.
187
631776
2469
È una lezione tramandata
da molti miti, anche.
10:46
This is a lessonlezione that's alsoanche taughtinsegnato
in manymolti a mythmito.
188
634835
4384
Re Mida voleva trasformare in oro
tutto ciò che toccava.
10:51
KingRe MidasMidas wishesauguri that everything
he touchestocchi be turnedtrasformato into goldoro.
189
639219
5298
Tocca sua figlia, e la trasforma in oro.
10:56
He touchestocchi his daughterfiglia,
she turnsgiri into goldoro.
190
644517
2861
Tocca il suo cibo, si trasforma in oro.
10:59
He touchestocchi his foodcibo, it turnsgiri into goldoro.
191
647378
2553
È un esempio che potremmo
considerare pregnante:
11:01
This could becomediventare practicallyin pratica relevantpertinente,
192
649931
2589
11:04
not just as a metaphormetafora for greedavidità,
193
652520
2070
non solo come metafora dell'avidità,
11:06
but as an illustrationillustrazione of what happensaccade
194
654590
1895
ma anche perché illustra cosa succede
se create un potente processo
di ottimizzazione
11:08
if you createcreare a powerfulpotente
optimizationottimizzazione processprocesso
195
656485
2837
e gli affidate obiettivi indesiderabili,
o male specificati.
11:11
and give it misconceivederrata
or poorlymale specifiedspecificato goalsobiettivi.
196
659322
4789
Be', mi direte, se un computer inizia
a infilare elettrodi in faccia alla gente,
11:16
Now you mightpotrebbe say, if a computercomputer startsinizia
stickingadesivo electrodeselettrodi into people'spersone di facesfacce,
197
664111
5189
11:21
we'dsaremmo just shutchiuso it off.
198
669300
2265
basta spegnerlo.
[Le mie obiezioni sono due:]
A, non è detto che sia così semplice,
se diventiamo dipendenti dal sistema --
11:24
A, this is not necessarilynecessariamente so easyfacile to do
if we'venoi abbiamo growncresciuto dependentdipendente on the systemsistema --
199
672555
5340
per esempio, dov'è l'interuttore
per spegnere Internet?
11:29
like, where is the off switchinterruttore
to the InternetInternet?
200
677895
2732
B, perché gli scimpanzé non hanno
staccato l'interruttore dell'umanità,
11:32
B, why haven'tnon hanno the chimpanzeesscimpanzé
flickedun colpetto the off switchinterruttore to humanityumanità,
201
680627
5120
o i Neanderthal?
11:37
or the NeanderthalsUomo di Neanderthal?
202
685747
1551
Certamente avevano
delle ragioni per farlo.
11:39
They certainlycertamente had reasonsmotivi.
203
687298
2666
Noi abbiamo un interruttore,
per esempio qui.
11:41
We have an off switchinterruttore,
for exampleesempio, right here.
204
689964
2795
(Si strozza da solo)
11:44
(ChokingSoffocamento)
205
692759
1554
Il motivo è che siamo
avversari intelligenti;
11:46
The reasonragionare is that we are
an intelligentintelligente adversaryavversario;
206
694313
2925
possiamo anticipare le minacce
e studiare come aggirarle.
11:49
we can anticipateanticipare threatsminacce
and planPiano around them.
207
697238
2728
Ma anche un agente
superintelligente potrebbe farlo,
11:51
But so could a superintelligentsuper intelligente agentagente,
208
699966
2504
11:54
and it would be much better
at that than we are.
209
702470
3254
e ci riuscirebbe molto meglio di noi.
Non dovremmo contare
sul fatto di poterlo controllare.
11:57
The pointpunto is, we should not be confidentfiducioso
that we have this undersotto controlcontrollo here.
210
705724
7187
E potremmo provare a semplificarci
un po' la vita, diciamo,
12:04
And we could try to make our joblavoro
a little bitpo easierPiù facile by, say,
211
712911
3447
mettendo l'IA in una "scatola",
12:08
puttingmettendo the A.I. in a boxscatola,
212
716358
1590
come un ambiente virtuale sicuro,
12:09
like a securegarantire la softwareSoftware environmentambiente,
213
717948
1796
una ricostruzione della realtà
da cui non può sfuggire.
12:11
a virtualvirtuale realityla realtà simulationsimulazione
from whichquale it cannotnon può escapefuga.
214
719744
3022
Ma quanto possiamo contare sul fatto
che non trovi una falla nel codice?
12:14
But how confidentfiducioso can we be that
the A.I. couldn'tnon poteva find a buginsetto.
215
722766
4146
Visto che molti hacker umani
scoprono bug in continuazione,
12:18
GivenDato that merelysemplicemente humanumano hackershacker
find bugsbug all the time,
216
726912
3169
direi che non dovremmo contarci molto.
12:22
I'd say, probablyprobabilmente not very confidentfiducioso.
217
730081
3036
Potremmo scollegare il cavo Ethernet,
creando un gap fisico.
12:26
So we disconnectScollegare the ethernetEthernet cablecavo
to createcreare an airaria gapdivario,
218
734237
4548
Ma anche in questo caso,
molti hacker umani
12:30
but again, like merelysemplicemente humanumano hackershacker
219
738785
2668
aggirano continuamente il problema
con l'ingegneria sociale.
12:33
routinelydi routine transgresstrasgredire airaria gapslacune
usingutilizzando socialsociale engineeringingegneria.
220
741453
3381
Proprio ora, mentre parlo,
12:36
Right now, as I speakparlare,
221
744834
1259
sono sicuro che c'è
qualche impiegato, là fuori,
12:38
I'm sure there is some employeedipendente
out there somewhereda qualche parte
222
746093
2389
che sta dando i dettagli
del suo account a qualcuno
12:40
who has been talkedparlato into handingpassaggio out
her accountaccount detailsdettagli
223
748482
3346
che si spaccia per il dipartimento IT.
12:43
by somebodyqualcuno claimingrivendicando to be
from the I.T. departmentDipartimento.
224
751828
2746
E sono possibili anche
scenari più creativi:
12:46
More creativecreativo scenariosscenari are alsoanche possiblepossibile,
225
754574
2127
se siete l'IA, ad esempio,
12:48
like if you're the A.I.,
226
756701
1315
potreste pensare a sguinzagliare
degli elettrodi nei vostri circuiti
12:50
you can imagineimmaginare wigglingdimenando electrodeselettrodi
around in your internalinterno circuitrycircuiteria
227
758016
3532
per creare onde radio
che potete usare per comunicare.
12:53
to createcreare radioRadio wavesonde that you
can use to communicatecomunicare.
228
761548
3462
12:57
Or maybe you could pretendfar finta to malfunctionMalfunzionamento,
229
765010
2424
Oppure potreste fingere di guastarvi,
e quando i programmatori vi ispezionano
per capire cosa non va,
12:59
and then when the programmersprogrammatori openAperto
you up to see what wentandato wrongsbagliato with you,
230
767434
3497
guardano al codice sorgente e BAM!
13:02
they look at the sourcefonte codecodice -- BamBAM! --
231
770931
1936
ecco che avviene una manipolazione.
13:04
the manipulationmanipolazione can take placeposto.
232
772867
2447
Oppure potrebbe pubblicare il modello
di una tecnologia affascinante,
13:07
Or it could outputproduzione the blueprintBlueprint
to a really niftynifty technologytecnologia,
233
775314
3430
che quando la implementiamo
13:10
and when we implementstrumento it,
234
778744
1398
produce dei sottili effetti collaterali,
che l'IA aveva previsto.
13:12
it has some surreptitiousocculta sidelato effecteffetto
that the A.I. had plannedpianificato.
235
780142
4397
Non dovremmo contare sulla nostra capacità
13:16
The pointpunto here is that we should
not be confidentfiducioso in our abilitycapacità
236
784539
3463
di chiudere una superintelligenza
nella sua bottiglia in eterno.
13:20
to keep a superintelligentsuper intelligente geniegenio
lockedbloccato up in its bottlebottiglia foreverper sempre.
237
788002
3808
13:23
SoonerPrima or laterdopo, it will out.
238
791810
2254
Prima o poi riuscirà ad uscire.
Credo che qui la risposta sia capire
13:27
I believe that the answerrisposta here
is to figurefigura out
239
795034
3103
come creare un'IA superintelligente
tale che se -- quando -- uscirà,
13:30
how to createcreare superintelligentsuper intelligente A.I.
suchcome that even if -- when -- it escapessfugge,
240
798137
5024
resterà amichevole,
fondamentalmente dalla nostra parte
13:35
it is still safesicuro because it is
fundamentallyfondamentalmente on our sidelato
241
803161
3277
perché condivide i nostri valori.
13:38
because it sharesazioni our valuesvalori.
242
806438
1899
Non vedo scorciatoie
a questo difficile problema.
13:40
I see no way around
this difficultdifficile problemproblema.
243
808337
3210
Sono molto ottimista
sulle nostre capacità di risolverlo.
13:44
Now, I'm actuallyin realtà fairlyabbastanza optimisticottimista
that this problemproblema can be solvedrisolto.
244
812557
3834
Non dovremmo scrivere una lunga lista
di tutto ciò a cui diamo valore,
13:48
We wouldn'tno have to writeScrivi down
a long listelenco of everything we carecura about,
245
816391
3903
o peggio ancora codificarlo
in qualche linguaggio
13:52
or worsepeggio yetancora, spellincantesimo it out
in some computercomputer languageLingua
246
820294
3643
come C++ o Python,
13:55
like C++ or PythonPython,
247
823937
1454
altrimenti sarebbe una sfida impossibile.
13:57
that would be a taskcompito beyondal di là hopelesssenza speranza.
248
825391
2767
Invece, dovremmo creare un'IA
che usa la sua intelligenza
14:00
InsteadInvece, we would createcreare an A.I.
that usesusi its intelligenceintelligenza
249
828158
4297
per imparare a cosa diamo valore,
14:04
to learnimparare what we valuevalore,
250
832455
2771
e con un sistema motivazionale concepito
14:07
and its motivationmotivazione systemsistema is constructedcostruito
in suchcome a way that it is motivatedmotivato
251
835226
5280
per perseguire i nostri valori, o eseguire
azioni che sa che approveremmo.
14:12
to pursueperseguire our valuesvalori or to performeseguire actionsAzioni
that it predictspredice we would approveapprovare of.
252
840506
5232
Potremmo così sfruttare
la sua intelligenza al massimo
14:17
We would thuscosì leverageleva
its intelligenceintelligenza as much as possiblepossibile
253
845738
3414
nel risolvere il problema
dell'attribuzione di valore.
14:21
to solverisolvere the problemproblema of value-loadingvalore-caricamento.
254
849152
2745
Possiamo farlo,
14:24
This can happenaccadere,
255
852727
1512
e il risultato sarebbe
molto positivo per l'umanità.
14:26
and the outcomerisultato could be
very good for humanityumanità.
256
854239
3596
Ma non avviene automaticamente.
14:29
But it doesn't happenaccadere automaticallyautomaticamente.
257
857835
3957
Le condizioni iniziali
per questa esplosione di intelligenza
14:33
The initialiniziale conditionscondizioni
for the intelligenceintelligenza explosionesplosione
258
861792
2998
14:36
mightpotrebbe need to be setimpostato up
in just the right way
259
864790
2863
potrebbero dover essere
definite perfettamente,
se quella che vogliamo
è un'esplosione controllata.
14:39
if we are to have a controlledcontrollata detonationdetonazione.
260
867653
3530
I valori dell'IA
devono coincidere con i nostri,
14:43
The valuesvalori that the A.I. has
need to matchincontro oursnostro,
261
871183
2618
non solo nei contesti familiari,
14:45
not just in the familiarfamiliare contextcontesto,
262
873801
1760
dove puoi facilmente controllare
come si comporta,
14:47
like where we can easilyfacilmente checkdai un'occhiata
how the A.I. behavessi comporta,
263
875561
2438
ma anche in tutti quei contesti nuovi
che l'IA potrebbe incontrare
14:49
but alsoanche in all novelromanzo contextscontesti
that the A.I. mightpotrebbe encounterincontrare
264
877999
3234
in futuro.
14:53
in the indefiniteindefinito futurefuturo.
265
881233
1557
14:54
And there are alsoanche some esotericesoterico issuesproblemi
that would need to be solvedrisolto, sortedordinato out:
266
882790
4737
E restano anche alcune questioni
esoteriche da risolvere e chiarire:
i dettagli su come prendere decisioni,
14:59
the exactesatto detailsdettagli of its decisiondecisione theoryteoria,
267
887527
2089
come gestire l'incertezza logica,
e così via.
15:01
how to dealaffare with logicallogico
uncertaintyincertezza and so forthvia.
268
889616
2864
15:05
So the technicaltecnico problemsi problemi that need
to be solvedrisolto to make this work
269
893330
3102
Quindi i problemi tecnici da risolvere
sembrano molto difficili:
15:08
look quiteabbastanza difficultdifficile --
270
896432
1113
non tanto quanto realizzare
un'IA superintelligente,
15:09
not as difficultdifficile as makingfabbricazione
a superintelligentsuper intelligente A.I.,
271
897545
3380
ma comunque molto difficili.
15:12
but fairlyabbastanza difficultdifficile.
272
900925
2868
Questa è la mia paura:
15:15
Here is the worrypreoccupazione:
273
903793
1695
realizzare un'IA superintelligente
è già una sfida veramente dura;
15:17
MakingRendendo superintelligentsuper intelligente A.I.
is a really harddifficile challengesfida.
274
905488
4684
realizzare un'IA
superintelligente e sicura
15:22
MakingRendendo superintelligentsuper intelligente A.I. that is safesicuro
275
910172
2548
15:24
involvescoinvolge some additionalUlteriori
challengesfida on topsuperiore of that.
276
912720
2416
pone sfide aggiuntive.
Il rischio è che qualcuno capisca
come vincere la prima sfida
15:28
The riskrischio is that if somebodyqualcuno figuresfigure out
how to crackcrepa the first challengesfida
277
916216
3487
senza sapere ancora
come vincere la sfida aggiuntiva
15:31
withoutsenza alsoanche havingavendo crackedscrepolato
the additionalUlteriori challengesfida
278
919703
3001
di assicurare una perfetta sicurezza.
15:34
of ensuringgarantendo perfectperfezionare safetysicurezza.
279
922704
1901
Penso quindi che dovremmo prima
lavorare a una soluzione
15:37
So I think that we should
work out a solutionsoluzione
280
925375
3331
al problema del controllo,
15:40
to the controlcontrollo problemproblema in advanceavanzare,
281
928706
2822
così da averla disponibile
al momento del bisogno.
15:43
so that we have it availablea disposizione
by the time it is needednecessaria.
282
931528
2660
Magari non riusciremo
a risolvere tutto a priori,
15:46
Now it mightpotrebbe be that we cannotnon può solverisolvere
the entireintero controlcontrollo problemproblema in advanceavanzare
283
934768
3507
perché forse alcuni elementi
possono essere messi a punto
15:50
because maybe some elementselementi
can only be put in placeposto
284
938275
3024
solo dopo aver conosciuto
l'architettura che li implementa.
15:53
onceuna volta you know the detailsdettagli of the
architecturearchitettura where it will be implementedimplementato.
285
941299
3997
Ma più problemi legati al controllo
risolviamo in anticipo,
15:57
But the more of the controlcontrollo problemproblema
that we solverisolvere in advanceavanzare,
286
945296
3380
più è probabile che la transizione
all'era dell'intelligenza artificiale
16:00
the better the oddsprobabilità that the transitiontransizione
to the machinemacchina intelligenceintelligenza eraera
287
948676
4090
andrà a buon fine.
16:04
will go well.
288
952766
1540
Ritengo che questa sia una cosa
assolutamente da fare,
16:06
This to me lookssembra like a thing
that is well worthdi valore doing
289
954306
4644
16:10
and I can imagineimmaginare that if
things turnturno out okay,
290
958950
3332
e posso immaginare
che se le cose andranno bene,
tra un milione di anni
la gente ripenserà a questo secolo
16:14
that people a millionmilione yearsanni from now
look back at this centurysecolo
291
962282
4658
16:18
and it mightpotrebbe well be that they say that
the one thing we did that really matteredimportava
292
966940
4002
e potrebbe ben dire che la sola cosa
importante che abbiamo fatto
fu risolvere questo problema.
16:22
was to get this thing right.
293
970942
1567
Grazie.
16:24
Thank you.
294
972509
1689
(Applausi)
16:26
(ApplauseApplausi)
295
974198
2813

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee