ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Que se passera-t-il quand nos ordinateurs deviendront plus intelligents que nous ?: What happens when our computers get smarter than we are?

Filmed:
4,632,705 views

L'intelligence artificielle devient plus maline en progressant par bonds -- d'ici à la fin du siècle, les recherches suggèrent qu'une intelligence artificielle informatique pourrait être aussi "intelligente" qu'un être humain. Nick Bostrom dit qu'alors, elle nous dépasserait : « L'intelligence machine est la dernière invention que l'humanité aura jamais besoin de faire. » Philosophe et technologue, il nous demande de bien réfléchir au monde que nous bâtissons, régit par l'intelligence machine. Nous machines intelligentes nous aideront-elles à préserver l'humanité et ses valeurs ou auront elles les leurs ?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchbouquet of mathematiciansmathématiciens,
philosophersphilosophes and computerordinateur scientistsscientifiques,
0
570
4207
Je travaille avec des mathématiciens,
philosophes et informaticiens,
00:16
and we sitasseoir around and think about
the futureavenir of machinemachine intelligenceintelligence,
1
4777
5209
et nous nous réunissons pour imaginer
le futur de l'intelligence artificielle,
00:21
amongparmi other things.
2
9986
2044
entre autres choses.
00:24
Some people think that some of these
things are sortTrier of sciencescience fiction-yfiction-y,
3
12030
4725
Certains pensent que
c'est un peu de la science-fiction,
00:28
farloin out there, crazyfou.
4
16755
3101
complètement éloigné du réel.
00:31
But I like to say,
5
19856
1470
Mais j'aime dire,
00:33
okay, let's look at the modernmoderne
humanHumain conditioncondition.
6
21326
3604
d'accord, jetons un coup d'oeil
à la condition humaine moderne.
00:36
(LaughterRires)
7
24930
1692
(Rires)
00:38
This is the normalnormal way for things to be.
8
26622
2402
C'est la façon normale d'être des choses.
00:41
But if we think about it,
9
29024
2285
Mais si on y pense,
00:43
we are actuallyréellement recentlyrécemment arrivedarrivée
guestsinvités on this planetplanète,
10
31309
3293
nous ne sommes en fait que des invités
récemment arrivés sur cette planète,
00:46
the humanHumain speciesespèce.
11
34602
2082
l'espèce humaine.
00:48
Think about if EarthTerre
was createdcréé one yearan agodepuis,
12
36684
4746
Imaginez si la Terre
avait été créée il y a un an,
00:53
the humanHumain speciesespèce, then,
would be 10 minutesminutes oldvieux.
13
41430
3548
l'espèce humaine existerait alors
depuis dix minutes.
00:56
The industrialindustriel eraère startedcommencé
two secondssecondes agodepuis.
14
44978
3168
L'ère industrielle a débuté
il y a deux secondes.
01:01
AnotherUn autre way to look at this is to think of
worldmonde GDPPIB over the last 10,000 yearsannées,
15
49276
5225
Une autre façon de voir est de calculer
le PIB mondial
des 10 000 dernières années.
01:06
I've actuallyréellement takenpris the troubledifficulté
to plotterrain this for you in a graphgraphique.
16
54501
3029
J'ai vraiment pris le temps
de faire un graphe pour vous.
01:09
It looksregards like this.
17
57530
1774
Il ressemble à ça.
01:11
(LaughterRires)
18
59304
1363
(Rires)
Drôle de courbe
pour une condition normale.
01:12
It's a curiouscurieuse shapeforme
for a normalnormal conditioncondition.
19
60667
2151
Je ne voudrais pas lui tourner le dos.
01:14
I sure wouldn'tne serait pas want to sitasseoir on it.
20
62818
1698
01:16
(LaughterRires)
21
64516
2551
(Rires)
01:19
Let's askdemander ourselvesnous-mêmes, what is the causecause
of this currentactuel anomalyanomalie?
22
67067
4774
Demandons-nous, quelle est la cause
de cette anomalie ?
01:23
Some people would say it's technologyLa technologie.
23
71841
2552
Certains diront que c'est la technologie.
01:26
Now it's truevrai, technologyLa technologie has accumulatedaccumulé
throughpar humanHumain historyhistoire,
24
74393
4668
C'est vrai, la technologie s'est accumulée
au cours de l'histoire humaine,
01:31
and right now, technologyLa technologie
advancesavances extremelyextrêmement rapidlyrapidement --
25
79061
4652
et aujourd'hui, la technologie
progresse très rapidement --
01:35
that is the proximateimmédiate causecause,
26
83713
1565
c'est la cause la plus proche,
01:37
that's why we are currentlyactuellement
so very productiveproductif.
27
85278
2565
c'est pourquoi nous sommes
si productifs de nos jours.
01:40
But I like to think back furtherplus loin
to the ultimateultime causecause.
28
88473
3661
Mais je préfère réfléchir en remontant
à la cause fondamentale.
01:45
Look at these two highlytrès
distinguisheddistingué gentlemenmessieurs:
29
93114
3766
Regardez ces deux messieurs
très distingués :
01:48
We have KanziKanzi --
30
96880
1600
Nous avons Kanzi --
01:50
he's masteredmaîtrisé 200 lexicallexicale
tokensjetons, an incredibleincroyable featfeat.
31
98480
4643
il maîtrise 200 symboles lexicaux,
un exploit incroyable.
01:55
And EdEd WittenWitten unleashedUnleashed the secondseconde
superstringsupercordes revolutionrévolution.
32
103123
3694
Et Ed Witten a déclenché
la seconde révolution des supercordes.
Si nous regardons sous la capuche,
voici ce que l'on trouve :
01:58
If we look underen dessous de the hoodhotte,
this is what we find:
33
106817
2324
02:01
basicallyen gros the sameMême thing.
34
109141
1570
en gros, la même chose.
02:02
One is a little largerplus grand,
35
110711
1813
L'un est un peu plus grand,
02:04
it maybe alsoaussi has a fewpeu tricksdes trucs
in the exactexact way it's wiredcâblé.
36
112524
2758
il y a peut-être aussi quelques
subtilités de câblage.
02:07
These invisibleinvisible differencesdifférences cannotne peux pas
be too complicatedcompliqué, howevertoutefois,
37
115282
3812
Ces différences invisibles ne peuvent
être trop compliquées quoi qu'il en soit,
02:11
because there have only
been 250,000 generationsgénérations
38
119094
4285
car il n'y a eu que
250 000 générations
02:15
sincedepuis our last commoncommun ancestorancêtre.
39
123379
1732
depuis notre dernier ancêtre commun.
02:17
We know that complicatedcompliqué mechanismsmécanismes
take a long time to evolveévoluer.
40
125111
3849
Nous savons que les mécanismes compliqués
demandent beaucoup de temps pour évoluer.
02:22
So a bunchbouquet of relativelyrelativement minormineur changeschangements
41
130000
2499
Donc des changements relativement mineurs
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
nous emmènent de Kanzi à Witten,
02:27
from broken-offcassé-off treearbre branchesbranches
to intercontinentalIntercontinental ballisticbalistique missilesmissiles.
43
135566
4543
de branches arrachées aux arbres aux
missiles balistiques intercontinentaux.
02:32
So this then seemssemble prettyjoli obviousévident
that everything we'venous avons achievedatteint,
44
140839
3935
Il semble alors assez évident
que tout ce que nous avons réalisé,
02:36
and everything we carese soucier about,
45
144774
1378
et ce que nous chérissons,
02:38
dependsdépend cruciallycrucialement on some relativelyrelativement minormineur
changeschangements that madefabriqué the humanHumain mindesprit.
46
146152
5228
dépend principalement de quelques
changements mineurs
qui ont aboutit à l'esprit humain.
02:44
And the corollarycorollaire, of coursecours,
is that any furtherplus loin changeschangements
47
152650
3662
Le corollaire, bien sûr,
est que tout changement à venir
02:48
that could significantlysignificativement changechangement
the substratesubstrat of thinkingen pensant
48
156312
3477
qui pourrait changer significativement
le substrat de la pensée
02:51
could have potentiallypotentiellement
enormousénorme consequencesconséquences.
49
159789
3202
pourrait avoir potentiellement
d'énormes conséquences.
Certains de mes collègues
pensent que nous sommes sur le point
02:56
Some of my colleaguescollègues
think we're on the vergebord
50
164321
2905
02:59
of something that could causecause
a profoundprofond changechangement in that substratesubstrat,
51
167226
3908
de développer quelque chose qui pourrait
causer un tel changement dans ce substrat,
03:03
and that is machinemachine superintelligencesuperintelligence.
52
171134
3213
et c'est la super
intelligence artificielle.
03:06
ArtificialArtificiel intelligenceintelligence used to be
about puttingen mettant commandscommandes in a boxboîte.
53
174347
4739
Avant, l'intelligence artificielle consistait
à mettre des commandes dans une boîte.
03:11
You would have humanHumain programmersprogrammeurs
54
179086
1665
Il y avait des programmeurs humains
03:12
that would painstakinglyminutieusement
handcrafthandcraft knowledgeconnaissance itemsarticles.
55
180751
3135
qui fabriquaient minutieusement
des objets savants.
03:15
You buildconstruire up these expertexpert systemssystèmes,
56
183886
2086
On construisait ces systèmes experts,
03:17
and they were kindgentil of usefulutile
for some purposesfins,
57
185972
2324
et ils étaient utiles
pour certains buts,
mais ils étaient très fragiles,
on ne pouvait pas les agrandir.
03:20
but they were very brittlefragile,
you couldn'tne pouvait pas scaleéchelle them.
58
188296
2681
03:22
BasicallyFondamentalement, you got out only
what you put in.
59
190977
3433
En gros, vous n'aviez que
ce que vous aviez mis dedans.
03:26
But sincedepuis then,
60
194410
997
Mais depuis,
03:27
a paradigmparadigme shiftdécalage has takenpris placeendroit
in the fieldchamp of artificialartificiel intelligenceintelligence.
61
195407
3467
une révolution conceptuelle s'est opérée
dans le domaine de l'I.A..
03:30
TodayAujourd'hui, the actionaction is really
around machinemachine learningapprentissage.
62
198874
2770
Aujourd'hui, l'action est centré sur
l'apprentissage machine.
03:34
So ratherplutôt than handcraftingfabrication artisanale knowledgeconnaissance
representationsreprésentations and featuresfonctionnalités,
63
202394
5387
Plutôt que de coder à la main des
programmes et leurs caractéristiques,
03:40
we createcréer algorithmsalgorithmes that learnapprendre,
oftensouvent from rawbrut perceptualperceptuel dataLes données.
64
208511
5554
on crée des algorithmes qui apprennent,
souvent à partir
des données brutes perçues.
03:46
BasicallyFondamentalement the sameMême thing
that the humanHumain infantbébé does.
65
214065
4998
En gros, la même chose que fait un enfant.
03:51
The resultrésultat is A.I. that is not
limitedlimité to one domaindomaine --
66
219063
4207
Le résultat est une I.A.
qui n'est pas limitée à un domaine --
03:55
the sameMême systemsystème can learnapprendre to translateTraduire
betweenentre any pairspaires of languageslangues,
67
223270
4631
le même système peut apprendre à traduire
n'importe quel couple de langues,
03:59
or learnapprendre to playjouer any computerordinateur gameJeu
on the AtariAtari consoleConsole.
68
227901
5437
ou apprendre à jouer n'importe quel jeu
sur la console Atari.
04:05
Now of coursecours,
69
233338
1779
Bien sûr,
04:07
A.I. is still nowherenulle part nearprès havingayant
the sameMême powerfulpuissant, cross-domaininter-domaines
70
235117
3999
l'I.A. est toujours loin d'avoir
la capacité puissante et transversale
04:11
abilitycapacité to learnapprendre and planplan
as a humanHumain beingétant has.
71
239116
3219
à apprendre et planifier
d'un être humain.
04:14
The cortexcortex still has some
algorithmicalgorithmique tricksdes trucs
72
242335
2126
Le cortex a encore des
secrets algorithmiques
04:16
that we don't yetencore know
how to matchrencontre in machinesmachines.
73
244461
2355
que nous ne savons pas
intégrer dans les machines.
04:19
So the questionquestion is,
74
247886
1899
Donc la question est,
04:21
how farloin are we from beingétant ablecapable
to matchrencontre those tricksdes trucs?
75
249785
3500
combien de temps nous faudra-t-il
pour réussir à les intégrer ?
Il y a quelques années,
04:26
A couplecouple of yearsannées agodepuis,
76
254245
1083
nous avons fait un sondage
auprès des experts mondiaux des I.A.,
04:27
we did a surveyenquête of some of the world'smonde
leadingde premier plan A.I. expertsexperts,
77
255328
2888
04:30
to see what they think,
and one of the questionsdes questions we askeda demandé was,
78
258216
3224
pour voir ce qu'ils pensaient,
et une des questions posées était,
04:33
"By whichlequel yearan do you think
there is a 50 percentpour cent probabilityprobabilité
79
261440
3353
« En quelle année pensez-vous
qu'il y aura 50% de chance
04:36
that we will have achievedatteint
human-levelau niveau de l’homme machinemachine intelligenceintelligence?"
80
264793
3482
qu'une I.A. atteigne le niveau
d'une intelligence humaine ? »
04:40
We defineddéfini human-levelau niveau de l’homme here
as the abilitycapacité to performeffectuer
81
268785
4183
Nous définissons ici le seuil à atteindre
par la capacité de l'I.A. à réaliser
04:44
almostpresque any jobemploi at leastmoins as well
as an adultadulte humanHumain,
82
272968
2871
presque toutes les tâches
au moins aussi bien qu'un adulte,
04:47
so realréal human-levelau niveau de l’homme, not just
withindans some limitedlimité domaindomaine.
83
275839
4005
donc réellement comme un humain,
pas seulement dans un domaine limité.
04:51
And the medianmédian answerrépondre was 2040 or 2050,
84
279844
3650
La réponse médiane était 2040 ou 2050,
04:55
dependingen fonction, dépendemment on preciselyprécisément whichlequel
groupgroupe of expertsexperts we askeda demandé.
85
283494
2806
en fonction du groupe d'experts
que nous interrogions.
04:58
Now, it could happense produire much,
much laterplus tard, or soonerplus tôt,
86
286300
4039
Ça pourrait se produire
bien plus tard ou bien plus tôt,
05:02
the truthvérité is nobodypersonne really knowssait.
87
290339
1940
la vérité est que personne ne le sait.
05:05
What we do know is that the ultimateultime
limitlimite to informationinformation processingEn traitement
88
293259
4412
Ce que nous savons est que la limite
de traitement de l'information
05:09
in a machinemachine substratesubstrat liesmentir farloin outsideà l'extérieur
the limitslimites in biologicalbiologique tissuetissu.
89
297671
4871
dans une machine est bien supérieure
à celle d'un tissu biologique.
05:15
This comesvient down to physicsla physique.
90
303241
2378
Ça s'explique par la physique.
05:17
A biologicalbiologique neuronneurone firesles feux, maybe,
at 200 hertzHertz, 200 timesfois a secondseconde.
91
305619
4718
Un neurone biologique "décharge"
environ à 200 hertz, 200 fois par seconde.
05:22
But even a present-dayaujourd'hui transistortransistor
operatesfonctionne at the GigahertzGigahertz.
92
310337
3594
Mais, même un transistor actuel
fonctionne au gigahertz.
05:25
NeuronsNeurones propagatepropager slowlylentement in axonsaxones,
100 metersmètres perpar secondseconde, topsTops.
93
313931
5297
L'information se propage dans les neurones
le long d'axones à 100 m/s maximum.
05:31
But in computersdes ordinateurs, signalssignaux can travelVoyage
at the speedla vitesse of lightlumière.
94
319228
3111
Mais dans les ordinateurs, le signal
peut voyager à la vitesse de la lumière.
05:35
There are alsoaussi sizeTaille limitationslimites,
95
323079
1869
Il y a aussi des limitations de taille,
05:36
like a humanHumain braincerveau has
to fiten forme insideà l'intérieur a craniumCranium,
96
324948
3027
car le cerveau humain
doit rentrer dans la boîte crânienne,
05:39
but a computerordinateur can be the sizeTaille
of a warehouseentrepôt or largerplus grand.
97
327975
4761
mais un ordinateur peut être
de la taille d'un entrepôt ou plus grand.
05:44
So the potentialpotentiel for superintelligencesuperintelligence
liesmentir dormantdormants in mattermatière,
98
332736
5599
Donc le potentiel de super intelligence
est en sommeil dans la matière,
05:50
much like the powerPuissance of the atomatome
layallonger dormantdormants throughouttout au long de humanHumain historyhistoire,
99
338335
5712
tout comme la puissance de l'atome
est restée en sommeil
05:56
patientlypatiemment waitingattendre there untiljusqu'à 1945.
100
344047
4405
tout au long de l'histoire humaine,
attendant patiemment jusqu'en 1945.
06:00
In this centurysiècle,
101
348452
1248
Au cours de ce siècle, il se peut
que les scientifiques apprennent
06:01
scientistsscientifiques maymai learnapprendre to awakens’éveiller
the powerPuissance of artificialartificiel intelligenceintelligence.
102
349700
4118
à réveiller la puissance de l'I.A..
06:05
And I think we mightpourrait then see
an intelligenceintelligence explosionexplosion.
103
353818
4008
Je pense que nous pourrions alors
assister à une explosion d'intelligence.
06:10
Now mostles plus people, when they think
about what is smartintelligent and what is dumbstupide,
104
358406
3957
La plupart des gens, quand ils pensent
à ce qui est bête ou intelligent
06:14
I think have in mindesprit a picturephoto
roughlygrossièrement like this.
105
362363
3023
ont une image de ce genre en tête.
06:17
So at one endfin we have the villagevillage idiotidiot,
106
365386
2598
À une extrémité on a l'idiot du village,
06:19
and then farloin over at the other sidecôté
107
367984
2483
et à l'autre bout
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverquiconque your favoritepréféré gurugourou is.
108
370467
4756
on a Ed Witten, ou Albert Einstein,
ou votre gourou, qui qu'il soit.
06:27
But I think that from the pointpoint of viewvue
of artificialartificiel intelligenceintelligence,
109
375223
3834
Mais je pense que du point de vue
de l'intelligence artificielle,
06:31
the truevrai picturephoto is actuallyréellement
probablyProbablement more like this:
110
379057
3681
la véritable image est plus probablement
comme ceci, en réalité :
06:35
AIAI startsdéparts out at this pointpoint here,
at zerozéro intelligenceintelligence,
111
383258
3378
l'I.A. commence à cet endroit,
à zéro intelligence,
06:38
and then, after manybeaucoup, manybeaucoup
yearsannées of really harddifficile work,
112
386636
3011
et ensuite, après de nombreuses
années de dur labeur,
06:41
maybe eventuallyfinalement we get to
mouse-levelsouris-niveau artificialartificiel intelligenceintelligence,
113
389647
3844
peut-être, arrivons-nous au niveau
de l'intelligence d'une souris,
quelque chose qui peut naviguer
dans des environnements encombrés
06:45
something that can navigatenaviguer
clutteredencombré environmentsenvironnements
114
393491
2430
06:47
as well as a mouseSouris can.
115
395921
1987
aussi bien qu'une souris.
06:49
And then, after manybeaucoup, manybeaucoup more yearsannées
of really harddifficile work, lots of investmentinvestissement,
116
397908
4313
Ensuite, après encore plus d'années de
dur labeur et beaucoup d'investissements,
06:54
maybe eventuallyfinalement we get to
chimpanzee-levelchimpanzé-niveau artificialartificiel intelligenceintelligence.
117
402221
4639
peut-être, finalement, arrivons-nous
au niveau d'intelligence d'un chimpanzé.
Ensuite, après toujours plus d'années
de vraiment très dur labeur,
06:58
And then, after even more yearsannées
of really, really harddifficile work,
118
406860
3210
07:02
we get to villagevillage idiotidiot
artificialartificiel intelligenceintelligence.
119
410070
2913
nous arrivons au niveau d'intelligence
de l'idiot du village.
07:04
And a fewpeu momentsdes moments laterplus tard,
we are beyondau-delà EdEd WittenWitten.
120
412983
3272
Et quelques mois plus tard,
nous sommes après Ed Witten.
07:08
The traintrain doesn't stop
at HumanvilleHumanville StationStation.
121
416255
2970
Le train ne s'arrête pas
à la station Humainville.
07:11
It's likelyprobable, ratherplutôt, to swooshSwoosh right by.
122
419225
3022
Il va plutôt passer à fond devant.
07:14
Now this has profoundprofond implicationsimplications,
123
422247
1984
Il y a là de profondes implications,
07:16
particularlyparticulièrement when it comesvient
to questionsdes questions of powerPuissance.
124
424231
3862
en particulier quand il est question
de pouvoir.
Par exemple, les chimpanzés sont forts --
07:20
For exampleExemple, chimpanzeeschimpanzés are strongfort --
125
428093
1899
07:21
poundlivre for poundlivre, a chimpanzeechimpanzé is about
twicedeux fois as strongfort as a fiten forme humanHumain malemâle.
126
429992
5222
à poids équivalent, un chimpanzé est
deux fois plus fort qu'un homme adulte.
07:27
And yetencore, the fatesort of KanziKanzi
and his palscopains dependsdépend a lot more
127
435214
4614
Pourtant, le destin de Kanzi
et de ses congénères dépend beaucoup plus
07:31
on what we humanshumains do than on
what the chimpanzeeschimpanzés do themselvesse.
128
439828
4140
de ce que font les humains que de ce que
les chimpanzés font eux-mêmes.
07:37
OnceFois there is superintelligencesuperintelligence,
129
445228
2314
Une fois que la super intelligence
sera là,
07:39
the fatesort of humanityhumanité maymai dependdépendre
on what the superintelligencesuperintelligence does.
130
447542
3839
le destin de l'humanité pourrait dépendre
des actions de cette super intelligence.
07:44
Think about it:
131
452451
1057
Pensez-y :
07:45
MachineMachine intelligenceintelligence is the last inventioninvention
that humanityhumanité will ever need to make.
132
453508
5044
l'I.A. est la dernière invention que
l'homme aura jamais besoin de faire.
Les machines seront alors de meilleurs
inventeurs que nous le sommes,
07:50
MachinesMachines will then be better
at inventinginventer than we are,
133
458552
2973
07:53
and they'llils vont be doing so
on digitalnumérique timescaleséchelles de temps.
134
461525
2540
et elles inventeront sur des échelles
de temps numériques.
07:56
What this meansveux dire is basicallyen gros
a telescopingtélescopique of the futureavenir.
135
464065
4901
Ça veut dire un télescopage avec le futur.
08:00
Think of all the crazyfou technologiesles technologies
that you could have imaginedimaginé
136
468966
3558
Pensez à toutes les technologies
incroyables que vous avez imaginées,
que les hommes pourraient
avoir développées avec le temps :
08:04
maybe humanshumains could have developeddéveloppé
in the fullnessplénitude of time:
137
472524
2798
08:07
curescures for agingvieillissement, spaceespace colonizationla colonisation,
138
475322
3258
plus de vieillissement,
colonisation de l'espace,
nano-robots auto-répliquants,
08:10
self-replicatingauto-répliquant nanobotsnanorobots or uploadingTéléchargement
of mindsesprits into computersdes ordinateurs,
139
478580
3731
téléchargement d'esprits humains
dans des ordinateurs,
08:14
all kindssortes of sciencescience fiction-yfiction-y stuffdes trucs
140
482311
2159
plein de technologies de science-fiction
08:16
that's neverthelessNéanmoins consistentcohérent
with the lawslois of physicsla physique.
141
484470
2737
qui sont néanmoins cohérentes
avec les lois de la physique.
08:19
All of this superintelligencesuperintelligence could
developdévelopper, and possiblypeut-être quiteassez rapidlyrapidement.
142
487207
4212
Toute cette super intelligence pourrait
se développer assez rapidement.
08:24
Now, a superintelligencesuperintelligence with suchtel
technologicaltechnologique maturitymaturité
143
492449
3558
Bon, une super intelligence avec
une telle maturité technologique
08:28
would be extremelyextrêmement powerfulpuissant,
144
496007
2179
serait extrêmement puissante,
08:30
and at leastmoins in some scenariosscénarios,
it would be ablecapable to get what it wants.
145
498186
4546
et au moins dans certains scénarios,
serait capable d'obtenir ce qu'elle veut.
08:34
We would then have a futureavenir that would
be shapeden forme de by the preferencespréférences of this A.I.
146
502732
5661
Nous aurions alors un futur modelé
par les préférences de cette I.A.
08:41
Now a good questionquestion is,
what are those preferencespréférences?
147
509855
3749
Une bonne question est,
quelles sont ces préférences ?
08:46
Here it getsobtient trickierplus compliqué.
148
514244
1769
C'est là que ça devient délicat.
08:48
To make any headwayHeadway with this,
149
516013
1435
Pour progresser là-dessus,
08:49
we mustdoit first of all
avoidéviter anthropomorphizinganthropomorphisme.
150
517448
3276
nous devons tout d'abord
éviter tout anthropomorphisme.
08:53
And this is ironicironique because
everychaque newspaperjournal articlearticle
151
521934
3301
C'est ironique car dans tous
les articles de journaux
08:57
about the futureavenir of A.I.
has a picturephoto of this:
152
525235
3855
qui parle de l'avenir de l'I.A.
comportent une image de ceci.
09:02
So I think what we need to do is
to conceiveconcevoir of the issueproblème more abstractlyabstraitement,
153
530280
4134
Je pense que nous devons concevoir
ce problème de manière plus abstraite,
09:06
not in termstermes of vividvives HollywoodHollywood scenariosscénarios.
154
534414
2790
et non en scénario hollywoodien fertile.
09:09
We need to think of intelligenceintelligence
as an optimizationoptimisation processprocessus,
155
537204
3617
Nous devons penser à l'intelligence
comme un processus d'optimisation,
09:12
a processprocessus that steersbouvillons the futureavenir
into a particularparticulier setensemble of configurationsconfigurations.
156
540821
5649
un processus qui guide le futur
dans un certain jeu de configurations.
09:18
A superintelligencesuperintelligence is
a really strongfort optimizationoptimisation processprocessus.
157
546470
3511
Une super intelligence est un
processus d'optimisation très fort.
09:21
It's extremelyextrêmement good at usingen utilisant
availabledisponible meansveux dire to achieveatteindre a stateEtat
158
549981
4117
Elle est très douée pour utiliser les
moyens disponibles pour atteindre un état
09:26
in whichlequel its goalobjectif is realizedréalisé.
159
554098
1909
dans lequel son but est réalisé.
Ça signifie qu'il n'y a pas
de nécessaire connexion entre
09:28
This meansveux dire that there is no necessarynécessaire
conenctionconnexion betweenentre
160
556447
2672
09:31
beingétant highlytrès intelligentintelligent in this sensesens,
161
559119
2734
le fait d'être très intelligent
dans ce sens,
09:33
and havingayant an objectiveobjectif that we humanshumains
would find worthwhiledigne d'intérêt or meaningfulsignificatif.
162
561853
4662
et avoir un objectif que nous, humains,
trouverions utile ou significatif.
09:39
SupposeSupposons que we give an A.I. the goalobjectif
to make humanshumains smilesourire.
163
567321
3794
Supposons qu'on donne comme but
à une I.A. de faire sourire les humains.
Quand l'I.A. est faible, elle réalise
des actions utiles ou amusantes
09:43
When the A.I. is weakfaible, it performseffectue usefulutile
or amusingamusant actionsactes
164
571115
2982
09:46
that causecause its userutilisateur to smilesourire.
165
574097
2517
qui provoque le sourire de l'utilisateur.
09:48
When the A.I. becomesdevient superintelligentsuperintelligents,
166
576614
2417
Quand l'I.A. devient super intelligente,
09:51
it realizesréalise that there is a more
effectiveefficace way to achieveatteindre this goalobjectif:
167
579031
3523
elle réalise qu'il y a un moyen
plus efficace d'atteindre son objectif :
09:54
take controlcontrôle of the worldmonde
168
582554
1922
prendre le contrôle du monde
09:56
and stickbâton electrodesélectrodes into the facialsoin du visage
musclesmuscles of humanshumains
169
584476
3162
et implanter des électrodes
dans les muscles faciaux des humains
09:59
to causecause constantconstant, beamingrayonnant grinsGrins.
170
587638
2941
pour provoquer des sourires
rayonnants et constants.
10:02
AnotherUn autre exampleExemple,
171
590579
1035
Un autre exemple,
supposons qu'on demande à une I.A.
de résoudre un problème de math très dur.
10:03
supposesupposer we give A.I. the goalobjectif to solverésoudre
a difficultdifficile mathematicalmathématique problemproblème.
172
591614
3383
10:06
When the A.I. becomesdevient superintelligentsuperintelligents,
173
594997
1937
Quand l'I.A. devient super intelligente,
10:08
it realizesréalise that the mostles plus effectiveefficace way
to get the solutionSolution to this problemproblème
174
596934
4171
elle réalise que le moyen le plus efficace
pour résoudre ce problème
10:13
is by transformingtransformer the planetplanète
into a giantgéant computerordinateur,
175
601105
2930
est de transformer la planète
en un ordinateur géant,
10:16
so as to increaseaugmenter its thinkingen pensant capacitycapacité.
176
604035
2246
pour augmenter sa capacité de calcul.
10:18
And noticeremarquer that this givesdonne the A.I.s
an instrumentalinstrumental reasonraison
177
606281
2764
Remarquez que ça donne aux I.A.s
une raison pratique
de faire des choses
que nous pourrions ne pas approuver.
10:21
to do things to us that we
mightpourrait not approveapprouver of.
178
609045
2516
10:23
HumanHumaine beingsêtres in this modelmaquette are threatsmenaces,
179
611561
1935
Les humains sont des menaces
dans ce modèle,
10:25
we could preventprévenir the mathematicalmathématique
problemproblème from beingétant solvedrésolu.
180
613496
2921
car nous pourrions empêcher
la résolution du problème.
10:29
Of coursecours, perceivablyAutonomous things won'thabitude
go wrongfaux in these particularparticulier waysfaçons;
181
617207
3494
Bien sûr, les choses perceptibles
ne tourneront pas mal de ces façons-là ;
10:32
these are cartoondessin animé examplesexemples.
182
620701
1753
ce sont des exemples caricaturés.
10:34
But the generalgénéral pointpoint here is importantimportant:
183
622454
1939
Mais l'argument général est important :
10:36
if you createcréer a really powerfulpuissant
optimizationoptimisation processprocessus
184
624393
2873
si vous créez un processus d'optimisation
très puissant
pour maximiser les chances
d'atteindre l'objectif x,
10:39
to maximizemaximiser for objectiveobjectif x,
185
627266
2234
10:41
you better make sure
that your definitiondéfinition of x
186
629500
2276
vous devez vous assurer
que votre définition de x
10:43
incorporatesincorpore everything you carese soucier about.
187
631776
2469
incorpore tout ce à quoi vous tenez.
10:46
This is a lessonleçon that's alsoaussi taughtenseigné
in manybeaucoup a mythmythe.
188
634835
4384
C'est une leçon qui est enseignée
dans de nombreux mythes.
10:51
KingKing MidasMidas wishesvœux that everything
he touchestouche be turnedtourné into goldor.
189
639219
5298
Le roi Midas souhaitait que tout
ce qu'il touche se transforme en or.
10:56
He touchestouche his daughterfille,
she turnsse tourne into goldor.
190
644517
2861
Il touche sa fille,
elle se transforme en or.
10:59
He touchestouche his foodaliments, it turnsse tourne into goldor.
191
647378
2553
Il touche sa nourriture,
elle se transforme en or.
11:01
This could becomedevenir practicallypratiquement relevantpertinent,
192
649931
2589
Ça pourrait devenir
pertinent en pratique,
11:04
not just as a metaphormétaphore for greedavidité,
193
652520
2070
ne pas se limiter à une métaphore
de la cupidité
11:06
but as an illustrationillustration of what happensarrive
194
654590
1895
mais illustrer ce qui arrive
11:08
if you createcréer a powerfulpuissant
optimizationoptimisation processprocessus
195
656485
2837
si vous créez un processus
d'optimisation puissant
11:11
and give it misconceivedà tort
or poorlypauvrement specifiedspécifié goalsbuts.
196
659322
4789
et lui donnez des objectifs
mal conçus ou trop vagues.
11:16
Now you mightpourrait say, if a computerordinateur startsdéparts
stickingcollage electrodesélectrodes into people'sles gens facesvisages,
197
664111
5189
Vous pourriez dire que si un ordinateur
commence à nous implanter des électrodes,
11:21
we'dmer just shutfermer it off.
198
669300
2265
nous le débrancherions.
11:24
A, this is not necessarilynécessairement so easyfacile to do
if we'venous avons growncultivé dependentdépendant on the systemsystème --
199
672555
5340
A, ce n'est pas forcément si facile
à faire si nous sommes devenus dépendants,
11:29
like, where is the off switchcommutateur
to the InternetInternet?
200
677895
2732
par exemple,
comment arrête-t-on internet ?
11:32
B, why haven'tn'a pas the chimpanzeeschimpanzés
flickeddévié the off switchcommutateur to humanityhumanité,
201
680627
5120
B, pourquoi les chimpanzés
ou les Neandertals
n'ont-ils pas
empêché l'humanité ?
11:37
or the NeanderthalsHomme de Néandertal?
202
685747
1551
11:39
They certainlycertainement had reasonsles raisons.
203
687298
2666
Ils avaient de bonnes raisons.
11:41
We have an off switchcommutateur,
for exampleExemple, right here.
204
689964
2795
Nous avons un interrupteur,
par exemple, juste ici.
11:44
(ChokingÉtouffement)
205
692759
1554
(Suffocation)
11:46
The reasonraison is that we are
an intelligentintelligent adversaryadversaire;
206
694313
2925
La raison est que nous sommes
un adversaire intelligent ;
nous pouvons anticiper les menaces
et planifier des solutions.
11:49
we can anticipateanticiper threatsmenaces
and planplan around them.
207
697238
2728
11:51
But so could a superintelligentsuperintelligents agentagent de,
208
699966
2504
Mais une super intelligence
pourrait le faire aussi,
11:54
and it would be much better
at that than we are.
209
702470
3254
et elle le ferait bien mieux que nous.
11:57
The pointpoint is, we should not be confidentsur de soi
that we have this underen dessous de controlcontrôle here.
210
705724
7187
L'important est que nous ne devrions pas
croire que nous avons tout sous contrôle.
12:04
And we could try to make our jobemploi
a little bitbit easierPlus facile by, say,
211
712911
3447
Nous pourrions tenter
de nous faciliter la tâche, disons
12:08
puttingen mettant the A.I. in a boxboîte,
212
716358
1590
en mettant l'I.A. dans une boîte,
12:09
like a securegarantir softwareLogiciel environmentenvironnement,
213
717948
1796
comme un environnement logiciel sûr,
12:11
a virtualvirtuel realityréalité simulationsimulation
from whichlequel it cannotne peux pas escapeéchapper.
214
719744
3022
une simulation de la réalité
d'où elle ne peut s'échapper.
12:14
But how confidentsur de soi can we be that
the A.I. couldn'tne pouvait pas find a bugpunaise.
215
722766
4146
Mais à quel point sommes-nous sûrs
qu'elle ne trouvera pas un bug.
12:18
GivenCompte tenu de that merelyseulement humanHumain hackerspirates
find bugsbogues all the time,
216
726912
3169
Étant donné que de simples hackers humains
trouvent toujours des bugs,
12:22
I'd say, probablyProbablement not very confidentsur de soi.
217
730081
3036
je dirais, probablement pas très sûrs.
12:26
So we disconnectDébranchez the ethernetEthernet cablecâble
to createcréer an airair gapécart,
218
734237
4548
Donc on déconnecte le câble Ethernet
pour créer une séparation physique,
12:30
but again, like merelyseulement humanHumain hackerspirates
219
738785
2668
mais encore une fois,
comme de simples hackers humains
12:33
routinelyrégulièrement transgresstransgresser airair gapslacunes
usingen utilisant socialsocial engineeringingénierie.
220
741453
3381
transgressent les séparations physiques
grâce à l'ingéniérie sociale.
À l'heure où je vous parle,
en ce moment-même,
12:36
Right now, as I speakparler,
221
744834
1259
12:38
I'm sure there is some employeeemployé
out there somewherequelque part
222
746093
2389
je suis sûr qu'il y a un employé,
quelque part
12:40
who has been talkeda parlé into handingremise out
her accountCompte detailsdétails
223
748482
3346
à qui quelqu'un prétendant être
du département informatique
12:43
by somebodyquelqu'un claimingaffirmant to be
from the I.T. departmentdépartement.
224
751828
2746
a demandé de donner
son identifiant et son mot de passe.
Des scénarios plus créatifs
sont aussi possibles,
12:46
More creativeCréatif scenariosscénarios are alsoaussi possiblepossible,
225
754574
2127
12:48
like if you're the A.I.,
226
756701
1315
par exemple, si vous êtes une I.A.
12:50
you can imagineimaginer wigglingtortillant electrodesélectrodes
around in your internalinterne circuitrycircuits
227
758016
3532
vous pouvez déplacer des électrodes
dans vos circuits internes
12:53
to createcréer radioradio wavesvagues that you
can use to communicatecommuniquer.
228
761548
3462
pour créer des ondes radio que vous
utiliserez pour communiquer.
12:57
Or maybe you could pretendfaire semblant to malfunctionmauvais fonctionnement,
229
765010
2424
Ou vous pouvez prétendre
dysfonctionner,
12:59
and then when the programmersprogrammeurs openouvrir
you up to see what wentest allé wrongfaux with you,
230
767434
3497
et quand les ingénieurs vous ouvrent
pour voir ce qui ne marche pas,
13:02
they look at the sourcela source codecode -- BamBAM! --
231
770931
1936
ils regardent votre code source
-- Vlan ! --
13:04
the manipulationmanipulation can take placeendroit.
232
772867
2447
la manipulation peut commencer.
13:07
Or it could outputsortie the blueprintplan d’action
to a really niftyNifty technologyLa technologie,
233
775314
3430
Ou elle pourrait produire le plan
d'une nouvelle technologie géniale,
13:10
and when we implementmettre en place it,
234
778744
1398
et quand nous l'implementons,
13:12
it has some surreptitiousclandestine sidecôté effecteffet
that the A.I. had plannedprévu.
235
780142
4397
elle a quelques effets secondaires furtifs
planifiés par l'I.A.
13:16
The pointpoint here is that we should
not be confidentsur de soi in our abilitycapacité
236
784539
3463
Donc nous ne devrions pas
faire confiance à notre capacité
13:20
to keep a superintelligentsuperintelligents geniegénie
lockedfermé à clef up in its bottlebouteille foreverpour toujours.
237
788002
3808
à garder un génie super intelligent
prisonnier dans sa lampe éternellement.
13:23
SoonerPlus tôt or laterplus tard, it will out.
238
791810
2254
À un moment donné, il va s'échapper.
13:27
I believe that the answerrépondre here
is to figurefigure out
239
795034
3103
Je crois que la réponse à ça
est de découvrir
13:30
how to createcréer superintelligentsuperintelligents A.I.
suchtel that even if -- when -- it escapesévasions,
240
798137
5024
comment créer une super intelligence
telle que même si ou quand elle s'échappe,
on est toujours en sécurité car
elle est fondamentalement de notre côté
13:35
it is still safesûr because it is
fundamentallyfondamentalement on our sidecôté
241
803161
3277
13:38
because it sharesactions our valuesvaleurs.
242
806438
1899
car elle partage nos valeurs.
13:40
I see no way around
this difficultdifficile problemproblème.
243
808337
3210
Je ne vois aucune solution à ce problème.
13:44
Now, I'm actuallyréellement fairlyéquitablement optimisticoptimiste
that this problemproblème can be solvedrésolu.
244
812557
3834
Mais je suis plutôt optimiste quant le fait
que ce problème peut être résolu.
13:48
We wouldn'tne serait pas have to writeécrire down
a long listliste of everything we carese soucier about,
245
816391
3903
Nous n'aurions pas à écrire une longue
liste de tout ce que nous chérissons,
13:52
or worsepire yetencore, spellSpell it out
in some computerordinateur languagela langue
246
820294
3643
ou, encore pire, devoir le coder
en language informatique
13:55
like C++ or PythonPython,
247
823937
1454
comme C++ ou Python,
13:57
that would be a tasktâche beyondau-delà hopelessdésespéré.
248
825391
2767
ce qui serait une tâche sans espoir.
14:00
InsteadAu lieu de cela, we would createcréer an A.I.
that usesles usages its intelligenceintelligence
249
828158
4297
Au lieu de ça, nous créerions une I.A.
qui utilise son intelligence
14:04
to learnapprendre what we valuevaleur,
250
832455
2771
pour apprendre nos valeurs,
14:07
and its motivationmotivation systemsystème is constructedconstruit
in suchtel a way that it is motivatedmotivés
251
835226
5280
et son système de motivation est construit
de telle sorte qu'elle est motivée
14:12
to pursuepoursuivre our valuesvaleurs or to performeffectuer actionsactes
that it predictsprédit we would approveapprouver of.
252
840506
5232
par la recherche de valeurs ou d'actions
qu'elle prédit que nous approuverions.
14:17
We would thusAinsi leverageinfluence
its intelligenceintelligence as much as possiblepossible
253
845738
3414
Nous pourrions ainsi influencer
son intelligence autant que possible
14:21
to solverésoudre the problemproblème of value-loadingvaleur-chargement.
254
849152
2745
à résoudre des problèmes importants.
14:24
This can happense produire,
255
852727
1512
Ça peut arriver,
14:26
and the outcomerésultat could be
very good for humanityhumanité.
256
854239
3596
et le résultat en serait très positif
pour l'humanité.
14:29
But it doesn't happense produire automaticallyautomatiquement.
257
857835
3957
Mais ça n'arrive pas automatiquement.
14:33
The initialinitiale conditionsconditions
for the intelligenceintelligence explosionexplosion
258
861792
2998
Les conditions initiales
de l'explosion de l'intelligence
14:36
mightpourrait need to be setensemble up
in just the right way
259
864790
2863
devront être programmées
de manière précise
14:39
if we are to have a controlledcontrôlé detonationdétonation.
260
867653
3530
si nous voulons obtenir
une détonation contrôlée.
14:43
The valuesvaleurs that the A.I. has
need to matchrencontre oursles notres,
261
871183
2618
Les valeurs de l'I.A. devront
correspondre aux nôtres,
pas seulement dans un contexte familier,
14:45
not just in the familiarfamilier contextle contexte,
262
873801
1760
14:47
like where we can easilyfacilement checkvérifier
how the A.I. behavesse comporte,
263
875561
2438
où il est facile de contrôler
comment l'I.A. se comporte,
14:49
but alsoaussi in all novelroman contextscontextes
that the A.I. mightpourrait encounterrencontre
264
877999
3234
mais aussi dans de nouveaux contextes
que l'I.A. pourrait rencontrer
14:53
in the indefiniteindéfini futureavenir.
265
881233
1557
dans un futur indéfini.
14:54
And there are alsoaussi some esotericésotérique issuesproblèmes
that would need to be solvedrésolu, sortedtrié out:
266
882790
4737
Il y a aussi des problèmes ésotériques
qui devront être résolus :
les détails exacts
de sa théorie de décision,
14:59
the exactexact detailsdétails of its decisiondécision theorythéorie,
267
887527
2089
15:01
how to dealtraiter with logicallogique
uncertaintyincertitude and so forthavant.
268
889616
2864
comment gérer l'incertitude logique
et ainsi de suite.
Les problèmes techniques qui doivent
être surmontés pour que ça marche
15:05
So the technicaltechnique problemsproblèmes that need
to be solvedrésolu to make this work
269
893330
3102
15:08
look quiteassez difficultdifficile --
270
896432
1113
semblent ardus--
15:09
not as difficultdifficile as makingfabrication
a superintelligentsuperintelligents A.I.,
271
897545
3380
pas autant que de faire
une I.A. super intelligente,
15:12
but fairlyéquitablement difficultdifficile.
272
900925
2868
mais assez ardus.
15:15
Here is the worryinquiéter:
273
903793
1695
Là où c'est inquiétant, c'est que
15:17
MakingFaire superintelligentsuperintelligents A.I.
is a really harddifficile challengedéfi.
274
905488
4684
faire une I.A. super intelligente
est un défi vraiment difficile.
15:22
MakingFaire superintelligentsuperintelligents A.I. that is safesûr
275
910172
2548
Faire une I.A. super intelligente
qui soit sûre
15:24
involvesimplique some additionalsupplémentaires
challengedéfi on topHaut of that.
276
912720
2416
implique quelques
défis supplémentaires.
Le risque est que si quelqu'un trouve
comment résoudre le premier défi
15:28
The riskrisque is that if somebodyquelqu'un figureschiffres out
how to crackfissure the first challengedéfi
277
916216
3487
15:31
withoutsans pour autant alsoaussi havingayant crackedfissuré
the additionalsupplémentaires challengedéfi
278
919703
3001
sans avoir aussi résolu
15:34
of ensuringveiller à ce perfectparfait safetysécurité.
279
922704
1901
l'autre défi, celui d'assurer
une sécurité parfaite.
15:37
So I think that we should
work out a solutionSolution
280
925375
3331
Je pense que nous devrions donc
commencer à résoudre
15:40
to the controlcontrôle problemproblème in advanceavance,
281
928706
2822
le problème de contrôle d'abord,
15:43
so that we have it availabledisponible
by the time it is needednécessaire.
282
931528
2660
pour qu'il soit disponible
quand on en aura besoin.
15:46
Now it mightpourrait be that we cannotne peux pas solverésoudre
the entiretout controlcontrôle problemproblème in advanceavance
283
934768
3507
On ne pourra peut-être pas résoudre
tout le problème du contrôle à l'avance
15:50
because maybe some elementséléments
can only be put in placeendroit
284
938275
3024
car certains éléments ne peuvent
être mis en place
15:53
onceune fois que you know the detailsdétails of the
architecturearchitecture where it will be implementedmis en œuvre.
285
941299
3997
qu'une fois qu'on connait les détails
de l'architecture où ce sera implémenté.
15:57
But the more of the controlcontrôle problemproblème
that we solverésoudre in advanceavance,
286
945296
3380
Mais plus nous résolvons ce problème
de contrôle à l'avance,
16:00
the better the oddschances that the transitiontransition
to the machinemachine intelligenceintelligence eraère
287
948676
4090
meilleure sera notre chance
que la transition vers l'ère de l'I.A.
16:04
will go well.
288
952766
1540
se passera bien.
16:06
This to me looksregards like a thing
that is well worthvaut doing
289
954306
4644
Pour moi, ça semble valoir la peine
16:10
and I can imagineimaginer that if
things turntour out okay,
290
958950
3332
et j'imaginer que,
si tout se passe bien,
16:14
that people a millionmillion yearsannées from now
look back at this centurysiècle
291
962282
4658
les gens, dans un million d'années,
penseront peut-être
16:18
and it mightpourrait well be that they say that
the one thing we did that really matteredimportait
292
966940
4002
que la chose qui a vraiment été
importante dans notre siècle
16:22
was to get this thing right.
293
970942
1567
était de faire ça bien.
16:24
Thank you.
294
972509
1689
Merci.
16:26
(ApplauseApplaudissements)
295
974198
2813
(Applaudissements)
Translated by Vincent Lecoanet
Reviewed by Elisabeth Buffard

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com