ABOUT THE SPEAKERS
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
TED2019

Nick Bostrom: How civilization could destroy itself -- and 4 ways we could prevent it

Nick Bostrom: Comment la civilisation pourrait s'autodétruire et quatre façons de l'éviter

Filmed:
1,537,627 views

L'humanité est en route pour créer une « boule noire » : une technologie révolutionnaire qui pourrait tous nous détruire, dit le philosophe Nick Bostrom. Dans cette conversation incisive et surprenamment légère avec le dirigeant de TED, Chris Anderson, il décrit les vulnérabilités auxquelles nous pourrions faire face si nos inventions échappaient à notre contrôle. Il explore également comment nous pouvons éviter notre future disparition.
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio

Double-click the English transcript below to play the video.

00:13
ChrisChris AndersonAnderson: NickNick BostromBostrom.
0
1000
1809
Chris Anderson : Nick Bostrom.
00:14
So, you have alreadydéjà givendonné us
so manybeaucoup crazyfou ideasidées out there.
1
2833
3976
Vous nous avez déjà offert
tant d'idées folles.
00:18
I think a couplecouple of decadesdécennies agodepuis,
2
6833
1726
Je pense à il y a environ 20 ans,
00:20
you madefabriqué the caseCas that we mightpourrait
all be livingvivant in a simulationsimulation,
3
8583
2935
vous avez avancé que nous pourrions
tous vivre dans une simulation
00:23
or perhapspeut être probablyProbablement were.
4
11542
1809
ou que c'était probablement le cas.
00:25
More recentlyrécemment,
5
13375
1351
Plus récemment,
00:26
you've paintedpeint the mostles plus vividvives examplesexemples
of how artificialartificiel generalgénéral intelligenceintelligence
6
14750
4601
vous avez dépeint les exemples
les plus saisissants
quant à comment une intelligence
générale artificielle
00:31
could go horriblyhorriblement wrongfaux.
7
19375
1833
pourrait terriblement mal tourner.
00:33
And now this yearan,
8
21750
1393
Cette année,
00:35
you're about to publishpublier
9
23167
2226
vous êtes sur le point de publier
00:37
a paperpapier that presentsprésente something calledappelé
the vulnerablevulnérable worldmonde hypothesishypothèse.
10
25417
3934
un article qui présente une chose appelée
l'hypothèse du monde vulnérable.
00:41
And our jobemploi this eveningsoir is to
give the illustratedillustrée guideguider to that.
11
29375
4583
Notre rôle ce soir est d'offrir
un guide illustré à ce sujet.
00:46
So let's do that.
12
34417
1833
Allons-y.
00:48
What is that hypothesishypothèse?
13
36833
1792
Quelle est cette hypothèse ?
00:52
NickNick BostromBostrom: It's tryingen essayant to think about
14
40000
2434
Nick Bostrom :
C'est une tentative de réflexion
00:54
a sortTrier of structuralde construction featurefonctionnalité
of the currentactuel humanHumain conditioncondition.
15
42458
3084
sur une caractéristique structurelle
de la condition humaine actuelle.
00:59
You like the urnUrne metaphormétaphore,
16
47125
2351
Vous aimez la métaphore de l'urne
01:01
so I'm going to use that to explainExplique it.
17
49500
1893
alors je vais l'utiliser pour expliquer.
Imaginez une grande urne remplie de boules
01:03
So picturephoto a biggros urnUrne filledrempli with ballsdes balles
18
51417
4351
01:07
representingreprésentant ideasidées, methodsméthodes,
possiblepossible technologiesles technologies.
19
55792
3958
représentant des idées, des méthodes,
des technologies possibles.
01:12
You can think of the historyhistoire
of humanHumain creativityla créativité
20
60833
3726
Vous pouvez voir l'histoire
de la créativité humaine
01:16
as the processprocessus of reachingatteindre into this urnUrne
and pullingtirant out one ballballon after anotherun autre,
21
64583
3810
comme le fait de plonger
la main dans l'urne
et d'en sortir une boule après l'autre,
01:20
and the netnet effecteffet so farloin
has been hugelyénormement beneficialbénéfique, right?
22
68417
3226
et le résultat jusqu'ici
a été extrêmement bénéfique.
01:23
We'veNous avons extractedextrait a great manybeaucoup whiteblanc ballsdes balles,
23
71667
2726
Nous avons extrait
de nombreuses boules blanches,
quelques grises
dont les bienfaits sont mitigés.
01:26
some variousdivers shadesnuances of graygris,
mixedmixte blessingsbénédictions.
24
74417
2875
01:30
We haven'tn'a pas so farloin
pulledtiré out the blacknoir ballballon --
25
78042
2958
Jusqu'ici, nous n'avons pas
sorti la boule noire --
01:34
a technologyLa technologie that invariablyinvariablement destroysdétruit
the civilizationcivilisation that discoversdétecte it.
26
82292
5476
une technologie qui détruit invariablement
la civilisation qui la découvre.
01:39
So the paperpapier triesessais to think
about what could suchtel a blacknoir ballballon be.
27
87792
3267
La publication essaye de réfléchir
à ce qu'une balle noire pourrait être.
01:43
CACA: So you definedéfinir that ballballon
28
91083
1810
CA : Vous définissez cette boule
01:44
as one that would inevitablyinévitablement
bringapporter about civilizationalentre les civilisations destructiondestruction.
29
92917
3684
comme étant celle menant invariablement
à la destruction de la civilisation.
01:48
NBNb: UnlessÀ moins que we exitSortie what I call
the semi-anarchicsemi-anarchique defaultpar défaut conditioncondition.
30
96625
5309
NB : A moins que nous ne sortions
de ce que j'appelle la condition
semi-anarchique par défaut.
01:53
But sortTrier of, by defaultpar défaut.
31
101958
1500
Mais par défaut.
01:56
CACA: So, you make the caseCas compellingimpérieuses
32
104333
3518
CA : Vous présentez
un argumentaire convaincant
01:59
by showingmontrer some sortTrier of counterexamplescontre-exemples
33
107875
2018
en montrant des contre-exemples
02:01
where you believe that so farloin
we'venous avons actuallyréellement got luckychanceux,
34
109917
2934
où vous croyez que jusqu'ici,
nous avons eu de la chance,
02:04
that we mightpourrait have pulledtiré out
that deathdécès ballballon
35
112875
2851
que nous pourrions avoir sorti
la boule de la mort
02:07
withoutsans pour autant even knowingconnaissance it.
36
115750
1559
sans même le savoir.
02:09
So there's this quotecitation, what's this quotecitation?
37
117333
2292
Il y a cette citation, quelle est-elle ?
02:12
NBNb: Well, I guessdeviner
it's just meantsignifiait to illustrateillustrer
38
120625
2684
NB : Je suppose
qu'elle est censée illustrer
02:15
the difficultydifficulté of foreseeingprévoyant
39
123333
2101
la difficulté liée à la prédiction
02:17
what basicde base discoveriesdécouvertes will leadconduire to.
40
125458
2685
de ce à quoi mèneront
des découvertes élémentaires.
02:20
We just don't have that capabilityaptitude.
41
128167
3059
Nous n'avons simplement pas
cette capacité.
02:23
Because we have becomedevenir quiteassez good
at pullingtirant out ballsdes balles,
42
131250
3351
Car nous sommes devenus bons
dans l'extraction de boules
02:26
but we don't really have the abilitycapacité
to put the ballballon back into the urnUrne, right.
43
134625
3726
mais nous n'avons pas la capacité
de remettre la boule dans l'urne.
02:30
We can inventinventer, but we can't un-inventnon-inventer.
44
138375
2167
Nous pouvons inventer
mais nous ne pouvons pas désinventer.
02:33
So our strategystratégie, suchtel as it is,
45
141583
2768
Notre stratégie actuelle
02:36
is to hopeespérer that there is
no blacknoir ballballon in the urnUrne.
46
144375
2434
est d'espérer qu'il n'y pas
de boule noire dans l'urne.
02:38
CACA: So onceune fois que it's out, it's out,
and you can't put it back in,
47
146833
4060
CA : Une fois sortie, elle est sortie
et vous ne pouvez pas la remettre,
02:42
and you think we'venous avons been luckychanceux.
48
150917
1517
et vous nous pensez chanceux.
02:44
So talk throughpar a couplecouple
of these examplesexemples.
49
152458
2226
Expliquez-nous quelques-uns
de ces exemples.
02:46
You talk about differentdifférent
typesles types of vulnerabilityvulnérabilité.
50
154708
3101
Vous parlez de différents types
de vulnérabilités.
02:49
NBNb: So the easiestplus facile typetype to understandcomprendre
51
157833
2435
NB : Le type le plus simple à comprendre
02:52
is a technologyLa technologie
that just makesfait du it very easyfacile
52
160292
3142
est une technologie qui rend
la destruction massive très facile.
02:55
to causecause massivemassif amountsles montants of destructiondestruction.
53
163458
2125
02:59
SyntheticSynthétique biologyla biologie mightpourrait be a fecundfecund
sourcela source of that kindgentil of blacknoir ballballon,
54
167375
3518
La biologie synthétique pourrait être
une source féconde d'une telle boule,
03:02
but manybeaucoup other possiblepossible things we could --
55
170917
2684
mais nombre d'autres choses
que nous pourrions --
03:05
think of geoengineeringgéo-ingénierie,
really great, right?
56
173625
2518
pensez à la géo-ingénierie,
c'est génial, non ?
Nous pourrions contrer
le réchauffement climatique
03:08
We could combatcombat globalglobal warmingéchauffement,
57
176167
2226
03:10
but you don't want it
to get too easyfacile eithernon plus,
58
178417
2142
mais nous ne voulons pas
que ce soit trop simple
03:12
you don't want any randomau hasard personla personne
and his grandmothergrand-mère
59
180583
2476
et qu'un individu quelconque
et sa grand-mère
03:15
to have the abilitycapacité to radicallyradicalement
altermodifier the earth'sTerre climateclimat.
60
183083
3060
aient la capacité d'altérer radicalement
le climat terrestre.
03:18
Or maybe lethalmortel autonomousautonome dronesdrones,
61
186167
3559
Ou peut-être les drones autonomes mortels,
03:21
massed-producedproduit en masse, mosquito-sizedde la taille d'un moustique
killertueur botbot swarmsessaims.
62
189750
3333
des essaims de robots tueurs
de la taille d'un moustique
et produits en masse.
03:26
NanotechnologyNanotechnologie,
artificialartificiel generalgénéral intelligenceintelligence.
63
194500
2726
La nanotechnologie,
l'intelligence générale artificielle.
03:29
CACA: You arguese disputer in the paperpapier
64
197250
1309
CA : Vous avancez
03:30
that it's a mattermatière of luckla chance
that when we discovereddécouvert
65
198583
2893
que c'est une question de chance
que quand nous avons découvert
03:33
that nuclearnucléaire powerPuissance could createcréer a bombbombe,
66
201500
3434
que la puissance nucléaire
pouvait créer une bombe,
03:36
it mightpourrait have been the caseCas
67
204958
1393
il aurait pu arriver
03:38
that you could have createdcréé a bombbombe
68
206375
1851
que nous puissions créer une bombe
03:40
with much easierPlus facile resourcesRessources,
accessibleaccessible to anyonen'importe qui.
69
208250
3559
avec des ressources bien plus simples
d'accès pour quiconque.
03:43
NBNb: Yeah, so think back to the 1930s
70
211833
3560
NB : Repensez aux années 30,
03:47
where for the first time we make
some breakthroughspercées in nuclearnucléaire physicsla physique,
71
215417
4601
où pour la première fois nous avons fait
des découvertes capitales
en physique nucléaire,
03:52
some geniusgénie figureschiffres out that it's possiblepossible
to createcréer a nuclearnucléaire chainchaîne reactionréaction
72
220042
3684
un génie découvre qu'il est possible
d'entraîner une réaction
nucléaire en chaîne
03:55
and then realizesréalise
that this could leadconduire to the bombbombe.
73
223750
3184
puis réalise que cela pourrait
mener à la bombe.
03:58
And we do some more work,
74
226958
1893
Nous continuons à y travailler
04:00
it turnsse tourne out that what you requireexiger
to make a nuclearnucléaire bombbombe
75
228875
2726
et il s'avère qu'il vous faut,
pour une bombe nucléaire,
04:03
is highlytrès enrichedenrichi uraniumuranium or plutoniumplutonium,
76
231625
2393
de l'uranium ou du plutonium
hautement enrichi,
04:06
whichlequel are very difficultdifficile materialsmatériaux to get.
77
234042
2017
qui sont très difficiles à obtenir.
04:08
You need ultracentrifugesultracentrifuges,
78
236083
2268
Vous avez besoin d'ultracentrifugeuses,
04:10
you need reactorsréacteurs, like,
massivemassif amountsles montants of energyénergie.
79
238375
3768
de réacteurs et de quantités
massives d'énergie.
04:14
But supposesupposer it had turnedtourné out insteadau lieu
80
242167
1809
Mais supposez qu'au lieu de cela,
04:16
there had been an easyfacile way
to unlockdéverrouiller the energyénergie of the atomatome.
81
244000
3976
il y ait eu une façon simple
de libérer l'énergie de l'atome.
04:20
That maybe by bakingcuisson sandsable
in the microwavefour à micro-ondes ovenfour
82
248000
2768
Peut-être qu'en cuisant du sable
dans un four micro-ondes
ou quelque chose du genre,
04:22
or something like that
83
250792
1267
vous auriez pu causer
une détonation nucléaire.
04:24
you could have createdcréé
a nuclearnucléaire detonationdétonation.
84
252083
2101
Nous savons que c'est
physiquement impossible.
04:26
So we know that that's
physicallyphysiquement impossibleimpossible.
85
254208
2143
04:28
But before you did the relevantpertinent physicsla physique
86
256375
1893
Mais avant de faire les calculs adéquats,
04:30
how could you have knownconnu
how it would turntour out?
87
258292
2191
comment savoir
comment cela allait tourner ?
04:32
CACA: AlthoughBien que, couldn'tne pouvait pas you arguese disputer
88
260507
1552
CA : Ne pourriez-vous pas avancer
que pour que la vie évolue sur Terre,
04:34
that for life to evolveévoluer on EarthTerre
89
262083
1935
04:36
that impliedimplicite sortTrier of stablestable environmentenvironnement,
90
264042
3267
cela suppose un environnement stable,
04:39
that if it was possiblepossible to createcréer
massivemassif nuclearnucléaire reactionsréactions relativelyrelativement easyfacile,
91
267333
4185
que s'il était possible de causer
des réactions nucléaires massives
relativement facilement,
04:43
the EarthTerre would never have been stablestable,
92
271542
1858
la Terre n'aurait jamais été stable,
04:45
that we wouldn'tne serait pas be here at all.
93
273424
1552
nous ne serions pas là.
04:47
NBNb: Yeah, unlesssauf si there were something
that is easyfacile to do on purposeobjectif
94
275000
3393
NB : Oui, à moins qu'il y ait une chose
facile à faire volontairement
04:50
but that wouldn'tne serait pas happense produire by randomau hasard chancechance.
95
278417
2851
mais qui n'arriverait pas par hasard.
04:53
So, like things we can easilyfacilement do,
96
281292
1579
Des choses faciles à faire,
04:54
we can stackempiler 10 blocksblocs
on topHaut of one anotherun autre,
97
282896
2110
comme empiler 10 cubes
les uns sur les autres,
04:57
but in naturela nature, you're not going to find,
like, a stackempiler of 10 blocksblocs.
98
285031
3197
mais dans la nature, vous ne trouverez pas
une pile de 10 cubes.
05:00
CACA: OK, so this is probablyProbablement the one
99
288253
1673
CA : C'est probablement la chose
05:01
that manybeaucoup of us worryinquiéter about mostles plus,
100
289950
1943
qui inquiète le plus
la majorité d'entre nous
05:03
and yes, syntheticsynthétique biologyla biologie
is perhapspeut être the quickestle plus rapide routeroute
101
291917
3517
et oui, la biologie synthétique
est peut-être le chemin le plus rapide
05:07
that we can foreseeprévoir
in our nearprès futureavenir to get us here.
102
295458
3018
qui, nous pouvons envisager,
nous y mènera dans un avenir proche.
05:10
NBNb: Yeah, and so think
about what that would have meantsignifiait
103
298500
2934
NB : Réfléchissez
à ce que cela aurait signifié
05:13
if, say, anybodyn'importe qui by workingtravail
in theirleur kitchencuisine for an afternoonaprès midi
104
301458
3643
si, disons, quiconque travaillant
dans sa cuisine pendant un après-midi
05:17
could destroydétruire a cityville.
105
305125
1393
pouvait détruire une ville.
05:18
It's harddifficile to see how
modernmoderne civilizationcivilisation as we know it
106
306542
3559
Il est difficile de voir comment
la civilisation moderne actuelle
05:22
could have survivedsurvécu that.
107
310125
1434
aurait pu survivre à cela.
05:23
Because in any populationpopulation
of a millionmillion people,
108
311583
2518
Car dans toute population
d'un million de personnes,
05:26
there will always be some
who would, for whateverpeu importe reasonraison,
109
314125
2684
il y aura toujours quelqu'un
qui, peu importe la raison,
05:28
choosechoisir to use that destructivedestructrice powerPuissance.
110
316833
2084
choisira d'utiliser
ce pouvoir destructeur.
05:31
So if that apocalypticapocalyptique residualrésiduelle
111
319750
3143
Si ce résidu apocalyptique
05:34
would choosechoisir to destroydétruire a cityville, or worsepire,
112
322917
1976
décidait de détruire une ville, ou pire,
05:36
then citiesvilles would get destroyeddétruit.
113
324917
1559
des villes seraient détruites.
05:38
CACA: So here'svoici anotherun autre typetype
of vulnerabilityvulnérabilité.
114
326500
2351
CA : Voici un autre type de vulnérabilité.
05:40
Talk about this.
115
328875
1643
Parlez-en.
05:42
NBNb: Yeah, so in additionune addition to these
kindgentil of obviousévident typesles types of blacknoir ballsdes balles
116
330542
3976
NB : En plus de ces types
de balles noires évidents
05:46
that would just make it possiblepossible
to blowcoup up a lot of things,
117
334542
2810
qui rendraient possible
de faire exploser plein de choses,
05:49
other typesles types would actacte
by creatingcréer badmal incentivesmesures incitatives
118
337376
4433
d'autres types agiraient en créant
de mauvaises incitations
05:53
for humanshumains to do things that are harmfulnocif.
119
341833
2226
pour que les humains
fassent des choses nuisibles.
05:56
So, the Type-Type-2a, we mightpourrait call it that,
120
344083
4101
Le type 2a, nous pouvons l'appeler ainsi,
06:00
is to think about some technologyLa technologie
that incentivizesencourage great powerspouvoirs
121
348208
4518
c'est réfléchir à une technologie
qui invite les grandes puissances
06:04
to use theirleur massivemassif amountsles montants of forceObliger
to createcréer destructiondestruction.
122
352750
4476
à utiliser leurs forces massives
pour causer de la destruction.
06:09
So, nuclearnucléaire weaponsarmes were actuallyréellement
very closeFermer to this, right?
123
357250
2833
Les armes nucléaires
en étaient très proches.
06:14
What we did, we spentdépensé
over 10 trillionbillion dollarsdollars
124
362083
3060
Nous avons dépensé
plus de 10 billions de dollars
06:17
to buildconstruire 70,000 nuclearnucléaire warheadsogives
125
365167
2517
pour fabriquer 70 000 ogives nucléaires
06:19
and put them on hair-triggerfleur de peau alertalerte.
126
367708
2435
et les placer en état
d'alerte instantanée.
06:22
And there were severalnombreuses timesfois
duringpendant the ColdFroide WarGuerre
127
370167
2267
A plusieurs reprises
durant la Guerre froide,
06:24
we almostpresque blewa soufflé eachchaque other up.
128
372458
1435
on a failli se faire sauter.
06:25
It's not because a lot of people feltse sentait
this would be a great ideaidée,
129
373917
3101
Non pas que beaucoup de gens pensaient
que ce serait une super idée
06:29
let's all spenddépenser 10 trillionbillion dollarsdollars
to blowcoup ourselvesnous-mêmes up,
130
377042
2684
de dépenser 10 billions de dollars
pour se faire sauter,
06:31
but the incentivesmesures incitatives were suchtel
that we were findingdécouverte ourselvesnous-mêmes --
131
379750
2934
mais les incitations étaient telles
que nous nous trouvions --
06:34
this could have been worsepire.
132
382708
1310
cela aurait pu être pire.
06:36
ImagineImaginez if there had been
a safesûr first strikegrève.
133
384042
2434
Imaginez s'il y a avait eu
un premier coup assuré.
06:38
Then it mightpourrait have been very trickyrusé,
134
386500
2309
Cela aurait pu être très délicat,
06:40
in a crisiscrise situationsituation,
135
388833
1268
dans une situation de crise,
06:42
to refrains’abstenir from launchinglancement
all theirleur nuclearnucléaire missilesmissiles.
136
390125
2477
de s'abstenir de lancer
tous les missiles nucléaires.
06:44
If nothing elseautre, because you would fearpeur
that the other sidecôté mightpourrait do it.
137
392626
3392
A défaut d'autre chose,
car vous craindriez
que l'autre camp ne le fasse.
06:48
CACA: Right, mutualmutuel assuredassuré destructiondestruction
138
396042
1809
CA : La destruction mutuelle assurée
06:49
keptconservé the ColdFroide WarGuerre relativelyrelativement stablestable,
139
397875
2726
a maintenu la Guerre froide
relativement stable.
06:52
withoutsans pour autant that, we mightpourrait not be here now.
140
400625
1934
Sans cela, nous pourrions ne pas être là.
06:54
NBNb: It could have been
more unstableunstable than it was.
141
402583
2310
NB : Cela aurait pu être
plus instable que cela.
Il pourrait y avoir
d'autres propriétés technologiques.
06:56
And there could be
other propertiesPropriétés of technologyLa technologie.
142
404917
2351
06:59
It could have been harderPlus fort
to have armsbras treatiestraités,
143
407292
2309
Il aurait pu être plus dur
d'avoir des traités
07:01
if insteadau lieu of nuclearnucléaire weaponsarmes
144
409625
1601
si au lieu des armes nucléaires,
07:03
there had been some smallerplus petit thing
or something lessMoins distinctivedistinctif.
145
411250
3018
cela avait été une chose plus petite
ou moins distinctive.
CA : Avec les mauvaises incitations
pour les acteurs puissants,
07:06
CACA: And as well as badmal incentivesmesures incitatives
for powerfulpuissant actorsacteurs,
146
414292
2559
07:08
you alsoaussi worryinquiéter about badmal incentivesmesures incitatives
for all of us, in Type-Type-2b here.
147
416875
3518
vous vous inquiétez de telles incitations
pour nous tous, le type 2b.
07:12
NBNb: Yeah, so, here we mightpourrait
take the caseCas of globalglobal warmingéchauffement.
148
420417
4250
NB : Nous pourrions prendre le cas
du réchauffement climatique.
07:18
There are a lot of little conveniencesconvenances
149
426958
1893
Il y a beaucoup de petits conforts
07:20
that causecause eachchaque one of us to do things
150
428875
2184
qui mènent chacun d'entre nous
à faire des choses
07:23
that individuallyindividuellement
have no significantimportant effecteffet, right?
151
431083
2851
qui, individuellement,
n'ont pas d'effet significatif.
07:25
But if billionsdes milliards of people do it,
152
433958
1976
Mais si des milliards de gens le font,
cumulativement, cela a
un effet préjudiciable.
07:27
cumulativelycumulativement, it has a damagingendommageant effecteffet.
153
435958
2060
07:30
Now, globalglobal warmingéchauffement
could have been a lot worsepire than it is.
154
438042
2809
Le réchauffement climatique
aurait pu être pire qu'il ne l'est.
07:32
So we have the climateclimat
sensitivitysensibilité parameterparamètre, right.
155
440875
2976
Nous avons le paramètre
de sensibilité climatique.
07:35
It's a parameterparamètre that saysdit
how much warmerchauffe- does it get
156
443875
3643
C'est un paramètre
qui indique le réchauffement
07:39
if you emitémettent a certaincertain amountmontant
of greenhouseserre gasesdes gaz.
157
447542
2684
si on émet une certaine quantité
de gaz à effet de serre.
07:42
But, supposesupposer that it had been the caseCas
158
450250
2393
Mais supposez que la situation
07:44
that with the amountmontant
of greenhouseserre gasesdes gaz we emittedémis,
159
452667
2517
soit qu'avec les quantités
de gaz à effet de serre émis,
07:47
insteadau lieu of the temperaturetempérature risingen hausse by, say,
160
455208
2060
au lieu d'une température augmentant
d'entre 3 et 4,5 degrés d'ici 2100,
07:49
betweenentre threeTrois and 4.5 degreesdegrés by 2100,
161
457292
3726
07:53
supposesupposer it had been
15 degreesdegrés or 20 degreesdegrés.
162
461042
2500
imaginez que c'eût été 15 ou 20 degrés.
07:56
Like, then we mightpourrait have been
in a very badmal situationsituation.
163
464375
2559
La situation aurait alors
été très mauvaise.
07:58
Or supposesupposer that renewablerenouvelable energyénergie
had just been a lot harderPlus fort to do.
164
466958
3143
Imaginez que les énergies renouvelables
aient été bien plus complexes.
08:02
Or that there had been
more fossilfossile fuelscarburants in the groundsol.
165
470125
2643
Ou qu'il y ait eu
plus de carburants fossiles.
08:04
CACA: Couldn'tNe pouvait pas you arguese disputer
that if in that caseCas of --
166
472792
2642
CA : Ne pourriez-vous pas avancer
que dans ce cas de --
08:07
if what we are doing todayaujourd'hui
167
475458
1726
si ce que nous faisons aujourd'hui
08:09
had resulteda entraîné in 10 degreesdegrés differencedifférence
in the time periodpériode that we could see,
168
477208
4560
avait entraîné une différence de 10 degrés
sur une période que nous pourrions voir,
08:13
actuallyréellement humanityhumanité would have got
off its asscul and doneterminé something about it.
169
481792
3684
l'humanité se serait bougé le cul
et y aurait fait quelque chose.
08:17
We're stupidstupide, but we're not
maybe that stupidstupide.
170
485500
2809
Nous sommes stupides,
mais peut-être pas autant.
08:20
Or maybe we are.
171
488333
1268
Ou peut-être que si.
08:21
NBNb: I wouldn'tne serait pas betpari on it.
172
489625
1268
NB : Je ne parierais pas.
08:22
(LaughterRires)
173
490917
2184
(Rires)
08:25
You could imagineimaginer other featuresfonctionnalités.
174
493125
1684
Vous pourriez imaginer d'autres options.
08:26
So, right now, it's a little bitbit difficultdifficile
to switchcommutateur to renewablesénergies renouvelables and stuffdes trucs, right,
175
494833
5518
Actuellement, c'est un peu difficile
de passer aux énergies renouvelables,
08:32
but it can be doneterminé.
176
500375
1268
mais c'est possible.
08:33
But it mightpourrait just have been,
with slightlylégèrement differentdifférent physicsla physique,
177
501667
2976
Cela aurait pu être que,
avec une physique légèrement différente,
08:36
it could have been much more expensivecoûteux
to do these things.
178
504667
2791
il aurait été bien plus cher
de faire ces choses-là.
08:40
CACA: And what's your viewvue, NickNick?
179
508375
1518
CA : Quelle est votre opinion ?
08:41
Do you think, puttingen mettant
these possibilitiespossibilités togetherensemble,
180
509917
2434
Pensez-vous, en réunissant
ces possibilités,
08:44
that this earthTerre, humanityhumanité that we are,
181
512375
4268
cette Terre, l'humanité que nous sommes,
08:48
we countcompter as a vulnerablevulnérable worldmonde?
182
516667
1559
nous sommes un monde vulnérable ?
08:50
That there is a deathdécès ballballon in our futureavenir?
183
518250
2417
Qu'il y a une boule de la mort
dans notre futur ?
08:55
NBNb: It's harddifficile to say.
184
523958
1268
NB : C'est difficile à dire.
08:57
I mean, I think there mightpourrait
well be variousdivers blacknoir ballsdes balles in the urnUrne,
185
525250
5059
Je pense qu'il pourrait y avoir
diverses boules noires dans l'urne,
09:02
that's what it looksregards like.
186
530333
1310
c'est ce qu'il semble.
09:03
There mightpourrait alsoaussi be some goldend'or ballsdes balles
187
531667
2392
Il pourrait aussi y avoir
des boules dorées
09:06
that would help us
protectprotéger againstcontre blacknoir ballsdes balles.
188
534083
3476
qui nous aideraient
à nous protéger des boules noires.
09:09
And I don't know whichlequel ordercommande
they will come out.
189
537583
2976
Je ne sais pas dans quel ordre
elles vont sortir.
09:12
CACA: I mean, one possiblepossible
philosophicalphilosophique critiquecritique of this ideaidée
190
540583
3851
CA : Une critique philosophique
possible de cette idée,
09:16
is that it impliesimplique a viewvue
that the futureavenir is essentiallyessentiellement settledcolonisé.
191
544458
5643
c'est que cela implique une vision
de l'avenir qui est globalement établie.
09:22
That there eithernon plus
is that ballballon there or it's not.
192
550125
2476
Soit cette boule est là,
soit elle ne l'est pas.
09:24
And in a way,
193
552625
3018
D'une certaine façon,
ce n'est pas une vision de l'avenir
09:27
that's not a viewvue of the futureavenir
that I want to believe.
194
555667
2601
en laquelle je veux croire.
09:30
I want to believe
that the futureavenir is undeterminedindéterminé,
195
558292
2351
Je veux croire que l'avenir
est indéterminé,
09:32
that our decisionsles décisions todayaujourd'hui will determinedéterminer
196
560667
1934
que nos décisions
aujourd'hui détermineront
09:34
what kindgentil of ballsdes balles
we pulltirer out of that urnUrne.
197
562625
2208
quel genre de boules
nous sortons de l'urne.
09:37
NBNb: I mean, if we just keep inventinginventer,
198
565917
3767
NB : Si nous continuons à inventer,
09:41
like, eventuallyfinalement we will
pulltirer out all the ballsdes balles.
199
569708
2334
nous finirons par sortir
toutes les boules.
09:44
I mean, I think there's a kindgentil
of weakfaible formforme of technologicaltechnologique determinismdéterminisme
200
572875
3393
Je pense qu'il y a une forme
de déterminisme technologique
09:48
that is quiteassez plausibleplausible,
201
576292
1267
qui est assez plausible.
09:49
like, you're unlikelyimprobable
to encounterrencontre a societysociété
202
577583
2643
Vous avez peu de probabilités
de rencontrer une société
09:52
that usesles usages flintFlint axesaxes and jetjet planesAvions.
203
580250
2833
qui utilise des haches en silex
et des avions à réaction.
09:56
But you can almostpresque think
of a technologyLa technologie as a setensemble of affordancesaffordances.
204
584208
4060
Vous pouvez presque voir la technologie
comme un ensemble de potentialités.
La technologie est la chose
nous permettant de faire diverses choses
10:00
So technologyLa technologie is the thing
that enablespermet us to do variousdivers things
205
588292
3017
10:03
and achieveatteindre variousdivers effectseffets in the worldmonde.
206
591333
1976
et d'obtenir divers effets sur le monde.
10:05
How we'dmer then use that,
of coursecours dependsdépend on humanHumain choicechoix.
207
593333
2810
Comment nous allons l'utiliser
dépend des choix humains.
10:08
But if we think about these
threeTrois typesles types of vulnerabilityvulnérabilité,
208
596167
2684
Mais si vous pensez
à ces trois types de vulnérabilités,
10:10
they make quiteassez weakfaible assumptionshypothèses
about how we would choosechoisir to use them.
209
598875
3393
elles ne supposent pas tant
de comment nous choisirions de l'utiliser.
10:14
So a Type-Type-1 vulnerabilityvulnérabilité, again,
this massivemassif, destructivedestructrice powerPuissance,
210
602292
3392
Une vulnérabilité de type 1,
cet énorme pouvoir destructeur,
ce n'est pas une hypothèse forte
10:17
it's a fairlyéquitablement weakfaible assumptionsupposition
211
605708
1435
10:19
to think that in a populationpopulation
of millionsdes millions of people
212
607167
2392
de penser que dans une population
de millions de gens
10:21
there would be some that would choosechoisir
to use it destructivelydestructive.
213
609583
2935
il y en aurait qui choisiraient
de l'utiliser pour détruire.
10:24
CACA: For me, the mostles plus singleunique
disturbinginquiétant argumentargument
214
612542
2434
CA : Pour moi, l'argument
qui me perturbe le plus,
10:27
is that we actuallyréellement mightpourrait have
some kindgentil of viewvue into the urnUrne
215
615000
4559
c'est que nous pourrions
avoir un aperçu de l'urne
10:31
that makesfait du it actuallyréellement
very likelyprobable that we're doomedcondamné.
216
619583
3518
qui rendrait très probable
que nous soyons condamnés.
10:35
NamelyÀ savoir, if you believe
in acceleratingaccélérer powerPuissance,
217
623125
4643
Si vous croyez au pouvoir accélérateur,
10:39
that technologyLa technologie inherentlyintrinsèquement acceleratesaccélère,
218
627792
2267
qu'intrinsèquement,
la technologie accélère,
10:42
that we buildconstruire the toolsoutils
that make us more powerfulpuissant,
219
630083
2435
que nous créons les outils
nous rendant plus puissants,
10:44
then at some pointpoint you get to a stageétape
220
632542
2642
vous finissez par en arriver à un point
10:47
where a singleunique individualindividuel
can take us all down,
221
635208
3060
où chaque individu peut tous nous éliminer
10:50
and then it looksregards like we're screwedvissé.
222
638292
2851
et il semble alors que nous soyons foutus.
10:53
Isn't that argumentargument quiteassez alarmingalarmant?
223
641167
2934
Cet argument n'est-il pas alarmant ?
10:56
NBNb: AhAh, yeah.
224
644125
1750
NB : Oui.
10:58
(LaughterRires)
225
646708
1268
(Rires)
11:00
I think --
226
648000
1333
Je pense --
11:02
Yeah, we get more and more powerPuissance,
227
650875
1601
Nous avons de plus en plus de pouvoir
11:04
and [it's] easierPlus facile and easierPlus facile
to use those powerspouvoirs,
228
652500
3934
et il est de plus en plus simple
d'utiliser ce pouvoir,
11:08
but we can alsoaussi inventinventer technologiesles technologies
that kindgentil of help us controlcontrôle
229
656458
3560
mais nous pouvons aussi
inventer des technologies
qui nous aident à contrôler l'utilisation
que les gens font de ce pouvoir.
11:12
how people use those powerspouvoirs.
230
660042
2017
11:14
CACA: So let's talk about that,
let's talk about the responseréponse.
231
662083
2851
CA : Parlons de cela,
parlons de la réponse.
11:16
SupposeSupposons que that thinkingen pensant
about all the possibilitiespossibilités
232
664958
2310
Supposons que réfléchir
à toutes les possibilités
11:19
that are out there now --
233
667292
2101
qu'il y a actuellement --
11:21
it's not just synbiosynbio (en),
it's things like cyberwarfareguerre cybernétique,
234
669417
3726
ce n'est pas que la biologie synthétique,
ce sont les cyberguerres,
11:25
artificialartificiel intelligenceintelligence, etcetc., etcetc. --
235
673167
3351
l'intelligence artificielle
et ainsi de suite --
11:28
that there mightpourrait be
serioussérieux doomcondamner in our futureavenir.
236
676542
4517
qu'il y a une condamnation
sérieuse dans notre avenir.
11:33
What are the possiblepossible responsesréponses?
237
681083
1601
Quelles sont les réponses possibles ?
11:34
And you've talkeda parlé about
fourquatre possiblepossible responsesréponses as well.
238
682708
4893
Vous avez parlé
de quatre réponses possibles.
11:39
NBNb: RestrictingRestreignant technologicaltechnologique developmentdéveloppement
doesn't seemsembler promisingprometteur,
239
687625
3643
NB : Restreindre
le développement technologique
ne semble pas prometteur
11:43
if we are talkingparlant about a generalgénéral haltHalt
to technologicaltechnologique progressle progrès.
240
691292
3226
si nous parlons
d'une interruption générale
des progrès technologiques.
11:46
I think neitherni feasibleréalisable,
241
694542
1267
Ce n'est ni faisable ni désirable,
11:47
norni would it be desirablesouhaitable
even if we could do it.
242
695833
2310
même si nous le pouvions.
11:50
I think there mightpourrait be very limitedlimité areaszones
243
698167
3017
Je pense qu'il y a
des domaines très limités
11:53
where maybe you would want
slowerRalentissez technologicaltechnologique progressle progrès.
244
701208
2726
où vous pourriez vouloir
ralentir les progrès technologiques.
11:55
You don't, I think, want
fasterPlus vite progressle progrès in bioweaponsarmes biologiques,
245
703958
3393
Vous ne voulez pas de progrès
plus rapides pour les armes biologiques
11:59
or in, say, isotopeisotope separationséparation,
246
707375
2059
ou la séparation d'isotope,
12:01
that would make it easierPlus facile to createcréer nukesarmes nucléaires.
247
709458
2250
ce qui faciliterait la création
de bombes nucléaires.
12:04
CACA: I mean, I used to be
fullypleinement on boardplanche with that.
248
712583
3310
CA : Avant, j'étais
complètement d'accord avec cela.
12:07
But I would like to actuallyréellement
pushpousser back on that for a minuteminute.
249
715917
3267
Mais j'aimerais prendre un instant
pour contre-argumenter.
12:11
Just because, first of all,
250
719208
1310
Tout d'abord,
12:12
if you look at the historyhistoire
of the last couplecouple of decadesdécennies,
251
720542
2684
si vous considérez l'histoire
des dernières décennies,
12:15
you know, it's always been
pushpousser forwardvers l'avant at fullplein speedla vitesse,
252
723250
3559
il y a toujours eu une évolution
vers l'avant à pleine vitesse,
12:18
it's OK, that's our only choicechoix.
253
726833
1851
ça va, c'est notre seul choix.
12:20
But if you look at globalizationmondialisation
and the rapidrapide accelerationaccélération of that,
254
728708
4268
Mais si vous considérez la mondialisation
et son accélération rapide,
12:25
if you look at the strategystratégie of
"movebouge toi fastvite and breakPause things"
255
733000
3434
si vous considérez la stratégie
d' « avancer vite et casser des trucs »
12:28
and what happenedarrivé with that,
256
736458
2060
et ce qui est arrivé,
12:30
and then you look at the potentialpotentiel
for syntheticsynthétique biologyla biologie,
257
738542
2767
puis que vous considérez le potentiel
de la biologie synthétique,
12:33
I don't know that we should
movebouge toi forwardvers l'avant rapidlyrapidement
258
741333
4435
je ne sais pas si nous devrions
avancer rapidement
12:37
or withoutsans pour autant any kindgentil of restrictionrestriction
259
745792
1642
ou sans aucune restriction
12:39
to a worldmonde where you could have
a DNAADN printerimprimante in everychaque home
260
747458
3310
vers un monde où vous pourriez avoir
une imprimante d'ADN à la maison
12:42
and highhaute schoolécole lablaboratoire.
261
750792
1333
et dans les lycées.
12:45
There are some restrictionsrestrictions, right?
262
753167
1684
Il y a des restrictions, non ?
12:46
NBNb: PossiblyPeut-être, there is
the first partpartie, the not feasibleréalisable.
263
754875
2643
NB : Il y a la première partie :
l'infaisabilité.
12:49
If you think it would be
desirablesouhaitable to stop it,
264
757542
2184
Si vous pensez qu'il serait
désirable d'arrêter,
12:51
there's the problemproblème of feasibilityfaisabilité.
265
759750
1726
il y a le problème de faisabilité.
12:53
So it doesn't really help
if one nationnation kindgentil of --
266
761500
2809
Cela n'aide pas vraiment si une nation --
12:56
CACA: No, it doesn't help
if one nationnation does,
267
764333
2018
CA : Cela n'aide pas si une nation arrête,
12:58
but we'venous avons had treatiestraités before.
268
766375
2934
mais nous avons eu des traités auparavant.
13:01
That's really how we survivedsurvécu
the nuclearnucléaire threatmenace,
269
769333
3351
C'est ainsi que nous avons survécu
à la menace nucléaire,
13:04
was by going out there
270
772708
1268
c'est en en passant par le processus
douloureux des négociations.
13:06
and going throughpar
the painfuldouloureux processprocessus of negotiatingnégocier.
271
774000
2518
13:08
I just wondermerveille whetherqu'il s'agisse the logiclogique isn't
that we, as a mattermatière of globalglobal prioritypriorité,
272
776542
5434
Je me demande si la logique n'est pas
que nous, en termes de priorité mondiale,
13:14
we shouldn'tne devrait pas go out there and try,
273
782000
1684
nous ne devrions pas essayer,
13:15
like, now startdébut negotiatingnégocier
really strictstrict rulesrègles
274
783708
2685
commencer à négocier maintenant
des règles très strictes
13:18
on where syntheticsynthétique bioresearchBioresearch is doneterminé,
275
786417
2684
sur les lieux de conduite
de recherches biologiques.
13:21
that it's not something
that you want to democratizedémocratiser, no?
276
789125
2851
Ce n'est pas une chose
que vous voulez démocratiser, si ?
13:24
NBNb: I totallytotalement agreese mettre d'accord with that --
277
792000
1809
NB : Je suis complètement d'accord --
13:25
that it would be desirablesouhaitable, for exampleExemple,
278
793833
4226
il serait désirable, par exemple,
13:30
maybe to have DNAADN synthesisla synthèse machinesmachines,
279
798083
3601
d'avoir des machines de synthèse d'ADN,
13:33
not as a productproduit where eachchaque lablaboratoire
has theirleur ownposséder devicedispositif,
280
801708
3560
pas en tant que produit pour lequel
chaque labo a son appareil,
13:37
but maybe as a serviceun service.
281
805292
1476
mais en tant que service.
13:38
Maybe there could be
fourquatre or fivecinq placesdes endroits in the worldmonde
282
806792
2517
Il pourrait y avoir
quatre ou cinq endroits au monde
13:41
where you sendenvoyer in your digitalnumérique blueprintplan d’action
and the DNAADN comesvient back, right?
283
809333
3518
où vous pourriez envoyer
un modèle numérique
et l'ADN arriverait à vous.
13:44
And then, you would have the abilitycapacité,
284
812875
1768
Vous auriez la capacité,
13:46
if one day it really lookedregardé
like it was necessarynécessaire,
285
814667
2392
si un jour cela semblait
vraiment nécessaire,
13:49
we would have like,
a finitefini setensemble of chokeStarter pointspoints.
286
817083
2351
il y aurait un ensemble fini
de goulots d'étranglement.
13:51
So I think you want to look
for kindgentil of specialspécial opportunitiesopportunités,
287
819458
3518
Je pense que vous voulez considérer
des opportunités particulières
13:55
where you could have tighterplus serré controlcontrôle.
288
823000
2059
où vous pourriez avoir
un contrôle plus strict.
13:57
CACA: Your beliefcroyance is, fundamentallyfondamentalement,
289
825083
1643
CA : Vous croyez, au fond,
13:58
we are not going to be successfulréussi
in just holdingen portant back.
290
826750
2893
que nous ne réussirons pas
à contenir les choses.
14:01
SomeoneQuelqu'un, somewherequelque part --
NorthNord KoreaCorée, you know --
291
829667
2726
Quelqu'un, quelque part --
en Corée du Nord --
14:04
someoneQuelqu'un is going to go there
and discoverdécouvrir this knowledgeconnaissance,
292
832417
3517
quelqu'un va y arriver
et découvrir ce savoir,
14:07
if it's there to be founda trouvé.
293
835958
1268
s'il est à découvrir.
NB : C'est plausible
dans les conditions actuelles.
14:09
NBNb: That looksregards plausibleplausible
underen dessous de currentactuel conditionsconditions.
294
837250
2351
14:11
It's not just syntheticsynthétique biologyla biologie, eithernon plus.
295
839625
1934
Ce n'est pas que la biologie synthétique.
14:13
I mean, any kindgentil of profoundprofond,
newNouveau changechangement in the worldmonde
296
841583
2518
N'importe quel genre
de changement profond et nouveau
14:16
could turntour out to be a blacknoir ballballon.
297
844101
1626
pourrait être une boule noire.
14:17
CACA: Let's look at
anotherun autre possiblepossible responseréponse.
298
845727
2096
CA : Considérons
une autre réponse possible.
14:19
NBNb: This alsoaussi, I think,
has only limitedlimité potentialpotentiel.
299
847823
2403
NB : Ceci, à mon avis,
a un potentiel limité.
14:22
So, with the Type-Type-1 vulnerabilityvulnérabilité again,
300
850250
3559
Avec la vulnérabilité de type 1,
14:25
I mean, if you could reduceréduire the numbernombre
of people who are incentivizedincités
301
853833
4351
si vous pouvez réduire le nombre
de personnes qui sont motivées
14:30
to destroydétruire the worldmonde,
302
858208
1268
à détruire le monde,
si elles seules avaient
l'accès et les moyens,
14:31
if only they could get
accessaccès and the meansveux dire,
303
859500
2059
14:33
that would be good.
304
861583
1268
ce serait bien.
14:34
CACA: In this imageimage that you askeda demandé us to do
305
862875
1976
CA : Dans cette image,
14:36
you're imaginingimaginant these dronesdrones
flyingen volant around the worldmonde
306
864875
2559
vous imaginez ces drones
volant à travers le monde
avec une reconnaissance faciale.
14:39
with facialsoin du visage recognitionreconnaissance.
307
867458
1268
14:40
When they spotplace someoneQuelqu'un
showingmontrer signssignes of sociopathicSociopathe behaviorcomportement,
308
868750
2893
Quand ils repèrent quelqu'un
présentant un comportement sociopathe,
14:43
they showerdouche them with love, they fixréparer them.
309
871667
2184
ils le couvrent d'amour, le rétablissent.
14:45
NBNb: I think it's like a hybridhybride picturephoto.
310
873875
1893
NB : C'est une image hybride.
14:47
Eliminateéliminer can eithernon plus mean,
like, incarcerateincarcérer or killtuer,
311
875792
4017
Éliminer peut signifier
soit incarcérer ou tuer,
14:51
or it can mean persuadepersuader them
to a better viewvue of the worldmonde.
312
879833
3018
soit les persuader d'avoir
une meilleure vision du monde.
14:54
But the pointpoint is that,
313
882875
1726
Le principe, c'est :
14:56
supposesupposer you were
extremelyextrêmement successfulréussi in this,
314
884625
2143
imaginez être extrêmement performant
14:58
and you reducedréduit the numbernombre
of suchtel individualspersonnes by halfmoitié.
315
886792
3309
et réduire le nombre
de tels individus de moitié.
15:02
And if you want to do it by persuasionpersuasion,
316
890125
1893
Si vous voulez le faire via la persuasion,
15:04
you are competingen compétition againstcontre
all other powerfulpuissant forcesles forces
317
892042
2392
vous rivalisez contre
toutes les grandes forces
qui essayent de persuader les gens,
15:06
that are tryingen essayant to persuadepersuader people,
318
894458
1685
les partis, la religion,
le système éducatif.
15:08
partiesdes soirées, religionreligion, educationéducation systemsystème.
319
896167
1767
15:09
But supposesupposer you could reduceréduire it by halfmoitié,
320
897958
1905
Supposez pouvoir le réduire de moitié,
15:11
I don't think the riskrisque
would be reducedréduit by halfmoitié.
321
899887
2256
le risque ne serait pas réduit de moitié.
15:14
Maybe by fivecinq or 10 percentpour cent.
322
902167
1559
Peut-être de 5% ou 10%.
15:15
CACA: You're not recommendingrecommander that we gamblepari
humanity'sl'humanité futureavenir on responseréponse two.
323
903750
4351
CA : Vous ne recommandez pas
que l'on parie l'avenir de l'humanité
sur la seconde réponse.
15:20
NBNb: I think it's all good
to try to deterdissuader les and persuadepersuader people,
324
908125
3018
NB : C'est bien d'essayer
de dissuader et persuader les gens,
15:23
but we shouldn'tne devrait pas relycompter on that
as our only safeguardsauvegarde.
325
911167
2976
mais pas miser dessus
comme seul dispositif de sécurité.
15:26
CACA: How about threeTrois?
326
914167
1267
CA : Et la troisième réponse ?
15:27
NBNb: I think there are two generalgénéral methodsméthodes
327
915458
2893
NB : Il y a deux méthodes générales
15:30
that we could use to achieveatteindre
the abilitycapacité to stabilizestabiliser the worldmonde
328
918375
3976
que nous pourrions utiliser pour parvenir
à la capacité de stabiliser le monde
15:34
againstcontre the wholeentier spectrumspectre
of possiblepossible vulnerabilitiesvulnérabilités.
329
922375
2976
face à l'éventail complet
des vulnérabilités possibles.
15:37
And we probablyProbablement would need bothtous les deux.
330
925375
1559
Nous aurions besoin des deux.
15:38
So, one is an extremelyextrêmement effectiveefficace abilitycapacité
331
926958
4518
Une est une capacité optimale
15:43
to do preventivepréventif policingmaintien de l’ordre.
332
931500
1768
de prévention policière.
15:45
SuchCes that you could interceptordonnée à l’origine.
333
933292
1524
Afin de pouvoir intercepter.
15:46
If anybodyn'importe qui startedcommencé to do
this dangerousdangereux thing,
334
934840
2761
Si quiconque entamait
cette chose dangereuse,
15:49
you could interceptordonnée à l’origine them
in realréal time, and stop them.
335
937625
2684
vous pourriez l'intercepter
en temps réel et l'arrêter.
15:52
So this would requireexiger
ubiquitousomniprésent surveillancesurveillance,
336
940333
2476
Cela nécessiterait
une surveillance omniprésente,
15:54
everybodyTout le monde would be monitoredsurveillés all the time.
337
942833
2375
tout le monde serait
constamment surveillé.
15:58
CACA: This is "MinorityMinorité ReportRapport,"
essentiallyessentiellement, a formforme of.
338
946333
2560
CA : C'est en gros
une forme de « Minority Report ».
16:00
NBNb: You would have maybe AIAI algorithmsalgorithmes,
339
948917
1934
NB : Vous auriez des algorithmes d'IA,
16:02
biggros freedomliberté centerscentres
that were reviewingrévision this, etcetc., etcetc.
340
950875
4417
de gros centres de liberté
qui examineraient cela, et ainsi de suite.
16:08
CACA: You know that massMasse surveillancesurveillance
is not a very popularpopulaire termterme right now?
341
956583
4393
CA : La surveillance de masse
n'est pas très populaire en ce moment.
16:13
(LaughterRires)
342
961000
1250
(Rires)
16:15
NBNb: Yeah, so this little devicedispositif there,
343
963458
1810
NB : Ce petit dispositif,
16:17
imagineimaginer that kindgentil of necklacecollier
that you would have to wearporter at all timesfois
344
965292
3601
imaginez ce genre de collier
que vous devriez porter tout le temps,
16:20
with multidirectionalMultidirectionnel camerasappareils photo.
345
968917
2000
avec des caméras multidirectionnelles.
16:23
But, to make it go down better,
346
971792
1809
Mais pour que cela passe mieux,
16:25
just call it the "freedomliberté tagbalise"
or something like that.
347
973625
2524
appelez-le la « balise
de la liberté » ou autre.
16:28
(LaughterRires)
348
976173
2011
(Rires)
16:30
CACA: OK.
349
978208
1268
CA : D'accord.
16:31
I mean, this is the conversationconversation, friendscopains,
350
979500
2101
C'est la conversation --
16:33
this is why this is
suchtel a mind-blowingépoustouflant conversationconversation.
351
981625
3559
c'est pour cela que c'est
une conversation si époustouflante.
16:37
NBNb: ActuallyEn fait, there's
a wholeentier biggros conversationconversation on this
352
985208
2601
NB : Il y a toute une conversation
à ce sujet-là en particulier.
16:39
on its ownposséder, obviouslyévidemment.
353
987833
1310
16:41
There are hugeénorme problemsproblèmes and risksrisques
with that, right?
354
989167
2476
Il y a de gros problèmes
et risques avec cela.
16:43
We maymai come back to that.
355
991667
1267
Nous y reviendrons peut-être.
16:44
So the other, the finalfinal,
356
992958
1268
L'autre, la dernière,
16:46
the other generalgénéral stabilizationstabilisation capabilityaptitude
357
994250
2559
l'autre capacité de stabilisation générale
comble un autre vide dans la gouvernance.
16:48
is kindgentil of pluggingbrancher
anotherun autre governancegouvernance gapécart.
358
996833
2060
16:50
So the surveillancesurveillance would be kindgentil of
governancegouvernance gapécart at the microlevelmicroniveau,
359
998917
4184
La surveillance comblerait pour un vide
dans la gouvernance à un niveau micro :
16:55
like, preventingprévenir anybodyn'importe qui
from ever doing something highlytrès illegalillégal.
360
1003125
3101
empêcher quiconque de faire
quoi que ce soit de hautement illégal.
16:58
Then, there's a correspondingcorrespondant
governancegouvernance gapécart
361
1006250
2309
Il y un vide équivalent
dans la gouvernance
17:00
at the macromacro levelniveau, at the globalglobal levelniveau.
362
1008583
1935
au niveau macro, au niveau mondial.
17:02
You would need the abilitycapacité, reliablyfiable,
363
1010542
3934
Il vous faudrait la capacité fiable
17:06
to preventprévenir the worstpire kindssortes
of globalglobal coordinationcoordination failuresles échecs,
364
1014500
2809
d'empêcher les pires types
d'échecs de coordination mondiale,
17:09
to avoidéviter warsguerres betweenentre great powerspouvoirs,
365
1017333
3768
d'éviter les guerres
entre les grandes puissances,
17:13
armsbras racescourses,
366
1021125
1333
les courses à l'armement,
17:15
cataclysmiccataclysmique commonsChambre des communes problemsproblèmes,
367
1023500
2208
les problèmes communs cataclysmiques,
17:19
in ordercommande to dealtraiter with
the Type-Type-2a vulnerabilitiesvulnérabilités.
368
1027667
4184
afin de faire face
aux vulnérabilités de type 2a.
17:23
CACA: GlobalGlobal governancegouvernance is a termterme
369
1031875
1934
CA : La gouvernance mondiale est un terme
17:25
that's definitelyabsolument way out
of fashionmode right now,
370
1033833
2226
qui n'est plus du tout
à la mode actuellement,
17:28
but could you make the caseCas
that throughouttout au long de historyhistoire,
371
1036083
2518
mais vous pourriez avancer
qu'au cours de l'histoire,
de l'histoire de l'humanité,
17:30
the historyhistoire of humanityhumanité
372
1038625
1268
17:31
is that at everychaque stageétape
of technologicaltechnologique powerPuissance increaseaugmenter,
373
1039917
5434
à chaque moment de montée
du pouvoir technologique,
17:37
people have reorganizedréorganisé
and sortTrier of centralizedcentralisé the powerPuissance.
374
1045375
3226
les gens se sont réorganisés
et ont centralisé le pouvoir.
17:40
So, for exampleExemple,
when a rovingRoving bandB: et of criminalscriminels
375
1048625
3434
Par exemple, quand un groupe
de criminels itinérants
17:44
could take over a societysociété,
376
1052083
1685
pouvait prendre le contrôle d'une société,
17:45
the responseréponse was,
well, you have a nation-stateÉtat-nation
377
1053792
2239
la réponse a été d'avoir un État-nation
17:48
and you centralizeCentraliser forceObliger,
a policepolice forceObliger or an armyarmée,
378
1056055
2434
et une force centralisée,
policière ou militaire,
17:50
so, "No, you can't do that."
379
1058513
1630
pour que ce ne soit pas possible.
17:52
The logiclogique, perhapspeut être, of havingayant
a singleunique personla personne or a singleunique groupgroupe
380
1060167
4559
La logique d'avoir une seule personne
ou un seul groupe
17:56
ablecapable to take out humanityhumanité
381
1064750
1643
capable d'éradiquer l'humanité
17:58
meansveux dire at some pointpoint
we're going to have to go this routeroute,
382
1066417
2726
signifie qu'à un moment,
nous devrons emprunter ce chemin,
18:01
at leastmoins in some formforme, no?
383
1069167
1434
sous une certaine forme, non ?
18:02
NBNb: It's certainlycertainement truevrai that the scaleéchelle
of politicalpolitique organizationorganisation has increasedaugmenté
384
1070625
3684
NB : Il est vrai que l'échelle
de l'organisation politique a augmenté
18:06
over the coursecours of humanHumain historyhistoire.
385
1074333
2143
au cours de l'histoire humaine.
18:08
It used to be hunter-gathererchasseur-cueilleur bandB: et, right,
386
1076500
2018
C'était un groupe de chasseurs-cueilleurs,
18:10
and then chiefdomchefferie, city-statescités-États, nationsnations,
387
1078542
2934
puis des chefferies,
des cité-États, des nations,
18:13
now there are internationalinternational organizationsorganisations
and so on and so forthavant.
388
1081500
3976
maintenant il y a des organisations
internationales et ainsi de suite.
18:17
Again, I just want to make sure
389
1085500
1518
Je veux juste m'assurer
18:19
I get the chancechance to stressstress
390
1087042
1642
d'avoir l'opportunité d'insister
qu'il y a évidemment
d'énormes inconvénients
18:20
that obviouslyévidemment there are hugeénorme downsidesinconvénients
391
1088708
1976
18:22
and indeedeffectivement, massivemassif risksrisques,
392
1090708
1518
et d'énormes risques
18:24
bothtous les deux to massMasse surveillancesurveillance
and to globalglobal governancegouvernance.
393
1092250
3351
dans la surveillance de masse
et la gouvernance mondiale.
18:27
I'm just pointingpointant out
that if we are luckychanceux,
394
1095625
2559
Je vais faire remarquer
que si nous sommes chanceux,
le monde pourrait être tel
que ce seraient les seules façons
18:30
the worldmonde could be suchtel
that these would be the only waysfaçons
395
1098208
2685
18:32
you could survivesurvivre a blacknoir ballballon.
396
1100917
1517
de survivre à une boule noire.
18:34
CACA: The logiclogique of this theorythéorie,
397
1102458
2518
CA : La logique de cette théorie,
18:37
it seemssemble to me,
398
1105000
1268
me semble-t-il,
18:38
is that we'venous avons got to recognizereconnaître
we can't have it all.
399
1106292
3601
c'est que nous devons reconnaître
que nous ne pouvons pas tout avoir.
18:41
That the sortTrier of,
400
1109917
1833
C'est le genre
18:45
I would say, naivenaïf dreamrêver
that manybeaucoup of us had
401
1113500
2976
de rêve naïf, si je puis dire,
que nombre d'entre nous avaient
18:48
that technologyLa technologie is always
going to be a forceObliger for good,
402
1116500
3351
que la technologie sera toujours
une force du bien,
18:51
keep going, don't stop,
go as fastvite as you can
403
1119875
2976
qu'il ne faut ne pas s'arrêter,
aller aussi vite que possible
18:54
and not payPayer attentionattention
to some of the consequencesconséquences,
404
1122875
2351
et ne pas prêter attention
à certaines conséquences,
18:57
that's actuallyréellement just not an optionoption.
405
1125250
1684
ce n'est même pas une option.
18:58
We can have that.
406
1126958
1935
Nous pouvons le faire.
19:00
If we have that,
407
1128917
1267
Si nous le faisons,
19:02
we're going to have to acceptAcceptez
408
1130208
1435
il faudra accepter
19:03
some of these other
very uncomfortableinconfortable things with it,
409
1131667
2559
certaines choses très désagréables
et faire la course à l'armement
avec nous-mêmes :
19:06
and kindgentil of be in this
armsbras racecourse with ourselvesnous-mêmes
410
1134250
2226
19:08
of, you want the powerPuissance,
you better limitlimite it,
411
1136500
2268
si vous voulez le pouvoir,
vous devriez le confiner,
19:10
you better figurefigure out how to limitlimite it.
412
1138792
2142
vous devriez trouver comment le confiner.
19:12
NBNb: I think it is an optionoption,
413
1140958
3476
NB : Je pense que c'est une option,
19:16
a very temptingTempting optionoption,
it's in a sensesens the easiestplus facile optionoption
414
1144458
2768
une option très tentante,
dans un sens la plus simple
19:19
and it mightpourrait work,
415
1147250
1268
et cela pourrait fonctionner,
19:20
but it meansveux dire we are fundamentallyfondamentalement
vulnerablevulnérable to extractingextraction de a blacknoir ballballon.
416
1148542
4809
mais nous sommes alors vulnérables
à l'extraction d'une boule noire.
19:25
Now, I think with a bitbit of coordinationcoordination,
417
1153375
2143
Avec un peu de coordination --
19:27
like, if you did solverésoudre this
macrogovernancemacrogouvernance problemproblème,
418
1155542
2726
en résolvant ce problème
de macro gouvernance
et celui de micro gouvernance --
19:30
and the microgovernancemicrogouvernance problemproblème,
419
1158292
1601
19:31
then we could extractextrait
all the ballsdes balles from the urnUrne
420
1159917
2309
nous pourrions extraire
toutes les boules de l'urne
19:34
and we'dmer benefitavantage greatlytrès.
421
1162250
2268
et nous en bénéficierons grandement.
19:36
CACA: I mean, if we're livingvivant
in a simulationsimulation, does it mattermatière?
422
1164542
3434
CA : Si nous vivons dans une simulation,
cela importe-t-il ?
19:40
We just rebootremise à zéro.
423
1168000
1309
Nous recommençons.
19:41
(LaughterRires)
424
1169333
1268
(Rires)
19:42
NBNb: Then ... I ...
425
1170625
1643
NB : Alors... je...
19:44
(LaughterRires)
426
1172292
2476
(Rires)
19:46
I didn't see that one comingvenir.
427
1174792
1416
Je ne l'ai pas vu arriver.
19:50
CACA: So what's your viewvue?
428
1178125
1268
CA : Quelle est votre opinion ?
19:51
PuttingMettre all the piecesdes morceaux togetherensemble,
how likelyprobable is it that we're doomedcondamné?
429
1179417
4809
En rassemblant toutes les pièces,
quelle est notre probabilité
d'être condamnés ?
19:56
(LaughterRires)
430
1184250
1958
(Rires)
19:59
I love how people laughrire
when you askdemander that questionquestion.
431
1187042
2392
J'adore comment les gens rient
à cette question.
20:01
NBNb: On an individualindividuel levelniveau,
432
1189458
1351
NB : A un niveau individuel,
20:02
we seemsembler to kindgentil of be doomedcondamné anywayen tous cas,
just with the time lineligne,
433
1190833
3851
nous semblons condamnés,
juste d'un point de vue de l'échéance,
20:06
we're rottingpourriture and agingvieillissement
and all kindssortes of things, right?
434
1194708
2601
nous nous décomposons et vieillissons.
20:09
(LaughterRires)
435
1197333
1601
(Rires)
20:10
It's actuallyréellement a little bitbit trickyrusé.
436
1198958
1685
C'est délicat.
20:12
If you want to setensemble up
so that you can attachattacher a probabilityprobabilité,
437
1200667
2767
Si vous voulez y attacher une probabilité,
20:15
first, who are we?
438
1203458
1268
tout d'abord, qui sommes-nous ?
20:16
If you're very oldvieux,
probablyProbablement you'lltu vas diemourir of naturalNaturel causescauses,
439
1204750
2726
Si vous êtes vieux,
vous mourrez de causes naturelles.
20:19
if you're very youngJeune,
you mightpourrait have a 100-year-an --
440
1207500
2351
Si vous êtes jeune,
vous avez 100 ans peut-être,
20:21
the probabilityprobabilité mightpourrait dependdépendre
on who you askdemander.
441
1209875
2143
selon à qui vous demandez.
20:24
Then the thresholdseuil, like, what countscompte
as civilizationalentre les civilisations devastationdévastation?
442
1212042
4226
Le seuil : qu'est-ce qui compte
comme un dévaste civilisationnel ?
20:28
In the paperpapier I don't requireexiger
an existentialexistentiel catastrophecatastrophe
443
1216292
5642
Dans l'article, je n'ai pas besoin
d'une catastrophe civilisationnelle
20:33
in ordercommande for it to countcompter.
444
1221958
1435
pour que cela compte.
20:35
This is just a definitionalpour la définition mattermatière,
445
1223417
1684
C'est une question de définition.
20:37
I say a billionmilliard deadmort,
446
1225125
1309
Je dis un milliard de morts
20:38
or a reductionréduction of worldmonde GDPPIB by 50 percentpour cent,
447
1226458
2060
ou une diminution du PIB mondial de 50%,
20:40
but dependingen fonction, dépendemment on what
you say the thresholdseuil is,
448
1228542
2226
mais selon le seuil que vous donnez,
20:42
you get a differentdifférent probabilityprobabilité estimateestimation.
449
1230792
1976
vous aurez une probabilité différente.
20:44
But I guessdeviner you could
put me down as a frightenedeffrayé optimistoptimiste.
450
1232792
4517
Vous pourriez dire que je suis
un optimiste effrayé.
20:49
(LaughterRires)
451
1237333
1101
(Rires)
20:50
CACA: You're a frightenedeffrayé optimistoptimiste,
452
1238458
1643
CA : Vous êtes un optimiste effrayé
20:52
and I think you've just createdcréé
a largegrand numbernombre of other frightenedeffrayé ...
453
1240125
4268
et vous venez de créer un grand nombre
d'autres personnes effrayées.
20:56
people.
454
1244417
1267
20:57
(LaughterRires)
455
1245708
1060
(Rires)
20:58
NBNb: In the simulationsimulation.
456
1246792
1267
NB : Dans la simulation.
21:00
CACA: In a simulationsimulation.
457
1248083
1268
CA : Dans une simulation.
21:01
NickNick BostromBostrom, your mindesprit amazesétonne me,
458
1249375
1684
Nick Bostrom, votre esprit m'épate.
21:03
thank you so much for scaringeffarouchement
the livingvivant daylightsDaylights out of us.
459
1251083
2893
Merci beaucoup de nous avoir effrayés.
21:06
(ApplauseApplaudissements)
460
1254000
2375
(Applaudissements)
Translated by Morgane Quilfen
Reviewed by Claire Ghyselen

▲Back to top

ABOUT THE SPEAKERS
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com