ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Mis juhtub, kui arvutid saavad targemaks kui me ise?

Filmed:
4,632,705 views

Tehisintellekti areng on olnud hüppeliselt võimas ning teadlased väidavad, et juba sellel sajandil võib tehisintellekt saada sama "targaks" kui inimene. Ja siis, väidab Nick Bostrom, võtab tehisintellekt asjad üle: "Tehisintellekt on viimane leiutis, mille inimene peab ise looma." Bostrom, kes on filosoofi ja tehnoloogiaekspert palub meil mõelda sügavalt järele selle uue maailma üle, mida me parajasti loome ja mida hakkavad juhtima mõtlevad masinad. Kas targad masinad soodustavad inimkonna ja meie väärtuste püsimist või saavad neil olema omaenda väärtused?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchkamp of mathematiciansmatemaatikud,
philosophersfilosoofid and computerarvuti scientiststeadlased,
0
570
4207
Ma töötan mitmete matemaatikute,
filosoofide ja arvutiteadlastega,
00:16
and we sitistuda around and think about
the futuretulevik of machinemasin intelligenceintelligentsus,
1
4777
5209
istume nendega ja mõtiskleme,
muuhulgas ka tehisintellekti tuleviku üle.
00:21
amongseas other things.
2
9986
2044
00:24
Some people think that some of these
things are sortsorteerima of scienceteadus fiction-yIlukirjandus-y,
3
12030
4725
Mõned arvavad, et need teemad
on suhteliselt ulmekad,
00:28
farkaugel out there, crazyhull.
4
16755
3101
kaugel reaalsusest ja hullumeelsed.
00:31
But I like to say,
5
19856
1470
Aga ütleksin pigem, et vaatame kõigepealt
00:33
okay, let's look at the modernkaasaegne
humaninimene conditionseisund.
6
21326
3604
milline on tänapäeva inimese olukord.
00:36
(LaughterNaer)
7
24930
1692
(Naer)
See ongi normaalne asjade seis.
00:38
This is the normalnormaalne way for things to be.
8
26622
2402
00:41
But if we think about it,
9
29024
2285
Kui aga järele mõelda,
00:43
we are actuallytegelikult recentlyhiljuti arrivedsaabunud
guestskülalised on this planetplaneet,
10
31309
3293
siis tegelikult oleme üsna hiljuti
siia planeedile saabunud külalised,
00:46
the humaninimene speciesliigid.
11
34602
2082
meie, inimesed.
00:48
Think about if EarthMaa
was createdloodud one yearaastas agotagasi,
12
36684
4746
Kui planeet Maa oleks loodud aasta tagasi.
00:53
the humaninimene speciesliigid, then,
would be 10 minutesminutit oldvana.
13
41430
3548
oleks inimene kõigest 10 minuti vanune.
00:56
The industrialtööstuslik eraajastu startedalgas
two secondssekundit agotagasi.
14
44978
3168
Industriaalajastu oleks alanud
2 sekundit tagasi.
01:01
AnotherTeise way to look at this is to think of
worldmaailm GDPSKP over the last 10,000 yearsaastaid,
15
49276
5225
Või mõelge näiteks maailmamajanduse
SKP-le viimase 10 000 aasta jooksul.
01:06
I've actuallytegelikult takenvõetud the troublehädas
to plotsüžee this for you in a graphgraafik.
16
54501
3029
Olen siin näinud vaeva
ja teinud teie jaoks graafiku,
01:09
It looksnäeb välja like this.
17
57530
1774
mis näeb välja selline.
01:11
(LaughterNaer)
18
59304
1363
(Naer)
01:12
It's a curiousuudishimulik shapekuju
for a normalnormaalne conditionseisund.
19
60667
2151
Kujult on see veidi imelik,
kuigi tegu on tavaolukorraga.
01:14
I sure wouldn'tei oleks want to sitistuda on it.
20
62818
1698
Sellele istuda küll ei tahaks.
01:16
(LaughterNaer)
21
64516
2551
(Naer)
01:19
Let's askküsi ourselvesiseennast, what is the causepõhjustada
of this currentpraegune anomalyanomaalia?
22
67067
4774
Küsigem aga endalt, mis on
praeguse anomaalia põhjuseks?
01:23
Some people would say it's technologytehnoloogia.
23
71841
2552
Mõnede arvates on see tehnoloogia.
01:26
Now it's truetõsi, technologytehnoloogia has accumulatedkogunenud
throughläbi humaninimene historyajalugu,
24
74393
4668
Tõepoolest, tehnoloogia on
inimajaloo vältel akumuleerunud,
01:31
and right now, technologytehnoloogia
advancesettemaksed extremelyäärmiselt rapidlykiiresti --
25
79061
4652
ja hetkel areneb tehnoloogia
erakordselt kiiresti.
01:35
that is the proximateHiljutised causepõhjustada,
26
83713
1565
See on ligikaudne põhjus,
01:37
that's why we are currentlypraegu
so very productiveproduktiivne.
27
85278
2565
mis seletab, miks oleme
praegu nii produktiivsed.
01:40
But I like to think back furtheredasi
to the ultimateparim causepõhjustada.
28
88473
3661
Tahan aga vaadata kaugemale,
et leida tegelik põhjus.
01:45
Look at these two highlyväga
distinguishederistatav gentlemenhärrased:
29
93114
3766
Vaadake neid kahte
silmapaistvat härrasmeest.
01:48
We have KanziKanzi --
30
96880
1600
Üks neist on Kanzi.
01:50
he's masteredõppinud 200 lexicalleksikaalse
tokensmärkide, an incredibleuskumatu featfeat.
31
98480
4643
Ta on õppinud selgeks 200 tähendusmärki,
mis on tema jaoks erakordne saavutus.
01:55
And EdEd WittenWitten unleashedvallandanud the secondteine
superstringsuperstring revolutionrevolutsioon.
32
103123
3694
Ed Witten aga käivitas
teise superstringirevolutsiooni.
01:58
If we look underalla the hoodkapuuts,
this is what we find:
33
106817
2324
Kui vaatame kapoti alla,
siis mida me näeme?
02:01
basicallypõhimõtteliselt the samesama thing.
34
109141
1570
Sisuliselt sama pilti.
02:02
One is a little largersuurem,
35
110711
1813
Üks on natuke suurem
02:04
it maybe alsoka has a fewvähe trickstrikid
in the exacttäpne way it's wiredühendatud.
36
112524
2758
ning ülesehituselt ehk veidi keerukam.
02:07
These invisiblenähtamatu differenceserinevused cannotei saa
be too complicatedkeeruline, howeverKuid,
37
115282
3812
Need nähtamatud erinevused ei saa
siiski olla kuigi olulised,
02:11
because there have only
been 250,000 generationspõlvkonnad
38
119094
4285
sest meie viimasest ühisest eellasest
eristab meid vaid 250 000 põlvkonda.
02:15
sincesest our last commontavaline ancestoresivanem.
39
123379
1732
02:17
We know that complicatedkeeruline mechanismsmehhanismid
take a long time to evolvearenema.
40
125111
3849
On teada, et keerukate mehhanismide
väljakujunemiseks läheb kaua aega.
02:22
So a bunchkamp of relativelysuhteliselt minoralaealine changesmuudatused
41
130000
2499
Vaid mõned suhteliselt väikesed muutused
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
on toonud meid Kanzist Wittenini,
02:27
from broken-offkatki-off treepuu branchesfiliaalid
to intercontinentalInterContinental ballisticballistiline missilesraketid.
43
135566
4543
murdunud puuokstest mandrite-
vaheliste ballistiliste rakettideni.
02:32
So this then seemstundub prettyilus obviousilmselge
that everything we'veme oleme achievedsaavutatud,
44
140839
3935
On üsna ilmne, et kõik,
mida oleme saavutanud
02:36
and everything we carehooli about,
45
144774
1378
ja mis on meile oluline,
02:38
dependssõltub cruciallykõige olulisem on some relativelysuhteliselt minoralaealine
changesmuudatused that madetehtud the humaninimene mindmeeles.
46
146152
5228
sõltub vaid mõnest suhteliselt väikesest
muutusest, mis kujundasid inimmõistuse.
02:44
And the corollarymittekodanike, of coursemuidugi,
is that any furtheredasi changesmuudatused
47
152650
3662
Oluline on mõista,
et mis tahes edasised muutused,
02:48
that could significantlymärkimisväärselt changemuutus
the substratesubstraat of thinkingmõtlesin
48
156312
3477
mis võivad avaldada olulist mõju
mõtlemise mehhanismidele,
02:51
could have potentiallypotentsiaalselt
enormoustohutu consequencestagajärjed.
49
159789
3202
võivad kaasa tuua väga tõsiseid tagajärgi.
02:56
Some of my colleagueskolleegid
think we're on the vergeäärel
50
164321
2905
Mul on kolleege, kelle arvates
oleme millegi lävel,
02:59
of something that could causepõhjustada
a profoundsügav changemuutus in that substratesubstraat,
51
167226
3908
mis võib põhjustada mõtlemise
mehhanismis radikaalseid muutusi,
03:03
and that is machinemasin superintelligencesuperintelligence.
52
171134
3213
ja see miski on tehislik superintellekt.
03:06
ArtificialKunstlik intelligenceintelligentsus used to be
about puttinglaskmine commandskäsud in a boxkasti.
53
174347
4739
Tehisintellekt tähendas varasemalt
käskude sisestamist kastikestesse,
03:11
You would have humaninimene programmersprogrammeerijad
54
179086
1665
sellega tegelesid programmeerijad,
03:12
that would painstakinglyhoolikalt
handcraftKäsitöö knowledgeteadmised itemsesemed.
55
180751
3135
kes lõid nn tarku lahendusi
peene käsitööna.
03:15
You buildehitama up these expertasjatundja systemssüsteemid,
56
183886
2086
Nii ehitati üles ekspertsüsteemid
03:17
and they were kindlaadi of usefulkasulik
for some purposeseesmärkidel,
57
185972
2324
ja neist oli kasu teatud ülesannete puhul,
03:20
but they were very brittlerabe,
you couldn'tei saanud scaleskaala them.
58
188296
2681
kuid nad olid väga haprad
ja vähepaindlikud.
03:22
BasicallyPõhimõtteliselt, you got out only
what you put in.
59
190977
3433
Väljundi kvaliteet olenes praktiliselt
ainult sisestatud infost.
03:26
But sincesest then,
60
194410
997
Nüüdseks aga on tehisintellekti vallas
toimunud paradigma nihe.
03:27
a paradigmparadigma shiftnihe has takenvõetud placekoht
in the fieldvaldkonnas of artificialkunstlik intelligenceintelligentsus.
61
195407
3467
03:30
TodayTäna, the actiontegevus is really
around machinemasin learningõppimine.
62
198874
2770
Täna keskendutakse hoopis
masinõppimise arendamisele.
03:34
So ratherpigem than handcraftingkäsitöö puhul knowledgeteadmised
representationsesindused and featuresOmadused,
63
202394
5387
Selle asemel, et valmistada andmeesitlust
ja tarvikuid käsitööna,
03:40
we createloo algorithmsalgoritmid that learnõppida,
oftensageli from rawtoores perceptualpertseptuaalne dataandmed.
64
208511
5554
luuakse algoritme, mis suudavad õppida,
ja seda ka töötlemata tajuandmetest.
03:46
BasicallyPõhimõtteliselt the samesama thing
that the humaninimene infantlaps does.
65
214065
4998
Sisuliselt sama asi, mida teeb imik.
03:51
The resulttulemus is A.I. that is not
limitedpiiratud to one domaindomeen --
66
219063
4207
Tulemuseks on tehisintellekt, mis pole
piiratud vaid ühe valdkonnaga:
03:55
the samesama systemsüsteem can learnõppida to translatetõlkida
betweenvahel any pairspaarid of languageskeeled,
67
223270
4631
sama süsteem võib õppida tõlkima
ükskõik milliste keelte vahel
03:59
or learnõppida to playmängima any computerarvuti gamemäng
on the AtariAtari consolekonsool.
68
227901
5437
või õppida Atari konsoolil mängima
mis tahes arvutimängu.
04:05
Now of coursemuidugi,
69
233338
1779
Loomulikult
04:07
A.I. is still nowherekusagil pole nearlähedal havingvõttes
the samesama powerfulvõimas, cross-domaindomeenide
70
235117
3999
ei ole tehisintellektil siiski kaugeltki
nii võimsat valdkondadeülest oskust
04:11
abilityvõime to learnõppida and planplaan
as a humaninimene beingolemine has.
71
239116
3219
õppida ja planeerida kui inimestel.
04:14
The cortexajukoor still has some
algorithmicalgorithmic trickstrikid
72
242335
2126
Ajukoores on endiselt mõningaid
algoritmilisi iseärasusi,
04:16
that we don't yetveel know
how to matchsobi in machinesmasinad.
73
244461
2355
mida pole suudetud
masinates jäljendada.
04:19
So the questionküsimus is,
74
247886
1899
Küsimus on seega,
kui kaugel veel oleme sellest
04:21
how farkaugel are we from beingolemine ablevõimeline
to matchsobi those trickstrikid?
75
249785
3500
et suudaksime neid iseärasusi jäljendada?
04:26
A couplepaar of yearsaastaid agotagasi,
76
254245
1083
Paar aastat tagasi
04:27
we did a surveyküsitlus of some of the world'smaailma
leadingjuhtiv A.I. expertseksperdid,
77
255328
2888
viisime läbi küsitluse juhtivate
tehisintellektiekspertide seas,
04:30
to see what they think,
and one of the questionsküsimused we askedküsisin was,
78
258216
3224
et teada saada, mida nad arvavad.
Üks küsimustest oli selline:
04:33
"By whichmis yearaastas do you think
there is a 50 percentprotsenti probabilitytõenäosus
79
261440
3353
"Mis aastaks on teie hinnangul
meil 50% tõenäosus,
04:36
that we will have achievedsaavutatud
human-levelinimese tasandi machinemasin intelligenceintelligentsus?"
80
264793
3482
et tehisintellekt on jõudnud
inimesega võrdsele tasemele?"
04:40
We definedmääratletud human-levelinimese tasandi here
as the abilityvõime to performtäita
81
268785
4183
Defineerimise inimesega võrdse taseme sellisena,
04:44
almostpeaaegu any jobtöökoht at leastvähemalt as well
as an adulttäiskasvanu humaninimene,
82
272968
2871
mis võimaldaks teha mis tahes tööd
sama hästi kui täiskasvanud inimene,
04:47
so realreaalne human-levelinimese tasandi, not just
withinjooksul some limitedpiiratud domaindomeen.
83
275839
4005
samuti nagu päris-inimene,
mitte vaid ühes kindlas valdkonnas.
04:51
And the medianmediaan answervastus was 2040 or 2050,
84
279844
3650
Keskmine vastus oli 2040. või 2050. aasta,
04:55
dependingsõltuvalt on preciselytäpselt whichmis
groupGrupp of expertseksperdid we askedküsisin.
85
283494
2806
sõltuvalt sellest, milliselt
ekspertide grupilt küsiti,
04:58
Now, it could happenjuhtuda much,
much laterhiljem, or soonervarem,
86
286300
4039
See võib juhtuda oluliselt
hiljem või varem,
05:02
the truthtõde is nobodykeegi ei really knowsteab.
87
290339
1940
õigupoolest ei oska keegi täpselt öelda.
05:05
What we do know is that the ultimateparim
limitpiirata to informationteave processingtöötlemine
88
293259
4412
Mida me teame, on see,
et masina andmetöötlusvõimekus
05:09
in a machinemasin substratesubstraat liesvale farkaugel outsideväljaspool
the limitspiirangud in biologicalbioloogiline tissuepabertaskurätik.
89
297671
4871
ületab kaugelt bioloogilise
võimekuse piirid.
05:15
This comestuleb down to physicsFüüsika.
90
303241
2378
Selle on seletatav füüsikaga.
05:17
A biologicalbioloogiline neuronneuron firestulekahjud, maybe,
at 200 hertzHertz, 200 timeskorda a secondteine.
91
305619
4718
Bioloogiline neuron töötab sagedusel
umbes 200 hertsi, st 200 tsüklit sekundis.
05:22
But even a present-daytänapäev transistortransistor
operatestöötab at the GigahertzGigahertsi.
92
310337
3594
Kuid tänapäevane transistorgi
opereerib juba gigahertsides.
05:25
NeuronsNeuronite propagatepropageerida slowlyaeglaselt in axonsaxons,
100 metersmeetrites perper secondteine, topstops.
93
313931
5297
Neuronid levivad närvikiu telgniitides
aeglaselt, max 100 meetrit sekundis
05:31
But in computersarvutid, signalssignaale can travelreisida
at the speedkiirus of lightvalgus.
94
319228
3111
Arvutites võivad signaalid
levida aga valguskiirusel.
05:35
There are alsoka sizesuurus limitationspiirangud,
95
323079
1869
On ka suuruse piirangud:
05:36
like a humaninimene brainaju has
to fitsobib insidesees a craniumkolju,
96
324948
3027
inimaju peab mahtuma ära kolju sisse,
05:39
but a computerarvuti can be the sizesuurus
of a warehouseladu or largersuurem.
97
327975
4761
arvuti võib olla aga laohoone
mõõtu või suuremgi.
05:44
So the potentialpotentsiaal for superintelligencesuperintelligence
liesvale dormantseisvate in matterasi,
98
332736
5599
Tehisintellekti potentsiaal
on praegu mateerias peidus,
05:50
much like the powervõimsus of the atomaatom
laypanema dormantseisvate throughoutkogu aeg humaninimene historyajalugu,
99
338335
5712
samamoodi nagu aatomi jõud oli
kogu inimkonna ajaloo vältel peidus,
05:56
patientlykannatlikult waitingootab there untilkuni 1945.
100
344047
4405
oodates kannatlikult kuni 1945. aastani.
06:00
In this centurysajandil,
101
348452
1248
Sellel sajandil
06:01
scientiststeadlased mayvõib learnõppida to awakenäratada
the powervõimsus of artificialkunstlik intelligenceintelligentsus.
102
349700
4118
võivad teadlased äratada
tehisintellekti jõu.
06:05
And I think we mightvõib-olla then see
an intelligenceintelligentsus explosionplahvatus.
103
353818
4008
Ja ma arvan, et siis saame näha
tõelist intellektiplahvatust.
06:10
Now mostkõige rohkem people, when they think
about what is smarttark and what is dumblollakas,
104
358406
3957
Enamik inimesi, mõeldes sellele,
kes on tark ja kes rumal,
06:14
I think have in mindmeeles a picturepilt
roughlyumbkaudu like this.
105
362363
3023
kujutlevad ilmselt midagi sellist:
06:17
So at one endlõpp we have the villageküla idiotidioot,
106
365386
2598
skaala ühes otsas on külaloll
06:19
and then farkaugel over at the other sidekülg
107
367984
2483
ja siis kaugel teises otsas
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverkes iganes your favoritelemmik guruguru is.
108
370467
4756
Ed Witten, Albert Einstein või
kes iganes teie lemmikguru on.
06:27
But I think that from the pointpunkt of viewvaade
of artificialkunstlik intelligenceintelligentsus,
109
375223
3834
Kuid ma arvan, et tehisintellekti
perspektiivist vaadatuna
06:31
the truetõsi picturepilt is actuallytegelikult
probablytõenäoliselt more like this:
110
379057
3681
on tegelik pilt pigem selline:
06:35
AIAI startsalgab out at this pointpunkt here,
at zeronull intelligenceintelligentsus,
111
383258
3378
tehisintellekt alustab null-punktist
06:38
and then, after manypalju, manypalju
yearsaastaid of really hardraske work,
112
386636
3011
ning pärast aastaid kestnud
väga tõsist tööd
06:41
maybe eventuallylõpuks we get to
mouse-levelhiir-tase artificialkunstlik intelligenceintelligentsus,
113
389647
3844
jõuab tehisintellekt lõpuks
hiirega võrreldavale tasemele,
06:45
something that can navigatenavigeerida
clutteredtäis environmentskeskkondades
114
393491
2430
suutes orienteeruda
keerukas keskkonnas
06:47
as well as a mousehiir can.
115
395921
1987
sama hästi nagu hiir.
06:49
And then, after manypalju, manypalju more yearsaastaid
of really hardraske work, lots of investmentinvesteeringud,
116
397908
4313
Siis kulub veel palju aastaid
tõsist tööd ja investeeringuid,
06:54
maybe eventuallylõpuks we get to
chimpanzee-levelšimpansi tasemel artificialkunstlik intelligenceintelligentsus.
117
402221
4639
et tehisintellekt võiks jõuda
samale tasemele šimpansiga.
06:58
And then, after even more yearsaastaid
of really, really hardraske work,
118
406860
3210
Seejärel kulub veelgi rohkem aastaid
tõeliselt rasket tööd,
07:02
we get to villageküla idiotidioot
artificialkunstlik intelligenceintelligentsus.
119
410070
2913
et saavutada külalolli
tasemel tehisintellekt.
07:04
And a fewvähe momentshetked laterhiljem,
we are beyondkaugemale EdEd WittenWitten.
120
412983
3272
Aga sealt vaid hetke pärast oleme
juba Ed Wittenist möödas,
07:08
The trainrongi doesn't stop
at HumanvilleHumanville StationStation.
121
416255
2970
kuid inimkond ei olegi lõpp-peatus.
07:11
It's likelytõenäoliselt, ratherpigem, to swooshSwoosH right by.
122
419225
3022
Tõenäoliselt vuhiseb
ta sealt kiirelt mööda.
07:14
Now this has profoundsügav implicationsmõjud,
123
422247
1984
Potentsiaalsed tagajärjed on tõsised,
07:16
particularlyeriti when it comestuleb
to questionsküsimused of powervõimsus.
124
424231
3862
eriti mis puudutab võimu ja kontrolli.
07:20
For examplenäide, chimpanzeesšimpansid are strongtugev --
125
428093
1899
Šimpansid on näiteks väga tugevad,
07:21
poundnael for poundnael, a chimpanzeešimpans is about
twicekaks korda as strongtugev as a fitsobib humaninimene malemeessoost.
126
429992
5222
umbes kaks korda tugevamad kui inimesed.
07:27
And yetveel, the fatesaatus of KanziKanzi
and his palspals dependssõltub a lot more
127
435214
4614
Ometi oleneb Kanzi ja ta sõprade
saatus palju rohkem inimeste,
07:31
on what we humansinimesed do than on
what the chimpanzeesšimpansid do themselvesise.
128
439828
4140
kui nende endi tegevusest.
Kui superintellekt on kord juba loodud,
07:37
OnceÜks kord there is superintelligencesuperintelligence,
129
445228
2314
07:39
the fatesaatus of humanityinimkond mayvõib dependsõltuvad
on what the superintelligencesuperintelligence does.
130
447542
3839
võib inimkonna saatus hakata sõltuma
sellest, mida see superintellekt teeb.
07:44
Think about it:
131
452451
1057
Mõelgem sellele:
07:45
MachineMasin intelligenceintelligentsus is the last inventionleiutis
that humanityinimkond will ever need to make.
132
453508
5044
tehisintellekt on leiutiste seas viimane,
mille inimkond peab ise looma.
07:50
MachinesMasinad will then be better
at inventingleiutamine than we are,
133
458552
2973
Peale seda on masinad leiutamises
osavamad kui me ise
07:53
and they'llnad saavad be doing so
on digitaldigitaalne timescalesajakava.
134
461525
2540
ja seda digitaalsetel ajaskaaladel.
07:56
What this meanstähendab is basicallypõhimõtteliselt
a telescopingteleskoopsilindrit of the futuretulevik.
135
464065
4901
See tähendab sisuliselt
tulevikku hüppamist.
08:00
Think of all the crazyhull technologiestehnoloogiad
that you could have imaginedette kujutada
136
468966
3558
Mõelge kõikvõimalikele pöörastele
tehnoloogiatele, mida olete ettekujutanud,
08:04
maybe humansinimesed could have developedarenenud
in the fullnesstäius of time:
137
472524
2798
ja milleni inimesed oleksid
võib-olla kunagi ka jõudnud:
08:07
curesravib for agingvananemine, spaceruumi colonizationkolonisatsioon,
138
475322
3258
vananemise peatamine,
kosmose koloniseerimine,
08:10
self-replicatingisepakendav nanobotsnanobots or uploadinguploading
of mindsmeeled into computersarvutid,
139
478580
3731
isepaljunevad nanorobotid või
inimteadvuse üleslaadimine arvutitesse,
08:14
all kindsliiki of scienceteadus fiction-yIlukirjandus-y stuffasjad
140
482311
2159
kõikvõimalikud ulmelised asjad,
08:16
that's neverthelesssiiski consistentjärjepidev
with the lawsseadused of physicsFüüsika.
141
484470
2737
mis on ometi kooskõlas füüsikaseadustega.
08:19
All of this superintelligencesuperintelligence could
developarenema, and possiblytõenäoliselt quiteüsna rapidlykiiresti.
142
487207
4212
Kõike seda suudaks superintellekt
välja mõelda ja ilmselt üsna kiirelt.
08:24
Now, a superintelligencesuperintelligence with suchselline
technologicaltehnoloogiline maturitytähtaeg
143
492449
3558
Sellise tehnoloogilise
kompetentsiga superintellekt
08:28
would be extremelyäärmiselt powerfulvõimas,
144
496007
2179
oleks äärmiselt võimas
08:30
and at leastvähemalt in some scenariosstsenaariumid,
it would be ablevõimeline to get what it wants.
145
498186
4546
ning vähemalt mõnel juhul
võimeline saavutama oma tahtmist.
08:34
We would then have a futuretulevik that would
be shapedkujuline by the preferenceseelistused of this A.I.
146
502732
5661
Niisiis oleks tulevik kujundatud
tehisintellekti eelistuste järgi.
On hea küsimus,
et mida nad siis tahaksid teha?
08:41
Now a good questionküsimus is,
what are those preferenceseelistused?
147
509855
3749
08:46
Here it getssaab trickierkeerukam.
148
514244
1769
Siin läheb asi keerulisemaks.
08:48
To make any headwayedusamme with this,
149
516013
1435
Et sellele küsimusele vastata,
08:49
we mustpeab first of all
avoidvältima anthropomorphizinganthropomorphizing.
150
517448
3276
peame kõigepealt hoiduma
antropomorfismist.
08:53
And this is ironicirooniline because
everyigaüks newspaperajaleht articleartikkel
151
521934
3301
See on irooniline,
sest iga ajaleheartikli juures,
08:57
about the futuretulevik of A.I.
has a picturepilt of this:
152
525235
3855
mis räägib tehisintellekti
tulevikust, on selline pilt:
09:02
So I think what we need to do is
to conceiverasestuda of the issueprobleem more abstractlyjäätisepakendit,
153
530280
4134
Ma arvan, et peame sellele küsimusele
vastamisel mõtlema abstraktsemalt,
09:06
not in termstingimustel of vividergas HollywoodHollywood scenariosstsenaariumid.
154
534414
2790
mitte lennukate Hollywoodi
stsenaariumide stiilis.
09:09
We need to think of intelligenceintelligentsus
as an optimizationoptimeerimine processprotsessi,
155
537204
3617
Peame mõtlema intellektist
kui optimiseerimisprotsessist,
09:12
a processprotsessi that steershärjad the futuretulevik
into a particulareriti setseatud of configurationskonfiguratsioonid.
156
540821
5649
mis juhib meie tulevikku teatud
konkreetsete konfiguratsioonide suunas.
09:18
A superintelligencesuperintelligence is
a really strongtugev optimizationoptimeerimine processprotsessi.
157
546470
3511
Superintellekt on tõeliselt
tõhus optimiseerimisprotsess.
09:21
It's extremelyäärmiselt good at usingkasutades
availablesaadaval meanstähendab to achievesaavutama a stateriik
158
549981
4117
Kasutades olemasolevaid vahendeid,
toimib see äärmiselt efektiivselt
09:26
in whichmis its goaleesmärk is realizedrealiseeritud.
159
554098
1909
kuni eesmärk on saavutatud.
09:28
This meanstähendab that there is no necessaryvajalik
conenctionruuteriga korralikult ühendatud betweenvahel
160
556447
2672
See tähendab, et enam pole kõrge intellekt
09:31
beingolemine highlyväga intelligentintelligentne in this sensemeel,
161
559119
2734
seotud eesmärkidega,
09:33
and havingvõttes an objectiveobjektiivne that we humansinimesed
would find worthwhilekasulik or meaningfulmõttekas.
162
561853
4662
mis meie, inimeste, arust on
on olulised ja mõistlikud.
09:39
SupposeOletame, et we give an A.I. the goaleesmärk
to make humansinimesed smilenaeratus.
163
567321
3794
Oletame, et anname tehisintellektile
ülesande panna meid naeratama.
09:43
When the A.I. is weaknõrk, it performstäidab usefulkasulik
or amusinglõbusa actionstegevused
164
571115
2982
Kui tehisintellekt on madal,
püüab see lahutada meie meelt,
09:46
that causepõhjustada its userkasutaja to smilenaeratus.
165
574097
2517
et kutsuda esile naeratus.
09:48
When the A.I. becomesmuutub superintelligentsuperintelligent,
166
576614
2417
Kui tehisintellektist saab superintellekt,
09:51
it realizesmõistab that there is a more
effectiveefektiivne way to achievesaavutama this goaleesmärk:
167
579031
3523
mõistab see, et eesmärgi saavutamiseks
on olemas efektiivsem viis:
09:54
take controlkontroll of the worldmaailm
168
582554
1922
saada maailma valitsejaks
09:56
and stickkleepige electrodeselektroodid into the facialNäohooldus
muscleslihased of humansinimesed
169
584476
3162
ja torgata inimeste
näolihastesse elektroodid,
09:59
to causepõhjustada constantkonstantne, beamingsära grinsgrins.
170
587638
2941
mis manavad meie näole
püsiva ja särava irve.
10:02
AnotherTeise examplenäide,
171
590579
1035
Teine näide:
10:03
supposeoleta we give A.I. the goaleesmärk to solvelahendada
a difficultraske mathematicalmatemaatiline problemprobleem.
172
591614
3383
oletame, et tehisintellekt peab
lahendama keerulise matemaatikaülesande
10:06
When the A.I. becomesmuutub superintelligentsuperintelligent,
173
594997
1937
Superintellektiks saades
10:08
it realizesmõistab that the mostkõige rohkem effectiveefektiivne way
to get the solutionlahendus to this problemprobleem
174
596934
4171
mõistab ta, et efektiivseim viis
ülesande lahendamiseks
10:13
is by transformingmuundamine the planetplaneet
into a gianthiiglane computerarvuti,
175
601105
2930
on muuta terve planeet
hiiglaslikuks arvutiks,
10:16
so as to increasesuurendama its thinkingmõtlesin capacityvõimsus.
176
604035
2246
et suurendada selle analüüsivõimet.
10:18
And noticeteate that this givesannab the A.I.s
an instrumentalInstrumental reasonpõhjus
177
606281
2764
Pange tähele, et see annab
tehisintellektile praktilise õigustuse
10:21
to do things to us that we
mightvõib-olla not approveheaks kiita of.
178
609045
2516
teha asju, mida me
võib-olla heaks ei kiidaks.
10:23
HumanInimese beingsolendid in this modelmudel are threatsohud,
179
611561
1935
Sellise skeemi puhul on
inimesed riskifaktorid,
10:25
we could preventennetada the mathematicalmatemaatiline
problemprobleem from beingolemine solvedlahendatud.
180
613496
2921
kes võivad osutuda takistuseks
ülesande lahendamisel.
10:29
Of coursemuidugi, perceivablyperceivably things won'tei ole
go wrongvalesti in these particulareriti waysviisid;
181
617207
3494
Tegelikkuses ilmselt päris
selliseid hulle asju ei juhtu,
10:32
these are cartooncartoon examplesnäited.
182
620701
1753
need on pigem filmilikud näited.
10:34
But the generalüldine pointpunkt here is importantoluline:
183
622454
1939
Mis on siin aga oluline, on see,
10:36
if you createloo a really powerfulvõimas
optimizationoptimeerimine processprotsessi
184
624393
2873
et kui luua tõeliselt võimas
optimiseerimisprotsess,
10:39
to maximizemaksimeerida for objectiveobjektiivne x,
185
627266
2234
et maksimiseerida eesmärgi x saavutamist,
10:41
you better make sure
that your definitionmääratlus of x
186
629500
2276
tuleb veenduda, et x-i definitsioon
10:43
incorporatessisaldab everything you carehooli about.
187
631776
2469
hõlmab endas kõike, mis sulle oluline on.
10:46
This is a lessonõppetund that's alsoka taughtõpetas
in manypalju a mythmüüt.
188
634835
4384
Seda õppetundi võime
kohata paljudes müütides.
10:51
KingKuningas MidasMidas wishessoovib that everything
he touchespuudutab be turnedpööratud into goldkuld.
189
639219
5298
Kuningas Midas soovis, et kõik,
mida ta puudutab, muutuks kullaks.
10:56
He touchespuudutab his daughtertütar,
she turnspöördub into goldkuld.
190
644517
2861
Ta puudutas oma tütart
ja too muutus kullaks.
10:59
He touchespuudutab his foodtoit, it turnspöördub into goldkuld.
191
647378
2553
Ta puudutas oma toitu
ja see muutus kullaks.
11:01
This could becomesaada practicallypraktiliselt relevantasjakohane,
192
649931
2589
See müüt võib osutuda
reaalselt asjakohaseks
11:04
not just as a metaphormetafoor for greedahnus,
193
652520
2070
mitte ainult ahnuse metafoorina,
11:06
but as an illustrationillustratsioon of what happensjuhtub
194
654590
1895
vaid ka näitena sellest, mis juhtub,
11:08
if you createloo a powerfulvõimas
optimizationoptimeerimine processprotsessi
195
656485
2837
kui luua võimas optimiseerimisprotsess
11:11
and give it misconceivedvaled
or poorlyhalvasti specifiednimetatud goalseesmärgid.
196
659322
4789
ja anda sellele mitmeti mõistetavaid
või ebatäpseid eesmärke.
11:16
Now you mightvõib-olla say, if a computerarvuti startsalgab
stickingkleepimine electrodeselektroodid into people'sinimesed facesnäod,
197
664111
5189
Võib vastu väita, et kui arvuti hakkab
inimestele elektroode näkku panema,
11:21
we'dme tahaksime just shutkinni it off.
198
669300
2265
siis peame arvuti lihtsalt välja lülitama.
11:24
A, this is not necessarilytingimata so easylihtne to do
if we'veme oleme grownkasvanud dependentsõltuv on the systemsüsteem --
199
672555
5340
Esiteks ei pruugi see olla lihtne,
kui oleme saanud süsteemist sõltuvaks.
11:29
like, where is the off switchlülita
to the InternetInternet?
200
677895
2732
Kuidas näiteks internetti välja lülitada?
11:32
B, why haven'tei ole the chimpanzeesšimpansid
flickedflicked the off switchlülita to humanityinimkond,
201
680627
5120
Teiseks — miks ei ole šimpansid
inimesi välja lülitanud?
11:37
or the NeanderthalsNeandertaallased?
202
685747
1551
Või neandertaallased?
11:39
They certainlykindlasti had reasonspõhjustel.
203
687298
2666
Põhjusi oleks selleks küllaga.
11:41
We have an off switchlülita,
for examplenäide, right here.
204
689964
2795
Meie väljalülitamisnupp on näiteks siinsamas.
11:44
(ChokingLämbumine)
205
692759
1554
(Kägistab)
11:46
The reasonpõhjus is that we are
an intelligentintelligentne adversaryvastane;
206
694313
2925
Põhjus on selles, et me oleme
intelligetsed vastased.
11:49
we can anticipateennustada threatsohud
and planplaan around them.
207
697238
2728
Me suudame ohte ette näha ja neid vältida.
11:51
But so could a superintelligentsuperintelligent agentagent,
208
699966
2504
Kuid seda suudaks ka superintellekt
11:54
and it would be much better
at that than we are.
209
702470
3254
ja ta oleks selles
märksa osavam kui meie.
11:57
The pointpunkt is, we should not be confidentkindel
that we have this underalla controlkontroll here.
210
705724
7187
Me ei peaks olema nii kindlad,
et olukord on meie kontrolli all.
12:04
And we could try to make our jobtöökoht
a little bitnatuke easierlihtsam by, say,
211
712911
3447
Võime oma ülesannet lihtsustada,
12:08
puttinglaskmine the A.I. in a boxkasti,
212
716358
1590
sulgedes tehisintellekti nö kasti
12:09
like a secureturvaline softwaretarkvara environmentkeskkond,
213
717948
1796
ehk turvalisse tarkvarakeskkonda,
12:11
a virtualvirtuaalne realityreaalsus simulationsimulatsioon
from whichmis it cannotei saa escapepõgeneda.
214
719744
3022
virtuaalreaalsuse simulatsiooni,
millest see välja ei pääse.
12:14
But how confidentkindel can we be that
the A.I. couldn'tei saanud find a bugviga.
215
722766
4146
Kui kindlad saame aga olla, et
tehisintellekt ei leiaks seal mõnd viga?
12:18
GivenAntud that merelylihtsalt humaninimene hackershäkkerid
find bugsvead all the time,
216
726912
3169
Arvestades, et inimhäkkerid
avastavad vigu kogu aeg,
12:22
I'd say, probablytõenäoliselt not very confidentkindel.
217
730081
3036
ütleks ma, et ilmselt mitte väga.
12:26
So we disconnectKatkesta ühendus the ethernetEthernet cablekaabel
to createloo an airõhk gaplõhe,
218
734237
4548
Niisiis tõmbame välja
võrgukaabli, et luua õhuauk,
12:30
but again, like merelylihtsalt humaninimene hackershäkkerid
219
738785
2668
kuid jälle, isegi inimhäkkerid hiilivad
õhuaukudest pidevalt mööda
12:33
routinelyregulaarselt transgresssellega airõhk gapslüngad
usingkasutades socialsotsiaalne engineeringinsener.
220
741453
3381
kasutades sotsiaalseid meetodeid.
12:36
Right now, as I speakräägi,
221
744834
1259
Samal ajal, kui ma siin räägin,
on kuskil firmas mõni töötaja,
12:38
I'm sure there is some employeetöötaja
out there somewherekusagil
222
746093
2389
12:40
who has been talkedrääkisin into handingkättetoimetamine out
her accountkonto detailsüksikasjad
223
748482
3346
kes on nõustunud andma oma kontoandmed
12:43
by somebodykeegi claimingnõudes to be
from the I.T. departmentosakond.
224
751828
2746
kellelegi, kes väitis end
olevat IT osakonnast.
12:46
More creativeloominguline scenariosstsenaariumid are alsoka possiblevõimalik,
225
754574
2127
Võimalikud on ka põnevamad asjade arengud.
12:48
like if you're the A.I.,
226
756701
1315
Näiteks võib tehisintellekt
12:50
you can imaginekujutan ette wigglingwiggling electrodeselektroodid
around in your internalsisemine circuitrylülitused
227
758016
3532
kujutleda oma siseringes
looklemas elektroode,
12:53
to createloo radioraadio waveslained that you
can use to communicatesuhelda.
228
761548
3462
et luua raadiolaineid,
mille kaudu suhelda.
12:57
Or maybe you could pretendteeselda to malfunctionrike,
229
765010
2424
Või siis teeskleb ta, et on rikkis,
12:59
and then when the programmersprogrammeerijad openavatud
you up to see what wentläksin wrongvalesti with you,
230
767434
3497
ja kui programmeerijad avavad ta,
et näha, milles on viga,
13:02
they look at the sourceallikas codekood -- BamBAM! --
231
770931
1936
ja vaatavad lähtekoodi — põmm! —
13:04
the manipulationmanipuleerimine can take placekoht.
232
772867
2447
ja manipulatsioon on õnnestunud.
13:07
Or it could outputväljund the blueprinteskiis
to a really niftyNifty technologytehnoloogia,
233
775314
3430
Või siis kavandab ta meie jaoks
mingi nutika tehnoloogilise lahenduse
13:10
and when we implementrakendama it,
234
778744
1398
ja kui seda rakendame,
13:12
it has some surreptitiousvarjatud sidekülg effectefekt
that the A.I. had plannedplaneeritud.
235
780142
4397
avaldub mingi salajane kõrvalmõju,
mida tehisintellekt oli planeerinud.
13:16
The pointpunkt here is that we should
not be confidentkindel in our abilityvõime
236
784539
3463
Mõte on selles, et me ei tohiks
olla kindlad oma võimes
13:20
to keep a superintelligentsuperintelligent geniedžinn
lockedlukustatud up in its bottlepudel foreverigavesti.
237
788002
3808
hoida superintellektist džinni
igavesti oma pudelis luku taga.
13:23
SoonerVarem or laterhiljem, it will out.
238
791810
2254
Varem või hiljem pääseb see välja.
13:27
I believe that the answervastus here
is to figurejoonis out
239
795034
3103
Ma usun, et peame mõtlema välja,
13:30
how to createloo superintelligentsuperintelligent A.I.
suchselline that even if -- when -- it escapespõgenemine,
240
798137
5024
kuidas luua selline superintellekt,
mis isegi lahtipääsemise korral
13:35
it is still safeohutu because it is
fundamentallypõhimõtteliselt on our sidekülg
241
803161
3277
ei kujutaks see meile ohtu, sest ta
oleks põhimõtteliselt meie poolel,
13:38
because it sharesaktsiad our valuesväärtused.
242
806438
1899
jagades meiega samu väärtusi.
13:40
I see no way around
this difficultraske problemprobleem.
243
808337
3210
Ma ei näe pääsu sellest
keerulisest probleemist.
13:44
Now, I'm actuallytegelikult fairlyõiglaselt optimisticoptimistlik
that this problemprobleem can be solvedlahendatud.
244
812557
3834
Tegelikult üsna optimistlik,
et seda on võimalik lahendada.
13:48
We wouldn'tei oleks have to writekirjuta down
a long listnimekiri of everything we carehooli about,
245
816391
3903
Meil ei tarvitse koostada pikka nimekirja
asjadest, mida väärtustame,
13:52
or worsehalvem yetveel, spellõigekirja it out
in some computerarvuti languagekeel
246
820294
3643
või, hullem veel, esitada seda
mõnes programmeerimiskeeles
13:55
like C++ or PythonPython,
247
823937
1454
nagu C++ või Python.
13:57
that would be a taskülesanne beyondkaugemale hopelesslootusetu.
248
825391
2767
See oleks lootusetu ettevõtmine.
14:00
InsteadSelle asemel, we would createloo an A.I.
that useskasutab its intelligenceintelligentsus
249
828158
4297
Selle asemel võiks luua tehisintellekti,
mis õpiks väärtustama seda,
mis on meile oluline
14:04
to learnõppida what we valueväärtus,
250
832455
2771
ja mis oleks programmeritud nii,
et ta on automaatselt motiveeritud
14:07
and its motivationmotivatsioon systemsüsteem is constructedehitatud
in suchselline a way that it is motivatedmotiveeritud
251
835226
5280
14:12
to pursuejätkake our valuesväärtused or to performtäita actionstegevused
that it predictsennustab we would approveheaks kiita of.
252
840506
5232
järgima meiega samu väärtusi või
käituma nii, nagu meile meeldiks.
14:17
We would thusseega leveragefinantsvõimendus
its intelligenceintelligentsus as much as possiblevõimalik
253
845738
3414
Seeläbi mõjutaksime tema
intellekti nii palju, kui võimalik,
14:21
to solvelahendada the problemprobleem of value-loadingväärtus-laadimine.
254
849152
2745
ja laadiksime talle meie väärtused.
14:24
This can happenjuhtuda,
255
852727
1512
See võibki nii minna
14:26
and the outcometulemus could be
very good for humanityinimkond.
256
854239
3596
ja tulemus võib olla
inimkonnale väga positiivne.
Aga see ei toimu automaatselt.
14:29
But it doesn't happenjuhtuda automaticallyautomaatselt.
257
857835
3957
Intellektiplahvatuse
jaoks tuleb paika seada
14:33
The initialesialgne conditionstingimused
for the intelligenceintelligentsus explosionplahvatus
258
861792
2998
14:36
mightvõib-olla need to be setseatud up
in just the right way
259
864790
2863
täpselt õiged algtingimused,
14:39
if we are to have a controlledkontrollitud detonationdetonatsiooni.
260
867653
3530
kui soovime, et plahvatus
ei väljuks kontrolli alt.
14:43
The valuesväärtused that the A.I. has
need to matchsobi oursmeie,
261
871183
2618
Tehisintellekti väärtused peavad
kattuma meie omadega
14:45
not just in the familiartuttav contextSisu,
262
873801
1760
mitte ainult tavaolukordades,
14:47
like where we can easilylihtsalt checkKontrollima
how the A.I. behaveskäitub,
263
875561
2438
kus me saame lihtsasti
kontrollida ta käitumist,
14:49
but alsoka in all novelromaan contextskontekstides
that the A.I. mightvõib-olla encounterkohtumine
264
877999
3234
vaid ka kõigis uudsetes olukordades,
mis võivad ette tulla
suvalisel ajahetkel tulevikus.
14:53
in the indefinitemääramata futuretulevik.
265
881233
1557
14:54
And there are alsoka some esotericesoteeriline issuesküsimused
that would need to be solvedlahendatud, sortedsorteeritud out:
266
882790
4737
On ka mõned esoteerilised probleemid,
mis vajavad lahendamist:
14:59
the exacttäpne detailsüksikasjad of its decisionotsus theoryteooria,
267
887527
2089
tehisintellekti otsustusteooria detailid,
15:01
how to dealtegelema with logicalloogiline
uncertaintyebakindlus and so forthedasi.
268
889616
2864
toimetulek loogilise ebamäärasusega jne.
15:05
So the technicaltehniline problemsprobleemid that need
to be solvedlahendatud to make this work
269
893330
3102
Tehnilised probleemid,
mis tuleb ära lahendada,
15:08
look quiteüsna difficultraske --
270
896432
1113
näivad üsna keerulised,
15:09
not as difficultraske as makingtegemine
a superintelligentsuperintelligent A.I.,
271
897545
3380
mitte küll nii keerulised,
kui superintellekti enda loomine,
15:12
but fairlyõiglaselt difficultraske.
272
900925
2868
aga siiski küllaltki keerulised.
15:15
Here is the worrymuretsema:
273
903793
1695
Mure on aga järgmine:
15:17
MakingTegemine superintelligentsuperintelligent A.I.
is a really hardraske challengeväljakutse.
274
905488
4684
superintellekti loomine on
tõeliselt raske väljakutse,
ohutu superintellekti loomine
15:22
MakingTegemine superintelligentsuperintelligent A.I. that is safeohutu
275
910172
2548
15:24
involveskaasneb some additionalTäiendav
challengeväljakutse on topüleval of that.
276
912720
2416
nõuab aga veelgi suuremat pingutust.
15:28
The riskrisk is that if somebodykeegi figuresarvud out
how to crackcrack the first challengeväljakutse
277
916216
3487
Olukord muutub riskantseks,
kui keegi juhtub täitma esimese ülesande,
15:31
withoutilma alsoka havingvõttes crackedkrakitud
the additionalTäiendav challengeväljakutse
278
919703
3001
täitmata teist ülesannet:
15:34
of ensuringtagada perfecttäiuslik safetyohutus.
279
922704
1901
kindlustada meie turvalisus.
15:37
So I think that we should
work out a solutionlahendus
280
925375
3331
Seega leian, et peaksime
enne välja töötama lahenduse,
15:40
to the controlkontroll problemprobleem in advanceeelnevalt,
281
928706
2822
kuidas tehisintellekti kontrollida,
15:43
so that we have it availablesaadaval
by the time it is neededvajalik.
282
931528
2660
et see oleks olemas siis,
kui seda vajame.
15:46
Now it mightvõib-olla be that we cannotei saa solvelahendada
the entireterve controlkontroll problemprobleem in advanceeelnevalt
283
934768
3507
Võib juhtuda, et me ei saa
turvalisust ennetavalt tagada,
15:50
because maybe some elementselemendid
can only be put in placekoht
284
938275
3024
sest mõned elemendid
saab paika panna alles siis,
15:53
onceüks kord you know the detailsüksikasjad of the
architecturearhitektuur where it will be implementedrakendatud.
285
941299
3997
kui on teada kõik detailid struktuuri
kohta, kus seda kasutatakse.
15:57
But the more of the controlkontroll problemprobleem
that we solvelahendada in advanceeelnevalt,
286
945296
3380
Aga mida suuremas ulatuses suudame
turvalisuse eelnevalt kindlustada,
16:00
the better the oddskoefitsient that the transitionüleminek
to the machinemasin intelligenceintelligentsus eraajastu
287
948676
4090
seda tõenäolisem on, et
üleminek tehisintellekti ajastusse
16:04
will go well.
288
952766
1540
laabub hästi.
16:06
This to me looksnäeb välja like a thing
that is well worthväärt doing
289
954306
4644
Mulle paistab see asjana,
mille nimel tasub pingutada,
16:10
and I can imaginekujutan ette that if
things turnpööra out okay,
290
958950
3332
ja ma kujutan ette,
et kui kõik läheb hästi,
16:14
that people a millionmiljonit eurot yearsaastaid from now
look back at this centurysajandil
291
962282
4658
siis meenutavad inimesed
miljoni aasta pärast praegust sajandit
16:18
and it mightvõib-olla well be that they say that
the one thing we did that really matteredolulised
292
966940
4002
ja ehk isegi mõtlevad, et kõige tähtsam
asi, mida me korda saatsime,
16:22
was to get this thing right.
293
970942
1567
oligi just sellega hakkamasaamine.
16:24
Thank you.
294
972509
1689
Tänan.
16:26
(ApplauseAplaus)
295
974198
2813
(Aplaus)
Translated by Silver Sillak
Reviewed by Aari Lemmik

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee