ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Mi történik, ha a számítógépeink nálunk okosabbak lesznek?

Filmed:
4,632,705 views

A mesterséges intelligencia (MI) rohamosan fejlődik, és a kutatások szerint még ebben az évszázadban elérheti az emberi értelem szintjét. Ezen a ponton, Nick Bostrom szerint, az MI átveszi felettünk az uralmat. ‘’A gépi értelem lesz az utolsó találmány, amelyet nekünk kellett kigondolnunk.’’ Az egy személyben filozófus és technológus Bostrom arra ösztönöz, hogy alaposan gondoljuk meg, milyen, gondolkodó gépek irányította világot építünk. Segítenek-e okos gépeink megőrizni az emberiességet és értékeinket, vagy saját értékeket alakítanak ki?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchcsokor of mathematiciansmatematikusok,
philosophersfilozófusok and computerszámítógép scientiststudósok,
0
570
4207
Több matematikussal, filozófussal
és számítógépes szakemberrel dolgozom,
00:16
and we sitül around and think about
the futurejövő of machinegép intelligenceintelligencia,
1
4777
5209
akikkel együtt gondolkodunk
a gépi intelligencia, értelem jövőjéről
00:21
amongközött other things.
2
9986
2044
és számos más kérdésről.
00:24
Some people think that some of these
things are sortfajta of sciencetudomány fiction-yFiction-y,
3
12030
4725
Néhányan azt gondolják,
egyes kérdéseink
sci-fibe illő, elvont őrültségek.
00:28
farmessze out there, crazyőrült.
4
16755
3101
Rendben, szoktam mondani,
de nézzük meg,
00:31
But I like to say,
5
19856
1470
00:33
okay, let's look at the modernmodern
humanemberi conditionfeltétel.
6
21326
3604
milyen ma az ember helyzete.
00:36
(LaughterNevetés)
7
24930
1692
(Nevetés)
00:38
This is the normalnormál way for things to be.
8
26622
2402
Ez a szokásos állapot,
ahogy annak lennie kell.
00:41
But if we think about it,
9
29024
2285
Ám ha utánagondolunk, mi, emberek
00:43
we are actuallytulajdonképpen recentlymostanában arrivedmegérkezett
guestsvendég on this planetbolygó,
10
31309
3293
csak nemrég érkezett vendégek vagyunk
ezen a bolygón.
00:46
the humanemberi speciesfaj.
11
34602
2082
Képzeljük el, hogy a Föld
csak egy éve jött lére,
00:48
Think about if EarthFöld
was createdkészítette one yearév agoezelőtt,
12
36684
4746
00:53
the humanemberi speciesfaj, then,
would be 10 minutespercek oldrégi.
13
41430
3548
így az emberi faj tíz perce létezne.
00:56
The industrialipari erakorszak startedindult
two secondsmásodperc agoezelőtt.
14
44978
3168
Az ipari korszak csak
két másodperce kezdődött.
01:01
AnotherEgy másik way to look at this is to think of
worldvilág GDPGDP over the last 10,000 yearsévek,
15
49276
5225
Máshonnan nézve a kérdést, gondoljunk
a világ elmúlt 10 000 évi GDP-jére.
01:06
I've actuallytulajdonképpen takentett the troublebaj
to plotcselekmény this for you in a graphgrafikon.
16
54501
3029
Vettem magamnak a fáradságot,
01:09
It looksúgy néz ki, like this.
17
57530
1774
és készítettem önöknek egy grafikont. Íme!
01:11
(LaughterNevetés)
18
59304
1363
(Nevetés)
01:12
It's a curiouskíváncsi shapealak
for a normalnormál conditionfeltétel.
19
60667
2151
Egy normál állapothoz képest
elég furcsa görbe.
01:14
I sure wouldn'tnem want to sitül on it.
20
62818
1698
Hát, én biztos nem szeretnék ráülni.
01:16
(LaughterNevetés)
21
64516
2551
(Nevetés)
01:19
Let's askkérdez ourselvesminket, what is the causeok
of this currentjelenlegi anomalyanomália?
22
67067
4774
Tegyük fel magunknak a kérdést,
mi az oka ennek a szabálytalanságnak?
01:23
Some people would say it's technologytechnológia.
23
71841
2552
Néhányan a technológiát neveznék meg.
01:26
Now it's trueigaz, technologytechnológia has accumulatedfelgyülemlett
throughkeresztül humanemberi historytörténelem,
24
74393
4668
Valóban, a technológiai megoldások
egyre tökéletesedtek a történelem során,
01:31
and right now, technologytechnológia
advanceselőlegek extremelyrendkívüli módon rapidlygyorsan --
25
79061
4652
és éppen most a technológiai fejlődés
hihetetlenül felgyorsult,
ami közvetlen oka
01:35
that is the proximateközeli causeok,
26
83713
1565
01:37
that's why we are currentlyjelenleg
so very productivetermelő.
27
85278
2565
jelenlegi magas termelékenységünknek.
01:40
But I like to think back furthertovábbi
to the ultimatevégső causeok.
28
88473
3661
De szeretnék jobban
visszamenni a tényleges okig.
01:45
Look at these two highlymagasan
distinguishedkiváló gentlemenUrak:
29
93114
3766
Nézzük csak ezt a két kiváló urat!
01:48
We have KanziKanzi --
30
96880
1600
Itt van Kanzi,
01:50
he's masteredelsajátította 200 lexicallexikai
tokenstokenek, an incrediblehihetetlen featfeat.
31
98480
4643
aki 200 nyelvi szimbólumot tanult meg,
ami hihetetlen teljesítmény,
01:55
And EdEd WittenWitten unleashedUnleashed the secondmásodik
superstringsuperstring revolutionforradalom.
32
103123
3694
és Ed Witten, aki elindította
a második szuperhúr forradalmat.
01:58
If we look underalatt the hoodmotorháztető,
this is what we find:
33
106817
2324
Ha benézünk a burkolat alá,
02:01
basicallyalapvetően the sameazonos thing.
34
109141
1570
ott alapvetően ugyanazt találjuk.
02:02
One is a little largernagyobb,
35
110711
1813
Az egyikük kicsit nagyobb, s esetleg
02:04
it maybe alsois has a fewkevés trickstrükkök
in the exactpontos way it's wiredvezetékes.
36
112524
2758
a kapcsolatokban is van
egy-két trükkös megoldás.
02:07
These invisibleláthatatlan differenceskülönbségek cannotnem tud
be too complicatedbonyolult, howeverazonban,
37
115282
3812
De ezek a láthatatlan különbségek
nem lehetnek nagyon bonyolultak,
02:11
because there have only
been 250,000 generationsgenerációk
38
119094
4285
mivel mi csupán
250 000 nemzedéknyire vagyunk
02:15
sincemivel our last commonközös ancestorőse.
39
123379
1732
utolsó közös ősünktől.
02:17
We know that complicatedbonyolult mechanismsmechanizmusok
take a long time to evolvefejlődik.
40
125111
3849
Tudjuk, hogy az összetett mechanizmusok
kifejlődéséhez hosszú időre van szükség.
02:22
So a bunchcsokor of relativelyviszonylag minorkisebb changesváltoztatások
41
130000
2499
Tehát jó néhány viszonylag kisebb változás
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
elvezet Kanzitól Wittenig,
02:27
from broken-offleszakított treefa brancheságak
to intercontinentalInterContinental ballisticballisztikus missilesrakéták.
43
135566
4543
a letört faágaktól az interkontinentális
ballisztikus rakétákig.
02:32
So this then seemsÚgy tűnik, prettyszép obviousnyilvánvaló
that everything we'vevoltunk achievedelért,
44
140839
3935
Ezért eléggé nyilvánvaló, hogy minden,
amit elértünk, ami fontos számunkra,
02:36
and everything we caregondoskodás about,
45
144774
1378
02:38
dependsattól függ cruciallydöntően on some relativelyviszonylag minorkisebb
changesváltoztatások that madekészült the humanemberi mindelme.
46
146152
5228
alapvetően pár kisebb változás eredménye,
melyek kialakították az emberi elmét.
02:44
And the corollarykövetkezménye, of coursetanfolyam,
is that any furthertovábbi changesváltoztatások
47
152650
3662
Következésképpen,
minden további változásnak,
02:48
that could significantlyszignifikánsan changeváltozás
the substrateszubsztrát of thinkinggondolkodás
48
156312
3477
ami jelentősen módosíthatja
a gondolkodás alapjait,
óriási kihatása lehet.
02:51
could have potentiallypotenciálisan
enormoushatalmas consequenceskövetkezményei.
49
159789
3202
02:56
Some of my colleagueskollégák
think we're on the vergehatárán
50
164321
2905
Néhány kollégám szerint
közel járunk valamihez,
02:59
of something that could causeok
a profoundmély changeváltozás in that substrateszubsztrát,
51
167226
3908
ami gyökeresen megváltoztathatja
gondolkodásunk alapjait:
03:03
and that is machinegép superintelligencesuperintelligence.
52
171134
3213
ez pedig a gépi szuperértelem.
03:06
ArtificialMesterséges intelligenceintelligencia used to be
about puttingelhelyezés commandsparancsok in a boxdoboz.
53
174347
4739
A mesterséges intelligencia
eddig azt jelentette,
hogy parancsokat írunk egy dobozba.
A programozók egyesével,
03:11
You would have humanemberi programmersprogramozók
54
179086
1665
03:12
that would painstakinglylelkiismeretesen
handcraftkézműves knowledgetudás itemspéldány.
55
180751
3135
aprólékosan pötyögték be a tudnivalókat.
03:15
You buildépít up these expertszakértő systemsrendszerek,
56
183886
2086
Felépítettük a szakértői rendszereket,
03:17
and they were kindkedves of usefulhasznos
for some purposescélokra,
57
185972
2324
amelyek megfeleltek néhány célra,
03:20
but they were very brittletörékeny,
you couldn'tnem tudott scaleskála them.
58
188296
2681
de nagyon merevek
és skálázhatatlanok voltak.
03:22
BasicallyAlapvetően, you got out only
what you put in.
59
190977
3433
Alapvetően csak az jött ki,
amit beletettünk.
03:26
But sincemivel then,
60
194410
997
De azóta
03:27
a paradigmparadigma shiftváltás has takentett placehely
in the fieldmező of artificialmesterséges intelligenceintelligencia.
61
195407
3467
paradigmaváltás történt
a mesterséges intelligencia területén.
03:30
TodayMa, the actionakció is really
around machinegép learningtanulás.
62
198874
2770
Ma már a gépi tanulásról
szól a történet.
03:34
So ratherInkább than handcraftinghandcrafting knowledgetudás
representationsképviseletek and featuresjellemzők,
63
202394
5387
Ismeretek manuális bütykölése helyett
03:40
we createteremt algorithmsalgoritmusok that learntanul,
oftengyakran from rawnyers perceptualészlelési dataadat.
64
208511
5554
tanuló algoritmusokat alkotunk,
gyakorta közvetlenül az észlelt adatokból.
03:46
BasicallyAlapvetően the sameazonos thing
that the humanemberi infantcsecsemő does.
65
214065
4998
Tulajdonképpen úgy,
ahogy a kisgyerekek csinálják.
03:51
The resulteredmény is A.I. that is not
limitedkorlátozott to one domaindomain --
66
219063
4207
Az eredmény a mesterséges intelligencia
(MI), mely nem korlátozódik egy területre:
03:55
the sameazonos systemrendszer can learntanul to translatefordít
betweenközött any pairspárok of languagesnyelvek,
67
223270
4631
ugyanaz a rendszer megtanulhat
bármely két nyelv között fordítani,
03:59
or learntanul to playjáték any computerszámítógép gamejátszma, meccs
on the AtariAtari consolekonzol.
68
227901
5437
vagy bármilyen számítógépes játékot
játszani egy Atari konzolon.
Azért persze az MI-nek
még távolról sincs meg
04:05
Now of coursetanfolyam,
69
233338
1779
04:07
A.I. is still nowheremost itt nearközel havingamelynek
the sameazonos powerfulerős, cross-domainCross-domain
70
235117
3999
az a figyelemre méltó,
több területet átfogó képessége,
04:11
abilityképesség to learntanul and planterv
as a humanemberi beinglény has.
71
239116
3219
hogy ember módjára tanuljon és tervezzen.
04:14
The cortexkéreg still has some
algorithmicalgoritmikus trickstrükkök
72
242335
2126
Az agykéregnek van
néhány algoritmikus trükkje,
04:16
that we don't yetmég know
how to matchmérkőzés in machinesgépek.
73
244461
2355
melyet még nem tudunk gépekkel utánozni.
04:19
So the questionkérdés is,
74
247886
1899
Szóval az a kérdés,
04:21
how farmessze are we from beinglény ableképes
to matchmérkőzés those trickstrükkök?
75
249785
3500
milyen messze vagyunk attól,
hogy lemásoljuk ezeket a trükköket?
Néhány éve felmérést végeztünk
04:26
A couplepárosít of yearsévek agoezelőtt,
76
254245
1083
04:27
we did a surveyfelmérés of some of the world'svilág
leadingvezető A.I. expertsszakértők,
77
255328
2888
a világ néhány vezető
MI szakértőjének bevonásával,
04:30
to see what they think,
and one of the questionskérdések we askedkérdezte was,
78
258216
3224
hogy lássuk, mit gondolnak a jövőről.
Egyik kérdésünk így szólt:
04:33
"By whichmelyik yearév do you think
there is a 50 percentszázalék probabilityvalószínűség
79
261440
3353
''Mikorra gondolja,
hogy 50%-os valószínűséggel meglesz
04:36
that we will have achievedelért
human-levelemberi-szint machinegép intelligenceintelligencia?"
80
264793
3482
az emberi szinvonalú gépi értelem?''
04:40
We definedmeghatározott human-levelemberi-szint here
as the abilityképesség to performteljesít
81
268785
4183
Az emberi szintet úgy határoztuk meg,
mint olyan képességet,
04:44
almostmajdnem any jobmunka at leastlegkevésbé as well
as an adultfelnőtt humanemberi,
82
272968
2871
amellyel egy felnőtt csaknem
bármely tevékenységet
04:47
so realigazi human-levelemberi-szint, not just
withinbelül some limitedkorlátozott domaindomain.
83
275839
4005
egyformán jól elvégezhet,
nem csak egyszerű feladatokat.
04:51
And the medianközépső answerválasz was 2040 or 2050,
84
279844
3650
A válaszok mediánja, azaz középértéke
2040 vagy 2050 volt,
04:55
dependingattól on preciselypontosan whichmelyik
groupcsoport of expertsszakértők we askedkérdezte.
85
283494
2806
attól függően, melyik
szakértői csoportot kérdeztük meg.
04:58
Now, it could happentörténik much,
much latera későbbiekben, or soonerelőbb,
86
286300
4039
Ez az esemény sokkal később
vagy hamarabb is bekövetkezhet,
05:02
the truthigazság is nobodysenki really knowstudja.
87
290339
1940
igazság szerint senki sem tudja.
05:05
What we do know is that the ultimatevégső
limithatár to informationinformáció processingfeldolgozás
88
293259
4412
Azt viszont tudjuk,
hogy a gépi információfeldolgozás
05:09
in a machinegép substrateszubsztrát lieshazugságok farmessze outsidekívül
the limitshatárok in biologicalbiológiai tissueszövet.
89
297671
4871
végső lehetőségei jóval meghaladják
az élő agyszövet korlátait.
05:15
This comesjön down to physicsfizika.
90
303241
2378
Ez fizikai alapokra vezethető vissza.
05:17
A biologicalbiológiai neuronidegsejt firestüzek, maybe,
at 200 hertzHertz, 200 timesalkalommal a secondmásodik.
91
305619
4718
Egy élő neuron legfeljebb 200 hertzcel
sül ki, azaz egy másodperc alatt 200-szor.
05:22
But even a present-daynapjainkban transistortranzisztor
operatesműködik at the GigahertzGigahertz.
92
310337
3594
Ezzel szemben ma már egy tranzisztor
is gigahertzes tartományban üzemel.
05:25
NeuronsNeuronok propagatepropagálása slowlylassan in axonsaxonjainak,
100 metersméter perper secondmásodik, topsfelsők.
93
313931
5297
A neuronok axonjai lassan,
legföljebb 100 m/s sebességgel működnek.
05:31
But in computersszámítógépek, signalsjelek can travelutazás
at the speedsebesség of lightfény.
94
319228
3111
De a számítógépekben a jelek
fénysebességgel terjedhetnek.
05:35
There are alsois sizeméret limitationskorlátozások,
95
323079
1869
És ott vannak a méret adta korlátok:
05:36
like a humanemberi brainagy has
to fitillő insidebelül a craniumkoponya,
96
324948
3027
az emberi agynak
bele kell férnie a koponyába,
05:39
but a computerszámítógép can be the sizeméret
of a warehouseraktár or largernagyobb.
97
327975
4761
de egy számítógép raktárméretű
vagy még nagyobb is lehet.
05:44
So the potentiallehetséges for superintelligencesuperintelligence
lieshazugságok dormantalvó in matterügy,
98
332736
5599
A szuperértelem lehetősége
ott szunnyad az anyagban,
05:50
much like the powererő of the atomatom
layvilági dormantalvó throughoutegész humanemberi historytörténelem,
99
338335
5712
akár az atomerő, amely a történelem során
05:56
patientlytürelmesen waitingvárakozás there untilamíg 1945.
100
344047
4405
türelmesen várt ébredésére 1945-ig.
06:00
In this centuryszázad,
101
348452
1248
Ebben az évszázadban
06:01
scientiststudósok maylehet learntanul to awakenfeltámadunk
the powererő of artificialmesterséges intelligenceintelligencia.
102
349700
4118
a kutatók rájöhetnek,
hogyan kell életre hívni az MI erejét.
06:05
And I think we mightesetleg then see
an intelligenceintelligencia explosionrobbanás.
103
353818
4008
Úgy gondolom, intelligencia-robbanást
láthatunk majd.
06:10
Now mosta legtöbb people, when they think
about what is smartOkos and what is dumbnéma,
104
358406
3957
A legtöbbünk, amikor arra gondol,
mi az okosság és a butaság,
06:14
I think have in mindelme a picturekép
roughlynagyjából like this.
105
362363
3023
szerintem nagyjából
egy ilyen képet fest maga elé.
06:17
So at one endvég we have the villagefalu idiotidióta,
106
365386
2598
A skála egyik végén ott a falu bolondja
06:19
and then farmessze over at the other sideoldal
107
367984
2483
és valahol, jó messze a másik végén
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverbárki your favoritekedvenc guruguru is.
108
370467
4756
ott van Ed Witten vagy Albert Einstein,
vagy bárki a kedvenc guruink közül.
06:27
But I think that from the pointpont of viewKilátás
of artificialmesterséges intelligenceintelligencia,
109
375223
3834
Szerintem a mesterséges
intelligenciát illetően
06:31
the trueigaz picturekép is actuallytulajdonképpen
probablyvalószínűleg more like this:
110
379057
3681
a valódi helyzet valószínűleg
inkább így áll:
06:35
AIAI startskezdődik out at this pointpont here,
at zeronulla intelligenceintelligencia,
111
383258
3378
Az MI itt kezdődik,
a nulla intelligenciánál,
06:38
and then, after manysok, manysok
yearsévek of really hardkemény work,
112
386636
3011
aztán nagyon-nagyon sok év
szorgalmas munkájával,
06:41
maybe eventuallyvégül is we get to
mouse-levelegér-szint artificialmesterséges intelligenceintelligencia,
113
389647
3844
talán eljutunk egy egér szintjének
megfelelő mesterséges intelligenciához.
06:45
something that can navigatehajózik
clutteredzsúfolt environmentskörnyezetek
114
393491
2430
Olyasmihez, ami eligazodik
zsúfolt környezetben,
06:47
as well as a mouseegér can.
115
395921
1987
úgy, mint azt egy egér teszi.
06:49
And then, after manysok, manysok more yearsévek
of really hardkemény work, lots of investmentberuházás,
116
397908
4313
Aztán még sokkal több év szívós
munkája, rengeteg befektetés árán
06:54
maybe eventuallyvégül is we get to
chimpanzee-levelcsimpánz-szint artificialmesterséges intelligenceintelligencia.
117
402221
4639
talán elérjük
egy csimpánz szintjének megfelelő MI-t.
06:58
And then, after even more yearsévek
of really, really hardkemény work,
118
406860
3210
Majd még több évnyi
nagyon-nagyon kitartó munkával
07:02
we get to villagefalu idiotidióta
artificialmesterséges intelligenceintelligencia.
119
410070
2913
elérjük a falu bolondjának MI szintjét.
07:04
And a fewkevés momentspillanatok latera későbbiekben,
we are beyondtúl EdEd WittenWitten.
120
412983
3272
Csak egy pillanattal később
már lekörözzük Ed Wittent.
07:08
The trainvonat doesn't stop
at HumanvilleHumanville StationStation.
121
416255
2970
A vonat nem áll meg
az Emberfalva állomáson,
07:11
It's likelyvalószínűleg, ratherInkább, to swooshswoosh right by.
122
419225
3022
hanem valószínűleg átrobog rajta.
07:14
Now this has profoundmély implicationskövetkezményei,
123
422247
1984
Ennek pedig lényeges kihatásai vannak,
07:16
particularlykülönösen when it comesjön
to questionskérdések of powererő.
124
424231
3862
főleg, ha már erőviszonyokról lesz szó.
A csimpánzok például erősek.
07:20
For examplepélda, chimpanzeescsimpánzok are strongerős --
125
428093
1899
07:21
poundfont for poundfont, a chimpanzeecsimpánz is about
twicekétszer as strongerős as a fitillő humanemberi maleférfi.
126
429992
5222
Súlyához képest a csimpánz kétszer
olyan erős, mint egy jó erőben lévő férfi.
07:27
And yetmég, the fatesors of KanziKanzi
and his palspajtások dependsattól függ a lot more
127
435214
4614
Mégis, Kanzi és társai sorsa
sokkal inkább attól függ,
07:31
on what we humansemberek do than on
what the chimpanzeescsimpánzok do themselvesmaguk.
128
439828
4140
hogy mi, emberek mit teszünk,
mint attól, hogy ők mit tesznek.
Ha egyszer eljön a szuperértelem kora,
07:37
OnceEgyszer there is superintelligencesuperintelligence,
129
445228
2314
07:39
the fatesors of humanityemberiség maylehet dependfügg
on what the superintelligencesuperintelligence does.
130
447542
3839
az emberiség sorsa attól függhet,
amit ez a szuperértelem művel.
Gondoljunk csak bele!
A gépi intelligencia lesz
07:44
Think about it:
131
452451
1057
07:45
MachineGép intelligenceintelligencia is the last inventiontalálmány
that humanityemberiség will ever need to make.
132
453508
5044
az utolsó találmány, amit
nekünk kell kigondolnunk.
07:50
MachinesGépek will then be better
at inventingfeltalálása than we are,
133
458552
2973
A gépek jobb feltalálók lesznek,
mint mi vagyunk,
07:53
and they'llfognak be doing so
on digitaldigitális timescaleshatáridők.
134
461525
2540
ráadásul digitális időkeretben működnek.
07:56
What this meanseszközök is basicallyalapvetően
a telescopingteleszkópos of the futurejövő.
135
464065
4901
Alapvetően ez a jövő
felgyorsulását jelenti.
Gondoljunk az összes elképzelhető,
eszement technológiára,
08:00
Think of all the crazyőrült technologiestechnológiák
that you could have imaginedképzelt
136
468966
3558
amelyeket ha elég időnk lenne,
talán kifejleszthetnénk:
08:04
maybe humansemberek could have developedfejlett
in the fullnessteltségérzés of time:
137
472524
2798
08:07
cureskúrák for agingöregedés, spacehely colonizationgyarmatosítás,
138
475322
3258
az öregedés ellenszere, az űr meghódítása,
önmagukat reprodukáló nanobotok,
az emberi elme gépre történő feltöltése
08:10
self-replicatingönreprodukáló nanobotsnanobots or uploadingfeltöltése
of mindselmék into computersszámítógépek,
139
478580
3731
08:14
all kindsféle of sciencetudomány fiction-yFiction-y stuffdolog
140
482311
2159
és még mindenféle sci-fibe illő ötlet,
08:16
that's neverthelessMindazonáltal consistentkövetkezetes
with the lawstörvények of physicsfizika.
141
484470
2737
amelyek azért a fizikai
törvényeknek nem mondanak ellent.
08:19
All of this superintelligencesuperintelligence could
developfejleszt, and possiblyesetleg quiteegészen rapidlygyorsan.
142
487207
4212
Egy szuperértelem mindezt talán
elég gyorsan ki tudná fejleszteni.
08:24
Now, a superintelligencesuperintelligence with suchilyen
technologicaltechnikai maturityérettség
143
492449
3558
Egy ilyen kifinomult technológiájú
szuperértelemnek
08:28
would be extremelyrendkívüli módon powerfulerős,
144
496007
2179
rendkívüli hatalma lenne, mellyel legalább
08:30
and at leastlegkevésbé in some scenariosforgatókönyvek,
it would be ableképes to get what it wants.
145
498186
4546
néhány esetben el tudná érni, amit akar.
08:34
We would then have a futurejövő that would
be shapedalakú by the preferencesbeállítások of this A.I.
146
502732
5661
A jövőnket ekkor ennek az MI-nek
a szempontjai alakítanák.
08:41
Now a good questionkérdés is,
what are those preferencesbeállítások?
147
509855
3749
Jó kérdés, melyek is ezek a szempontok?
08:46
Here it getsjelentkeznek trickiertrükkösebb.
148
514244
1769
Itt kezd rázóssá válni a dolog.
08:48
To make any headwaytérnyerése with this,
149
516013
1435
Hogy valahová is eljussunk,
08:49
we mustkell first of all
avoidelkerül anthropomorphizinganthropomorphizing.
150
517448
3276
először is el kell kerülnünk
az antropomorfizálást.
08:53
And this is ironicIronikus because
everyminden newspaperújság articlecikk
151
521934
3301
Ez azért ironikus,
mert az MI jövőjéről szóló
08:57
about the futurejövő of A.I.
has a picturekép of this:
152
525235
3855
minden újságcikkben ilyen kép szerepel.
09:02
So I think what we need to do is
to conceiveelképzelni of the issueprobléma more abstractlyabsztraktabb,
153
530280
4134
A kérdéshez egy kicsit elvonatkoztatva
kellene közelítenünk,
09:06
not in termsfeltételek of vividélénk HollywoodHollywood scenariosforgatókönyvek.
154
534414
2790
nem a látványos hollywoodi
forgatókönyvek alapján.
09:09
We need to think of intelligenceintelligencia
as an optimizationoptimalizálás processfolyamat,
155
537204
3617
Az értelmet optimalizálási
eljárásként kell felfognunk,
09:12
a processfolyamat that steerstinók the futurejövő
into a particularkülönös setkészlet of configurationskonfigurációk.
156
540821
5649
amely a jövőt bizonyos lehetséges
kimenetek felé tereli.
09:18
A superintelligencesuperintelligence is
a really strongerős optimizationoptimalizálás processfolyamat.
157
546470
3511
A szuperértelem tényleg
nagyon jó optimalizációs eljárás,
09:21
It's extremelyrendkívüli módon good at usinghasználva
availableelérhető meanseszközök to achieveelér a stateállapot
158
549981
4117
amely elképesztően ügyesen használja
az elérhető eszközöket, hogy létrejöjjön
09:26
in whichmelyik its goalcél is realizedrealizált.
159
554098
1909
a céljának megfelelő állapot.
09:28
This meanseszközök that there is no necessaryszükséges
conenctionkapcsolatban betweenközött
160
556447
2672
Ez azt jelenti,
hogy nem szükségképpen kötődik
09:31
beinglény highlymagasan intelligentintelligens in this senseérzék,
161
559119
2734
az ebben az értelemben vett
magas intelligenciához
09:33
and havingamelynek an objectivecélkitűzés that we humansemberek
would find worthwhileérdemes or meaningfuljelentőségteljes.
162
561853
4662
egy számunkra értékes
vagy értelmes cél követése.
09:39
SupposeTegyük fel, hogy we give an A.I. the goalcél
to make humansemberek smilemosoly.
163
567321
3794
Adjuk azt a feladatot egy MI-nek,
hogy késztesse mosolyra az embereket!
09:43
When the A.I. is weakgyenge, it performsvégez usefulhasznos
or amusingmulatságos actionsakciók
164
571115
2982
Amíg az MI még gyenge,
hasznos vagy mulatságos dolgokat tesz,
09:46
that causeok its userhasználó to smilemosoly.
165
574097
2517
mosolyra fakasztva a felhasználót.
09:48
When the A.I. becomesválik superintelligentsuperintelligent,
166
576614
2417
Mire az MI szuperértelmes lesz, rájön,
09:51
it realizesfelismeri that there is a more
effectivehatékony way to achieveelér this goalcél:
167
579031
3523
hogy sokkal hatékonyabban is
elérheti célját:
09:54
take controlellenőrzés of the worldvilág
168
582554
1922
átveszi a világ fölötti uralmat,
09:56
and stickrúd electrodeselektródák into the facialarc
musclesizmok of humansemberek
169
584476
3162
és elektródákat ültet be
az emberek arcizmaiba,
09:59
to causeok constantállandó, beamingsugárzó grinsGrins.
170
587638
2941
amelyek állandó vigyorra kényszerítenek.
10:02
AnotherEgy másik examplepélda,
171
590579
1035
Egy másik példa:
10:03
supposetegyük fel we give A.I. the goalcél to solvemegfejt
a difficultnehéz mathematicalmatematikai problemprobléma.
172
591614
3383
tegyük fel, egy bonyolult matematikai
problémát kell megoldania az MI-nek.
10:06
When the A.I. becomesválik superintelligentsuperintelligent,
173
594997
1937
Amikor az MI szuperértelmes lesz,
10:08
it realizesfelismeri that the mosta legtöbb effectivehatékony way
to get the solutionmegoldás to this problemprobléma
174
596934
4171
rájön, hogy a probléma
leghatékonyabb megoldása
10:13
is by transformingtranszformáló the planetbolygó
into a giantóriás computerszámítógép,
175
601105
2930
a bolygó átalakítása
egy hatalmas számítógéppé,
10:16
so as to increasenövekedés its thinkinggondolkodás capacitykapacitás.
176
604035
2246
hogy kiterjeszthesse
gondolkodási képességét.
10:18
And noticeértesítés that this givesad the A.I.s
an instrumentalinstrumentális reasonok
177
606281
2764
Vegyük észre,
hogy ez további jó ok az MI-nek,
10:21
to do things to us that we
mightesetleg not approvejóváhagy of.
178
609045
2516
hogy olyat műveljen,
amellyel mi nem értenénk egyet.
10:23
HumanEmberi beingslények in this modelmodell are threatsfenyegetések,
179
611561
1935
Mi fenyegetjük őt ebben a modellben,
10:25
we could preventmegelőzése the mathematicalmatematikai
problemprobléma from beinglény solvedmegoldott.
180
613496
2921
mert akadályozhatjuk
a matematikai probléma megoldását.
Az események persze nem pont
így mehetnek rossz irányba,
10:29
Of coursetanfolyam, perceivablyperceivably things won'tszokás
go wrongrossz in these particularkülönös waysmódokon;
181
617207
3494
10:32
these are cartoonrajzfilm examplespéldák.
182
620701
1753
ezek csak képregényszintű példák.
10:34
But the generalTábornok pointpont here is importantfontos:
183
622454
1939
Fontos viszont az általános tanulság:
10:36
if you createteremt a really powerfulerős
optimizationoptimalizálás processfolyamat
184
624393
2873
ha egy valóban jó
optimalizálási eljárást alkotunk,
10:39
to maximizemaximalizálása for objectivecélkitűzés x,
185
627266
2234
amely x cél szerint maximalizál,
10:41
you better make sure
that your definitionmeghatározás of x
186
629500
2276
akkor gondoskodjunk róla,
hogy az x célkitűzés
10:43
incorporatesmagában foglalja a everything you caregondoskodás about.
187
631776
2469
tartalmazza mindazt, ami fontos számunkra.
10:46
This is a lessonlecke that's alsois taughttanított
in manysok a mythmítosz.
188
634835
4384
Erről sokat mond Midász király mondája,
10:51
KingKirály MidasMidas wisheskívánságait that everything
he touchessimítások be turnedfordult into goldArany.
189
639219
5298
aki azt kívánta, hogy amihez
csak hozzáér, váljék arannyá.
10:56
He touchessimítások his daughterlánya,
she turnsmenetek into goldArany.
190
644517
2861
Megérinti a lányát, aki arannyá változik.
10:59
He touchessimítások his foodélelmiszer, it turnsmenetek into goldArany.
191
647378
2553
Arannyá válik az étele is,
amihez hozzányúl.
A rege nem csak
11:01
This could becomeválik practicallygyakorlatilag relevantide vonatkozó,
192
649931
2589
a mohóság metaforájaként értelmezhető,
11:04
not just as a metaphormetafora for greedkapzsiság,
193
652520
2070
11:06
but as an illustrationábra of what happensmegtörténik
194
654590
1895
de annak bemutatásaként is,
mi történik,
11:08
if you createteremt a powerfulerős
optimizationoptimalizálás processfolyamat
195
656485
2837
ha túl jól sikerül
optimalizálnunk egy folyamatot,
11:11
and give it misconceivedfélreértelmezett
or poorlyrosszul specifieda megadott goalscélok.
196
659322
4789
amelyhez rosszul felfogott
vagy homályos célokat rendeltünk.
11:16
Now you mightesetleg say, if a computerszámítógép startskezdődik
stickingragasztás electrodeselektródák into people'semberek facesarcok,
197
664111
5189
Mondhatnák persze, hogy ha egy gép
elektródákat akar a képünkbe dugdosni,
11:21
we'dHázasodik just shutbecsuk it off.
198
669300
2265
majd egyszerűen kikapcsoljuk.
11:24
A, this is not necessarilyszükségszerűen so easykönnyen to do
if we'vevoltunk grownfelnőtt dependentfüggő on the systemrendszer --
199
672555
5340
De ezt nem olyan könnyű megtenni,
ha már függővé váltunk a rendszertől.
11:29
like, where is the off switchkapcsoló
to the InternetInternet?
200
677895
2732
Ugyan már, hol az internet kikapcsolója?
11:32
B, why haven'tnincs the chimpanzeescsimpánzok
flickedvillant the off switchkapcsoló to humanityemberiség,
201
680627
5120
Miért nem kapcsolták ki
a csimpánzok az emberiséget
11:37
or the NeanderthalsNeandervölgyiek?
202
685747
1551
vagy a neandervölgyieket?
11:39
They certainlybiztosan had reasonsokok.
203
687298
2666
Alapos okuk volt rá.
11:41
We have an off switchkapcsoló,
for examplepélda, right here.
204
689964
2795
Van nekünk is egy kikapcsolónk,
például itt.
11:44
(ChokingFulladás)
205
692759
1554
(Fojtogatja magát)
11:46
The reasonok is that we are
an intelligentintelligens adversaryellenfele;
206
694313
2925
Az ok azonban az, hogy mi olyan
okos ellenfél vagyunk,
11:49
we can anticipateszámít threatsfenyegetések
and planterv around them.
207
697238
2728
amelyik előre látja a veszélyeket,
és felkészül rájuk.
11:51
But so could a superintelligentsuperintelligent agentügynök,
208
699966
2504
De egy szuperértelmes szereplő is
ezt tenné,
11:54
and it would be much better
at that than we are.
209
702470
3254
csak nálunk sokkal ügyesebben,
11:57
The pointpont is, we should not be confidentmagabiztos
that we have this underalatt controlellenőrzés here.
210
705724
7187
Nem kellene abban bíznunk,
hogy urai vagyunk helyzetnek.
12:04
And we could try to make our jobmunka
a little bitbit easierkönnyebb by, say,
211
712911
3447
De azért megpróbálhatnánk
megkönnyíteni a dolgunkat,
12:08
puttingelhelyezés the A.I. in a boxdoboz,
212
716358
1590
pl. hogy az MI-t bedobozoljuk
12:09
like a securebiztonságos softwareszoftver environmentkörnyezet,
213
717948
1796
egy biztos szoftveres környezetbe,
12:11
a virtualtényleges realityvalóság simulationtettetés
from whichmelyik it cannotnem tud escapemenekülni.
214
719744
3022
olyan virtuális valóságba,
amelyből nem szabadulhat ki.
12:14
But how confidentmagabiztos can we be that
the A.I. couldn'tnem tudott find a bugbogár.
215
722766
4146
Mennyire bízhatunk azonban abban,
hogy az MI nem találna-e programhibát?
12:18
GivenAdott that merelycsupán humanemberi hackershackerek
find bugsbogarak all the time,
216
726912
3169
Tekintve, hogy hackerek is
mindig találnak hibákat,
12:22
I'd say, probablyvalószínűleg not very confidentmagabiztos.
217
730081
3036
azt mondanám, hogy ebben
nem nagyon bízhatunk.
12:26
So we disconnectkapcsolat bontása the ethernetEthernet cablekábel
to createteremt an airlevegő gaprés,
218
734237
4548
Akkor húzzuk ki az ethernet kábelt,
egy légrést teremtve,
12:30
but again, like merelycsupán humanemberi hackershackerek
219
738785
2668
de még az egyszerű hackerek is simán
12:33
routinelyrutinszerűen transgressáthágják airlevegő gapsrések
usinghasználva socialtársadalmi engineeringmérnöki.
220
741453
3381
veszik ezt az akadályt,
pszichológiai manipulációt használva.
12:36
Right now, as I speakbeszél,
221
744834
1259
Éppen most, amíg beszélek,
12:38
I'm sure there is some employeemunkavállaló
out there somewherevalahol
222
746093
2389
valahol egy alkalmazottat biztosan
12:40
who has been talkedbeszélt into handingátadása out
her accountszámla detailsrészletek
223
748482
3346
éppen rádumáltak,
hogy árulja el fiókja adatait valakinek,
12:43
by somebodyvalaki claimingazt állítva, to be
from the I.T. departmentosztály.
224
751828
2746
aki állítása szerint a cég informatikusa.
12:46
More creativekreatív scenariosforgatókönyvek are alsois possiblelehetséges,
225
754574
2127
Sokkal kreatívabb cselek is lehetségesek:
12:48
like if you're the A.I.,
226
756701
1315
mondjuk,
12:50
you can imagineKépzeld el wigglingizeg-mozog electrodeselektródák
around in your internalbelső circuitryáramkör
227
758016
3532
egy MI elektródákat köthet
az áramköreinkre,
12:53
to createteremt radiorádió waveshullámok that you
can use to communicatekommunikálni.
228
761548
3462
hogy az így kibocsátott
rádióhullámok útján kommunikálhasson.
12:57
Or maybe you could pretendszínlel to malfunctionüzemzavar,
229
765010
2424
Esetleg üzemzavart mímelhetne,
12:59
and then when the programmersprogramozók opennyisd ki
you up to see what wentment wrongrossz with you,
230
767434
3497
és amikor a programozók kinyitják,
hogy megkeressék, mi a baj,
13:02
they look at the sourceforrás codekód -- BamBam! --
231
770931
1936
megnézik a forráskódot is, és hoppá,
13:04
the manipulationmanipuláció can take placehely.
232
772867
2447
már sor is kerülhet a manipulációra.
13:07
Or it could outputkibocsátás the blueprintBlueprint
to a really niftyremek technologytechnológia,
233
775314
3430
Egy MI tervezhetne valami
nagyon pöpec technológiát,
13:10
and when we implementvégrehajtása it,
234
778744
1398
amelynek alkalmazásakor
13:12
it has some surreptitiousburkolt sideoldal effecthatás
that the A.I. had plannedtervezett.
235
780142
4397
az MI által tervezett néhány alattomos
mellékhatás is előjön.
13:16
The pointpont here is that we should
not be confidentmagabiztos in our abilityképesség
236
784539
3463
Kulcsfontosságú, hogy nem szabad
bíznunk benne,
13:20
to keep a superintelligentsuperintelligent geniedzsinn
lockedzárt up in its bottleüveg foreverörökké.
237
788002
3808
hogy egy szuperértelmes szellemet
örökre palackba zárva tarthatunk,
13:23
SoonerElőbb or latera későbbiekben, it will out.
238
791810
2254
mert előbb-utóbb úgyis kiszabadul.
Azt hiszem, a megoldás inkább az,
ha kitaláljuk, hogyan alkothatunk
13:27
I believe that the answerválasz here
is to figureábra out
239
795034
3103
13:30
how to createteremt superintelligentsuperintelligent A.I.
suchilyen that even if -- when -- it escapesmenekül,
240
798137
5024
olyan szuperértelmet,
mely ha netán elszabadul,
13:35
it is still safebiztonságos because it is
fundamentallyalapvetően on our sideoldal
241
803161
3277
még mindig megbízható,
mert alapvetően a mi oldalunkon áll,
13:38
because it sharesmegoszt our valuesértékeket.
242
806438
1899
mivel értékeink közösek.
13:40
I see no way around
this difficultnehéz problemprobléma.
243
808337
3210
Ez a fogas kérdés megkerülhetetlen.
13:44
Now, I'm actuallytulajdonképpen fairlymeglehetősen optimisticoptimista
that this problemprobléma can be solvedmegoldott.
244
812557
3834
A kérdés megoldhatóságát illetően
eléggé optimista vagyok.
13:48
We wouldn'tnem have to writeír down
a long listlista of everything we caregondoskodás about,
245
816391
3903
Írhatnánk egy hosszú listát mindarról,
amit fontosnak tartunk,
13:52
or worserosszabb yetmég, spellhelyesírás it out
in some computerszámítógép languagenyelv
246
820294
3643
vagy ami még rosszabb:
valamilyen programnyelven írnánk meg,
13:55
like C++ or PythonPython,
247
823937
1454
pl. C++-ban vagy Pythonban,
13:57
that would be a taskfeladat beyondtúl hopelessreménytelen.
248
825391
2767
ami reménytelen feladat lenne.
14:00
InsteadEhelyett, we would createteremt an A.I.
that usesfelhasználások its intelligenceintelligencia
249
828158
4297
Ehelyett egy olyan MI-t csinálhatnánk,
amely értelmét arra használja,
14:04
to learntanul what we valueérték,
250
832455
2771
hogy megtanulja, mik az értékeink,
14:07
and its motivationmotiváció systemrendszer is constructedszerkesztett
in suchilyen a way that it is motivatedmotivált
251
835226
5280
s az MI ösztönzőrendszerét
a mi értékeink követésére,
14:12
to pursuefolytat our valuesértékeket or to performteljesít actionsakciók
that it predictsazt jósolja we would approvejóváhagy of.
252
840506
5232
vagy az általunk vélhetően
engedélyezett akciókra terveznénk.
14:17
We would thusés így leveragetőkeáttétel
its intelligenceintelligencia as much as possiblelehetséges
253
845738
3414
Az MI értelmét tehát feljavítanánk,
amennyire lehet,
14:21
to solvemegfejt the problemprobléma of value-loadingérték-betöltése.
254
849152
2745
hogy megoldjuk az értékkövetés kérdését.
Ez a lehetséges kimenetel
14:24
This can happentörténik,
255
852727
1512
14:26
and the outcomeeredmény could be
very good for humanityemberiség.
256
854239
3596
nagyon jó lenne az emberiségnek.
14:29
But it doesn't happentörténik automaticallyautomatikusan.
257
857835
3957
De ez nem történik meg magától.
14:33
The initiala kezdeti conditionskörülmények
for the intelligenceintelligencia explosionrobbanás
258
861792
2998
Az intelligencia-robbanás
kezdeti feltételeit
14:36
mightesetleg need to be setkészlet up
in just the right way
259
864790
2863
már most jól elő kellene készíteni,
14:39
if we are to have a controlledellenőrzött detonationrobbanás.
260
867653
3530
ha irányított robbanást akarunk.
14:43
The valuesértékeket that the A.I. has
need to matchmérkőzés oursa miénk,
261
871183
2618
Az MI értékeinek illeszkedniük
kell a mieinkhez,
14:45
not just in the familiarismerős contextkontextus,
262
873801
1760
az olyan ismerős helyzeteken túl is,
14:47
like where we can easilykönnyen checkjelölje be
how the A.I. behavesúgy viselkedik,
263
875561
2438
amikor könnyen ellenőrizhető
az MI viselkedése,
14:49
but alsois in all novelregény contextsösszefüggések
that the A.I. mightesetleg encountertalálkozás
264
877999
3234
de olyan új helyzetekben is,
amelyekkel az MI szembekerülhet,
14:53
in the indefinitehatározatlan futurejövő.
265
881233
1557
a bizonytalan jövőben.
14:54
And there are alsois some esotericezoterikus issueskérdések
that would need to be solvedmegoldott, sortedrendezve out:
266
882790
4737
Van még néhány megoldandó
ezoterikus kérdés,
14:59
the exactpontos detailsrészletek of its decisiondöntés theoryelmélet,
267
887527
2089
mint a döntéselméleti kérdések részletei,
15:01
how to dealüzlet with logicallogikus
uncertaintybizonytalanság and so forthtovább.
268
889616
2864
a logikai bizonytalanság
és egyebek kezelése.
A megoldandó technikai
nehézségek miatt a feladat
15:05
So the technicalműszaki problemsproblémák that need
to be solvedmegoldott to make this work
269
893330
3102
eléggé bonyolultnak látszik.
15:08
look quiteegészen difficultnehéz --
270
896432
1113
Nem annyira, mint
egy szuperértelmes MI létrehozása,
15:09
not as difficultnehéz as makinggyártás
a superintelligentsuperintelligent A.I.,
271
897545
3380
15:12
but fairlymeglehetősen difficultnehéz.
272
900925
2868
de még így is meglehetősen komplikált.
15:15
Here is the worryaggodalom:
273
903793
1695
Azért aggódhatunk,
15:17
MakingÍgy superintelligentsuperintelligent A.I.
is a really hardkemény challengekihívás.
274
905488
4684
hogy egy értelmes MI létrehozása
tényleg kemény dió,
15:22
MakingÍgy superintelligentsuperintelligent A.I. that is safebiztonságos
275
910172
2548
de a biztonságos, szuperértelmes
MI megalkotása
15:24
involvesjár some additionalTovábbi
challengekihívás on topfelső of that.
276
912720
2416
ezt még néhány további feladattal tetézi.
15:28
The riskkockázat is that if somebodyvalaki figuresszámadatok out
how to crackrepedés the first challengekihívás
277
916216
3487
Abban rejlik a kockázat,
ha megoldjuk az első feladatot anélkül,
15:31
withoutnélkül alsois havingamelynek crackedrepedt
the additionalTovábbi challengekihívás
278
919703
3001
hogy megoldottuk volna a másodikat is,
15:34
of ensuringannak biztosítása perfecttökéletes safetybiztonság.
279
922704
1901
amely szavatolná a teljes biztonságot.
15:37
So I think that we should
work out a solutionmegoldás
280
925375
3331
Ezért olyan megoldást kell kidolgoznunk,
15:40
to the controlellenőrzés problemprobléma in advanceelőleg,
281
928706
2822
amely előbb oldja meg
az ellenőrizhetőség kérdését,
15:43
so that we have it availableelérhető
by the time it is neededszükséges.
282
931528
2660
hogy mire szükségünk lesz rá,
már kéznél legyen.
15:46
Now it mightesetleg be that we cannotnem tud solvemegfejt
the entireteljes controlellenőrzés problemprobléma in advanceelőleg
283
934768
3507
Talán nem tudjuk az ellenőrzés
kérdését előre és teljesen megoldani,
15:50
because maybe some elementselemek
can only be put in placehely
284
938275
3024
mert néhány elem csak
akkor kerülhet a helyére,
15:53
onceegyszer you know the detailsrészletek of the
architectureépítészet where it will be implementedvégrehajtott.
285
941299
3997
ha részleteiben ismerjük
a fogadó architektúrát.
15:57
But the more of the controlellenőrzés problemprobléma
that we solvemegfejt in advanceelőleg,
286
945296
3380
De minél többet megoldunk előre
az ellenőrzés kérdéséből,
16:00
the better the oddsesély that the transitionátmenet
to the machinegép intelligenceintelligencia erakorszak
287
948676
4090
annál jobbak az esélyeink,
hogy a gépi értelem korszakába
16:04
will go well.
288
952766
1540
zökkenőmentes lesz az átmenet.
16:06
This to me looksúgy néz ki, like a thing
that is well worthérdemes doing
289
954306
4644
Szerintem ezt nagyon megéri
rendesen megcsinálni,
16:10
and I can imagineKépzeld el that if
things turnfordulat out okay,
290
958950
3332
és azt is el tudom képzelni,
ha minden jól megy,
16:14
that people a millionmillió yearsévek from now
look back at this centuryszázad
291
962282
4658
amikor az emberek egymillió év múlva
visszatekintenek erre az évszázadra,
16:18
and it mightesetleg well be that they say that
the one thing we did that really matteredszámít
292
966940
4002
elmondhatják: az egyetlen lényeges dolgot
elődeik akkor jól rendezték el.
16:22
was to get this thing right.
293
970942
1567
Köszönöm.
16:24
Thank you.
294
972509
1689
(Taps)
16:26
(ApplauseTaps)
295
974198
2813
Translated by Gabriella Zsoter
Reviewed by Peter Pallós

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee