ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Dokážeme vybudovať umelú inteligenciu bez toho, aby sme nad ňou stratili kontrolu?

Filmed:
5,024,015 views

Máte strach zo super inteligentnej umelej inteligencie? Mali by ste, hovorí vedec a filozof Sam Harris – a nielen v teoretickej rovine. Vytvoríme stroje na úrovni superľudí, hovorí Harris, ale zatiaľ sme sa nepopasovali s problémami súvisiacimi s vytvorením niečoho, čo sa k nám môže správať tak, ako sa my správame k mravcom.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failurezlyhanie of intuitionintuícia
0
1000
2216
Budem hovoriť o zlyhaní intuície,
00:15
that manyveľa of us suffertrpieť from.
1
3240
1600
ktorým trpí mnoho z nás.
00:17
It's really a failurezlyhanie
to detectodhaliť a certainistý kinddruh of dangernebezpečenstvo.
2
5480
3040
Vlastne ide o zlyhanie odhalenia
určitého druhu nebezpečia.
00:21
I'm going to describepopísať a scenarioscenár
3
9360
1736
Popíšem vám situáciu,
00:23
that I think is bothoboje terrifyingdesivé
4
11120
3256
o ktorej si myslím, že je desivá
00:26
and likelypravdepodobný to occurnastať,
5
14400
1760
a zároveň pravdepodobná,
00:28
and that's not a good combinationkombinácia,
6
16840
1656
čo, ako vieme,
00:30
as it turnszákruty out.
7
18520
1536
nie je dobrá kombinácia.
00:32
And yetešte rathertrochu than be scaredvydesený,
mostväčšina of you will feel
8
20080
2456
A aj tak, mnohí z vás nebudú
vystrašení, ale budú
00:34
that what I'm talkingrozprávanie about
is kinddruh of coolchladný.
9
22560
2080
si myslieť, že to,
o čom hovorím, je cool.
00:37
I'm going to describepopísať
how the gainszisky we make
10
25200
2976
Budem hovoriť o tom, ako nás pokrok,
00:40
in artificialumelý intelligenceinteligencia
11
28200
1776
ktorý dosahujeme
v umelej inteligencii,
00:42
could ultimatelynakoniec destroyzničiť us.
12
30000
1776
môže nakoniec úplne zničiť.
00:43
And in factskutočnosť, I think it's very difficultnáročný
to see how they won'tnebude destroyzničiť us
13
31800
3456
A vskutku si myslím, že je ťažké
nevidieť, že nás zničí, alebo nás
00:47
or inspireinšpirovať us to destroyzničiť ourselvesmy sami.
14
35280
1680
inšpiruje, aby sme sa zničili sami.
00:49
And yetešte if you're anything like me,
15
37400
1856
A pokiaľ ste ako ja,
00:51
you'llbudete find that it's funzábava
to think about these things.
16
39280
2656
je pre vás zábavou zamýšľať sa nad tým.
00:53
And that responseodpoveď is partčasť of the problemproblém.
17
41960
3376
Naše reakcie sú súčasťou toho problému.
00:57
OK? That responseodpoveď should worryznepokojovať you.
18
45360
1720
Tieto reakcie by vás mali trápiť.
00:59
And if I were to convincepresvedčiť you in this talk
19
47920
2656
Ak by som vás teraz presvedčoval,
01:02
that we were likelypravdepodobný
to suffertrpieť a globalglobálnej faminehladomor,
20
50600
3416
že ľudstvo pravdepodobne
zasiahne globálny hladomor,
01:06
eitherbuď because of climatepodnebie changezmena
or some other catastrophekatastrofa,
21
54040
3056
buď kvôli klimatickým zmenám,
alebo z dôvodu inej katastrofy,
01:09
and that your grandchildrenvnúčatá,
or theirich grandchildrenvnúčatá,
22
57120
3416
a že vaše vnúčatá a ich vnúčatá
01:12
are very likelypravdepodobný to livežiť like this,
23
60560
1800
budú pravdepodobne žiť takto,
01:15
you wouldn'tnie think,
24
63200
1200
určite si nepomyslíte,
01:17
"InterestingZaujímavé.
25
65440
1336
"Zaujímavé.
01:18
I like this TEDTED Talk."
26
66800
1200
To je pekná prednáška."
01:21
FamineHladomor isn't funzábava.
27
69200
1520
Hladomor nie je zábava.
01:23
DeathSmrť by scienceveda fictionbeletrie,
on the other handručné, is funzábava,
28
71800
3376
Na druhú stranu, smrť v sci-fi zábavná je,
01:27
and one of the things that worriesobavy me mostväčšina
about the developmentvývoj of AIAI at this pointbod
29
75200
3976
jedna z vecí, ktorá ma na vývoji umelej
inteligencie trápi najviac, je, že nie sme
01:31
is that we seempripadať unableneschopný to marshalmaršal
an appropriateprimeraný emotionalcitový responseodpoveď
30
79200
4096
schopní primerane emocionálne reagovať
01:35
to the dangersnebezpečenstvo that lielož aheadvpred.
31
83320
1816
na nebezpečie, ktoré leží pred nami.
01:37
I am unableneschopný to marshalmaršal this responseodpoveď,
and I'm givingdávať this talk.
32
85160
3200
Ja sám nie som toho schopný
a sám o tom teraz prednášam.
01:42
It's as thoughhoci we standstáť before two doorsdvere.
33
90120
2696
Pomyslite si, že stojíme
pred dvoma dvermi.
01:44
BehindZa doordvere numberčíslo one,
34
92840
1256
Za dvermi číslo jedna
01:46
we stop makingmaking progresspokrok
in buildingbudova intelligentinteligentný machinesstroje.
35
94120
3296
zastavíme vývoj a budovanie
inteligentných strojov.
01:49
Our computerpočítačový hardwaretechnické vybavenie and softwaresoftvér
just stopszastávok gettingzískavanie better for some reasondôvod.
36
97440
4016
Počítačový software a hardware sa prosto
z nejakého dôvodu prestane vylepšovať.
01:53
Now take a momentmoment
to considerzvážiť why this mightsila happenstať sa.
37
101480
3000
Zastavme sa na chvíľu a premýšľajme,
prečo by toto mohlo nastať.
01:57
I mean, givendaný how valuablecenný
intelligenceinteligencia and automationAutomatizácia are,
38
105080
3656
S ohľadom nato, akým prínosom
inteligencia a automatizácia pre nás je,
02:00
we will continueďalej to improvezdokonaliť our technologytechnológie
if we are at all ableschopný to.
39
108760
3520
budeme technológie stále zlepšovať,
pokiaľ toho budeme vôbec schopní.
02:05
What could stop us from doing this?
40
113200
1667
Čo by nás mohlo v tomto zastaviť?
02:07
A full-scaleplnom rozsahu nuclearjadrový warvojna?
41
115800
1800
Celosvetová nukleárna vojna?
02:11
A globalglobálnej pandemicepidemický?
42
119000
1560
Globálna pandémia?
02:14
An asteroidasteroid impactnáraz?
43
122320
1320
Dopad asteroidu?
02:17
JustinJustin BieberBieber becomingslušivý
presidentprezident of the UnitedVeľká StatesŠtáty?
44
125640
2576
Justin Bieber prezidentom USA?
02:20
(LaughterSmiech)
45
128240
2280
(smiech)
02:24
The pointbod is, something would have to
destroyzničiť civilizationcivilizácie as we know it.
46
132760
3920
Ide o to, že by našu súčasnú civilizáciu,
tak ako ju poznáme, muselo niečo zničiť.
02:29
You have to imaginepredstaviť si
how badzlý it would have to be
47
137360
4296
Predstavte si, ako zlé
by to muselo byť,
02:33
to preventpredchádzať us from makingmaking
improvementsvylepšenia in our technologytechnológie
48
141680
3336
aby sme neboli schopní ďalej
vylepšovať naše technológie,
02:37
permanentlynatrvalo,
49
145040
1216
neustále,
02:38
generationgenerácie after generationgenerácie.
50
146280
2016
generáciu za generáciou.
02:40
AlmostTakmer by definitiondefinícia,
this is the worstnajhorší thing
51
148320
2136
V zásade je to tá najhoršia vec,
02:42
that's ever happenedStalo in humančlovek historyhistórie.
52
150480
2016
aká by mohla v ľudských dejinách nastať.
02:44
So the only alternativealternatívne,
53
152520
1296
Takže jedinou alternatívou,
02:45
and this is what lieslži
behindza doordvere numberčíslo two,
54
153840
2336
ktorá je za dvermi číslo dva,
02:48
is that we continueďalej
to improvezdokonaliť our intelligentinteligentný machinesstroje
55
156200
3136
je pokračovať v zdokonaľovaní
našich inteligentných strojov,
02:51
yearrok after yearrok after yearrok.
56
159360
1600
postupne rok za rokom.
02:53
At a certainistý pointbod, we will buildvybudovať
machinesstroje that are smartermúdrejší than we are,
57
161720
3640
A v určitom okamžiku postavíme stroje,
ktoré budú chytrejšie než my sami,
02:58
and onceakonáhle we have machinesstroje
that are smartermúdrejší than we are,
58
166080
2616
a keď budeme mať stroje, ktoré
budú chytrejšie od nás,
03:00
they will beginzačať to improvezdokonaliť themselvessami.
59
168720
1976
tak sa začnú zdokonaľovať samy.
03:02
And then we riskriskovať what
the mathematicianmatematik IJIj Good calledvolal
60
170720
2736
A v tom okamihu hrozí situácia,
ktorú matematik I.J.Good
03:05
an "intelligenceinteligencia explosionvýbuch,"
61
173480
1776
nazval "inteligenčná explózia,"
03:07
that the processproces could get away from us.
62
175280
2000
a vtedy by sa to mohlo vymknúť z rúk.
03:10
Now, this is oftenčasto caricaturedkarikaturistický,
as I have here,
63
178120
2816
Ako vidíte napríklad tu,
táto téma sa často karikuje,
03:12
as a fearstrach that armiesarmády of maliciousŠkodlivý robotsroboty
64
180960
3216
ako obava z armád zlých robotov,
03:16
will attackútok us.
65
184200
1256
ktoré na nás zaútočia.
03:17
But that isn't the mostväčšina likelypravdepodobný scenarioscenár.
66
185480
2696
Ale toto nie je
najpravdepodobnejší scenár.
03:20
It's not that our machinesstroje
will becomestať sa spontaneouslyspontánne malevolentzlovoľný.
67
188200
4856
Nie je to tak,
že by stroje zrazu začali byť zlé.
03:25
The concernznepokojenie is really
that we will buildvybudovať machinesstroje
68
193080
2616
Problém je v tom, že vytvoríme stroje,
03:27
that are so much
more competentkompetentní than we are
69
195720
2056
ktoré budú oveľa schopnejšie než sme my,
03:29
that the slightestnajmenší divergencedivergencia
betweenmedzi theirich goalsCiele and our ownvlastný
70
197800
3776
takže aj tá najjemnejšia odchýlka
medzi ich a našimi cieľmi,
03:33
could destroyzničiť us.
71
201600
1200
by nás mohla zničiť.
03:35
Just think about how we relatevzťahovať to antsmravce.
72
203960
2080
Zamyslite sa, ako sa
chováme k mravcom.
03:38
We don't hatenenávidieť them.
73
206600
1656
Nemáme nič proti nim.
03:40
We don't go out of our way to harmujma them.
74
208280
2056
Neubližujeme im cielene.
03:42
In factskutočnosť, sometimesniekedy
we take painsbolesti not to harmujma them.
75
210360
2376
Dokonca občas znesieme bolesť
a neubližujeme im.
03:44
We stepkrok over them on the sidewalkchodník.
76
212760
2016
Prekračujeme ich na chodníku.
03:46
But wheneverkedykoľvek theirich presenceprítomnosť
77
214800
2136
Ale kedykoľvek je ich prítomnosť
03:48
seriouslyvážne conflictskonflikty with one of our goalsCiele,
78
216960
2496
vo vážnom konflikte s našimi cieľmi,
03:51
let's say when constructingvýstavbe
a buildingbudova like this one,
79
219480
2477
povedzme, keď staviame budovu ako táto,
03:53
we annihilateZničiť them withoutbez a qualmslabosť.
80
221981
1960
tak ich bez mihnutia oka zničíme.
03:56
The concernznepokojenie is that we will
one day buildvybudovať machinesstroje
81
224480
2936
Obávam sa, že jedného dňa
vytvoríme stroje,
03:59
that, whetherči they're consciousvedomý or not,
82
227440
2736
ktoré, vedome alebo nevedome,
budú s nami
04:02
could treatzaobchádzať us with similarpodobný disregardnerešpektovanie.
83
230200
2000
zachádzať s podobnou ľahostajnosťou.
04:05
Now, I suspectpodozrivý this seemszdá
far-fetchedneprirodzený to manyveľa of you.
84
233760
2760
Mnohím z vás to príde
pritiahnuté za vlasy.
04:09
I betstávka there are those of you who doubtpochybovať
that superintelligentsuperintelligent AIAI is possiblemožný,
85
237360
6336
Vsadím sa, že mnohí z vás pochybujú,
že super inteligentné stroje sú možné,
04:15
much lessmenej inevitableneodvratný.
86
243720
1656
tobôž, že by to nevyhnutne nastalo.
04:17
But then you mustmusieť find something wrongzle
with one of the followingnasledujúce assumptionspredpoklady.
87
245400
3620
Potom však musíte nájsť niečo nesprávne
v nasledujúcich predpokladoch.
04:21
And there are only threetri of them.
88
249044
1572
A v podstate sú len tri.
04:23
IntelligenceInteligencia is a matterzáležitosť of informationinformácie
processingspracovanie in physicalfyzický systemssystémy.
89
251800
4719
Inteligencia je výsledkom spracovania
informácie v hmotných systémoch.
04:29
ActuallyVlastne, this is a little bittrocha more
than an assumptionpredpoklad.
90
257320
2615
Vlastne, toto je trochu viac
než len predpoklad.
04:31
We have already builtpostavený
narrowúzky intelligenceinteligencia into our machinesstroje,
91
259959
3457
Do strojov sme už obmedzenú
inteligenciu zabudovali
04:35
and manyveľa of these machinesstroje performhrať
92
263440
2016
a veľa z týchto strojov už pracuje
04:37
at a levelhladina of superhumannadľudský
intelligenceinteligencia already.
93
265480
2640
na úrovni super inteligentných ľudí.
04:40
And we know that merepúhy matterzáležitosť
94
268840
2576
A vieme, že bežná hmota
04:43
can give risestúpať to what is calledvolal
"generalvšeobecný intelligenceinteligencia,"
95
271440
2616
môže byť vznikom takzvanej
"všeobecnej inteligencie",
04:46
an abilityschopnosť to think flexiblyflexibilne
acrossnaprieč multiplenásobok domainsdomén,
96
274080
3656
teda schopnosti flexibilne myslieť
naprieč rôznymi oblasťami,
04:49
because our brainsmozgy have managedorganizovaný it. Right?
97
277760
3136
pretože naše mozgy to už dokázali, však?
04:52
I mean, there's just atomsatómy in here,
98
280920
3936
Mám na mysli, že naše mozgy
sa skladajú len z atómov,
04:56
and as long as we continueďalej
to buildvybudovať systemssystémy of atomsatómy
99
284880
4496
a pokiaľ budeme pokračovať
v budovaní systémov z atómov,
05:01
that displayzobraziť more and more
intelligentinteligentný behaviorsprávanie,
100
289400
2696
ktoré vykazujú čoraz
inteligentnejšie správanie,
05:04
we will eventuallynakoniec,
unlesspokiaľ we are interruptedprerušený,
101
292120
2536
tak nakoniec, pokiaľ nás niečo nezastaví,
05:06
we will eventuallynakoniec
buildvybudovať generalvšeobecný intelligenceinteligencia
102
294680
3376
zabudujeme všeobecnú inteligenciu
05:10
into our machinesstroje.
103
298080
1296
do našich strojov.
05:11
It's crucialrozhodujúci to realizerealizovať
that the raterýchlosť of progresspokrok doesn't matterzáležitosť,
104
299400
3656
Kľúčové je si uvedomiť,
že na rýchlosti pokroku nezáleží,
05:15
because any progresspokrok
is enoughdosť to get us into the endkoniec zonezóna.
105
303080
3176
pretože k dosiahnutiu cieľa
stačí akékoľvek tempo.
05:18
We don't need Moore'sMoore lawzákon to continueďalej.
We don't need exponentialexponenciálny progresspokrok.
106
306280
3776
Nepotrebujeme Mooreov zákon,
nie je nutný exponenciálny vývoj.
05:22
We just need to keep going.
107
310080
1600
Jednoducho stačí pokračovať.
05:25
The seconddruhý assumptionpredpoklad
is that we will keep going.
108
313480
2920
Druhým predpokladom je,
že budeme pokračovať.
05:29
We will continueďalej to improvezdokonaliť
our intelligentinteligentný machinesstroje.
109
317000
2760
Budeme naďalej zlepšovať naše
inteligentné stroje.
05:33
And givendaný the valuehodnota of intelligenceinteligencia --
110
321000
4376
A keďže inteligencia je pre nás dôležitá -
05:37
I mean, intelligenceinteligencia is eitherbuď
the sourcezdroj of everything we valuehodnota
111
325400
3536
mám na mysli, že inteligencia je
buď zdrojom všetkého, čo si ceníme,
05:40
or we need it to safeguardochranné
everything we valuehodnota.
112
328960
2776
alebo ju potrebujeme
na ochranu všetkého, čo si ceníme.
05:43
It is our mostväčšina valuablecenný resourceprostriedky.
113
331760
2256
Je to náš najhodnotnejší zdroj.
05:46
So we want to do this.
114
334040
1536
Takže v tom chceme pokračovať.
05:47
We have problemsproblémy
that we desperatelyzúfalo need to solvevyriešiť.
115
335600
3336
Máme problémy,
ktoré zúfalo musíme vyriešiť.
05:50
We want to cureliek diseaseschoroby
like Alzheimer'sAlzheimerovej choroby and cancerrakovina.
116
338960
3200
Chceme liečiť choroby
ako Alzheimer a rakovina.
05:54
We want to understandrozumieť economicekonomický systemssystémy.
We want to improvezdokonaliť our climatepodnebie scienceveda.
117
342960
3936
Chceme porozumieť ekonomickým systémom.
Chceme zlepšiť náš klimatický výskum.
05:58
So we will do this, if we can.
118
346920
2256
Takže, pokiaľ to pôjde, budeme pokračovať.
06:01
The trainvlak is already out of the stationstanice,
and there's no brakebrzda to pullSEM.
119
349200
3286
Tento vlak je už rozbehnutý
a nejde ho zastaviť.
06:05
FinallyNakoniec, we don't standstáť
on a peakvrchol of intelligenceinteligencia,
120
353880
5456
A, nakoniec, my nestojíme na vrchole
inteligencie a pravdepodobne
06:11
or anywherekdekoľvek nearblízkosti it, likelypravdepodobný.
121
359360
1800
ani niekde blízko vrcholu.
06:13
And this really is the crucialrozhodujúci insightnáhľad.
122
361640
1896
Toto je skutočne kľúčový pohľad.
06:15
This is what makesznačky
our situationsituácia so precariousneisté,
123
363560
2416
To je dôvod, prečo je naša situácia
taká prekérna,
06:18
and this is what makesznačky our intuitionsintuícia
about riskriskovať so unreliablenespoľahlivé.
124
366000
4040
a dôvod, prečo je naša intuícia
taká nespoľahlivá pri posudzovaní rizík.
06:23
Now, just considerzvážiť the smartestnajchytrejší persončlovek
who has ever livedžíl.
125
371120
2720
Vezmite si trebárs najmúdrejšiu osobu,
ktorá kedy žila.
06:26
On almosttakmer everyone'skaždý je shortlistUžšieho here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
Takmer každý by do najužšieho výberu
zaradil Johna von Neumanna.
06:30
I mean, the impressiondojem that vonvon NeumannNeumann
madevyrobený on the people around him,
127
378080
3336
To, akým dojmom pôsobil van Neumann
na ľudí okolo seba,
06:33
and this includedzahrnuté the greatestnajväčší
mathematiciansmatematici and physicistsfyzici of his time,
128
381440
4056
medzi ktorých patrili najlepší matematici
a fyzici tej doby,
06:37
is fairlyspravodlivo well-documenteddobre zdokumentované.
129
385520
1936
je veľmi dobre zdokumentované.
06:39
If only halfpolovičná the storiespríbehy
about him are halfpolovičná truepravdivý,
130
387480
3776
Ak by len polovica historiek o ňom
bola aspoň z polovice pravdivá,
06:43
there's no questionotázka
131
391280
1216
tak nie je pochýb,
06:44
he's one of the smartestnajchytrejší people
who has ever livedžíl.
132
392520
2456
že patril medzi najmúdrejších ľudí
v histórii.
06:47
So considerzvážiť the spectrumspektrum of intelligenceinteligencia.
133
395000
2520
Takže zvážme spektrum inteligencie.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Tu máme John von Neumanna.
06:53
And then we have you and me.
135
401560
1334
A tu ste vy a ja.
06:56
And then we have a chickenkura.
136
404120
1296
A tu máme kura.
06:57
(LaughterSmiech)
137
405440
1936
(smiech)
06:59
Sorry, a chickenkura.
138
407400
1216
Pardon, kura.
07:00
(LaughterSmiech)
139
408640
1256
(smiech)
07:01
There's no reasondôvod for me to make this talk
more depressingdepresívne than it needspotreby to be.
140
409920
3736
Nie je dôvod, aby bola táto prednáška
depresívnejšia, než je nutné.
07:05
(LaughterSmiech)
141
413680
1600
(smiech)
07:08
It seemszdá overwhelminglynesmierne likelypravdepodobný, howevervšak,
that the spectrumspektrum of intelligenceinteligencia
142
416339
3477
Zdá sa nanajvýš pravdepodobné,
že rozsah inteligencie
07:11
extendspredlžuje much furtherďalej
than we currentlyv súčasnosti conceiveotehotnieť,
143
419840
3120
je oveľa širší, než ako ho
v súčasnosti vnímame,
07:15
and if we buildvybudovať machinesstroje
that are more intelligentinteligentný than we are,
144
423880
3216
a keď postavíme stroje,
ktoré budú inteligentnejšie než sme my,
07:19
they will very likelypravdepodobný
explorepreskúmať this spectrumspektrum
145
427120
2296
tak budú veľmi pravdepodobne
skúmať to spektrum
07:21
in waysspôsoby that we can't imaginepredstaviť si,
146
429440
1856
spôsobom, ktorý si nevieme predstaviť,
07:23
and exceedPrekročiť us in waysspôsoby
that we can't imaginepredstaviť si.
147
431320
2520
a presiahnu nás spôsobom,
ktorý si nevieme predstaviť.
07:27
And it's importantdôležitý to recognizeuznať that
this is truepravdivý by virtuecnosť of speedrýchlosť alonesám.
148
435000
4336
A je dôležité rozoznať, že je tomu tak
už vďaka samotnej rýchlosti.
07:31
Right? So imaginepredstaviť si if we just builtpostavený
a superintelligentsuperintelligent AIAI
149
439360
5056
Predstavte si, že sme vytvorili super
inteligentnú umelú inteligenciu (AI),
07:36
that was no smartermúdrejší
than your averagepriemerný teamtím of researchersvedci
150
444440
3456
ktorá je rovnako chytrá ako
priemerný tím vedcov
07:39
at StanfordStanford or MITMIT.
151
447920
2296
na Stanforde alebo MIT.
07:42
Well, electronicelektronický circuitsobvody
functionfunkcie about a millionmilión timesdoba fasterrýchlejšie
152
450240
2976
Lenže elektronické obvody fungujú asi
miliónkrát rýchlejšie
07:45
than biochemicalbiochemické onesones,
153
453240
1256
než biochemické,
07:46
so this machinestroj should think
about a millionmilión timesdoba fasterrýchlejšie
154
454520
3136
takže, takýto stroj by mohol myslieť
asi miliónkrát rýchlejšie
07:49
than the mindsmyseľ that builtpostavený it.
155
457680
1816
ako myseľ, ktorá ho zostrojila.
07:51
So you setsada it runningbezat for a weektýždeň,
156
459520
1656
Takže, keď ho spustíte na týždeň,
07:53
and it will performhrať 20,000 yearsleta
of human-levelčlovek-úrovni intellectualintelektuálne work,
157
461200
4560
tak vykoná rovnakú intelektuálnu prácu,
ktorá by ľuďom trvala 20 000 rokov,
07:58
weektýždeň after weektýždeň after weektýždeň.
158
466400
1960
týždeň za týždňom.
08:01
How could we even understandrozumieť,
much lessmenej constrainprinútiť,
159
469640
3096
Ako by sme vôbec mohli pochopiť,
či snáď nejako obmedziť
08:04
a mindmyseľ makingmaking this sortdruh of progresspokrok?
160
472760
2280
myseľ schopnú takéhoto pokroku?
08:08
The other thing that's worryingznepokojujúce, franklyúprimne,
161
476840
2136
Úprimne, je tu ďalšia znepokojivá vec -
08:11
is that, imaginepredstaviť si the bestnajlepší casepúzdro scenarioscenár.
162
479000
4976
predstavte si najlepší možný scenár.
08:16
So imaginepredstaviť si we hithit uponna a designdizajn
of superintelligentsuperintelligent AIAI
163
484000
4176
Predstavte si, že sa nám podarí navrhnúť
super inteligentnú AI, ktorá nebude mať
08:20
that has no safetybezpečnosť concernsznepokojenie.
164
488200
1376
žiadne bezpečnostné hrozby.
08:21
We have the perfectperfektný designdizajn
the first time around.
165
489600
3256
Budeme mať perfektnú verziu
hneď na prvý pokus.
08:24
It's as thoughhoci we'vemy máme been handedhanded an oracleveštec
166
492880
2216
Ako keby sa naplnila veštba a všetko
08:27
that behaveschová exactlypresne as intendedzamýšľaný.
167
495120
2016
by fungovalo, tak ako bolo zamýšľané.
08:29
Well, this machinestroj would be
the perfectperfektný labor-savingpracovno-úsporné devicezariadenie.
168
497160
3720
Takýto stroj by ľuďom perfektne
uľahčoval prácu.
Dokázal by navrhnúť stroj,
ktorý by zostrojil stroje,
08:33
It can designdizajn the machinestroj
that can buildvybudovať the machinestroj
169
501680
2429
08:36
that can do any physicalfyzický work,
170
504133
1763
čo vykonajú akúkoľvek fyzickú prácu,
08:37
poweredpoháňal by sunlightslnečnému žiareniu,
171
505920
1456
napájané slnečným žiarením,
08:39
more or lessmenej for the costnáklady
of rawsurový materialsmateriály.
172
507400
2696
viac-menej za cenu vstupných materiálov.
08:42
So we're talkingrozprávanie about
the endkoniec of humančlovek drudgerydrina.
173
510120
3256
Takže, hovoríme o konci ľudskej driny.
08:45
We're alsotaktiež talkingrozprávanie about the endkoniec
of mostväčšina intellectualintelektuálne work.
174
513400
2800
Hovoríme taktiež o konci väčšiny
intelektuálnej práce.
08:49
So what would apesľudoopy like ourselvesmy sami
do in this circumstanceokolnosť?
175
517200
3056
Ale čo by také opice ako sme my
robili za takýchto okolností?
08:52
Well, we'dmy by sme be freezadarmo to playhrať FrisbeeFrisbee
and give eachkaždý other massagesMasáže.
176
520280
4080
No, mali by sme čas hrať Frisbee a
vzájomne sa masírovať.
08:57
AddPridať some LSDLsd and some
questionablediskutabilné wardrobešatník choicesmožnosti,
177
525840
2856
Pridali by sme nejaké to LSD
a pochybné oblečenie
09:00
and the wholecelý worldsvet
could be like BurningNapaľovanie Man.
178
528720
2176
a celý svet by mohol byť
ako "Burning Man".
09:02
(LaughterSmiech)
179
530920
1640
(smiech)
09:06
Now, that mightsila soundznieť prettypekný good,
180
534320
2000
Teraz, aj keď to znie lákavo,
09:09
but askopýtať sa yourselfsám what would happenstať sa
181
537280
2376
ale spýtajte sa sami seba,
čo by mohlo nastať,
09:11
underpod our currentprúd economicekonomický
and politicalpolitický orderobjednať?
182
539680
2736
keby ekonomika a politika fungovali
tak ako dnes?
09:14
It seemszdá likelypravdepodobný that we would witnesssvedok
183
542440
2416
Zdá sa pravdepodobné,
že by sme boli svedkami
09:16
a levelhladina of wealthbohatstvo inequalitynerovnosť
and unemploymentnezamestnanosť
184
544880
4136
takej sociálnej nerovnosti
a nezamestnanosti,
09:21
that we have never seenvidieť before.
185
549040
1496
ako nikdy predtým.
09:22
AbsentNeprítomný a willingnessochota
to immediatelyokamžite put this newNový wealthbohatstvo
186
550560
2616
Absencia ochoty poskytnúť
toto nové bohatstvo
09:25
to the serviceslužba of all humanityľudskosť,
187
553200
1480
do služieb celého ľudstva.
09:27
a fewmálo trillionairesTrillionaires could graceGrace
the coverskryty of our businessobchodné magazinesčasopisy
188
555640
3616
Niekoľko miliardárov by zdobilo
titulky obchodných magazínov,
09:31
while the restzvyšok of the worldsvet
would be freezadarmo to starvehladovať.
189
559280
2440
zatiaľčo zbytok sveta by pokojne hladoval.
09:34
And what would the RussiansRusi
or the Chinesečínština do
190
562320
2296
A čo by urobili Rusi a Číňania, ak by sa
09:36
if they heardpočul that some companyspoločnosť
in SiliconKremík ValleyValley
191
564640
2616
dozvedeli, že nejaká spoločnosť
v Silicon Valley
09:39
was about to deploynasadenie a superintelligentsuperintelligent AIAI?
192
567280
2736
sa chystá nasadiť super inteligentnú AI?
09:42
This machinestroj would be capableschopný
of wagingvedie warvojna,
193
570040
2856
Takýto stroj by bol schopný viesť vojnu,
09:44
whetherči terrestrialpozemné or cyberCyber,
194
572920
2216
či už pozemnú alebo kybernetickú
09:47
with unprecedentedbezprecedentné powermoc.
195
575160
1680
s nebývalou silou.
09:50
This is a winner-take-allVíťaz-Take-All scenarioscenár.
196
578120
1856
To je scenár, kde víťaz berie všetko.
09:52
To be sixšesť monthsmesiaca aheadvpred
of the competitionsúťaž here
197
580000
3136
Šesťmesačný náskok pred konkurenciou
09:55
is to be 500,000 yearsleta aheadvpred,
198
583160
2776
by znamenal minimálne náskok
09:57
at a minimumminimum.
199
585960
1496
500 000 rokov.
09:59
So it seemszdá that even merepúhy rumorspovesti
of this kinddruh of breakthroughprelom
200
587480
4736
Zdá sa, že číre fámy o prelome
v tejto oblasti
10:04
could causepríčina our speciesdruh to go berserkzbesilý.
201
592240
2376
by nás mohli priviesť k nepríčetnosti.
10:06
Now, one of the mostväčšina frighteningdesivý things,
202
594640
2896
Jedna z najdesivejších vecí
10:09
in my viewvyhliadka, at this momentmoment,
203
597560
2776
v tejto chvíli z môjho pohľadu
10:12
are the kindsdruhy of things
that AIAI researchersvedci say
204
600360
4296
je to, čo hovoria vedci, ktorí vyvíjajú
umelú inteligenciu,
10:16
when they want to be reassuringupokojujúce.
205
604680
1560
keď nás chcú upokojiť.
10:19
And the mostväčšina commonobyčajný reasondôvod
we're told not to worryznepokojovať is time.
206
607000
3456
Najčastejším dôvodom, prečo sa vraj nemáme
obávať, je čas.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Toto všetko je ešte ďaleko, všakže.
10:24
This is probablypravdepodobne 50 or 100 yearsleta away.
208
612560
2440
Ešte to potrvá pravdepodobne
50 alebo 100 rokov.
10:27
One researchervýskumník has said,
209
615720
1256
Jeden výskumník povedal:
10:29
"WorryingZnepokojujúce about AIAI safetybezpečnosť
210
617000
1576
"Obávať sa bezpečnosti AI
10:30
is like worryingznepokojujúce
about overpopulationpreľudnenia on MarsMars."
211
618600
2280
je ako báť sa preľudnenia Marsu."
10:34
This is the SiliconKremík ValleyValley versionverzia
212
622116
1620
Toto je je verzia Silicon Valley:
10:35
of "don't worryznepokojovať your
prettypekný little headhlava about it."
213
623760
2376
"Nechaj to koňovi, ten má väčšiu hlavu."
10:38
(LaughterSmiech)
214
626160
1336
(smiech)
10:39
No one seemszdá to noticeoznámenia
215
627520
1896
Zdá sa, že nikto nezaznamenal,
10:41
that referencingodkazovanie the time horizonhorizont
216
629440
2616
že odvolávať sa na časový horizont
10:44
is a totaltotálnej nonNefajčiarske sequitursequitur.
217
632080
2576
je totálne nelogické.
10:46
If intelligenceinteligencia is just a matterzáležitosť
of informationinformácie processingspracovanie,
218
634680
3256
Ak je inteligencia len spôsob
spracovania informácií
10:49
and we continueďalej to improvezdokonaliť our machinesstroje,
219
637960
2656
a my budeme pokračovať v zlepšovaní
našich strojov,
10:52
we will producevyrobiť
some formformulár of superintelligencesuperinteligencie.
220
640640
2880
tak vytvoríme nejakú formu
super inteligencie.
10:56
And we have no ideanápad
how long it will take us
221
644320
3656
A nemáme poňatia,
ako dlho nám bude trvať,
11:00
to createvytvoriť the conditionspodmienky
to do that safelybezpečne.
222
648000
2400
než ju vytvoríme za bezpečných podmienok.
11:04
Let me say that again.
223
652200
1296
Poviem to ešte raz.
11:05
We have no ideanápad how long it will take us
224
653520
3816
Nemáme poňatia,
ako dlho nám bude trvať,
11:09
to createvytvoriť the conditionspodmienky
to do that safelybezpečne.
225
657360
2240
než ju vytvoríme za bezpečných podmienok.
11:12
And if you haven'tnemajú noticedvšimol,
50 yearsleta is not what it used to be.
226
660920
3456
A možno ste si nevšimli,
že 50 rokov už nie je to, čo bývalo.
11:16
This is 50 yearsleta in monthsmesiaca.
227
664400
2456
Toto je 50 rokov v mesiacoch.
11:18
This is how long we'vemy máme had the iPhoneiPhone.
228
666880
1840
Takto dlho máme iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevízia.
229
669440
2600
Takto dlho sa vysielajú Simpsonovci.
11:24
FiftyPäťdesiat yearsleta is not that much time
230
672680
2376
50 rokov nie je tak veľa času,
11:27
to meetzísť one of the greatestnajväčší challengesvýzvy
our speciesdruh will ever facetvár.
231
675080
3160
aby si náš druh poradil s najväčšou
výzvou, pred ktorou kedy stál.
11:31
OnceRaz again, we seempripadať to be failingnedostatok
to have an appropriateprimeraný emotionalcitový responseodpoveď
232
679640
4016
Ešte raz - zdá sa, že nemáme primeranú
emocionálnu odpoveď
11:35
to what we have everykaždý reasondôvod
to believe is comingPrichádza.
233
683680
2696
na niečo, čo podľa všetkého nastane.
11:38
The computerpočítačový scientistvedec StuartStuart RussellRussell
has a nicepekný analogyanalógia here.
234
686400
3976
Počítačový vedec Stuart Russell má nato
peknú analógiu.
11:42
He said, imaginepredstaviť si that we receivedobdržané
a messagespráva from an aliencudzinec civilizationcivilizácie,
235
690400
4896
Povedal, predstavte si, že dostaneme
správu od mimozemskej civilizácie,
11:47
whichktorý readprečítať:
236
695320
1696
v ktorej bude:
11:49
"People of EarthZem,
237
697040
1536
"Pozemšťania,
11:50
we will arriveprísť on your planetplanéta in 50 yearsleta.
238
698600
2360
za 50 rokov dorazíme na vašu planétu.
11:53
Get readypripravený."
239
701800
1576
Pripravte sa."
11:55
And now we're just countingpočítacie down
the monthsmesiaca untilkým the mothershipMothership landspozemky?
240
703400
4256
A teraz budeme len počítať mesiace
do pristátia mimozemskej lode?
11:59
We would feel a little
more urgencynaliehavosť than we do.
241
707680
3000
Asi by sme cítili trochu viac
naliehavosti ako teraz.
12:04
AnotherĎalším reasondôvod we're told not to worryznepokojovať
242
712680
1856
Ďalší dôvod, prečo sa
nemáme obávať, je,
12:06
is that these machinesstroje
can't help but sharezdieľam our valueshodnoty
243
714560
3016
že týmto strojom nezostane nič iné,
len zdieľať naše hodnoty,
12:09
because they will be literallydoslovne
extensionsrozšírenia of ourselvesmy sami.
244
717600
2616
pretože budú doslovne naším
vlastným rozšírením.
12:12
They'llOni si be graftedVrúbľované ontona our brainsmozgy,
245
720240
1816
Budú zabudované do našich mozgov
12:14
and we'llmy budeme essentiallyv podstate
becomestať sa theirich limbiclimbický systemssystémy.
246
722080
2360
a my budeme v podstate ich
limbickým systémom.
12:17
Now take a momentmoment to considerzvážiť
247
725120
1416
Zamyslite sa a zvážte,
12:18
that the safestnajbezpečnejšie
and only prudentobozretné pathcesta forwardvpred,
248
726560
3176
že tou najbezpečnejšou a
jedinou rozvážnou cestou,
12:21
recommendedodporúča,
249
729760
1336
ktorá sa odporúča,
12:23
is to implantimplantát this technologytechnológie
directlypriamo into our brainsmozgy.
250
731120
2800
je nasadiť tieto technológie
priamo do našich mozgov.
12:26
Now, this maysmieť in factskutočnosť be the safestnajbezpečnejšie
and only prudentobozretné pathcesta forwardvpred,
251
734600
3376
Fakticky, ona to môže byť najbezpečnejšia
a jediná rozvážna cesta vpred,
12:30
but usuallyzvyčajne one'sniečí safetybezpečnosť concernsznepokojenie
about a technologytechnológie
252
738000
3056
ale zvyčajne je dobré obávať sa
bezpečnosti technológií,
12:33
have to be prettypekný much workedpracoval out
before you stickpalica it insidevnútri your headhlava.
253
741080
3656
pretože by to malo byť celkom dobre
vyladené, než si to vložíte do hlavy.
12:36
(LaughterSmiech)
254
744760
2016
(smiech)
12:38
The deeperhlbšie problemproblém is that
buildingbudova superintelligentsuperintelligent AIAI on its ownvlastný
255
746800
5336
Hlbším problémom je, že budovanie
samotnej super inteligentnej AI sa zdá byť
12:44
seemszdá likelypravdepodobný to be easierľahšie
256
752160
1736
pravdepodobne jednoduchšie,
12:45
than buildingbudova superintelligentsuperintelligent AIAI
257
753920
1856
než budovanie super inteligentnej AI
12:47
and havingmajúce the completeddokončený neuroscienceNeuroscience
258
755800
1776
a mať vyriešenú neurovedu, ktorá nám
12:49
that allowsumožňuje us to seamlesslybezproblémovo
integrateintegrovať our mindsmyseľ with it.
259
757600
2680
dovolí bezproblémovú integráciu
našich myslí s ňou.
12:52
And givendaný that the companiesspoločnosti
and governmentsvlády doing this work
260
760800
3176
A keďže firmy a vlády,
ktoré sa na tom podieľajú,
12:56
are likelypravdepodobný to perceivevnímať themselvessami
as beingbytia in a racepreteky againstproti all othersostatné,
261
764000
3656
to pravdepodobne vnímajú
ako závod so všetkými ostatnými,
12:59
givendaný that to winvýhra this racepreteky
is to winvýhra the worldsvet,
262
767680
3256
pretože vyhrať tento závod
znamená dobyť svet,
13:02
providedza predpokladu you don't destroyzničiť it
in the nextĎalšie momentmoment,
263
770960
2456
za predpokladu, že ho hneď
vzápätí nezničíte,
13:05
then it seemszdá likelypravdepodobný
that whateverHocičo is easierľahšie to do
264
773440
2616
tak potom je pravdepodobné,
že to, čo bude jednoduchšie,
13:08
will get donehotový first.
265
776080
1200
sa urobí ako prvé.
13:10
Now, unfortunatelyNanešťastie,
I don't have a solutionriešenie to this problemproblém,
266
778560
2856
Bohužiaľ, teraz nemám riešenie
tohto problému,
13:13
apartoddelene from recommendingodporúčanie
that more of us think about it.
267
781440
2616
okrem odporúčania, že by sme o tom
mali viac premýšľať.
13:16
I think we need something
like a ManhattanManhattan ProjectProjekt
268
784080
2376
Myslím, že je nutné niečo ako
"Manhattan Projekt"
13:18
on the topictéma of artificialumelý intelligenceinteligencia.
269
786480
2016
na tému umelej inteligencie.
13:20
Not to buildvybudovať it, because I think
we'llmy budeme inevitablynevyhnutne do that,
270
788520
2736
Nie ako ju vytvoriť, pretože si
myslím, že to nevyhnutne
13:23
but to understandrozumieť
how to avoidvyhnúť sa an armszbrane racepreteky
271
791280
3336
nastane, ale v pochopení ako sa
vyhnúť závodom v zbrojení
13:26
and to buildvybudovať it in a way
that is alignedzladené with our interestszáujmy.
272
794640
3496
a ako ju vytvoriť spôsobom, ktorý je
v súlade s našimi záujmami.
13:30
When you're talkingrozprávanie
about superintelligentsuperintelligent AIAI
273
798160
2136
Keď hovoríme o super inteligentnej AI,
13:32
that can make changeszmeny to itselfsám,
274
800320
2256
ktorá dokáže meniť samu seba,
13:34
it seemszdá that we only have one chancešanca
to get the initialpočiatočné conditionspodmienky right,
275
802600
4616
tak sa zdá, že máme len jednu šancu, ako
nastaviť východiskové podmienky správne,
13:39
and even then we will need to absorbabsorbovať
276
807240
2056
a aj vtedy budeme musieť tlmiť
13:41
the economicekonomický and politicalpolitický
consequencesdôsledky of gettingzískavanie them right.
277
809320
3040
ekonomické a politické následky.
13:45
But the momentmoment we admitpripustiť
278
813760
2056
Ale vo chvíli, keď pripustíme,
13:47
that informationinformácie processingspracovanie
is the sourcezdroj of intelligenceinteligencia,
279
815840
4000
že spracovanie informácií
je zdrojom inteligencie,
13:52
that some appropriateprimeraný computationalvýpočtovej systemsystém
is what the basiszáklad of intelligenceinteligencia is,
280
820720
4800
že nejaký vhodný počítačový systém
je to, čo môže byť základom inteligencie,
13:58
and we admitpripustiť that we will improvezdokonaliť
these systemssystémy continuouslynepretržite,
281
826360
3760
a keď pripustíme, že budeme tieto
systémy neustále zdokonaľovať,
14:03
and we admitpripustiť that the horizonhorizont
of cognitionpoznávanie very likelypravdepodobný farďaleko exceedspresahuje
282
831280
4456
a keď pripustíme, že horizont poznania
veľmi pravdepodobne prekročí to,
14:07
what we currentlyv súčasnosti know,
283
835760
1200
čo v súčasnosti vieme,
14:10
then we have to admitpripustiť
284
838120
1216
tak si musíme pripustiť,
14:11
that we are in the processproces
of buildingbudova some sortdruh of god.
285
839360
2640
že sme v procese budovania
istého druhu boha.
14:15
Now would be a good time
286
843400
1576
Teraz by bolo dobré sa uistiť,
14:17
to make sure it's a god we can livežiť with.
287
845000
1953
že to bude boh, s ktorým budeme môcť žiť.
14:20
Thank you very much.
288
848120
1536
Ďakujem veľmi pekne.
14:21
(ApplausePotlesk)
289
849680
5093
(potlesk)
Translated by Marek Bednarik
Reviewed by Linda Magáthová

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com