ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sam Harris: Možemo li napraviti umjetnu inteligenciju bez da izgubimo kontrolu nad njom?

Filmed:
5,024,015 views

Prestrašeni superintelignetnom umjetnom inteligencijom? Trebali bi biti, kaže neuroznanstvenik i filozof Sam Harris -- i to ne samo na neki teorijski način. Sagradit ćemo nadljudske strojeve, kaže Harris, a još se nismo primili ukoštac sa problemima vezanim uz stvaranje nečega što bi moglo postupati s nama onako kako mi postupamo s mravima.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureneuspjeh of intuitionintuicija
0
1000
2216
Pričat ću vam
o neuspjehu intuicije
00:15
that manymnogi of us sufferpatiti from.
1
3240
1600
koji pogađa brojne među nama.
00:17
It's really a failureneuspjeh
to detectotkriti a certainsiguran kindljubazan of dangeropasnost.
2
5480
3040
To je zapravo neuspjeh
uočavanja određene vrste opasnosti.
00:21
I'm going to describeopisati a scenarioscenario
3
9360
1736
Opisat ću scenarij
00:23
that I think is bothoba terrifyingzastrašujući
4
11120
3256
za koji smatram kako je jednako zastrašujuć
00:26
and likelyVjerojatno to occurdoći,
5
14400
1760
koliko i vjerojatan da se dogodi,
00:28
and that's not a good combinationkombinacija,
6
16840
1656
a to nije dobra kombinacija,
00:30
as it turnsokreti out.
7
18520
1536
kako se ispostavlja.
00:32
And yetjoš ratherradije than be scaredprestrašen,
mostnajviše of you will feel
8
20080
2456
A ipak umjesto da budete prestrašeni,
većina će vas osjećati
00:34
that what I'm talkingkoji govori about
is kindljubazan of coolsvjež.
9
22560
2080
kako je ono o čemu govorim
nekako fora.
00:37
I'm going to describeopisati
how the gainsdobici we make
10
25200
2976
Opisat ću kako bi nas
dobici koje stvaramo
00:40
in artificialUmjetna intelligenceinteligencija
11
28200
1776
u umjetnoj inteligenciji (dalje: AI)
00:42
could ultimatelyna kraju destroyuništiti us.
12
30000
1776
na kraju mogli uništiti.
00:43
And in factčinjenica, I think it's very difficulttežak
to see how they won'tnavika destroyuništiti us
13
31800
3456
I zapravo, mislim ako je jako teško
vidjeti kako nas oni neće uništiti
00:47
or inspirenadahnuti us to destroyuništiti ourselvessebe.
14
35280
1680
ili nas nadahnuti da se sami uništimo.
00:49
And yetjoš if you're anything like me,
15
37400
1856
Pa ipak ako ste imalo poput mene,
00:51
you'llvi ćete find that it's funzabava
to think about these things.
16
39280
2656
naći ćete kako je zabavno
razmišljati o ovim stvarima.
00:53
And that responseodgovor is partdio of the problemproblem.
17
41960
3376
A taj je odgovor dio problema.
00:57
OK? That responseodgovor should worrybrinuti you.
18
45360
1720
Ok? Taj bi vas odgovor trebao brinuti.
00:59
And if I were to convinceuvjeriti you in this talk
19
47920
2656
A ako bih vas uvjeravao
ovim govorom
01:02
that we were likelyVjerojatno
to sufferpatiti a globalglobalno famineglad,
20
50600
3416
kako ćemo vjerojatno
doživjeti globalnu glad,
01:06
eitherili because of climateklima changepromijeniti
or some other catastrophekatastrofa,
21
54040
3056
bilo zbog klimatskih promjena
ili neke druge katastrofe,
01:09
and that your grandchildrenunuci,
or theirnjihov grandchildrenunuci,
22
57120
3416
te kako će vaši unuci,
ili njihovi unuci,
01:12
are very likelyVjerojatno to liveživjeti like this,
23
60560
1800
vrlo vjerojatno živjeti ovako,
01:15
you wouldn'tne bi think,
24
63200
1200
ne biste mislili:
01:17
"InterestingZanimljivo.
25
65440
1336
"Zanimljivo.
01:18
I like this TEDTED Talk."
26
66800
1200
Sviđa mi se ovaj TED govor."
01:21
FamineGlad isn't funzabava.
27
69200
1520
Glad nije zabavna.
01:23
DeathSmrt by scienceznanost fictionfikcija,
on the other handruka, is funzabava,
28
71800
3376
Smrt znanstvenom fantastikom,
s druge strane, jest zabavna,
01:27
and one of the things that worriesbrige me mostnajviše
about the developmentrazvoj of AIAI at this pointtočka
29
75200
3976
a jedna od stvari koje me najviše brinu
oko razvoja AI u ovom trenutku
01:31
is that we seemčiniti se unablenesposoban to marshalMaršal
an appropriateprikladan emotionalemotivan responseodgovor
30
79200
4096
je kako se činimo nesposobnim
stvoriti prikladan emotivni odgovor
01:35
to the dangersopasnosti that lielaž aheadnaprijed.
31
83320
1816
na opasnosti pred kojima se nalazimo.
01:37
I am unablenesposoban to marshalMaršal this responseodgovor,
and I'm givingdavanje this talk.
32
85160
3200
Ja sam nesposoban stvorti taj odgovor,
a držim ovaj govor.
01:42
It's as thoughiako we standstajati before two doorsvrata.
33
90120
2696
Ovo je kao da stojimo
pred dvama vratima.
01:44
BehindIza doorvrata numberbroj one,
34
92840
1256
Iza vrata broj jedan,
01:46
we stop makingizrađivanje progressnapredak
in buildingzgrada intelligentinteligentan machinesstrojevi.
35
94120
3296
prestanemo stvarati napredak
u izgradnji inteligentnih strojeva.
01:49
Our computerračunalo hardwarehardver and softwaresoftver
just stopszaustavlja gettinguzimajući better for some reasonrazlog.
36
97440
4016
Hardver se i softver naših računala
samo iz nekog razloga prestane poboljšavati.
01:53
Now take a momenttrenutak
to considerrazmotriti why this mightmoć happendogoditi se.
37
101480
3000
Sad uzmite trenutak,
razmislite zašto bi se to moglo dogoditi.
01:57
I mean, givendan how valuablevrijedan
intelligenceinteligencija and automationAutomatizacija are,
38
105080
3656
MIslim, uzevši kako su vrijedne
inteligencija i automatizacija,
02:00
we will continuenastaviti to improvepoboljšati our technologytehnologija
if we are at all ableu stanju to.
39
108760
3520
nastavit ćemo unaprijeđivati tehnologiju
ako smo to ikako sposobni.
02:05
What could stop us from doing this?
40
113200
1667
Što bi nas moglo zaustaviti u tome?
02:07
A full-scalepotpuna nuclearnuklearni warrat?
41
115800
1800
Potpuni nuklearni rat?
02:11
A globalglobalno pandemicčulan?
42
119000
1560
Globalna pandemija?
02:14
An asteroidasteroid impactudar?
43
122320
1320
Udar asteroida?
02:17
JustinJustin BieberBieber becomingpostaje
presidentpredsjednik of the UnitedUjedinjeni StatesDržava?
44
125640
2576
Da Justin Bieber postane
predsjednik Sjedinjenih država?
02:20
(LaughterSmijeh)
45
128240
2280
(Smijeh)
02:24
The pointtočka is, something would have to
destroyuništiti civilizationcivilizacija as we know it.
46
132760
3920
Poanta je, nešto bi moralo
uništiti civilizaciju kakvu znamo.
02:29
You have to imaginezamisliti
how badloše it would have to be
47
137360
4296
Morate zamisliti
kako bi loše to moralo biti
02:33
to preventspriječiti us from makingizrađivanje
improvementspoboljšanja in our technologytehnologija
48
141680
3336
da nas spriječi od pravljenja
poboljšanja u našoj tehnologiji
02:37
permanentlytrajno,
49
145040
1216
trajno,
02:38
generationgeneracija after generationgeneracija.
50
146280
2016
generaciju za generacijom.
02:40
AlmostGotovo by definitiondefinicija,
this is the worstnajgori thing
51
148320
2136
Skoro po definiciji,
to je najgora stvar
02:42
that's ever happeneddogodilo in humanljudski historypovijest.
52
150480
2016
koja se ikad dogodila u ljudskoj povijesti.
02:44
So the only alternativealternativa,
53
152520
1296
Dakle jedina alternativa,
02:45
and this is what lieslaži
behindiza doorvrata numberbroj two,
54
153840
2336
a to je ono što leži
iza vrata broj dva,
02:48
is that we continuenastaviti
to improvepoboljšati our intelligentinteligentan machinesstrojevi
55
156200
3136
je da nastavimo poboljšavati
naše inteligentne strojeve
02:51
yeargodina after yeargodina after yeargodina.
56
159360
1600
godinu za godinom za godinom.
02:53
At a certainsiguran pointtočka, we will buildizgraditi
machinesstrojevi that are smarterpametnije than we are,
57
161720
3640
U nekom trenutku, sagradit ćemo
strojeve koji su pametniji od nas,
02:58
and oncejednom we have machinesstrojevi
that are smarterpametnije than we are,
58
166080
2616
a jednom kad imamo strojeve
koji su pametniji od nas,
03:00
they will beginpočeti to improvepoboljšati themselvesse.
59
168720
1976
oni će početi poboljšavati sami sebe.
03:02
And then we riskrizik what
the mathematicianmatematičar IJIJ Good calledzvao
60
170720
2736
A tada risikiramo što je
matematičar I.J. Good nazvao
03:05
an "intelligenceinteligencija explosionEksplozija,"
61
173480
1776
"eksplozijom inteligencije,"
03:07
that the processpostupak could get away from us.
62
175280
2000
da bi nam se proces mogao izmaknuti.
03:10
Now, this is oftenčesto caricaturedNii,
as I have here,
63
178120
2816
Sad, to je često karikirano,
kako imam ovdje,
03:12
as a fearstrah that armiesvojske of maliciouszlonamjerni robotsroboti
64
180960
3216
kao strah da će
vojske zloćudnih robota
03:16
will attacknapad us.
65
184200
1256
udariti na nas.
03:17
But that isn't the mostnajviše likelyVjerojatno scenarioscenario.
66
185480
2696
Ali to nije najvjerojatniji scenarij.
03:20
It's not that our machinesstrojevi
will becomepostati spontaneouslyspontano malevolentzlonamjeran.
67
188200
4856
Nije da će naši strojevi
spontano postati zloćudnim.
03:25
The concernbriga is really
that we will buildizgraditi machinesstrojevi
68
193080
2616
Zapravo je briga
kako ćemo izraditi strojeve
03:27
that are so much
more competentnadležan than we are
69
195720
2056
koji su toliko
sposobniji od nas
03:29
that the slightestnajmanji divergencedivergencija
betweenizmeđu theirnjihov goalsciljevi and our ownvlastiti
70
197800
3776
da bi nas najmanje razmimoilaženje
između njihovih i naših ciljeva
03:33
could destroyuništiti us.
71
201600
1200
moglo uništiti.
03:35
Just think about how we relatepovezati to antsmravi.
72
203960
2080
Samo pomislite kako se odnosimo prema mravima.
03:38
We don't hatemrziti them.
73
206600
1656
Ne mrzimo ih.
03:40
We don't go out of our way to harmšteta them.
74
208280
2056
Ne silazimo sa svog puta
kako bismo im naudili.
03:42
In factčinjenica, sometimesponekad
we take painsbolovi not to harmšteta them.
75
210360
2376
Zapravo, ponekad
se baš i trudimo kako im ne bismo naudili.
03:44
We stepkorak over them on the sidewalktrotoar.
76
212760
2016
Prekoračimo ih na pločniku.
03:46
But wheneverkada theirnjihov presenceprisutnost
77
214800
2136
Ali kad god sje njihova prisutnost
03:48
seriouslyozbiljno conflictssukobi with one of our goalsciljevi,
78
216960
2496
ozbiljno sukobi s nekim od naših ciljeva,
03:51
let's say when constructinggradnju
a buildingzgrada like this one,
79
219480
2477
recimo kad dižemo
građevinu poput ove,
03:53
we annihilateuništiti them withoutbez a qualmGrižnja.
80
221981
1960
uništavamo ih bez pol muke.
03:56
The concernbriga is that we will
one day buildizgraditi machinesstrojevi
81
224480
2936
Briga je kako ćemo
jednog dana sagraditi strojeve
03:59
that, whetherda li they're conscioussvjestan or not,
82
227440
2736
koji, bili oni svjesni ili ne,
04:02
could treatliječiti us with similarsličan disregardZanemarite.
83
230200
2000
bi se mogli odnositi spram nas
sa sličnim nehajem.
04:05
Now, I suspectsumnjiv this seemsčini se
far-fetchednapregnut to manymnogi of you.
84
233760
2760
Sad, pretpostavljam kako
vam se ovo doima nategnutim.
04:09
I betkladiti se there are those of you who doubtsumnjati
that superintelligentsuperinteligentna AIAI is possiblemoguće,
85
237360
6336
Kladim se kako vas ima koji sumnjate
kako je superinteligentan AI moguć,
04:15
much lessmanje inevitableneizbježan.
86
243720
1656
a još manje neizbježan.
04:17
But then you mustmora find something wrongpogrešno
with one of the followingsljedeći assumptionspretpostavke.
87
245400
3620
Ali onda morate naći nešto krivo
s nekom od slijedeći pretpostavki.
04:21
And there are only threetri of them.
88
249044
1572
A samo ih je tri.
04:23
IntelligenceInteligencija is a matterstvar of informationinformacija
processingobrada in physicalfizička systemssustavi.
89
251800
4719
Inteligencija je stvar obrade
informacija u fizičkim sustavima.
04:29
ActuallyZapravo, this is a little bitbit more
than an assumptionpretpostavka.
90
257320
2615
Zapravo, ovo je
malo više od pretpostavke.
04:31
We have alreadyveć builtizgrađen
narrowsuziti intelligenceinteligencija into our machinesstrojevi,
91
259959
3457
Već smo ugradili
usku inteligenciju u naše strojeve,
04:35
and manymnogi of these machinesstrojevi performizvesti
92
263440
2016
i puno tih strojeva imaju izvedbu
04:37
at a levelnivo of superhumannadljudski
intelligenceinteligencija alreadyveć.
93
265480
2640
na razini nadljudske
inteligencije već sada.
04:40
And we know that merepuki matterstvar
94
268840
2576
I znamo kako puka materija
04:43
can give riseustati to what is calledzvao
"generalgeneral intelligenceinteligencija,"
95
271440
2616
može omogućiti nastanak
onog što nazivamo "opća inteligencija,"
04:46
an abilitysposobnost to think flexiblyfleksibilno
acrosspreko multiplevišekratnik domainsdomena,
96
274080
3656
sposobnost razmišljanja
rastezljivog na višestruka područja,
04:49
because our brainsmozak have managedupravlja it. Right?
97
277760
3136
jer to mogu naši mozgovi. U redu?
04:52
I mean, there's just atomsatomi in here,
98
280920
3936
Mislim, ovdje su samo atomi,
04:56
and as long as we continuenastaviti
to buildizgraditi systemssustavi of atomsatomi
99
284880
4496
i sve dok nastavimo
graditi sustave atoma
05:01
that displayprikaz more and more
intelligentinteligentan behaviorponašanje,
100
289400
2696
koji pokazuju sve više
inteligentnog ponašanja
05:04
we will eventuallyeventualno,
unlessosim ako we are interruptedprekida,
101
292120
2536
s vremenom ćemo,
osim ako ne budemo ometeni,
05:06
we will eventuallyeventualno
buildizgraditi generalgeneral intelligenceinteligencija
102
294680
3376
s vremenom ćemo
ugraditi opću inteligenciju
05:10
into our machinesstrojevi.
103
298080
1296
u naše strojeve.
05:11
It's crucialpresudan to realizeostvariti
that the ratestopa of progressnapredak doesn't matterstvar,
104
299400
3656
Ključno je shvatiti
kako stopa napretka nije bitna,
05:15
because any progressnapredak
is enoughdovoljno to get us into the endkraj zonezona.
105
303080
3176
jer će nas bilo kakav
napredak dovesti u krajnju zonu.
05:18
We don't need Moore'sMooreov lawzakon to continuenastaviti.
We don't need exponentialeksponencijalan progressnapredak.
106
306280
3776
Ne trebamo nastavak Mooreovog zakona.
Ne trebamo eksponencijalni rast.
05:22
We just need to keep going.
107
310080
1600
Samo trebamo nastaviti napredovati.
05:25
The seconddrugi assumptionpretpostavka
is that we will keep going.
108
313480
2920
Druga je pretpostavka
kako ćemo nastaviti napredovati.
05:29
We will continuenastaviti to improvepoboljšati
our intelligentinteligentan machinesstrojevi.
109
317000
2760
Nastavit ćemo unapređivati
naše inteligentne strojeve.
05:33
And givendan the valuevrijednost of intelligenceinteligencija --
110
321000
4376
A uzevši vrijednost inteligencije --
05:37
I mean, intelligenceinteligencija is eitherili
the sourceizvor of everything we valuevrijednost
111
325400
3536
Mislim, inteligencija je ili
izvor svega što držimo vrijednim
05:40
or we need it to safeguardzaštitne
everything we valuevrijednost.
112
328960
2776
ili je trebamo kako bi zaštitili
sve što smatramo vrijednim.
05:43
It is our mostnajviše valuablevrijedan resourceresurs.
113
331760
2256
Ona je naš najvredniji resurs.
05:46
So we want to do this.
114
334040
1536
Pa želimo to raditi.
05:47
We have problemsproblemi
that we desperatelyočajnički need to solveriješiti.
115
335600
3336
Imamo probleme
koje očajnički trebamo riješiti.
05:50
We want to curelijek diseasesoboljenja
like Alzheimer'sAlzheimerove and cancerRak.
116
338960
3200
Želimo liječiti bolesti
poput Alzheimera ili raka.
05:54
We want to understandrazumjeti economicekonomski systemssustavi.
We want to improvepoboljšati our climateklima scienceznanost.
117
342960
3936
Želimo razumjeti ekonomske sustave.
Želimo unaprijediti naše klimatske znanosti.
05:58
So we will do this, if we can.
118
346920
2256
Pa ćemo to učiniti, ako možemo.
06:01
The trainvlak is alreadyveć out of the stationstanica,
and there's no brakekočnica to pullVuci.
119
349200
3286
Vlak je već napustio postaju
a nema kočnice za povući.
06:05
FinallyKonačno, we don't standstajati
on a peakvrh of intelligenceinteligencija,
120
353880
5456
Konačno, ne stojimo
na vrhuncu inteligencije,
06:11
or anywherebilo kuda nearblizu it, likelyVjerojatno.
121
359360
1800
ili igdje blizu njega, vjerojatno.
06:13
And this really is the crucialpresudan insightuvid.
122
361640
1896
A to je zbilja ključan uvid.
06:15
This is what makesmarke
our situationsituacija so precariousneizvjestan,
123
363560
2416
To je ono što čini
našu situaciju tako neizvjesnom,
06:18
and this is what makesmarke our intuitionsintuicije
about riskrizik so unreliablenepouzdani.
124
366000
4040
i to je ono što čini
naše intuicije o riziku tako nepouzdanim.
06:23
Now, just considerrazmotriti the smartestnajpametniji personosoba
who has ever livedživjeli.
125
371120
2720
Sad, samo razmotrite najpametniju osobu
koja je ikad živjela.
06:26
On almostskoro everyone'ssvi su shortlistuži izbor here
is JohnJohn vonvon NeumannNeumann.
126
374640
3416
U gotovo svačijem užem izboru
ovdje je John von Neumann.
06:30
I mean, the impressionutisak that vonvon NeumannNeumann
madenapravljen on the people around him,
127
378080
3336
Mislim, utisak koji je von Neumann
ostavljao na ljude oko sebe,
06:33
and this includeduključen the greatestnajveći
mathematiciansmatematičari and physicistsfizičari of his time,
128
381440
4056
a ti uključuju najveće matematičare
i fizičare njegovog doba,
06:37
is fairlypošteno well-documentedDobro dokumentovane.
129
385520
1936
je dobro dokumentirana.
06:39
If only halfpola the storiespriče
about him are halfpola truepravi,
130
387480
3776
Ako je samo pola priča
o njemu na pola istinito,
06:43
there's no questionpitanje
131
391280
1216
nema pitanja
06:44
he's one of the smartestnajpametniji people
who has ever livedživjeli.
132
392520
2456
on je jedna od najpametnijih
osoba koje su ikad živjele.
06:47
So considerrazmotriti the spectrumspektar of intelligenceinteligencija.
133
395000
2520
Pa razmotrite spektar inteligencije.
06:50
Here we have JohnJohn vonvon NeumannNeumann.
134
398320
1429
Ovdje imamo John von Neumanna.
06:53
And then we have you and me.
135
401560
1334
A onda imamo vas i mene.
06:56
And then we have a chickenpiletina.
136
404120
1296
A onda imamo piceka.
06:57
(LaughterSmijeh)
137
405440
1936
(Smijeh)
06:59
Sorry, a chickenpiletina.
138
407400
1216
Pardon, piceka.
07:00
(LaughterSmijeh)
139
408640
1256
(Smijeh)
07:01
There's no reasonrazlog for me to make this talk
more depressingdepresivan than it needspotrebe to be.
140
409920
3736
Nema razloga da učinim ovaj govor
depresivnijem nego što mora biti.
07:05
(LaughterSmijeh)
141
413680
1600
(Smijeh)
07:08
It seemsčini se overwhelminglyneodoljivo likelyVjerojatno, howevermeđutim,
that the spectrumspektar of intelligenceinteligencija
142
416339
3477
Izgleda premoćno vjerojatno,
međutim, kako se spektar inteligencije
07:11
extendsproteže se much furtherunaprijediti
than we currentlytrenutno conceivezačeti,
143
419840
3120
proteže puno dalje
nego što trenutno poimamo,
07:15
and if we buildizgraditi machinesstrojevi
that are more intelligentinteligentan than we are,
144
423880
3216
i ako sagradimo strojeve
koji su inteligentniji od nas,
07:19
they will very likelyVjerojatno
exploreistražiti this spectrumspektar
145
427120
2296
oni će vrlo vjerojatno
istražiti ovaj spektar
07:21
in waysnačine that we can't imaginezamisliti,
146
429440
1856
na načine koje ne možemo zamisliti,
07:23
and exceedprelazi us in waysnačine
that we can't imaginezamisliti.
147
431320
2520
te nas nadmašiti na načine
koje ne možemo zamisliti.
07:27
And it's importantvažno to recognizeprepoznati that
this is truepravi by virtuevrlina of speedubrzati alonesam.
148
435000
4336
A bitno je prepoznati kako je
to istinito već po samom svojstvu brzine.
07:31
Right? So imaginezamisliti if we just builtizgrađen
a superintelligentsuperinteligentna AIAI
149
439360
5056
U redu? Zamislite kako smo
upravo sagradili superinteligentan AI
07:36
that was no smarterpametnije
than your averageprosječan teamtim of researchersistraživači
150
444440
3456
koji nije pametniji od
vašeg prosječnog tima istraživača
07:39
at StanfordStanford or MITMIT.
151
447920
2296
na Stanfordu ili MIT-u.
07:42
Well, electronicelektronička circuitskrugovi
functionfunkcija about a millionmilijuna timesputa fasterbrže
152
450240
2976
Dobro, elektronički krugovi
rade oko milijun puta brže
07:45
than biochemicalbiokemijski onesone,
153
453240
1256
od onih biokemijskih,
07:46
so this machinemašina should think
about a millionmilijuna timesputa fasterbrže
154
454520
3136
pa bi ovaj stroj trebao
razmišljati oko milijun puta brže
07:49
than the mindsmisli that builtizgrađen it.
155
457680
1816
od umova koji su ga sagradili.
07:51
So you setset it runningtrčanje for a weektjedan,
156
459520
1656
Pa ga pustite raditi tjedan dana,
07:53
and it will performizvesti 20,000 yearsgodina
of human-levelljudska razina intellectualintelektualac work,
157
461200
4560
a on će izvesti 20.000 godina
intelektualnog rada ljudske razine,
07:58
weektjedan after weektjedan after weektjedan.
158
466400
1960
tjedan za tjednom za tjednom.
08:01
How could we even understandrazumjeti,
much lessmanje constrainnagnati,
159
469640
3096
Kako bi uopće mogli razumjeti,
puno manje ograničiti,
08:04
a mindum makingizrađivanje this sortvrsta of progressnapredak?
160
472760
2280
um koji stvara ovu vrst napretka?
08:08
The other thing that's worryingzabrinjavajući, franklyiskreno,
161
476840
2136
Druga stvar koja je
zabrinjavajuća, iskreno,
08:11
is that, imaginezamisliti the bestnajbolje casespis scenarioscenario.
162
479000
4976
je kako, zamislite najbolji scenarij.
08:16
So imaginezamisliti we hithit uponna a designdizajn
of superintelligentsuperinteligentna AIAI
163
484000
4176
dakle zamislite kako pogodimo
dizajn superinteligentne AI
08:20
that has no safetysigurnosni concernszabrinutost.
164
488200
1376
koji nema sigurnosnih problema.
08:21
We have the perfectsavršen designdizajn
the first time around.
165
489600
3256
Imamo savršen dizajn
iz prve.
08:24
It's as thoughiako we'veimamo been handedruku an oracleproročanstvo
166
492880
2216
Kao da nam je dano proročanstvo
08:27
that behavesponaša se exactlytočno as intendednamijenjen.
167
495120
2016
koje se ponaša posve kako bi i trebalo.
08:29
Well, this machinemašina would be
the perfectsavršen labor-savingštedi rad deviceuređaj.
168
497160
3720
Dobro, taj bi stroj bio
savršena naprava za uštedu rada.
08:33
It can designdizajn the machinemašina
that can buildizgraditi the machinemašina
169
501680
2429
Može dizajnirati stroj
koji može izraditi stroj
08:36
that can do any physicalfizička work,
170
504133
1763
koji može obavljati
svaki fizički rad,
08:37
poweredpogon by sunlightsunčana svjetlost,
171
505920
1456
pogonjen sunčanom svjetlošću,
08:39
more or lessmanje for the costcijena
of rawsirov materialsmaterijali.
172
507400
2696
manje ili više po cijeni
sirovog materijala.
08:42
So we're talkingkoji govori about
the endkraj of humanljudski drudgerynaporan.
173
510120
3256
Dakle pričamo o
kraju ljudske tlake.
08:45
We're alsotakođer talkingkoji govori about the endkraj
of mostnajviše intellectualintelektualac work.
174
513400
2800
Također pričamo o kraju
većine intelektualnog rada.
08:49
So what would apesmajmuni like ourselvessebe
do in this circumstanceokolnost?
175
517200
3056
Pa što bi majmuni poput nas
činili u takvim okolnostima?
08:52
Well, we'dmi bismo be freebesplatno to playigrati FrisbeeFrizbi
and give eachsvaki other massagesmasaže.
176
520280
4080
Ok, bili bi slobodni
igrati frizbi i masirati se međusobno.
08:57
AddDodati some LSDLSD-A and some
questionablesumnjiv wardrobegarderoba choicesizbori,
177
525840
2856
Dodajte nešto LSD i nešto
upitnih odluka oko odjeće,
09:00
and the wholečitav worldsvijet
could be like BurningGori Man.
178
528720
2176
i cijeli bi svijet mogao
biti poput Burning Mana.
09:02
(LaughterSmijeh)
179
530920
1640
(Smijeh)
09:06
Now, that mightmoć soundzvuk prettyprilično good,
180
534320
2000
Sad, to može zvučati prilično dobro,
09:09
but askpitati yourselfsami what would happendogoditi se
181
537280
2376
ali pitajte se što bi se dogodilo
09:11
underpod our currentstruja economicekonomski
and politicalpolitički ordernarudžba?
182
539680
2736
pod našim trenutnim
ekonomskim i političkim poretkom?
09:14
It seemsčini se likelyVjerojatno that we would witnesssvjedok
183
542440
2416
Čini se vjerojatnim
kako bismo svjedočili
09:16
a levelnivo of wealthbogatstvo inequalitynejednakost
and unemploymentnezaposlenosti
184
544880
4136
razini nejednakosti u bogatstvu
te nezaposlenosti
09:21
that we have never seenvidio before.
185
549040
1496
kakvu nismo vidjeli nikad prije.
09:22
AbsentOdsutan a willingnessspremnost
to immediatelyodmah put this newnovi wealthbogatstvo
186
550560
2616
Bez volje za trenutnim
stavljanjem tog novog bogatstva
09:25
to the serviceservis of all humanityčovječanstvo,
187
553200
1480
u službu svog čovječanstva,
09:27
a fewnekoliko trillionairestrilioner could gracemilost
the coverskorice of our businessPoslovni magazinesčasopisi
188
555640
3616
nekoliko bi trilijunaša moglo
resiti naslovnice naših poslovni časopisa
09:31
while the restodmor of the worldsvijet
would be freebesplatno to starveod gladi.
189
559280
2440
dok bi ostatak svijeta
bio slobodan gladovati.
09:34
And what would the RussiansRusi
or the Chinesekineski do
190
562320
2296
A što bi Rusi
ili Kinezi učinili
09:36
if they heardčuo that some companydruštvo
in SiliconSilicij ValleyDolina
191
564640
2616
ako bi čuli kako se
neka kompanija u Silicijskoj dolini
09:39
was about to deployuvođenje a superintelligentsuperinteligentna AIAI?
192
567280
2736
upravo sprema izbaciti
superinteligentnu AI?
09:42
This machinemašina would be capablesposoban
of wagingvođenje warrat,
193
570040
2856
Taj bi stroj bio
sposoban voditi rat,
09:44
whetherda li terrestrialZemaljski or cyberCyber,
194
572920
2216
bilo zemaljski ili cyber,
09:47
with unprecedentedbez presedana powervlast.
195
575160
1680
sa neviđenom moći.
09:50
This is a winner-take-allpobjednik uzima sve scenarioscenario.
196
578120
1856
Ovo je scenarij gdje pobjednik dobija sve.
09:52
To be sixšest monthsmjeseci aheadnaprijed
of the competitionkonkurencija here
197
580000
3136
Biti šest mjeseci ispred
konkurencije ovdje
09:55
is to be 500,000 yearsgodina aheadnaprijed,
198
583160
2776
je biti 500.000 godina ispred,
09:57
at a minimumminimum.
199
585960
1496
minimalno.
09:59
So it seemsčini se that even merepuki rumorsglasine
of this kindljubazan of breakthroughproboj
200
587480
4736
Pa se čini kako bi čak i puke glasine
o ovakvoj vrsti probitka
10:04
could causeuzrok our speciesvrsta to go berserklud.
201
592240
2376
mogle prouzročiti našu vrstu da poludi.
10:06
Now, one of the mostnajviše frighteningzastrašujuć things,
202
594640
2896
Sad, jedna od najviše
zastrašujućih stvari,
10:09
in my viewpogled, at this momenttrenutak,
203
597560
2776
kako ja to vidim, u ovom trenutku,
10:12
are the kindsvrste of things
that AIAI researchersistraživači say
204
600360
4296
su stvari koje istraživači AI govore
10:16
when they want to be reassuringkoji opet uvjerava.
205
604680
1560
kada žele biti ohrabrujući.
10:19
And the mostnajviše commonzajednička reasonrazlog
we're told not to worrybrinuti is time.
206
607000
3456
A najčešći razlog za bezbrižnost
koji navode je vrijeme.
10:22
This is all a long way off,
don't you know.
207
610480
2056
To je sve daleko,
ne znaš li?
10:24
This is probablyvjerojatno 50 or 100 yearsgodina away.
208
612560
2440
To je vjerojatno 50 ili 100 godina od nas.
10:27
One researcherIstraživač has said,
209
615720
1256
Jedan je istraživač rekao:
10:29
"WorryingBrige about AIAI safetysigurnosni
210
617000
1576
"Brinuti se oko sigurnosti AI
10:30
is like worryingzabrinjavajući
about overpopulationprenaseljenost on MarsMars."
211
618600
2280
je poput brige
o prekomjernoj populaciji na Marsu."
10:34
This is the SiliconSilicij ValleyDolina versionverzija
212
622116
1620
To je verzija iz Silicijske doline
10:35
of "don't worrybrinuti your
prettyprilično little headglava about it."
213
623760
2376
one: "nemoj brinuti
svoju lijepu malu glavu sa time."
10:38
(LaughterSmijeh)
214
626160
1336
(Smijeh)
10:39
No one seemsčini se to noticeobavijest
215
627520
1896
Izgleda kako nitko ne primjećuje
10:41
that referencingreferenciranje the time horizonhorizont
216
629440
2616
kako je oslanjanje na vremenski horizont
10:44
is a totalukupno nonsobe sequiturzaključak.
217
632080
2576
potpuni non sequitur.
10:46
If intelligenceinteligencija is just a matterstvar
of informationinformacija processingobrada,
218
634680
3256
Ako je inteligencija samo pitanje
procesiranja informacija,
10:49
and we continuenastaviti to improvepoboljšati our machinesstrojevi,
219
637960
2656
te ako nastavimo
unapređivati naše strojeve,
10:52
we will produceproizvoditi
some formoblik of superintelligencesuperinteligencija.
220
640640
2880
stvorit ćemo
neki oblik superinteligencije.
10:56
And we have no ideaideja
how long it will take us
221
644320
3656
A nemamo pojma
koliko će nam dugo trebati
11:00
to createstvoriti the conditionsUvjeti
to do that safelySigurno.
222
648000
2400
stvoriti uvjete
kako bismo to učinili sigurno.
11:04
Let me say that again.
223
652200
1296
Dajte da to kažem ponovo.
11:05
We have no ideaideja how long it will take us
224
653520
3816
Nemamo pojma
koliko će nam dugo trebati
11:09
to createstvoriti the conditionsUvjeti
to do that safelySigurno.
225
657360
2240
stvoriti uvjete
kako bismo to učinili sigurno.
11:12
And if you haven'tnisu noticedprimijetio,
50 yearsgodina is not what it used to be.
226
660920
3456
A ako niste primijetili,
50 godina nije što je nekad bilo.
11:16
This is 50 yearsgodina in monthsmjeseci.
227
664400
2456
Ovo je 50 godina u mjesecima.
11:18
This is how long we'veimamo had the iPhoneiPhone.
228
666880
1840
Ovo je koliko dugo imamo iPhone.
11:21
This is how long "The SimpsonsSimpsons"
has been on televisiontelevizija.
229
669440
2600
Ovo je koliko dugo su
"Simpsoni" na televiziji.
11:24
FiftyPedeset yearsgodina is not that much time
230
672680
2376
Pedeset godina nije tako puno vremena
11:27
to meetsastati one of the greatestnajveći challengesizazovi
our speciesvrsta will ever facelice.
231
675080
3160
za sučeliti se sa jednim od
najvećih izazova koje će naša vrsta ikad imati.
11:31
OnceJednom again, we seemčiniti se to be failingnedostatak
to have an appropriateprikladan emotionalemotivan responseodgovor
232
679640
4016
Još jednom, izgleda da ne uspijevamo
imati prikladan emotivni odgovor
11:35
to what we have everysvaki reasonrazlog
to believe is comingdolazak.
233
683680
2696
za što imamo
svaki razlog vjerovati kako dolazi.
11:38
The computerračunalo scientistnaučnik StuartStuart RussellRussell
has a nicelijepo analogyanalogija here.
234
686400
3976
Računalni znanstvenik Stuart Russell
ovdje pravi zgodnu analogiju.
11:42
He said, imaginezamisliti that we receivedprimljen
a messageporuka from an alienstranac civilizationcivilizacija,
235
690400
4896
On kaže, zamislite kako smo primili
poruku od vanzemaljske civilizacije,
11:47
whichkoji readčitati:
236
695320
1696
koja piše:
11:49
"People of EarthZemlja,
237
697040
1536
"Ljudi Zemlje,
11:50
we will arrivestići on your planetplaneta in 50 yearsgodina.
238
698600
2360
stići ćemo na vaš planet za 50 godina.
11:53
Get readyspreman."
239
701800
1576
Pripremite se."
11:55
And now we're just countingračunajući down
the monthsmjeseci untildo the mothershipmatični brod landszemljišta?
240
703400
4256
I sad mi samo brojimo
mjesece dok matični brod ne sleti?
11:59
We would feel a little
more urgencyhitnost than we do.
241
707680
3000
Osjećali bismo malo veću
hitnost nego što osjećamo.
12:04
AnotherJoš jedan reasonrazlog we're told not to worrybrinuti
242
712680
1856
Još jedan razlog
što nam govore da ne brinemo
12:06
is that these machinesstrojevi
can't help but sharePodjeli our valuesvrijednosti
243
714560
3016
je kako si ti strojevi
ne mogu pomoći da ne dijele naše vrijednosti
12:09
because they will be literallydoslovce
extensionsproširenja of ourselvessebe.
244
717600
2616
jer će doslovno biti
produžeci nas samih.
12:12
They'llOni će be graftedcijepljenju ontona our brainsmozak,
245
720240
1816
Bit će usađeni u naše mozgove,
12:14
and we'lldobro essentiallyu srži
becomepostati theirnjihov limbicgranični systemssustavi.
246
722080
2360
a mi ćemo u biti
postati njihov limbički sustav.
12:17
Now take a momenttrenutak to considerrazmotriti
247
725120
1416
sad uzmite trenutak pa razmislite
12:18
that the safestnajsigurniji
and only prudentrazborito pathstaza forwardnaprijed,
248
726560
3176
kako je najsigurniji
i jedini razborit put naprijed,
12:21
recommendedpreporučuje se,
249
729760
1336
preporučeno,
12:23
is to implantimplantat this technologytehnologija
directlydirektno into our brainsmozak.
250
731120
2800
ugraditi tu tehnologiju
izravno u naše mozgove.
12:26
Now, this maysvibanj in factčinjenica be the safestnajsigurniji
and only prudentrazborito pathstaza forwardnaprijed,
251
734600
3376
Sad, to može zapravo biti najsigurniji
i jedini razborit put nparijed,
12:30
but usuallyobično one'sjedan je safetysigurnosni concernszabrinutost
about a technologytehnologija
252
738000
3056
ali obično sigurnosni problemi
oko tehnologije
12:33
have to be prettyprilično much workedradio out
before you stickštap it insideiznutra your headglava.
253
741080
3656
moraju biti manje više izglađeni
prije nego ju zabijete u vlastitu glavu.
12:36
(LaughterSmijeh)
254
744760
2016
(Smijeh)
12:38
The deeperdublje problemproblem is that
buildingzgrada superintelligentsuperinteligentna AIAI on its ownvlastiti
255
746800
5336
Dublji je problem što se
izgradnja superinteligentne AI
12:44
seemsčini se likelyVjerojatno to be easierlakše
256
752160
1736
čini vjerojatno lakšim
12:45
than buildingzgrada superintelligentsuperinteligentna AIAI
257
753920
1856
nego izgradnja superinteligentne AI
12:47
and havingima the completeddovršen neuroscienceneuroznanost
258
755800
1776
i imanje zaokružene neuroznanosti
12:49
that allowsomogućuje us to seamlesslyneprimjetno
integrateintegrirati our mindsmisli with it.
259
757600
2680
koja nam omogućuje da ju glatko
integriramo s našim umovima.
12:52
And givendan that the companiestvrtke
and governmentsvlade doing this work
260
760800
3176
A uzevši kako će kompanije
i vlade koje se bave ovim poslom
12:56
are likelyVjerojatno to perceivedoživljavaju themselvesse
as beingbiće in a raceutrka againstprotiv all othersdrugi,
261
764000
3656
vjerojatno percipirati
kako su u utrci protiv svih ostalih,
12:59
givendan that to winpobijediti this raceutrka
is to winpobijediti the worldsvijet,
262
767680
3256
uzevši kako je osvojiti ovu utrku
isto što i osvojiti svijet,
13:02
providedako you don't destroyuništiti it
in the nextSljedeći momenttrenutak,
263
770960
2456
pod pretpostavkom kako ga
nećete uništiti u slijedećem trenutku,
13:05
then it seemsčini se likelyVjerojatno
that whateveršto god is easierlakše to do
264
773440
2616
onda se čini vjerojatnim
kako će što god je lakše učiniti
13:08
will get doneučinio first.
265
776080
1200
biti učinjeno prvo.
13:10
Now, unfortunatelynažalost,
I don't have a solutionriješenje to this problemproblem,
266
778560
2856
Sad, na nesreću,
nemam rješenje za ovaj problem,
13:13
apartosim from recommendingpreporuke
that more of us think about it.
267
781440
2616
osim preporučiti kako bi više nas
trebalo razmišljati o njemu.
13:16
I think we need something
like a ManhattanManhattan ProjectProjekt
268
784080
2376
Mislim kako trebamo nešto
poput Manhattan Projecta
13:18
on the topictema of artificialUmjetna intelligenceinteligencija.
269
786480
2016
po pitanju umjetne inteligencije.
13:20
Not to buildizgraditi it, because I think
we'lldobro inevitablyneizbježno do that,
270
788520
2736
Ne kako bismo je stvorili, jer
ćemo to neizbježno napraviti,
13:23
but to understandrazumjeti
how to avoidIzbjegavajte an armsoružje raceutrka
271
791280
3336
već kako bismo razumjeli
kako izbjeći utrku u naoružanju
13:26
and to buildizgraditi it in a way
that is alignedporavnati with our interestsinteresi.
272
794640
3496
te kako ju sagraditi na način
koji se podudara s našim interesima.
13:30
When you're talkingkoji govori
about superintelligentsuperinteligentna AIAI
273
798160
2136
Kad pričate o
superinteligentnoj AI
13:32
that can make changespromjene to itselfsebe,
274
800320
2256
koja može raditi preinake sebi samoj,
13:34
it seemsčini se that we only have one chanceprilika
to get the initialpočetni conditionsUvjeti right,
275
802600
4616
čini se kako imamo samo jednu priliku
za posložiti ispravne početne uvjete,
13:39
and even then we will need to absorbupiti
276
807240
2056
a čak i tada ćemo trebati upiti
13:41
the economicekonomski and politicalpolitički
consequencesposljedice of gettinguzimajući them right.
277
809320
3040
ekonomske i političke
posljedice slaganja takvih uvjeta.
13:45
But the momenttrenutak we admitpriznati
278
813760
2056
Ali trenutak u kojem priznamo
13:47
that informationinformacija processingobrada
is the sourceizvor of intelligenceinteligencija,
279
815840
4000
kako je obrada informacija
izvor inteligencije,
13:52
that some appropriateprikladan computationalračunalna systemsistem
is what the basisosnova of intelligenceinteligencija is,
280
820720
4800
kako je neki prikladan račualni sustav
ono na čemu se inteligencija temelji,
13:58
and we admitpriznati that we will improvepoboljšati
these systemssustavi continuouslyneprekidno,
281
826360
3760
te priznamo kako ćemo
trajno unaprijeđivati te sustave,
14:03
and we admitpriznati that the horizonhorizont
of cognitionspoznaja very likelyVjerojatno fardaleko exceedspremašuje
282
831280
4456
te priznamo kako horizont
spoznaje vrlo vjerojatno daleko premašuje
14:07
what we currentlytrenutno know,
283
835760
1200
što trenutno znamo,
14:10
then we have to admitpriznati
284
838120
1216
onda moramo priznati
14:11
that we are in the processpostupak
of buildingzgrada some sortvrsta of god.
285
839360
2640
kako smo u postupku
izgradnje neke vrste boga.
14:15
Now would be a good time
286
843400
1576
Sad bi bilo dobro vrijeme
14:17
to make sure it's a god we can liveživjeti with.
287
845000
1953
osigurati da to bude bog
s kakvim možemo živjeti.
14:20
Thank you very much.
288
848120
1536
Hvala Vam puno.
14:21
(ApplausePljesak)
289
849680
5093
(Pljesak)
Translated by Stjepan Mateljan
Reviewed by Ivan Stamenkovic

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com