ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com
TEDSummit

Sam Harris: Can we build AI without losing control over it?

Sem Haris (Sam Harris): Možemo li napraviti veštačku inteligenciju, a da ne izgubimo kontrolu nad njom?

Filmed:
5,024,015 views

Plašite se superinteligentne veštačke inteligencije? I treba, i to ne samo u teroji, kaže neuronaučnik i filozof Sem Haris. Napravićemo nadljudske mašine, kaže Haris, ali još uvek se nismo izborili sa problemom da ćemo stvoriti nešto što će se prema nama odnositi kao što se mi odnosimo prema mravima.
- Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live. Full bio

Double-click the English transcript below to play the video.

00:13
I'm going to talk
about a failureнеуспех of intuitionинтуиција
0
1000
2216
Pričaću vam o porazu intuicije
00:15
that manyмноги of us sufferпатити from.
1
3240
1600
od koga mnogi patimo.
00:17
It's really a failureнеуспех
to detectоткрити a certainизвестан kindкинд of dangerопасност.
2
5480
3040
Zista je porazno opaziti
određenu vrstu opasnosti.
00:21
I'm going to describeопишите a scenarioсценарио
3
9360
1736
Opisaću vam jedan scenario
00:23
that I think is bothи једно и друго terrifyingзастрашујуће
4
11120
3256
za koji mislim da je i zastrašujuć
00:26
and likelyвероватно to occurпојавити,
5
14400
1760
i koji se realno može dogoditi,
00:28
and that's not a good combinationкомбинација,
6
16840
1656
a to, kako se čini,
00:30
as it turnsокреће се out.
7
18520
1536
nije dobra kombinacija.
00:32
And yetјош увек ratherприлично than be scaredуплашен,
mostнајвише of you will feel
8
20080
2456
A opet umesto da se uplaše,
mnogi od vas će misliti
00:34
that what I'm talkingпричају about
is kindкинд of coolхладан.
9
22560
2080
da je ono o čemu pričam nešto kul.
00:37
I'm going to describeопишите
how the gainsдобитке we make
10
25200
2976
Opisaću vam kako bi
napredak koji pravimo
00:40
in artificialвештачки intelligenceинтелигенција
11
28200
1776
u veštačkoj inteligenciji
00:42
could ultimatelyна крају destroyуништити us.
12
30000
1776
mogao na kraju da nas uništi.
00:43
And in factчињеница, I think it's very difficultтешко
to see how they won'tнеће destroyуништити us
13
31800
3456
Zapravo, mislim da je jako teško
zamisliti kako nas neće uništiti,
00:47
or inspireинспирисати us to destroyуништити ourselvesсами.
14
35280
1680
ili navesti da se samouništimo.
00:49
And yetјош увек if you're anything like me,
15
37400
1856
A opet ako ste imalo kao ja,
00:51
you'llти ћеш find that it's funзабавно
to think about these things.
16
39280
2656
shvatićete da je zabavno
razmišljati o ovim stvarima.
00:53
And that responseодговор is partдео of the problemпроблем.
17
41960
3376
I taj odgovor je deo ovog problema.
00:57
OK? That responseодговор should worryзабринути you.
18
45360
1720
OK? Taj odgovor treba da vas brine.
00:59
And if I were to convinceубедити you in this talk
19
47920
2656
Kad bih vas u ovom govoru ubedio
01:02
that we were likelyвероватно
to sufferпатити a globalглобално famineглад,
20
50600
3416
da ćemo vrlo verovatno
globalno gladovati,
01:06
eitherили because of climateклима changeпромена
or some other catastropheкатастрофа,
21
54040
3056
bilo zbog klimatskih promena
ili neke druge katastrofe,
01:09
and that your grandchildrenунуци,
or theirњихова grandchildrenунуци,
22
57120
3416
i da će vaši unuci, ili njihovi unuci,
01:12
are very likelyвероватно to liveживи like this,
23
60560
1800
vrlo verovatno živeti ovako,
01:15
you wouldn'tне би think,
24
63200
1200
ne biste mislili:
01:17
"InterestingZanimljivo.
25
65440
1336
"Zanimljivo.
01:18
I like this TEDTED Talk."
26
66800
1200
Dobar ovaj TED Talk."
01:21
FamineGlad isn't funзабавно.
27
69200
1520
Glad nije zabavna.
01:23
DeathSmrt by scienceНаука fictionфикција,
on the other handруку, is funзабавно,
28
71800
3376
Smrt u naučnoj fantastici,
sa druge strane, jeste zabavna,
01:27
and one of the things that worriesбриге me mostнајвише
about the developmentразвој of AIAI at this pointтачка
29
75200
3976
i nešto što me najviše brine
u ovom trenutku u vezi sa razvojem VI
01:31
is that we seemИзгледа unableнеспособан to marshalMaršal
an appropriateприкладан emotionalемоционално responseодговор
30
79200
4096
je što izgleda da ne možemo da pružimo
odgovarajući emocionalni odgovor
01:35
to the dangersопасности that lieлажи aheadнапред.
31
83320
1816
na opasnosti koje dolaze.
01:37
I am unableнеспособан to marshalMaršal this responseодговор,
and I'm givingдавање this talk.
32
85160
3200
Ni ja ne mogu da pružim ovaj odgovor,
a držim ovaj govor.
01:42
It's as thoughипак we standстој before two doorsврата.
33
90120
2696
To je kao da stojimo ispred dvoja vrata.
01:44
BehindIza doorврата numberброј one,
34
92840
1256
Iza vrata broj jedan,
01:46
we stop makingстварање progressнапредак
in buildingзграде intelligentинтелигентан machinesмашине.
35
94120
3296
zaustavljamo napredak
u pravljenju inteligentnih mašina.
01:49
Our computerрачунар hardwareхардваре and softwareсофтвер
just stopsзауставља gettingдобијања better for some reasonразлог.
36
97440
4016
Kompjuterski hardver i softver prosto
prestaju da budu bolji iz nekog razloga.
01:53
Now take a momentтренутак
to considerразмотрити why this mightМожда happenдесити се.
37
101480
3000
Sada na trenutak razmislite
zašto bi se ovo moglo desiti.
01:57
I mean, givenдато how valuableвредно
intelligenceинтелигенција and automationAutomatizacija are,
38
105080
3656
Mislim, s obzirom koliku vrednost
imaju inteligencija i automatizacija,
02:00
we will continueНастави to improveпобољшати our technologyтехнологија
if we are at all ableу могуцности to.
39
108760
3520
nastavićemo da unapređujemo tehnologiju
ako smo uopšte kadri za to.
02:05
What could stop us from doing this?
40
113200
1667
Šta bi nas moglo sprečiti u tome?
02:07
A full-scalepuna nuclearнуклеарна warрат?
41
115800
1800
Svetski nuklearni rat?
02:11
A globalглобално pandemicпандемија?
42
119000
1560
Globalna pandemija?
02:14
An asteroidастероид impactутицај?
43
122320
1320
Pad asteroida?
02:17
JustinJustin BieberBiber becomingпостаје
presidentпредседник of the UnitedUjedinjeni StatesDržava?
44
125640
2576
Ako Džastin Biber postane
predsednik Amerike?
02:20
(LaughterSmeh)
45
128240
2280
(Smeh)
02:24
The pointтачка is, something would have to
destroyуништити civilizationцивилизација as we know it.
46
132760
3920
Poenta je u tome, da bi nešto moralo
da uništi civilizaciju ovakvu kakva je.
02:29
You have to imagineзамислити
how badлоше it would have to be
47
137360
4296
Morate zamisliti kako
bi zaista loše moralo biti to
02:33
to preventспречити us from makingстварање
improvementsпобољшања in our technologyтехнологија
48
141680
3336
što bi nas trajno sprečilo
da unapređujemo,
02:37
permanentlytrajno,
49
145040
1216
tehnologiju,
02:38
generationгенерације after generationгенерације.
50
146280
2016
generaciju za generacijom.
02:40
AlmostSkoro by definitionдефиниција,
this is the worstнајгоре thing
51
148320
2136
Skoro po definiciji, ovo je najgora stvar
02:42
that's ever happenedдесило in humanљудско historyисторија.
52
150480
2016
koja se ikada desila u ljudskoj istoriji.
02:44
So the only alternativeалтернатива,
53
152520
1296
Pa je jedina alternativa,
02:45
and this is what liesлажи
behindиза doorврата numberброј two,
54
153840
2336
a ovo se nalazi iza vrata broj dva,
02:48
is that we continueНастави
to improveпобољшати our intelligentинтелигентан machinesмашине
55
156200
3136
da nastavimo da unapređujemo
naše inteligentne mašine
02:51
yearгодине after yearгодине after yearгодине.
56
159360
1600
bez prestanka.
02:53
At a certainизвестан pointтачка, we will buildизградити
machinesмашине that are smarterпаметнији than we are,
57
161720
3640
U jednom trenutku, napravićemo
mašine koje su pametnije od nas,
02:58
and onceједном we have machinesмашине
that are smarterпаметнији than we are,
58
166080
2616
i tad kad budemo imali mašine
koje su pametnije od nas,
03:00
they will beginзапочети to improveпобољшати themselvesсами.
59
168720
1976
one će same početi da se razvijaju.
03:02
And then we riskризик what
the mathematicianматематичар IJIJ Good calledпозвани
60
170720
2736
I onda rizikujemo ono
što je matematičar I.Dž. Gud nazvao
03:05
an "intelligenceинтелигенција explosionексплозија,"
61
173480
1776
"eksplozija inteligencije",
03:07
that the processпроцес could get away from us.
62
175280
2000
da proces može da nam pobegne.
03:10
Now, this is oftenчесто caricaturedcaricatured,
as I have here,
63
178120
2816
E, sad, ovo se često karikira,
kao što ću i ja uraditi,
03:12
as a fearбојати се that armiesarmije of maliciouszlonamerni robotsроботи
64
180960
3216
kao strah od napada armije
03:16
will attackнапад us.
65
184200
1256
zlih robota.
03:17
But that isn't the mostнајвише likelyвероватно scenarioсценарио.
66
185480
2696
Ali to nije najverovatniji scenario.
03:20
It's not that our machinesмашине
will becomeпостати spontaneouslyspontano malevolentpakosni.
67
188200
4856
Nije kao da će naše mašine
spontano postati zle.
03:25
The concernзабринутост is really
that we will buildизградити machinesмашине
68
193080
2616
Brine nas, zapravo,
da ćemo mi napraviti mašine
03:27
that are so much
more competentкомпетентан than we are
69
195720
2056
koje su mnogo, mnogo
kompetentnije od nas,
03:29
that the slightestni najmanje divergenceдивергенција
betweenизмеђу theirњихова goalsциљеве and our ownвластити
70
197800
3776
brinemo da će nas uništiti
i najmanja razlika između
03:33
could destroyуништити us.
71
201600
1200
naših i njihovih ciljeva.
03:35
Just think about how we relateодносе to antsмрави.
72
203960
2080
Zamislite kakvi smo mi prema mravima.
03:38
We don't hateмрзим them.
73
206600
1656
Ne mrzimo ih.
03:40
We don't go out of our way to harmштета them.
74
208280
2056
Ne povređujemo ih namerno.
03:42
In factчињеница, sometimesпонекад
we take painsболи not to harmштета them.
75
210360
2376
Zapravo, ponekad se
trudimo se da ih ne povredimo.
03:44
We stepкорак over them on the sidewalkтротоар.
76
212760
2016
Preskačemo ih na trotoaru.
03:46
But wheneverбило кад theirњихова presenceприсуство
77
214800
2136
Ali kada god njihovo prisustvo
03:48
seriouslyозбиљно conflictsсукоби with one of our goalsциљеве,
78
216960
2496
ozbiljno ugrozi neke naše ciljeve,
03:51
let's say when constructingконструисање
a buildingзграде like this one,
79
219480
2477
recimo kada konstruišemo
neku zgradu poput ove,
03:53
we annihilateuniљtite them withoutбез a qualmne trepne.
80
221981
1960
bez po muke ih istrebimo.
03:56
The concernзабринутост is that we will
one day buildизградити machinesмашине
81
224480
2936
Brine nas da ćemo
jednog dana napraviti mašine
03:59
that, whetherда ли је they're consciousсвесна or not,
82
227440
2736
koje će, bilo da su svesne ili ne,
04:02
could treatлијечити us with similarслично disregardzanemariti.
83
230200
2000
nas tretirati na isti način.
04:05
Now, I suspectосумњичени this seemsИзгледа
far-fetchedдалеко to manyмноги of you.
84
233760
2760
E, sad, cenim da većini vas
ovo zvuči kao daleka budućnost.
04:09
I betопклада there are those of you who doubtсумња
that superintelligentsuperintelligent AIAI is possibleмогуће,
85
237360
6336
Kladim se da ima onih koji ne veruju
da je superinteligentna VI moguća,
04:15
much lessмање inevitableнеизбежан.
86
243720
1656
a kamoli neizbežna.
04:17
But then you mustмора find something wrongпогрешно
with one of the followingследећи assumptionsпретпоставке.
87
245400
3620
Ali onda morate naći neku grešku
u sledećim pretpostavkama.
04:21
And there are only threeтри of them.
88
249044
1572
A samo ih je tri.
04:23
IntelligenceInteligencija is a matterматерија of informationинформације
processingобрада in physicalфизички systemsсистема.
89
251800
4719
Inteligencija je stvar obrade
informacija u fizičkim sistemima.
04:29
ActuallyU stvari, this is a little bitмало more
than an assumptionпретпоставка.
90
257320
2615
U stvari, ovo je malo više
od neke pretpostavke.
04:31
We have alreadyвећ builtизграђен
narrowузак intelligenceинтелигенција into our machinesмашине,
91
259959
3457
Već smo ugradili specifičnu
inteligenciju u naše mašine,
04:35
and manyмноги of these machinesмашине performизводити
92
263440
2016
i mnoge od ovih mašina već
04:37
at a levelниво of superhumannadljudski
intelligenceинтелигенција alreadyвећ.
93
265480
2640
imaju performanse na nivou
superljudske inteligencije.
04:40
And we know that mereмере matterматерија
94
268840
2576
I znamo da sama materija
04:43
can give riseпораст to what is calledпозвани
"generalгенерално intelligenceинтелигенција,"
95
271440
2616
može da omogući takozvanu
"uopštenu inteligenciju",
04:46
an abilityспособност to think flexiblyfleksibilno
acrossпреко multipleвише domainsdomeni,
96
274080
3656
sposobnost da se fleksibilno
razmišlja u različitim domenima,
04:49
because our brainsмозга have managedуправља it. Right?
97
277760
3136
jer to može i naš mozak. Je l' tako?
04:52
I mean, there's just atomsатоми in here,
98
280920
3936
Mislim, ovde postoje samo atomi,
04:56
and as long as we continueНастави
to buildизградити systemsсистема of atomsатоми
99
284880
4496
i sve dok mi nastavljamo
da gradimo sisteme atoma
05:01
that displayприказ more and more
intelligentинтелигентан behaviorпонашање,
100
289400
2696
koji su sve inteligentniji
i inteligentniji,
05:04
we will eventuallyконачно,
unlessосим ако не we are interruptedprekinut,
101
292120
2536
mi ćemo na kraju, osim ako nas prekinu,
05:06
we will eventuallyконачно
buildизградити generalгенерално intelligenceинтелигенција
102
294680
3376
mi ćemo na kraju
ugraditi uopštenu inteligenciju
05:10
into our machinesмашине.
103
298080
1296
u naše mašine.
05:11
It's crucialкључно to realizeсхватите
that the rateстопа of progressнапредак doesn't matterматерија,
104
299400
3656
Od suštinske je važnosti da shvatimo
da stopa napretka nije važna,
05:15
because any progressнапредак
is enoughдовољно to get us into the endкрај zoneзоне.
105
303080
3176
jer bilo kakav napredak
je dovoljan da nas dovede do cilja.
05:18
We don't need Moore'sMura lawзакон to continueНастави.
We don't need exponentialекспоненцијални progressнапредак.
106
306280
3776
Ne treba nam Murov zakon.
Ne treba nam eksponencijalni napredak.
05:22
We just need to keep going.
107
310080
1600
Samo treba da nastavimo dalje.
05:25
The secondдруго assumptionпретпоставка
is that we will keep going.
108
313480
2920
Druga pretpostavka je
da ćemo nastaviti dalje.
05:29
We will continueНастави to improveпобољшати
our intelligentинтелигентан machinesмашине.
109
317000
2760
Nastavićemo da poboljšavamo
naše inteligentne mašine.
05:33
And givenдато the valueвредност of intelligenceинтелигенција --
110
321000
4376
I uz postojeću vrednost inteligencije -
05:37
I mean, intelligenceинтелигенција is eitherили
the sourceизвор of everything we valueвредност
111
325400
3536
mislim, inteligencija je
ili izvor svega što je vredno
05:40
or we need it to safeguardzaštitne
everything we valueвредност.
112
328960
2776
ili nam treba da sačuvamo
sve ono što nam je vredno.
05:43
It is our mostнајвише valuableвредно resourceресурс.
113
331760
2256
To je naš najvredniji resurs.
05:46
So we want to do this.
114
334040
1536
I zato želimo da uradimo ovo.
05:47
We have problemsпроблеми
that we desperatelyочајнички need to solveреши.
115
335600
3336
Imamo probleme koje
očajnički moramo da rešimo.
05:50
We want to cureлек diseasesболести
like Alzheimer'sAlzheimerova bolest je and cancerрак.
116
338960
3200
Želimo da izlečimo bolesti poput
Alchajmera i raka.
05:54
We want to understandРазумем economicекономски systemsсистема.
We want to improveпобољшати our climateклима scienceНаука.
117
342960
3936
Želimo da shvatimo ekonomske sisteme.
Želimo da poboljšamo nauku o klimi.
05:58
So we will do this, if we can.
118
346920
2256
Tako da, ako možemo, to ćemo i uraditi.
06:01
The trainвоз is alreadyвећ out of the stationстаница,
and there's no brakekočnica to pullповући.
119
349200
3286
Voz je već napustio stanicu,
i nema kočnice.
06:05
FinallyKonačno, we don't standстој
on a peakврх of intelligenceинтелигенција,
120
353880
5456
Konačno, mi ne stojimo
na vrhuncu inteligencije,
06:11
or anywhereбило где nearблизу it, likelyвероватно.
121
359360
1800
a verovatno ni blizu toga.
06:13
And this really is the crucialкључно insightна видику.
122
361640
1896
I ovo je zaista suštinski uvid.
06:15
This is what makesчини
our situationситуација so precariousnesigurno,
123
363560
2416
Zbog ovoga je naša
situacija tako nepouzdana,
06:18
and this is what makesчини our intuitionsинтуиције
about riskризик so unreliablenepouzdani.
124
366000
4040
i zbog toga je naša intuicija
o riziku tako nepouzdana.
06:23
Now, just considerразмотрити the smartestнајпаметнији personособа
who has ever livedживели.
125
371120
2720
E, sad, samo razmislite
o najpametnijoj osobi ikada.
06:26
On almostскоро everyone'sсвима shortlistuži izbor here
is JohnJohn vonвон NeumannNojman.
126
374640
3416
Na skoro svačijem užem spisku ovde
je Džon fon Nojman.
06:30
I mean, the impressionутисак that vonвон NeumannNojman
madeмаде on the people around him,
127
378080
3336
Mislim, utisak koji je Nojman
ostavio na ljude oko sebe,
06:33
and this includedукључени the greatestнајвећи
mathematiciansматематичари and physicistsфизичари of his time,
128
381440
4056
uključujući tu najveće
matematičare i fizičare tog vremena,
06:37
is fairlyпоштено well-documenteddobro dokumentovan.
129
385520
1936
je prilično dobro dokumentovan.
06:39
If only halfпола the storiesприче
about him are halfпола trueистина,
130
387480
3776
I ako je samo pola onih
priča o njemu polutačna,
06:43
there's no questionпитање
131
391280
1216
nema dileme da je on
06:44
he's one of the smartestнајпаметнији people
who has ever livedживели.
132
392520
2456
jedan od najpametnijih ljudi
koji su ikada živeli.
06:47
So considerразмотрити the spectrumспектар of intelligenceинтелигенција.
133
395000
2520
Samo zamislite opseg inteligencije.
06:50
Here we have JohnJohn vonвон NeumannNojman.
134
398320
1429
Ovde imamo Džona fon Nojmana.
06:53
And then we have you and me.
135
401560
1334
Onda smo tu vi i ja.
06:56
And then we have a chickenпилетина.
136
404120
1296
I onda imamo neko pile.
06:57
(LaughterSmeh)
137
405440
1936
(Smeh)
06:59
Sorry, a chickenпилетина.
138
407400
1216
Pardon, neko pile.
07:00
(LaughterSmeh)
139
408640
1256
(Smeh)
07:01
There's no reasonразлог for me to make this talk
more depressingдепресивно than it needsпотребе to be.
140
409920
3736
Nema potrebe da idem dalje u dubiozu
u ovom govoru nego što treba.
07:05
(LaughterSmeh)
141
413680
1600
(Smeh)
07:08
It seemsИзгледа overwhelminglyпретежно likelyвероватно, howeverМеђутим,
that the spectrumспектар of intelligenceинтелигенција
142
416339
3477
Međutim, čini se da je više nego verovatno
da se spektar inteligencije
07:11
extendsпродужава се much furtherдаље
than we currentlyтренутно conceiveosmisle,
143
419840
3120
proteže mnogo više
nego što trenutno možemo da shvatimo,
07:15
and if we buildизградити machinesмашине
that are more intelligentинтелигентан than we are,
144
423880
3216
i ako napravimo mašine
koje su mnogo inteligentnije od nas,
07:19
they will very likelyвероватно
exploreистражити this spectrumспектар
145
427120
2296
one će skoro sigurno
istražiti ovaj spektar
07:21
in waysначини that we can't imagineзамислити,
146
429440
1856
onako kako to ne možemo ni zamisliti,
07:23
and exceedpremaši us in waysначини
that we can't imagineзамислити.
147
431320
2520
i preteći nas na načine
koje ne možemo ni zamisliti.
07:27
And it's importantважно to recognizeпрепознати that
this is trueистина by virtuevrlina of speedбрзина aloneсами.
148
435000
4336
I važno je shvatiti da je ovo
moguće samo putem brzine.
07:31
Right? So imagineзамислити if we just builtизграђен
a superintelligentsuperintelligent AIAI
149
439360
5056
U redu? Zamislite samo da napravimo
jednu superinteligentnu VI
07:36
that was no smarterпаметнији
than your averageпросек teamтим of researchersистраживачи
150
444440
3456
koja nije ništa pametnija
od vašeg prosečnog tima istraživača
07:39
at StanfordStanford or MITMIT-A.
151
447920
2296
na Stanfordu ili MIT-u.
07:42
Well, electronicелектронски circuitsкругови
functionфункција about a millionмилиона timesпута fasterбрже
152
450240
2976
Pa, električna kola
funkcionišu oko milion puta brže
07:45
than biochemicalбиохемијски onesоне,
153
453240
1256
od biohemijskih,
07:46
so this machineмашина should think
about a millionмилиона timesпута fasterбрже
154
454520
3136
tako da bi ove mašine razmišljale
oko milion puta brže
07:49
than the mindsумови that builtизграђен it.
155
457680
1816
od umova koje su ih sastavile.
07:51
So you setкомплет it runningтрчање for a weekНедеља,
156
459520
1656
Pustite ih da rade nedelju dana,
07:53
and it will performизводити 20,000 yearsгодине
of human-levelljudsko-nivo intellectualинтелектуалац work,
157
461200
4560
i izvešće 20.000 godina
ljudskog intelektualnog rada,
07:58
weekНедеља after weekНедеља after weekНедеља.
158
466400
1960
nedelju za nedeljom.
08:01
How could we even understandРазумем,
much lessмање constrainограничити,
159
469640
3096
Kako čak možemo i razumeti,
a kamoli ograničiti
08:04
a mindум makingстварање this sortврста of progressнапредак?
160
472760
2280
um koji bi mogao ovo da uradi?
08:08
The other thing that's worryingзабрињавајуће, franklyискрено,
161
476840
2136
Iskreno, ono drugo što je zabrinjavajuće
08:11
is that, imagineзамислити the bestнајбоље caseслучај scenarioсценарио.
162
479000
4976
je da, zamislite najbolji mogući scenario.
08:16
So imagineзамислити we hitхит uponна a designдизајн
of superintelligentsuperintelligent AIAI
163
484000
4176
Zamislite da nabasamo na neki dizajn
superinteligentne VI
08:20
that has no safetyбезбедност concernsзабринутости.
164
488200
1376
čija nas sigurnost ne brine.
08:21
We have the perfectсавршен designдизајн
the first time around.
165
489600
3256
Po prvi put imamo savršeni dizajn.
08:24
It's as thoughипак we'veми смо been handedхандед an oracleорацле
166
492880
2216
To je kao da nam je dato proročanstvo
08:27
that behavesponaša se exactlyбаш тако as intendedнамењен.
167
495120
2016
koje se odvija baš kako je zapisano.
08:29
Well, this machineмашина would be
the perfectсавршен labor-savingrada i uštede deviceуређај.
168
497160
3720
Ta mašina bi bila savršeni
uređaj za uštedu radne snage.
08:33
It can designдизајн the machineмашина
that can buildизградити the machineмашина
169
501680
2429
Dizajnirala bi mašinu
koja može napraviti mašine
08:36
that can do any physicalфизички work,
170
504133
1763
za bilo kakav fizički posao,
08:37
poweredповеред by sunlightсунчева светлост,
171
505920
1456
a koje bi napajalo sunce,
08:39
more or lessмање for the costтрошак
of rawсирово materialsматеријали.
172
507400
2696
manje-više po ceni sirovina.
08:42
So we're talkingпричају about
the endкрај of humanљудско drudgerynapasna, nisu.
173
510120
3256
Pričamo o kraju teškog ljudskog rada.
08:45
We're alsoтакође talkingпричају about the endкрај
of mostнајвише intellectualинтелектуалац work.
174
513400
2800
Takođe pričamo o kraju
većeg dela intelektualnog rada.
08:49
So what would apesмајмуни like ourselvesсами
do in this circumstanceokolnosti?
175
517200
3056
Pa šta će onda majmuni poput nas
da rade u takvim okolnostima?
08:52
Well, we'dми смо be freeбесплатно to playигра FrisbeeFrizbi
and give eachсваки other massagesmasaže.
176
520280
4080
Pa, imali bismo vremena za frizbi
i da masiramo jedni druga.
08:57
AddDodavanje some LSDLSD-A and some
questionableупитно wardrobeгардероба choicesизбори,
177
525840
2856
Dodajmo malo LSD-a i neke
diskutabilne garderobe,
09:00
and the wholeцела worldсвет
could be like BurningGori Man.
178
528720
2176
i ceo svet bi mogao
biti poput festivala Burning Man.
09:02
(LaughterSmeh)
179
530920
1640
(Smeh)
09:06
Now, that mightМожда soundзвук prettyприлично good,
180
534320
2000
E, sad, to možda zvuči kao dobra ideja,
09:09
but askпитати yourselfсами what would happenдесити се
181
537280
2376
ali zapitajte se šta bi se desilo
09:11
underиспод our currentТренутни economicекономски
and politicalполитички orderнаручи?
182
539680
2736
pod našim trenutnim ekonomskim
i političkim poretkom?
09:14
It seemsИзгледа likelyвероватно that we would witnessсведок
183
542440
2416
Čini se verovatnim da bismo bili svedoci
09:16
a levelниво of wealthбогатство inequalityнеједнакост
and unemploymentstopa nezaposlenosti
184
544880
4136
određenog nivoa novčane nejednakosti
i nezaposlenosti
09:21
that we have never seenвиђено before.
185
549040
1496
koji ranije nismo viđali.
09:22
AbsentOdsutan a willingnessspremnost
to immediatelyодмах put this newново wealthбогатство
186
550560
2616
Uz odsustvo volje da
se odmah ovo novo bogatstvo stavi
09:25
to the serviceуслуга of all humanityчовечанство,
187
553200
1480
na raspolaganje čovečanstvu,
09:27
a fewнеколико trillionairestrillionaires could gracemilosti
the coversпокрива of our businessбизнис magazinesчасописи
188
555640
3616
nekoliko bilionera bi poziralo
na omotima biznis magazina
09:31
while the restодмор of the worldсвет
would be freeбесплатно to starveod gladi.
189
559280
2440
dok bi ostatak sveta slobodno
mogao umreti od gladi.
09:34
And what would the RussiansRusi
or the Chinesekineski do
190
562320
2296
I šta bi radili Rusi ili Kinezi
09:36
if they heardслушао that some companyкомпанија
in SiliconSilikon ValleyDolina
191
564640
2616
kada bi čuli da tamo neka firma
iz Silicijumske doline
09:39
was about to deployraspoređivanje a superintelligentsuperintelligent AIAI?
192
567280
2736
treba da izbaci superinteligentnu VI?
09:42
This machineмашина would be capableспособан
of wagingвагинг warрат,
193
570040
2856
Ova mašina bi bila sposobna da vodi rat,
09:44
whetherда ли је terrestrialzemaljsko or cybersajber,
194
572920
2216
bilo klasični, bilo sajber rat,
09:47
with unprecedentedбез преседана powerмоћ.
195
575160
1680
nadmoćna bez presedana.
09:50
This is a winner-take-allpobednik nosi sve scenarioсценарио.
196
578120
1856
Ovo je scenario pobednik nosi sve.
09:52
To be sixшест monthsмесеци aheadнапред
of the competitionконкуренција here
197
580000
3136
Biti šest meseci ispred konkurencije ovde
09:55
is to be 500,000 yearsгодине aheadнапред,
198
583160
2776
je isto biti 500 000 godina ispred,
09:57
at a minimumминимум.
199
585960
1496
u najmanju ruku.
09:59
So it seemsИзгледа that even mereмере rumorsгласине
of this kindкинд of breakthroughпробој
200
587480
4736
Tako se čini da bi čak i samo glasina
o proboju ovog tipa
10:04
could causeузрок our speciesврсте to go berserknasrne.
201
592240
2376
izazvala ludnicu među ljudima.
10:06
Now, one of the mostнајвише frighteningзастрашујуће things,
202
594640
2896
I, sad, jedna od najstarašnijih stvari,
10:09
in my viewпоглед, at this momentтренутак,
203
597560
2776
prema mom mišljenju, trenutno,
10:12
are the kindsврсте of things
that AIAI researchersистраживачи say
204
600360
4296
su one stvari koje istraživači VI kažu
10:16
when they want to be reassuringпомирење.
205
604680
1560
kada žele da vas ohrabre.
10:19
And the mostнајвише commonзаједнички reasonразлог
we're told not to worryзабринути is time.
206
607000
3456
I najuobičajeniji razlog zbog koga
nam kažu da ne brinemo jeste vreme.
10:22
This is all a long way off,
don't you know.
207
610480
2056
Sve je to daleko, znate.
10:24
This is probablyвероватно 50 or 100 yearsгодине away.
208
612560
2440
To je verovatno 50 ili 100 godina daleko.
10:27
One researcheristraživač has said,
209
615720
1256
Jedan istraživač je rekao:
10:29
"WorryingBrinem about AIAI safetyбезбедност
210
617000
1576
"Briga o bezbednosti VI
10:30
is like worryingзабрињавајуће
about overpopulationпренасељеност on MarsMars."
211
618600
2280
je kao briga o prenaseljenosti Marsa."
Ovo je kao kada vam
iz Silicijumske doline kažu:
10:34
This is the SiliconSilikon ValleyDolina versionверзија
212
622116
1620
10:35
of "don't worryзабринути your
prettyприлично little headглава about it."
213
623760
2376
"Nemojte vi zamarati vaše glavice time."
10:38
(LaughterSmeh)
214
626160
1336
(Smeh)
10:39
No one seemsИзгледа to noticeобјава
215
627520
1896
Izgleda da niko ne primećuje
10:41
that referencingreferencirao the time horizonХоризонт
216
629440
2616
da je odnos prema vremenu
10:44
is a totalукупно nonkoje nisu sequiturtu je krajnje.
217
632080
2576
potpuni non sequitur.
10:46
If intelligenceинтелигенција is just a matterматерија
of informationинформације processingобрада,
218
634680
3256
Ako je inteligencija samo stvar
procesuiranja informacija,
10:49
and we continueНастави to improveпобољшати our machinesмашине,
219
637960
2656
i mi nastavimo da poboljšavamo mašine,
10:52
we will produceпроизвести
some formобразац of superintelligencesuperintelligence.
220
640640
2880
proizvešćemo neki
oblik superinteligencije.
10:56
And we have no ideaидеја
how long it will take us
221
644320
3656
I nemamo pojma
koliko će nam trebati vremena
11:00
to createстворити the conditionsуслови
to do that safelybezbedno.
222
648000
2400
da stvorimo uslove da to uradimo bezbedno.
11:04
Let me say that again.
223
652200
1296
Dozvolite mi da ponovim.
11:05
We have no ideaидеја how long it will take us
224
653520
3816
Nemamo pojma koliko vremena će nam trebati
11:09
to createстворити the conditionsуслови
to do that safelybezbedno.
225
657360
2240
da stvorimo uslove da to uradimo bezbedno.
11:12
And if you haven'tније noticedПриметио,
50 yearsгодине is not what it used to be.
226
660920
3456
Ako niste primetili,
50 godina nije kao što je bilo ranije.
11:16
This is 50 yearsгодине in monthsмесеци.
227
664400
2456
Ovo je 50 godina u mesecima.
11:18
This is how long we'veми смо had the iPhoneiPhone.
228
666880
1840
Ovoliko dugo već imamo iPhone.
11:21
This is how long "The SimpsonsSimpsonovi"
has been on televisionтелевизија.
229
669440
2600
Ovoliko se već prikazuju "Simpsonovi".
11:24
FiftyPedeset yearsгодине is not that much time
230
672680
2376
Pedeset godina nije mnogo vremena
11:27
to meetсусрет one of the greatestнајвећи challengesизазове
our speciesврсте will ever faceлице.
231
675080
3160
da se ostvari jedan od najvećih
izazova naše vrste.
11:31
OnceJednom again, we seemИзгледа to be failingнеуспех
to have an appropriateприкладан emotionalемоционално responseодговор
232
679640
4016
Još jedanput, izgleda da nam nedostaje
odgovarajući emocionalni odgovor
11:35
to what we have everyсваки reasonразлог
to believe is comingдолазе.
233
683680
2696
na ono na šta imamo svako pravo
da verujemo da dolazi.
11:38
The computerрачунар scientistнаучник StuartStuart RussellRussell
has a niceлеп analogyаналогија here.
234
686400
3976
Kompjuterski naučnik Stjuart Rasel
ima lepu analogiju za ovo.
11:42
He said, imagineзамислити that we receivedпримљен
a messageпорука from an alienванземаљац civilizationцивилизација,
235
690400
4896
On kaže, zamislite da smo primili
neku poruku od vanzemaljaca,
11:47
whichкоја readчитати:
236
695320
1696
u kojoj stoji:
11:49
"People of EarthZemlja,
237
697040
1536
"Zemljani,
11:50
we will arriveстићи on your planetПланета in 50 yearsгодине.
238
698600
2360
stižemo na vašu planetu za 50 godina.
11:53
Get readyспреман."
239
701800
1576
Spremite se."
11:55
And now we're just countingбројање down
the monthsмесеци untilсве док the mothershipMothership landssleti?
240
703400
4256
I mi ćemo samo da odbrojavamo mesece
dok se njihov brod ne spusti?
11:59
We would feel a little
more urgencyhitnost than we do.
241
707680
3000
Osetili bismo malo
više straha nego obično.
12:04
AnotherDrugi reasonразлог we're told not to worryзабринути
242
712680
1856
Drugo zbog čega kažu da ne brinemo
12:06
is that these machinesмашине
can't help but shareОбјави our valuesвредности
243
714560
3016
je da ove mašine ne mogu drugačije
nego da dele naše vrednosti
12:09
because they will be literallyбуквално
extensionsproširenja of ourselvesсами.
244
717600
2616
zato što će one bukvalno biti
produžeci nas samih.
12:12
They'llOni ce be graftedkalemljene ontoна our brainsмозга,
245
720240
1816
One će biti nakalamljene na naš mozak
12:14
and we'llдобро essentiallyУ суштини
becomeпостати theirњихова limbiclimbički systemsсистема.
246
722080
2360
i mi ćemo suštinski postati
limbički sistem.
12:17
Now take a momentтренутак to considerразмотрити
247
725120
1416
Sad na trenutak razmislite
12:18
that the safestnajsigurnije
and only prudentrazborita pathпут forwardнапред,
248
726560
3176
da je najbezbednija i jedina
razborita i preporučena,
12:21
recommendedPreporučuje se,
249
729760
1336
putanja napred,
12:23
is to implantimplant this technologyтехнологија
directlyдиректно into our brainsмозга.
250
731120
2800
da ovu tehnologiju implementiramo
direktno u naš mozak.
12:26
Now, this mayможе in factчињеница be the safestnajsigurnije
and only prudentrazborita pathпут forwardнапред,
251
734600
3376
Sad, ovo može biti najbezbednija i jedina
razborita putanja napred,
12:30
but usuallyобично one'sједан је safetyбезбедност concernsзабринутости
about a technologyтехнологија
252
738000
3056
ali obično se bezbednost neke tehnologije
12:33
have to be prettyприлично much workedрадио је out
before you stickштап it insideу your headглава.
253
741080
3656
mora baš dobro razmotriti
pre nego što vam se zabode u mozak.
12:36
(LaughterSmeh)
254
744760
2016
(Smeh)
12:38
The deeperдубље problemпроблем is that
buildingзграде superintelligentsuperintelligent AIAI on its ownвластити
255
746800
5336
Veći problem je što pravljenje
superinteligentne VI same od sebe
12:44
seemsИзгледа likelyвероватно to be easierлакше
256
752160
1736
izgleda lakše
12:45
than buildingзграде superintelligentsuperintelligent AIAI
257
753920
1856
od pravljenja superinteligentne VI
12:47
and havingимати the completedзавршено neuroscienceнеуронаука
258
755800
1776
i kompletiranja neuronauke
12:49
that allowsомогућава us to seamlesslyбеспрекорно
integrateинтегрирати our mindsумови with it.
259
757600
2680
koja nam omogućava da
integrišemo naše umove sa njom.
12:52
And givenдато that the companiesкомпаније
and governmentsвлада doing this work
260
760800
3176
I ako imamo to da kompanije
i vlade rade ovaj posao,
12:56
are likelyвероватно to perceivedoživljavaju themselvesсами
as beingбиће in a raceтрка againstпротив all othersдруги,
261
764000
3656
one će verovatno to shvatiti
kao da se takmiče protiv svih drugih,
12:59
givenдато that to winпобедити this raceтрка
is to winпобедити the worldсвет,
262
767680
3256
jer pobediti u ovoj trci
znači osvojiti svet,
13:02
providedобезбеђени you don't destroyуништити it
in the nextследећи momentтренутак,
263
770960
2456
uz uslov da ga sledećeg
trenutka ne uništite,
13:05
then it seemsИзгледа likelyвероватно
that whateverшта год is easierлакше to do
264
773440
2616
a onda će verovatno prvo biti urađeno
13:08
will get doneГотово first.
265
776080
1200
ono što je najlakše.
13:10
Now, unfortunatelyнажалост,
I don't have a solutionрешење to this problemпроблем,
266
778560
2856
E, sad, nažalost,
ja nemam rešenje za ovaj problem,
13:13
apartодвојено from recommendingpredlaže da
that more of us think about it.
267
781440
2616
osim toga da preporučim
da više nas promisli o tome.
13:16
I think we need something
like a ManhattanManhattan ProjectProjekat
268
784080
2376
Smatram da nam je potrebno
nešto poput Projekta Menhetn
13:18
on the topicтема of artificialвештачки intelligenceинтелигенција.
269
786480
2016
na temu veštačke inteligencije.
13:20
Not to buildизградити it, because I think
we'llдобро inevitablyнеизбежно do that,
270
788520
2736
Ne da bismo je izgradili, jer mislim
da je to neizbežno,
13:23
but to understandРазумем
how to avoidизбегавајте an armsруке raceтрка
271
791280
3336
već da razumemo
kako da izbegnemo trku naoružanja
13:26
and to buildизградити it in a way
that is alignedporavnati with our interestsинтереса.
272
794640
3496
i da je napravimo na način
koji je u skladu sa našim interesima.
13:30
When you're talkingпричају
about superintelligentsuperintelligent AIAI
273
798160
2136
Kada se razgovara o superinteligentnoj VI
13:32
that can make changesПромене to itselfсам,
274
800320
2256
koja sama sebe može da menja,
13:34
it seemsИзгледа that we only have one chanceшанса
to get the initialиницијално conditionsуслови right,
275
802600
4616
čini se da imamo samo jednu šansu
da početne uslove postavimo kako treba,
13:39
and even then we will need to absorbапсорбовати
276
807240
2056
a čak i onda ćemo morati da prihvatimo
13:41
the economicекономски and politicalполитички
consequencesпоследице of gettingдобијања them right.
277
809320
3040
ekonomske i političke
posledice pravilne upotrebe.
13:45
But the momentтренутак we admitпризнајем
278
813760
2056
Ali trenutak kada priznamo
13:47
that informationинформације processingобрада
is the sourceизвор of intelligenceинтелигенција,
279
815840
4000
da je obrada informacija
izvor inteligencije,
13:52
that some appropriateприкладан computationalрачунарски systemсистем
is what the basisоснове of intelligenceинтелигенција is,
280
820720
4800
da je neki odgovarajući računarski sistem
osnova onoga što je inteligencija,
13:58
and we admitпризнајем that we will improveпобољшати
these systemsсистема continuouslyнепрекидно,
281
826360
3760
i prihvatimo da ćemo stalno
unapređivati ove sisteme,
14:03
and we admitпризнајем that the horizonХоризонт
of cognitionкогниција very likelyвероватно farдалеко exceedspremašuje
282
831280
4456
i prihvatimo da će horizont
shvatanja vrlo verovatno daleko nadmašiti
14:07
what we currentlyтренутно know,
283
835760
1200
ono što trenutno znamo,
14:10
then we have to admitпризнајем
284
838120
1216
onda moramo da prihvatimo
14:11
that we are in the processпроцес
of buildingзграде some sortврста of god.
285
839360
2640
da smo u procesu
pravljenja neke vrste božanstva.
14:15
Now would be a good time
286
843400
1576
Sada bi bilo dobro vreme
14:17
to make sure it's a god we can liveживи with.
287
845000
1953
da se postaramo da je to božanstvo
sa kojim bismo mogli živeti.
14:20
Thank you very much.
288
848120
1536
Hvala vam mnogo.
14:21
(ApplauseAplauz)
289
849680
5093
(Aplauz)
Translated by Vesna Radovic
Reviewed by Mile Živković

▲Back to top

ABOUT THE SPEAKER
Sam Harris - Neuroscientist, philosopher
Sam Harris's work focuses on how our growing understanding of ourselves and the world is changing our sense of how we should live.

Why you should listen

Sam Harris is the author of five New York Times bestsellers. His books include The End of FaithLetter to a Christian Nation, The Moral Landscape, Free Will, Lying, Waking Up and Islam and the Future of Tolerance (with Maajid Nawaz). The End of Faith won the 2005 PEN Award for Nonfiction. Harris's writing and public lectures cover a wide range of topics -- neuroscience, moral philosophy, religion, spirituality, violence, human reasoning -- but generally focus on how a growing understanding of ourselves and the world is changing our sense of how we should live.

Harris's work has been published in more than 20 languages and has been discussed in the New York Times, Time, Scientific American, Nature, Newsweek, Rolling Stone and many other journals. He has written for the New York Times, the Los Angeles Times, The Economist, The Times (London), the Boston Globe, The Atlantic, The Annals of Neurology and elsewhere. Harris also regularly hosts a popular podcast.

Harris received a degree in philosophy from Stanford University and a Ph.D. in neuroscience from UCLA.

More profile about the speaker
Sam Harris | Speaker | TED.com