ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grejdi Buč (Grady Booch): Ne plašite se superinteligentne veštačke inteligencije

Filmed:
2,866,438 views

Nova tehnologija stvara nove nespokoje, kaže naučnik i filozof Grejdi Buč, ali ne bi trebalo da strepimo od svemoćne, bezosećajne veštačke inteligencije. Buč ublažava naše najgore strahove (uzrokovane naučnom fantastikom) o superinteligentnim kompjuterima tako što nam objašnjava kako ćemo ih podučavati, a ne programirati, da dele naše vrednosti. Umesto da se plašimo malo verovatne egzistencijalne pretnje, tera nas da razmislimo kako će veštačka inteligencija da unapredi ljudski život.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidклинац,
I was the quintessentialesencijalni nerdштребер.
0
760
3840
Kad sam bio dete,
bio sam štreber do koske.
00:17
I think some of you were, too.
1
5320
2176
Mislim da su i neki od vas to bili.
00:19
(LaughterSmeh)
2
7520
1216
(Smeh)
A vi, gospodine, koji se najglasnije
smejete, verovatno ste to i dalje.
00:20
And you, sirгосподине, who laughedсмејао се the loudestНајгласнији,
you probablyвероватно still are.
3
8760
3216
00:24
(LaughterSmeh)
4
12000
2256
(Smeh)
00:26
I grewрастао up in a smallмали townГрад
in the dustyDasti plainsравнице of northсевер TexasU Teksasu,
5
14280
3496
Odrastao sam u gradiću
u prašnjavim ravnicama severnog Teksasa
00:29
the sonсин of a sheriffŠerif
who was the sonсин of a pastorPastor.
6
17800
3336
kao sin šerifa koji je sin pastora.
00:33
GettingPostaje into troubleневоље was not an optionопција.
7
21160
1920
Upadanje u nevolju nije dolazilo u obzir.
00:36
And so I startedпочела readingчитање
calculuszubnog kamenca booksкњиге for funзабавно.
8
24040
3256
Te sam iz zabave počeo da čitam
knjige o proračunu.
00:39
(LaughterSmeh)
9
27320
1536
(Smeh)
00:40
You did, too.
10
28880
1696
I vi ste.
00:42
That led me to buildingзграде a laserласер
and a computerрачунар and modelмодел rocketsrakete,
11
30600
3736
Zbog toga sam sagradio laser,
kompjuter i modele raketa,
00:46
and that led me to makingстварање
rocketракета fuelгориво in my bedroomспаваћа соба.
12
34360
3000
a to me je navelo da napravim
raketno gorivo u spavaćoj sobi.
00:49
Now, in scientificнаучно termsуслови,
13
37960
3656
Sad, u naučnom smislu,
00:53
we call this a very badлоше ideaидеја.
14
41640
3256
ovo nazivamo veoma lošom idejom.
00:56
(LaughterSmeh)
15
44920
1216
(Smeh)
00:58
Around that sameисти time,
16
46160
2176
Otprilike u to vreme,
01:00
StanleyStanley Kubrick'sKjubrik je "2001: A SpaceProstor OdysseyOdiseja"
cameДошао to the theatersпозоришта,
17
48360
3216
u bioskope je stigla "Odiseja u svemiru:
2001" Stenlija Kjubrika,
01:03
and my life was foreverзаувек changedпромењено.
18
51600
2200
i moj život je izmenjen zauvek.
01:06
I lovedвољен everything about that movieфилм,
19
54280
2056
Sve mi se sviđalo kod tog filma,
01:08
especiallyпосебно the HALHAL 9000.
20
56360
2536
naročito HAL 9000.
01:10
Now, HALHAL was a sentientосјећајан computerрачунар
21
58920
2056
Sad, HAL je bio svesni kompjuter
01:13
designedдизајниран to guideВодич the DiscoveryOtkrivanje spacecraftсвемирски брод
22
61000
2456
osmišljen da vodi kosmički brod Diskaveri
01:15
from the EarthZemlja to JupiterJupiter.
23
63480
2536
od Zemlje do Jupitera.
01:18
HALHAL was alsoтакође a flawedmane characterкарактер,
24
66040
2056
HAL je takođe bio faličan lik
01:20
for in the endкрај he choseизабрао
to valueвредност the missionмисија over humanљудско life.
25
68120
4280
jer je na kraju odabrao
vrednost misije umesto ljudskog života.
01:24
Now, HALHAL was a fictionalfiktivni characterкарактер,
26
72840
2096
Sad, HAL je bio fiktivan lik,
01:26
but nonethelessипак he speaksговори to our fearsстрахови,
27
74960
2656
ali bez obzira na to,
obraća se našim strahovima,
01:29
our fearsстрахови of beingбиће subjugatedpokori
28
77640
2096
našim strahovima da ćemo pasti pod uticaj
01:31
by some unfeelingbezosecajan, artificialвештачки intelligenceинтелигенција
29
79760
3016
nekakve bezosećajne,
veštačke inteligencije
01:34
who is indifferentиндиферентан to our humanityчовечанство.
30
82800
1960
koja je ravnodušna prema našoj ljudskosti.
01:37
I believe that suchтаква fearsстрахови are unfoundedneosnovane.
31
85880
2576
Verujem da su takvi strahovi neosnovani.
01:40
IndeedZaista, we standстој at a remarkableизузетно time
32
88480
2696
Uistinu se nalazimo u izvanrednom vremenu
01:43
in humanљудско historyисторија,
33
91200
1536
u ljudskoj istoriji,
01:44
where, drivenвођен by refusalodbijanje to acceptприхватити
the limitsограничења of our bodiesтела and our mindsумови,
34
92760
4976
u kom, pokrenuti odbijanjem da prihvatimo
granice naših tela i naših umova,
01:49
we are buildingзграде machinesмашине
35
97760
1696
gradimo mašine
01:51
of exquisiteIzvrstan, beautifulЛепа
complexityсложеност and gracemilosti
36
99480
3616
izuzetne, prelepe složenosti i stila
01:55
that will extendпроширити the humanљудско experienceискуство
37
103120
2056
koje će da prošire ljudsko iskustvo
01:57
in waysначини beyondизван our imaginingumislio.
38
105200
1680
na nezamislive načine.
Nakon karijere koja seže
od akademije ratnog vazduhoplovstva
01:59
After a careerкаријера that led me
from the AirVazduh ForceSila AcademyAkademija
39
107720
2576
02:02
to SpaceProstor CommandKomanda to now,
40
110320
1936
preko svemirskog zapovednika do sada,
02:04
I becameпостао a systemsсистема engineerинжењер,
41
112280
1696
postao sam inženjer za sisteme,
02:06
and recentlyнедавно I was drawnнацртан
into an engineeringинжењеринг problemпроблем
42
114000
2736
a nedavno me je privukao
inženjerski problem
02:08
associatedповезани with NASA'sNASA-ina missionмисија to MarsMars.
43
116760
2576
u vezi sa NASA-inom misijom na Marsu.
02:11
Now, in spaceпростор flightsлетове to the MoonMesec,
44
119360
2496
Sad, tokom svemirskih letova na Mesec
02:13
we can relyослонити uponна
missionмисија controlконтрола in HoustonHouston
45
121880
3136
možemo da se oslonimo
na kontrolu misije u Hjustonu
02:17
to watch over all aspectsаспекти of a flightлет.
46
125040
1976
da će da prati sve aspekte leta.
02:19
HoweverMeđutim, MarsMars is 200 timesпута furtherдаље away,
47
127040
3536
Međutim, Mars je 200 puta dalje,
02:22
and as a resultрезултат it takes
on averageпросек 13 minutesминута
48
130600
3216
i zbog toga je potrebno
u proseku 13 minuta
02:25
for a signalсигнал to travelпутовање
from the EarthZemlja to MarsMars.
49
133840
3136
za signal da putuje od Zemlje do Marsa.
02:29
If there's troubleневоље,
there's not enoughдовољно time.
50
137000
3400
Ako imamo problem, nema dovoljno vremena.
02:32
And so a reasonableразумно engineeringинжењеринг solutionрешење
51
140840
2496
Pa razumno inženjeresko rešenje
02:35
callsпозиве for us to put missionмисија controlконтрола
52
143360
2576
iziskuje od nas da smestimo
kontrolu misije
02:37
insideу the wallsзидови of the OrionOrion spacecraftсвемирски брод.
53
145960
3016
unutar zidova kosmičkog broda Orion.
02:41
AnotherDrugi fascinatingфасцинантан ideaидеја
in the missionмисија profileprofil
54
149000
2896
Još jedna fantastična ideja
u profilu misije
02:43
placesместа humanoidhumanoid robotsроботи
on the surfaceповршина of MarsMars
55
151920
2896
smešta humanoidne robote
na površinu Marsa
02:46
before the humansљуди themselvesсами arriveстићи,
56
154840
1856
pre nego što ljudi lično stignu,
02:48
first to buildизградити facilitiesобјеката
57
156720
1656
prvo da bi gradili objekte
02:50
and laterкасније to serveслужи as collaborativeсарадња
membersчланови of the scienceНаука teamтим.
58
158400
3360
i kasnije da služe kao saradnici
u naučnoj ekipi.
02:55
Now, as I lookedпогледао at this
from an engineeringинжењеринг perspectiveперспектива,
59
163400
2736
Sad, dok sam ovo posmatrao
sa inženjerske tačke gledišta,
02:58
it becameпостао very clearјасно to me
that what I neededпотребно to architectархитекта
60
166160
3176
bilo mi je veoma jasno
da je potrebno da projektujem
03:01
was a smartпаметан, collaborativeсарадња,
61
169360
2176
pametnu, sarađivačku,
03:03
sociallyдруштвено intelligentинтелигентан
artificialвештачки intelligenceинтелигенција.
62
171560
2376
društveno inteligentnu
veštačku inteligenciju.
03:05
In other wordsречи, I neededпотребно to buildизградити
something very much like a HALHAL
63
173960
4296
Drugim rečima, trebalo je da sagradim
nešto prilično slično HAL-u,
03:10
but withoutбез the homicidalubilačka tendenciesтенденције.
64
178280
2416
ali bez ubilačkih tendencija.
03:12
(LaughterSmeh)
65
180720
1360
(Smeh)
03:14
Let's pauseпауза for a momentтренутак.
66
182920
1816
Zastanimo na trenutak.
03:16
Is it really possibleмогуће to buildизградити
an artificialвештачки intelligenceинтелигенција like that?
67
184760
3896
Da li je zaista moguće sagraditi
takvu veštačku inteligenciju?
03:20
ActuallyU stvari, it is.
68
188680
1456
Zapravo jeste.
03:22
In manyмноги waysначини,
69
190160
1256
Na razne načine,
03:23
this is a hardтешко engineeringинжењеринг problemпроблем
70
191440
1976
ovo je težak inženjerski problem
03:25
with elementsелементи of AIAI,
71
193440
1456
sa elementima VI,
03:26
not some wetmokra hairкоса ballлопта of an AIAI problemпроблем
that needsпотребе to be engineeredпројектован.
72
194920
4696
a ne nekakav neprijatan problem VI
koji je potrebno projektovati.
03:31
To paraphraseparafrazirati AlanAlan TuringTuring,
73
199640
2656
Da parafraziram Alana Tjuringa:
03:34
I'm not interestedзаинтересован
in buildingзграде a sentientосјећајан machineмашина.
74
202320
2376
ne zanima me izgradnja svesne mašine.
03:36
I'm not buildingзграде a HALHAL.
75
204720
1576
Ne pravim HAL-a.
03:38
All I'm after is a simpleједноставно brainмозак,
76
206320
2416
Ja tragam za prostim mozgom,
03:40
something that offersнуди
the illusionилузија of intelligenceинтелигенција.
77
208760
3120
nečim što pruža iluziju inteligencije.
03:45
The artуметност and the scienceНаука of computingрад на рачунару
have come a long way
78
213000
3136
Umetnost nauke i računarstva
su prešle dug put
03:48
sinceОд HALHAL was onscreenna ekranu,
79
216160
1496
od vremena prikazivanja HAL-a,
03:49
and I'd imagineзамислити if his inventorпроналазач
DrDr. ChandraChandra were here todayданас,
80
217680
3216
i pretpostavljam da je njegov tvorac
dr Čandra ovde danas,
03:52
he'dон би have a wholeцела lot of questionsпитања for us.
81
220920
2336
imao bi gomilu pitanja za nas.
03:55
Is it really possibleмогуће for us
82
223280
2096
Da li je zaista moguće da mi
03:57
to take a systemсистем of millionsмилиони
uponна millionsмилиони of devicesуређаји,
83
225400
4016
uzmemo sistem od miliona
i miliona uređaja,
04:01
to readчитати in theirњихова dataподаци streamsстреамс,
84
229440
1456
koji učitava dotok podataka,
i da predvidimo njihove kvarove
i delamo unapred?
04:02
to predictпредвидети theirњихова failuresпропусти
and actчинити in advanceунапред?
85
230920
2256
04:05
Yes.
86
233200
1216
Da.
Možemo li sagraditi sisteme koji
pričaju s ljudima na prirodnom jeziku?
04:06
Can we buildизградити systemsсистема that converseConverse
with humansљуди in naturalприродно languageЈезик?
87
234440
3176
04:09
Yes.
88
237640
1216
Da.
04:10
Can we buildизградити systemsсистема
that recognizeпрепознати objectsобјеката, identifyидентификовати emotionsемоције,
89
238880
2976
Možemo li sagraditi sisteme
koji prepoznaju predmete, osećanja,
04:13
emotesmeško themselvesсами,
playигра gamesигре and even readчитати lipsусне?
90
241880
3376
ispoljavaju emocije,
igraju igrice, čak i čitaju sa usana?
Da.
04:17
Yes.
91
245280
1216
Možemo li sagraditi sistem
koji postavlja ciljeve,
04:18
Can we buildизградити a systemсистем that setsсетови goalsциљеве,
92
246520
2136
04:20
that carriesноси out plansпланове againstпротив those goalsциљеве
and learnsuči alongзаједно the way?
93
248680
3616
koji pravi planove za te ciljeve
i usput uči?
04:24
Yes.
94
252320
1216
Da.
04:25
Can we buildизградити systemsсистема
that have a theoryтеорија of mindум?
95
253560
3336
Možemo li sagraditi sisteme
koji sadrže teoriju uma?
04:28
This we are learningучење to do.
96
256920
1496
Ovo učimo da radimo.
04:30
Can we buildизградити systemsсистема that have
an ethicalетички and moralморално foundationтемељ?
97
258440
3480
Možemo li sagraditi sisteme
koji imaju etičke i moralne osnove?
04:34
This we mustмора learnучи how to do.
98
262480
2040
Ovo moramo da naučimo da radimo.
04:37
So let's acceptприхватити for a momentтренутак
99
265360
1376
Zato, prihvatimo za trenutak
04:38
that it's possibleмогуће to buildизградити
suchтаква an artificialвештачки intelligenceинтелигенција
100
266760
2896
da je moguće sagraditi
takvu veštačku inteligenciju
04:41
for this kindкинд of missionмисија and othersдруги.
101
269680
2136
za ovakvu i slične misije.
04:43
The nextследећи questionпитање
you mustмора askпитати yourselfсами is,
102
271840
2536
Sledeće pitanje
koje morate postaviti sebi je:
04:46
should we fearбојати се it?
103
274400
1456
da li treba da je se plašimo?
04:47
Now, everyсваки newново technologyтехнологија
104
275880
1976
Sad, svaka nova tehnologija
04:49
bringsдоноси with it
some measureмеру of trepidationтрепидација.
105
277880
2896
sa sobom nosi izvesnu dozu strepnje.
Kada smo prvi put videli automobile,
04:52
When we first saw carsаутомобили,
106
280800
1696
04:54
people lamentedpožalio that we would see
the destructionуништење of the familyпородица.
107
282520
4016
ljudi su se žalili da ćemo biti svedoci
uništenja porodice.
04:58
When we first saw telephonesтелефони come in,
108
286560
2696
Kada smo prvi put videli telefon,
05:01
people were worriedзабринуто it would destroyуништити
all civilцивилно conversationразговор.
109
289280
2896
ljudi su bili zabrinuti
da će da uništi učtiv razgovor.
05:04
At a pointтачка in time we saw
the writtenнаписано wordреч becomeпостати pervasiveпервасиве,
110
292200
3936
U jednom trenutku smo videli
kako pisana reč počinje da preovlađuje,
ljudi su smatrali da ćemo izgubiti
sposobnost pamćenja.
05:08
people thought we would loseизгубити
our abilityспособност to memorizeзапамтите.
111
296160
2496
05:10
These things are all trueистина to a degreeстепен,
112
298680
2056
Sve ovo je donekle tačno,
05:12
but it's alsoтакође the caseслучај
that these technologiesтехнологије
113
300760
2416
ali je takođe tačno
da nam je ova tehnologija
05:15
broughtдоведен to us things
that extendedпродужено the humanљудско experienceискуство
114
303200
3376
donela stvari koje su proširile
ljudsko iskustvo
05:18
in some profoundдубок waysначини.
115
306600
1880
na izvesne suštinske načine.
05:21
So let's take this a little furtherдаље.
116
309840
2280
Stoga, pođimo malo dalje s ovim.
05:25
I do not fearбојати се the creationстварање
of an AIAI like this,
117
313120
4736
Ne strahujem od stvaranja VI na ovaj način
05:29
because it will eventuallyконачно
embodyукључи some of our valuesвредности.
118
317880
3816
jer će vremenom
otelotvoriti neke od naših vrednosti.
05:33
ConsiderRazmislite o this: buildingзграде a cognitiveкогнитивни systemсистем
is fundamentallyфундаментално differentразличит
119
321720
3496
Razmotrite sledeće: izgradnja kognitivnog
sistema je temeljno različita
05:37
than buildingзграде a traditionalтрадиционални
software-intensivesoftver-intenzivne systemсистем of the pastпрошлост.
120
325240
3296
od izgradnje tradicionalnog
softverskog sistema iz prošlosti.
05:40
We don't programпрограм them. We teachнаучити them.
121
328560
2456
Ne programiramo ih. Podučavamo ih.
05:43
In orderнаручи to teachнаучити a systemсистем
how to recognizeпрепознати flowersцвијеће,
122
331040
2656
Kako bih naučio sistem
da raspoznaje cveće,
05:45
I showсхов it thousandsхиљаде of flowersцвијеће
of the kindsврсте I like.
123
333720
3016
pokazujem mu na hiljade cvetova
koji se meni sviđaju.
05:48
In orderнаручи to teachнаучити a systemсистем
how to playигра a gameигра --
124
336760
2256
Kako bih naučio sistem da igra igru -
05:51
Well, I would. You would, too.
125
339040
1960
Pa, bih. I vi biste.
05:54
I like flowersцвијеће. Come on.
126
342600
2040
Volim cveće. Pa šta.
05:57
To teachнаучити a systemсистем
how to playигра a gameигра like Go,
127
345440
2856
Kako bih naučio sistem
da igra igru poput goa,
06:00
I'd have it playигра thousandsхиљаде of gamesигре of Go,
128
348320
2056
morao bih da odigram
na hiljade partija goa,
06:02
but in the processпроцес I alsoтакође teachнаучити it
129
350400
1656
ali bih ga usput naučio
06:04
how to discernraspoznaju
a good gameигра from a badлоше gameигра.
130
352080
2416
kako da razlikuje dobru od loše partije.
06:06
If I want to createстворити an artificiallyвештачки
intelligentинтелигентан legalправни assistantasistent,
131
354520
3696
Ako bih želeo da stvorim pravnog
asistenta sa veštačkom inteligencijom,
podučio bih ga zakonskim pravilncima,
06:10
I will teachнаучити it some corpusкорпус of lawзакон
132
358240
1776
06:12
but at the sameисти time I am fusingspajanja with it
133
360040
2856
ali bih mu istovremeno s tim mešao
06:14
the senseсмисао of mercymilost and justiceправда
that is partдео of that lawзакон.
134
362920
2880
osećanja milosti i pravde
koja su delovi tog zakona.
06:18
In scientificнаучно termsуслови,
this is what we call groundземља truthистина,
135
366560
2976
U naučnom smislu, ovo je nešto
što nazivamo temeljnom istinom,
06:21
and here'sево the importantважно pointтачка:
136
369560
2016
a ovo je važna tačka:
06:23
in producingпроизводњу these machinesмашине,
137
371600
1456
stvarajući ove mašine,
06:25
we are thereforeстога teachingУчити them
a senseсмисао of our valuesвредности.
138
373080
3416
sledi da ih učimo svesti
o našim vrednostima.
06:28
To that endкрај, I trustповерење
an artificialвештачки intelligenceинтелигенција
139
376520
3136
U tom smislu, verujem
veštačkoj inteligenciji
06:31
the sameисти, if not more,
as a humanљудско who is well-traineddobro obučene.
140
379680
3640
isto, ako ne i više,
kao i dobro obučenim ljudima.
06:36
But, you mayможе askпитати,
141
384080
1216
Međutim, možda se pitate,
06:37
what about rogueodmetnuti agentsагенти,
142
385320
2616
šta je sa odmetnicima,
06:39
some well-fundedDobro
nongovernmentnevladina organizationорганизација?
143
387960
3336
nekim dobro finansiranim
nevladinim organizacijama?
06:43
I do not fearбојати се an artificialвештачки intelligenceинтелигенција
in the handруку of a loneЛоне wolfвук.
144
391320
3816
Ne plašim se veštačke inteligencije
u rukama vukova samotnjaka.
06:47
ClearlyJasno, we cannotне може protectзаштитити ourselvesсами
againstпротив all randomслучајно actsделује of violenceнасиље,
145
395160
4536
Očito se ne možemo zaštititi
od svih nasumičnih činova nasilja,
06:51
but the realityреалност is suchтаква a systemсистем
146
399720
2136
ali u stvarnosti sličan sistem
06:53
requiresзахтева substantialзнатан trainingобука
and subtleсуптилно trainingобука
147
401880
3096
zahteva značajanu i prefinjenu obuku
06:57
farдалеко beyondизван the resourcesресурса of an individualпојединац.
148
405000
2296
koja prevazilazi resurse pojedinaca.
06:59
And furthermoreу наставку,
149
407320
1216
A zatim,
07:00
it's farдалеко more than just injectingUbrizgavao
an internetинтернет virusвирус to the worldсвет,
150
408560
3256
to je daleko više od pukog ubrizgavanja
internet virusa u svet,
07:03
where you pushпусх a buttonдугме,
all of a suddenизненадан it's in a millionмилиона placesместа
151
411840
3096
gde pritisnete dugme
i iznenada se nalazi na milion mesta
07:06
and laptopsлаптопови startпочетак blowingдува up
all over the placeместо.
152
414960
2456
i laptopovi počinju svuda da eksplodiraju.
07:09
Now, these kindsврсте of substancessupstance
are much largerвеће,
153
417440
2816
Sad, ovakve materije su daleko veće,
07:12
and we'llдобро certainlyсигурно see them comingдолазе.
154
420280
1715
i sigurno ćemo ih doživeti.
07:14
Do I fearбојати се that suchтаква
an artificialвештачки intelligenceинтелигенција
155
422520
3056
Da li me je strah da će takva
veštačka inteligencija
07:17
mightМожда threatenprete all of humanityчовечанство?
156
425600
1960
možda ugroziti čitavo čovečanstvo?
07:20
If you look at moviesфилмове
suchтаква as "The MatrixMatrica," "MetropolisMetropolis,"
157
428280
4376
Ako pogledate filmove,
poput "Matriksa", "Metropolisa",
07:24
"The TerminatorTerminator,"
showsпоказује suchтаква as "WestworldDivljeg Zapada,"
158
432680
3176
"Terminatora",
serije poput "Zapadnog sveta",
07:27
they all speakговорити of this kindкинд of fearбојати се.
159
435880
2136
svi se oni bave tim strahom.
07:30
IndeedZaista, in the bookкњига "SuperintelligenceSuperintelligence"
by the philosopherфилозоф NickNik BostromBostrom,
160
438040
4296
Zaista, u knjizi "Superinteligencija"
filozofa Nika Bostroma,
07:34
he picksizdvajanja up on this themeтема
161
442360
1536
on se bavi ovom tematikom
07:35
and observesposmatra that a superintelligencesuperintelligence
mightМожда not only be dangerousопасно,
162
443920
4016
i razmatra da bi superinteligencija
mogla ne samo da bude opasna,
07:39
it could representзаступати an existentialегзистенцијално threatпретња
to all of humanityчовечанство.
163
447960
3856
već bi mogla predstavljati egzistencijalnu
pretnju čitavom čovečanstvu.
07:43
DrDr. Bostrom'sBostrom je basicосновно argumentрасправа
164
451840
2216
Osnovni argument dr Bostroma
07:46
is that suchтаква systemsсистема will eventuallyконачно
165
454080
2736
je da bi slični sistemi vremenom
07:48
have suchтаква an insatiablenezasita
thirstжеђ for informationинформације
166
456840
3256
imali takavu nezasitu žudnju
za informacijama
07:52
that they will perhapsможда learnучи how to learnучи
167
460120
2896
da bi možda naučili kako da uče
07:55
and eventuallyконачно discoverоткрити
that they mayможе have goalsциљеве
168
463040
2616
i vremenom bi otkrili
da možda imaju ciljeve
07:57
that are contraryсупротно to humanљудско needsпотребе.
169
465680
2296
koji su suprotni ljudskim potrebama.
08:00
DrDr. BostromBostrom has a numberброј of followerspristalice.
170
468000
1856
Dr Bostrom ima brojne pratioce.
08:01
He is supportedподржан by people
suchтаква as ElonElon MuskMošus and StephenStiven HawkingLov sa sokolom.
171
469880
4320
Podržavaju ga ljudi poput
Ilona Maska i Stivena Hokinga.
08:06
With all dueдуе respectпоштовање
172
474880
2400
Uz dužno poštovanje
08:10
to these brilliantбрилијантно mindsумови,
173
478160
2016
tim briljantnim umovima,
08:12
I believe that they
are fundamentallyфундаментално wrongпогрешно.
174
480200
2256
verujem da suštinski greše.
08:14
Now, there are a lot of piecesкомада
of DrDr. Bostrom'sBostrom je argumentрасправа to unpackraspakujem,
175
482480
3176
Sad, argument dr Bostroma
je suviše složen za razlaganje,
i ja nemam vremena
da ga u potpunosti razložim,
08:17
and I don't have time to unpackraspakujem them all,
176
485680
2136
08:19
but very brieflyукратко, considerразмотрити this:
177
487840
2696
ali veoma kratko, razmotrite sledeće:
08:22
superСупер knowingзнајући is very differentразличит
than superСупер doing.
178
490560
3736
superznanje je veoma različito
od superdelanja.
HAL je bio pretnja za posadu Diskaverija,
08:26
HALHAL was a threatпретња to the DiscoveryOtkrivanje crewпосада
179
494320
1896
08:28
only insofardosadašnja as HALHAL commandedkomandovao
all aspectsаспекти of the DiscoveryOtkrivanje.
180
496240
4416
samo zato što je HAL zapovedao
svim aspektima Diskaverija.
08:32
So it would have to be
with a superintelligencesuperintelligence.
181
500680
2496
Dakle, moralo bi da se radi
o superinteligenciji.
08:35
It would have to have dominionvlast
over all of our worldсвет.
182
503200
2496
Morala bi da ima vlast
u čitavom našem svetu.
08:37
This is the stuffствари of SkynetSky Net
from the movieфилм "The TerminatorTerminator"
183
505720
2816
Tako je u slučaju Skajneta
iz filma "Terminator"
08:40
in whichкоја we had a superintelligencesuperintelligence
184
508560
1856
u kom smo imali superinteligenciju
koja je zapovedala ljudskom voljom,
08:42
that commandedkomandovao humanљудско will,
185
510440
1376
08:43
that directedрежиран everyсваки deviceуређај
that was in everyсваки cornerугао of the worldсвет.
186
511840
3856
koja je upravljala svakim uređajem
u svakom kutku sveta.
08:47
PracticallyPraktično speakingговорећи,
187
515720
1456
Prosto govoreći,
08:49
it ain'tније gonna happenдесити се.
188
517200
2096
to se neće desiti.
08:51
We are not buildingзграде AIsAIs
that controlконтрола the weatherвреме,
189
519320
3056
Ne pravimo VI
koja kontroliše vremenske prilike,
08:54
that directдиректан the tidesplimu i oseku,
190
522400
1336
koja upravlja plimama,
08:55
that commandкоманда us
capriciouskapriciozna, chaoticхаотичан humansљуди.
191
523760
3376
koja zapoveda nama,
hirovitim, haotičnim ljudima.
08:59
And furthermoreу наставку, if suchтаква
an artificialвештачки intelligenceинтелигенција existedпостојала,
192
527160
3896
Potom, kad bi postojala
slična veštačka inteligencija,
09:03
it would have to competeтакмичити се
with humanљудско economiesекономије,
193
531080
2936
morala bi da se takmiči
sa ljudskim ekonomijama,
09:06
and therebyтиме competeтакмичити се for resourcesресурса with us.
194
534040
2520
a time i sa nama zbog resursa.
09:09
And in the endкрај --
195
537200
1216
I na kraju -
09:10
don't tell SiriSiri this --
196
538440
1240
nemojte ovo reći Siri -
09:12
we can always unplugisključite them.
197
540440
1376
možemo uvek da ih isključimo.
09:13
(LaughterSmeh)
198
541840
2120
(Smeh)
09:17
We are on an incredibleневероватан journeyпутовање
199
545360
2456
Na neverovatnom smo putu
09:19
of coevolutioncoevolution with our machinesмашине.
200
547840
2496
koevolucije sa našim mašinama.
09:22
The humansљуди we are todayданас
201
550360
2496
Ljudi kakvi smo danas,
09:24
are not the humansљуди we will be then.
202
552880
2536
nećemo biti ljudi sutrašnjice.
09:27
To worryзабринути now about the riseпораст
of a superintelligencesuperintelligence
203
555440
3136
Briga zbog uspona superinteligencije
09:30
is in manyмноги waysначини a dangerousопасно distractionдистрацтион
204
558600
3056
je na razne načine
opasno odvraćanje pažnje
09:33
because the riseпораст of computingрад на рачунару itselfсам
205
561680
2336
jer uspon samog računarstva
09:36
bringsдоноси to us a numberброј
of humanљудско and societaldruštveni issuesпитања
206
564040
3016
nam donosi brojna
ljudska i društvena pitanja
09:39
to whichкоја we mustмора now attendprisustvuju.
207
567080
1640
kojima se odmah moramo baviti.
09:41
How shallтреба I bestнајбоље organizeорганизовати societyдруштво
208
569360
2816
Kako da organizujemo društvo
na najbolji način
09:44
when the need for humanљудско laborрад diminishesumanjuje?
209
572200
2336
kada se smanji potreba
za ljudskom radnom snagom?
09:46
How can I bringдовести understandingразумевање
and educationобразовање throughoutтоком the globeглобус
210
574560
3816
Kako da donesemo razumevanje
i obrazovanje širom sveta,
09:50
and still respectпоштовање our differencesРазлике?
211
578400
1776
a da i dalje poštujemo naše razlike?
09:52
How mightМожда I extendпроширити and enhanceПобољшати humanљудско life
throughкроз cognitiveкогнитивни healthcareздравствена заштита?
212
580200
4256
Kako bismo mogli da proširimo i unapredimo
ljudski život kroz kognitivno zdravstvo?
09:56
How mightМожда I use computingрад на рачунару
213
584480
2856
Kako da koristimo računare
09:59
to help take us to the starsЗвездице?
214
587360
1760
da nas odvedu do zvezda?
10:01
And that's the excitingузбудљиво thing.
215
589760
2040
A to je uzbudljivo.
10:04
The opportunitiesмогућности to use computingрад на рачунару
216
592400
2336
Šansa da se koriste računari
da bismo unapredili ljudsko iskustvo
10:06
to advanceунапред the humanљудско experienceискуство
217
594760
1536
10:08
are withinу склопу our reachдостигнути,
218
596320
1416
su nam na dohvat ruke,
10:09
here and now,
219
597760
1856
ovde i sad,
10:11
and we are just beginningпочетак.
220
599640
1680
a tek smo počeli.
10:14
Thank you very much.
221
602280
1216
Mnogo vam hvala.
10:15
(ApplauseAplauz)
222
603520
4286
(Aplauz)
Translated by Milenka Okuka
Reviewed by Mile Živković

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com