ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Nemojte se bojati superinteligentne UI

Filmed:
2,866,438 views

Nova tehnologija rađa nove strahove, kaže znanstvenik i filozof Grady Booch, ali ne moramo se bojati svemoćne bezosjećajne umjetne inteligencije (UI). Booch ublažuje naše najgore strahove (uzrokovane ZF-om) o superinteligentnim računalima objašnjavajući nam kako ćemo ih učiti, ne programirati, kako dijeliti naše vrijednosti. Umjesto da se brinemo oko nevjerojatne egzistencijalne prijetnje, potiče nas razmisliti kako će umjetna inteligencija poboljšati ljudski život.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kiddijete,
I was the quintessentialsuštinskog nerdglupan.
0
760
3840
Kad sam bio klinac,
bio sam onaj pravi štreber.
00:17
I think some of you were, too.
1
5320
2176
MIslim kako su i neki od vas bili,
također.
00:19
(LaughterSmijeh)
2
7520
1216
(Smijeh)
00:20
And you, sirgospodine, who laughedsmijali the loudestnajglasniji,
you probablyvjerojatno still are.
3
8760
3216
A vi, gospodine, koji ste se najglasnije
nasmijali,vjerojatno to i dalje jeste.
00:24
(LaughterSmijeh)
4
12000
2256
(Smijeh)
00:26
I grewrastao up in a smallmali towngrad
in the dustyprašnjave plainsravnice of northsjeverno TexasTexas,
5
14280
3496
Odrastao sam u malenom gradu
na prašnjavim ravnicama sjevernog Teksasa,
00:29
the sonsin of a sheriffŠerif
who was the sonsin of a pastoržupnik.
6
17800
3336
sin šerifa
koji je bio sin pastora.
00:33
GettingDobivanje into troublenevolja was not an optionopcija.
7
21160
1920
Upadanje u nevolje nije bila mogućnost.
00:36
And so I startedpočeo readingčitanje
calculusračun booksknjige for funzabava.
8
24040
3256
I tako sam počeo čitati
knjige iz (*infinitezimalnog) računa za zabavu.
00:39
(LaughterSmijeh)
9
27320
1536
(Smijeh)
00:40
You did, too.
10
28880
1696
I vi ste, također.
00:42
That led me to buildingzgrada a laserlaser
and a computerračunalo and modelmodel rocketsrakete,
11
30600
3736
To me dovelo do izgradnje lasera
i računala i modelarskih raketa,
00:46
and that led me to makingizrađivanje
rocketraketa fuelgorivo in my bedroomspavaća soba.
12
34360
3000
a to me dovelo do izrade
raketnog goriva u mojoj spavaćoj sobi.
00:49
Now, in scientificznanstvena termsUvjeti,
13
37960
3656
Sad, u znanstvenim terminima,
00:53
we call this a very badloše ideaideja.
14
41640
3256
to nazivamo vrlo lošom idejom.
00:56
(LaughterSmijeh)
15
44920
1216
(Smijeh)
00:58
Around that sameisti time,
16
46160
2176
Nekako oko tog doba,
01:00
StanleyStanley Kubrick'sKubrickov "2001: A SpaceProstor OdysseyOdiseja"
camedošao to the theaterskazališta,
17
48360
3216
Kubrick-ova "2001: Odiseja u Svemiru"
je došla u kina,
01:03
and my life was foreverzauvijek changedpromijenjen.
18
51600
2200
i moj se život zauvijek promijenio.
01:06
I lovedvoljen everything about that moviefilm,
19
54280
2056
Volio sam sve oko tog filma,
01:08
especiallyposebno the HALHAL 9000.
20
56360
2536
posebno HAL 9000.
01:10
Now, HALHAL was a sentientosjetan computerračunalo
21
58920
2056
Sad, HAL je bio svjesno računalo
01:13
designedkonstruiran to guidevodič the DiscoveryOtkriće spacecraftkosmički brod
22
61000
2456
osmišljeno da vodi svemirsku
letjelicu Discovery
01:15
from the EarthZemlja to JupiterJupiter.
23
63480
2536
od Zemlje do Jupitera.
01:18
HALHAL was alsotakođer a flawedmanjkav characterlik,
24
66040
2056
HAL je također bio manjkav lik,
01:20
for in the endkraj he choseizabrati
to valuevrijednost the missionmisija over humanljudski life.
25
68120
4280
jer je na kraju birao vrednovati
misiju više od ljudskog života.
01:24
Now, HALHAL was a fictionalfiktivni characterlik,
26
72840
2096
Sad, HAL je bio izmišljeni lik,
01:26
but nonethelessipak he speaksgovori to our fearsstrahovi,
27
74960
2656
ali ipak se obraćao našim strahovima,
01:29
our fearsstrahovi of beingbiće subjugatedosudio je
28
77640
2096
našim strahovima o bivanju podčinjenim
01:31
by some unfeelingbezosjećajan, artificialUmjetna intelligenceinteligencija
29
79760
3016
od strane neke
bezosjećajne, umjetne inteligencije
01:34
who is indifferentravnodušan to our humanityčovječanstvo.
30
82800
1960
koja je ravnodušna spram naše ljudskosti.
01:37
I believe that suchtakav fearsstrahovi are unfoundedneutemeljene.
31
85880
2576
Vjerujem kako su takvi strahovi
neutemeljeni.
01:40
IndeedDoista, we standstajati at a remarkableizvanredan time
32
88480
2696
Zbilja, stojimo na upečatljivom mjestu
01:43
in humanljudski historypovijest,
33
91200
1536
u ljudskoj povijesti,
01:44
where, drivenupravljan by refusalodbijanje to acceptprihvatiti
the limitsgranice of our bodiestjelesa and our mindsmisli,
34
92760
4976
gdje, potaknuti odbijanjem prihvaćanja
granica naših tijela i naših umova,
01:49
we are buildingzgrada machinesstrojevi
35
97760
1696
gradimo strojeve,
01:51
of exquisiteFin, beautifullijep
complexitysloženost and gracemilost
36
99480
3616
fine, prekrasne
složenosti i ljepote
01:55
that will extendprodužiti the humanljudski experienceiskustvo
37
103120
2056
koji će proširiti ljudsko iskustvo
01:57
in waysnačine beyondIznad our imaginingzamišljanje.
38
105200
1680
na načine onkraj naše mašte.
01:59
After a careerkarijera that led me
from the AirKlima ForceSila AcademyAkademija
39
107720
2576
Nakon karijere koja me vodila
od Akademije zračnih snaga
02:02
to SpaceProstor CommandNaredba to now,
40
110320
1936
preko Svemirskog zapovjedništva do sada,
02:04
I becamepostao a systemssustavi engineerinženjer,
41
112280
1696
postao sam sistemski inženjer,
02:06
and recentlynedavno I was drawnnacrtan
into an engineeringinženjering problemproblem
42
114000
2736
i nedavno sam uvučen
u inženjerski problem
02:08
associatedpovezan with NASA'sNASA-in missionmisija to MarsMars.
43
116760
2576
vezan uz NASA-inu misiju na Mars.
02:11
Now, in spaceprostor flightsletovi to the MoonMjesec,
44
119360
2496
Sad, u svemirskim letovima do Mjeseca,
02:13
we can relyosloniti uponna
missionmisija controlkontrolirati in HoustonHouston
45
121880
3136
možemo se osloniti
na kontrolu misije u Houstonu
02:17
to watch over all aspectsaspekti of a flightlet.
46
125040
1976
kako će paziti na sve aspekte leta.
02:19
HoweverMeđutim, MarsMars is 200 timesputa furtherunaprijediti away,
47
127040
3536
Međutim, Mars je 200 puta udaljeniji,
02:22
and as a resultproizlaziti it takes
on averageprosječan 13 minutesminuta
48
130600
3216
te kao rezultat treba
prosječno 13 minuta
02:25
for a signalsignal to travelputovati
from the EarthZemlja to MarsMars.
49
133840
3136
signalu da otputuje
od Zemlje do Marsa.
02:29
If there's troublenevolja,
there's not enoughdovoljno time.
50
137000
3400
Ako ima nevolje,
nema dovoljno vremena.
02:32
And so a reasonablerazuman engineeringinženjering solutionriješenje
51
140840
2496
I tako razumno inženjersko rješenje
02:35
callspozivi for us to put missionmisija controlkontrolirati
52
143360
2576
kaže nam neka stavimo kontrolu misije
02:37
insideiznutra the wallszidovi of the OrionOrion spacecraftkosmički brod.
53
145960
3016
unutar zidova svemirske letjelice Orion.
02:41
AnotherJoš jedan fascinatingfascinantan ideaideja
in the missionmisija profileProfil
54
149000
2896
Druga očaravajuća ideja
u profilu misije
02:43
placesmjesta humanoidhumanoida robotsroboti
on the surfacepovršinski of MarsMars
55
151920
2896
stavlja humanoidne robote
na površinu Marsa
02:46
before the humansljudi themselvesse arrivestići,
56
154840
1856
prije nego sami ljudi doputuju,
02:48
first to buildizgraditi facilitiespostrojenja
57
156720
1656
prvo kako bi sagradili postrojenja
02:50
and laterkasnije to serveposlužiti as collaborativekolaborativni
membersčlanovi of the scienceznanost teamtim.
58
158400
3360
a kasnije kako bi služili kao
pomoćni članovi znanstvenog tima.
02:55
Now, as I lookedgledao at this
from an engineeringinženjering perspectiveperspektiva,
59
163400
2736
Sad, kad sam gledao na ovo
iz inženjerskog kuta,
02:58
it becamepostao very clearčisto to me
that what I neededpotreban to architectarhitekt
60
166160
3176
postalo mi je vrlo jasno
kako je ono što trebam osmisliti
03:01
was a smartpametan, collaborativekolaborativni,
61
169360
2176
bila pametna, uslužna,
03:03
sociallydruštveno intelligentinteligentan
artificialUmjetna intelligenceinteligencija.
62
171560
2376
društveno inteligentna
umjetna inteligencija.
03:05
In other wordsriječi, I neededpotreban to buildizgraditi
something very much like a HALHAL
63
173960
4296
Drugim riječima, trebao sam složiti
nešto vrlo slično HAL-u
03:10
but withoutbez the homicidalubojica tendenciestendencije.
64
178280
2416
ali bez ubilačkih sklonosti.
03:12
(LaughterSmijeh)
65
180720
1360
(Smijeh)
03:14
Let's pausepauza for a momenttrenutak.
66
182920
1816
Zaustavimo se na trenutak.
03:16
Is it really possiblemoguće to buildizgraditi
an artificialUmjetna intelligenceinteligencija like that?
67
184760
3896
Je li stvarno moguće sagraditi
umjetnu inteligenciju poput ove?
03:20
ActuallyZapravo, it is.
68
188680
1456
Zapravo, jest.
03:22
In manymnogi waysnačine,
69
190160
1256
Na puno načina,
03:23
this is a hardteško engineeringinženjering problemproblem
70
191440
1976
ovo je tvrdi inženjerski problem
03:25
with elementselementi of AIAI,
71
193440
1456
s elementima UI,
03:26
not some wetmokro hairdlaka balllopta of an AIAI problemproblem
that needspotrebe to be engineeredprojektirana.
72
194920
4696
ne neki UI problem mokre lopte kose
kojeg treba osmisliti.
03:31
To paraphraseparafraza AlanAlan TuringTuringov,
73
199640
2656
Da parafraziram Alana Turinga:
03:34
I'm not interestedzainteresiran
in buildingzgrada a sentientosjetan machinemašina.
74
202320
2376
Ne zanima me
izgradnja svjesnog stroja.
03:36
I'm not buildingzgrada a HALHAL.
75
204720
1576
Ne gradim HAL-a.
03:38
All I'm after is a simplejednostavan brainmozak,
76
206320
2416
Sve za čime idem je
jednostavan mozak,
03:40
something that offersponude
the illusioniluzija of intelligenceinteligencija.
77
208760
3120
nešto što nudi privid inteligencije.
03:45
The artumjetnost and the scienceznanost of computingračunanje
have come a long way
78
213000
3136
Umjetnost i znanost računarstva
je prošla dalek put
03:48
sinceod HALHAL was onscreenna zaslonu,
79
216160
1496
otkad je HAL bio na ekranu,
03:49
and I'd imaginezamisliti if his inventorizumitelj
DrDr. ChandraChandra were here todaydanas,
80
217680
3216
i mogu zamisliti kad bi njegov izumitelj
dr. Chandra bio ovdje danas,
03:52
he'don bi have a wholečitav lot of questionspitanja for us.
81
220920
2336
imao bi cijeli niz pitanja za nas.
03:55
Is it really possiblemoguće for us
82
223280
2096
Je li nam zbilja moguće
03:57
to take a systemsistem of millionsmilijuni
uponna millionsmilijuni of devicesuređaji,
83
225400
4016
uzeti sustav od milijuna
i milijuna uređaja,
04:01
to readčitati in theirnjihov datapodaci streamspotoci,
84
229440
1456
čitati njihove tokove podataka,
04:02
to predictpredvidjeti theirnjihov failuresneuspjeh
and actčin in advancenapredovati?
85
230920
2256
predviđati njihove kvarove
te djelovati unaprijed?
04:05
Yes.
86
233200
1216
Da.
04:06
Can we buildizgraditi systemssustavi that converseConverse
with humansljudi in naturalprirodni languagejezik?
87
234440
3176
Možemo li graditi sustave koji
razgovaraju s ljudima prirodnim jezikom?
04:09
Yes.
88
237640
1216
Da.
04:10
Can we buildizgraditi systemssustavi
that recognizeprepoznati objectsobjekti, identifyidentificirati emotionsemocije,
89
238880
2976
Možemo li graditi sustave
koji prepoznaju objekte, identificiraju osjećaje,
04:13
emoteispoljiti emocije themselvesse,
playigrati gamesigre and even readčitati lipsusne?
90
241880
3376
sami izražavaju emocije,
igraju igre i čak čitaju s usana?
04:17
Yes.
91
245280
1216
Da.
04:18
Can we buildizgraditi a systemsistem that setssetovi goalsciljevi,
92
246520
2136
Možemo li sagraditi sustav
koji postavlja ciljeve,
04:20
that carriesnosi out plansplanovi againstprotiv those goalsciljevi
and learnsuči alonguz the way?
93
248680
3616
potom izvršava planove
prema tim ciljevima te usput uči?
04:24
Yes.
94
252320
1216
Da.
04:25
Can we buildizgraditi systemssustavi
that have a theoryteorija of mindum?
95
253560
3336
Možemo li sagraditi sustave
koji imaju teoriju uma?
04:28
This we are learningučenje to do.
96
256920
1496
To upravo učimo.
04:30
Can we buildizgraditi systemssustavi that have
an ethicaletički and moralmoralan foundationtemelj?
97
258440
3480
Možemo li sagraditi sustave
koji imaju etičke i moralne temelje?
04:34
This we mustmora learnnaučiti how to do.
98
262480
2040
Ovo moramo naučiti kako.
04:37
So let's acceptprihvatiti for a momenttrenutak
99
265360
1376
Pa prihvatimo na trenutak
04:38
that it's possiblemoguće to buildizgraditi
suchtakav an artificialUmjetna intelligenceinteligencija
100
266760
2896
kako je moguće sagraditi
takvu umjetnu inteligenciju
04:41
for this kindljubazan of missionmisija and othersdrugi.
101
269680
2136
za ovu vrstu misije i slično.
04:43
The nextSljedeći questionpitanje
you mustmora askpitati yourselfsami is,
102
271840
2536
Slijedeće pitanje
koje biste se trebali pitati je,
04:46
should we fearstrah it?
103
274400
1456
bismo li je se trebali bojati?
04:47
Now, everysvaki newnovi technologytehnologija
104
275880
1976
Sad, svaka nova tehnologija
04:49
bringsdonosi with it
some measuremjera of trepidationstrah.
105
277880
2896
sa sobom donosi
neku mjeru strepnje.
04:52
When we first saw carsautomobili,
106
280800
1696
Kad smo prvo vidjeli aute,
04:54
people lamentedzapjeva that we would see
the destructionrazaranje of the familyobitelj.
107
282520
4016
ljudi su se žalili kako ćemo vidjeti
uništenje obitelji.
04:58
When we first saw telephonestelefoni come in,
108
286560
2696
Kad smo prvo vidjeli telefone kako dolaze,
05:01
people were worriedzabrinut it would destroyuništiti
all civilgrađanski conversationrazgovor.
109
289280
2896
ljudi su brinuli kako će uništiti
sav uljudan razgovor.
05:04
At a pointtočka in time we saw
the writtennapisan wordriječ becomepostati pervasiveprožima,
110
292200
3936
U točci vremena kad smo vidjeli
kako pisana riječ sve više prožima,
05:08
people thought we would loseizgubiti
our abilitysposobnost to memorizememorirati.
111
296160
2496
ljudi su mislili kako ćemo izgubiti
našu sposobnost pamćenja.
05:10
These things are all truepravi to a degreestupanj,
112
298680
2056
Sve su te stvari točne do nekog stupnja,
05:12
but it's alsotakođer the casespis
that these technologiestehnologije
113
300760
2416
ali je također slučaj
kako su nam te tehnologije
05:15
broughtdonio to us things
that extendedprodužen the humanljudski experienceiskustvo
114
303200
3376
dovele stvari koje su
proširile ljudsko iskustvo
05:18
in some profounddubok waysnačine.
115
306600
1880
na neke duboke načine.
05:21
So let's take this a little furtherunaprijediti.
116
309840
2280
Pa hajdemo s ovim još malo dalje.
05:25
I do not fearstrah the creationstvaranje
of an AIAI like this,
117
313120
4736
Ne bojim se
stvaranje UI poput ove,
05:29
because it will eventuallyeventualno
embodyutjeloviti some of our valuesvrijednosti.
118
317880
3816
jer će s vremenom
utjeloviti neke od naših vrijednosti.
05:33
ConsiderUzeti u obzir this: buildingzgrada a cognitivespoznajni systemsistem
is fundamentallyfundamentalno differentdrugačiji
119
321720
3496
Uzmite u obzir ovo: izgradnja
spoznajnog sustava je iz temelja različita
05:37
than buildingzgrada a traditionaltradicionalan
software-intensivesoftver-jak systemsistem of the pastprošlost.
120
325240
3296
od izgradnje tradicionalnog softverski
intenzivnog sustava u prošlosti.
05:40
We don't programprogram them. We teachučiti them.
121
328560
2456
Ne programiramo ih. Učimo ih.
05:43
In ordernarudžba to teachučiti a systemsistem
how to recognizeprepoznati flowerscvijeće,
122
331040
2656
Kako bismo sustav naučili
prepoznavati cvijeće,
05:45
I showpokazati it thousandstisuća of flowerscvijeće
of the kindsvrste I like.
123
333720
3016
pokazujem mu tisuće vrsta cvjetova
koje mi se sviđaju.
05:48
In ordernarudžba to teachučiti a systemsistem
how to playigrati a gameigra --
124
336760
2256
Kako bismo sustav naučili
igrati igru --
05:51
Well, I would. You would, too.
125
339040
1960
Dobro, ja bih. I vi bi.
05:54
I like flowerscvijeće. Come on.
126
342600
2040
Sviđa mi se cvijeće. Hajde.
05:57
To teachučiti a systemsistem
how to playigrati a gameigra like Go,
127
345440
2856
Naučiti sustav kako
igrati igru kakva je Go,
06:00
I'd have it playigrati thousandstisuća of gamesigre of Go,
128
348320
2056
pustit ću ga neka odigra
tisuće partija Go-a,
06:02
but in the processpostupak I alsotakođer teachučiti it
129
350400
1656
ali ću ga u postupku
također naučiti i
06:04
how to discernrazlučiti
a good gameigra from a badloše gameigra.
130
352080
2416
kako razaznati
dobru partiju od loše partije.
06:06
If I want to createstvoriti an artificiallyumjetno
intelligentinteligentan legalpravni assistantpomoćnik,
131
354520
3696
Ako želim stvoriti umjetno
inteligentnog pravnog savjetnika,
06:10
I will teachučiti it some corpuszbirka of lawzakon
132
358240
1776
naučit ću ga neki korpus zakona
06:12
but at the sameisti time I am fusingkojim se spajaju with it
133
360040
2856
ali ću u isto vrijeme spojiti s njim
06:14
the senseosjećaj of mercymilost and justicepravda
that is partdio of that lawzakon.
134
362920
2880
osjećaj milosti i pravde
koji je dio tog zakona.
06:18
In scientificznanstvena termsUvjeti,
this is what we call groundtlo truthistina,
135
366560
2976
Znanstvenim rječnikom, to je
ono što zovemo neposredna informacija,
06:21
and here'sevo the importantvažno pointtočka:
136
369560
2016
a evo važnog momenta:
06:23
in producingproizvodnju these machinesstrojevi,
137
371600
1456
u stvaranju svih tih strojeva,
06:25
we are thereforestoga teachingnastava them
a senseosjećaj of our valuesvrijednosti.
138
373080
3416
mi ih dakle učimo
smislu naših vrijednosti.
06:28
To that endkraj, I trustpovjerenje
an artificialUmjetna intelligenceinteligencija
139
376520
3136
Stoga, vjerujem
umjetnoj inteligenciji
06:31
the sameisti, if not more,
as a humanljudski who is well-trainedDobro obučeni.
140
379680
3640
isto, ako ne i više,
koliko i čovjeku koji je dobro obučen.
06:36
But, you maysvibanj askpitati,
141
384080
1216
Ali, možete pitati,
06:37
what about rogueskitnica agentsagenti,
142
385320
2616
što sa nevaljalim igračima,
06:39
some well-fundedDobro
nongovernmentnedržavnim organizationorganizacija?
143
387960
3336
nekom dobro financiranom
nevladinom organizacijom?
06:43
I do not fearstrah an artificialUmjetna intelligenceinteligencija
in the handruka of a loneusamljen wolfvuk.
144
391320
3816
Ne bojim se umjetne inteligencije
u rukama vuka samotnjaka.
06:47
ClearlyJasno, we cannotNe možete protectzaštititi ourselvessebe
againstprotiv all randomslučajan actsdjela of violencenasilje,
145
395160
4536
Jasno, ne možemo se zaštititi
od svih nasumičnih činova nasilja,
06:51
but the realitystvarnost is suchtakav a systemsistem
146
399720
2136
ali stvarnost je da takav sustav
06:53
requirestraži substantialznatan trainingtrening
and subtlefin trainingtrening
147
401880
3096
traži znatnu obuku
i finu obuku
06:57
fardaleko beyondIznad the resourcesresursi of an individualpojedinac.
148
405000
2296
daleko onkraj resursa pojedinca.
06:59
And furthermoreosim toga,
149
407320
1216
I nadalje,
07:00
it's fardaleko more than just injectinginjektiranje
an internetInternet virusvirus to the worldsvijet,
150
408560
3256
to je daleko više nego
samo ubaciti internetski virus u svijet,
07:03
where you pushgurnuti a buttondugme,
all of a suddennaglo it's in a millionmilijuna placesmjesta
151
411840
3096
gdje pritisnete tipku,
odjednom je na milijun mjesta
07:06
and laptopsprijenosna računala startpočetak blowingpuhanje up
all over the placemjesto.
152
414960
2456
i laptopi posvuda
krenu eksplodirati.
07:09
Now, these kindsvrste of substancestvari
are much largerveći,
153
417440
2816
Sad, ove su vrste stvari
puno veće,
07:12
and we'lldobro certainlysigurno see them comingdolazak.
154
420280
1715
i sigurno ćemo ih vidjeti kako dolaze.
07:14
Do I fearstrah that suchtakav
an artificialUmjetna intelligenceinteligencija
155
422520
3056
Bojim li se kako bi takva
umjetna inteligencija
07:17
mightmoć threatenprijete all of humanityčovječanstvo?
156
425600
1960
mogla zaprijetiti cijelom čovječanstvu?
07:20
If you look at moviesfilmovi
suchtakav as "The MatrixMatrica," "MetropolisMetropola,"
157
428280
4376
Ako pogledate filmove
kao što su "Matrix" ili "Metropolis,"
07:24
"The TerminatorOnaj koji ograničuje,"
showspokazuje suchtakav as "WestworldNaš,"
158
432680
3176
"Terminator,"
serije kao što je "Westworld,"
07:27
they all speakgovoriti of this kindljubazan of fearstrah.
159
435880
2136
svi oni pričaju o ovom tipu straha.
07:30
IndeedDoista, in the bookrezervirati "SuperintelligenceSuperinteligencija"
by the philosopherfilozof NickNick BostromBostrom,
160
438040
4296
Zbilja, u knjizi "Superinteligencija"
filozofa Nicka Bostroma,
07:34
he picksmotika up on this themetema
161
442360
1536
on polazi od ove teme
07:35
and observesprimjećuje that a superintelligencesuperinteligencija
mightmoć not only be dangerousopasno,
162
443920
4016
te uočava kako superinteligencija
može biti ne samo opasna,
07:39
it could representpredstavljati an existentialegzistencijalni threatprijetnja
to all of humanityčovječanstvo.
163
447960
3856
mogla bi predstavljati egzistencijalnu
opasnost svom čovječanstvu.
07:43
DrDr. Bostrom'sBostrom je basicosnovni argumentargument
164
451840
2216
Dr. Bostromov temeljni argument
07:46
is that suchtakav systemssustavi will eventuallyeventualno
165
454080
2736
je kako će takvi sustavi s vremenom
07:48
have suchtakav an insatiablenezasitan
thirstžeđ for informationinformacija
166
456840
3256
imati tako neutaživu žeđ
za informacijom
07:52
that they will perhapsmožda learnnaučiti how to learnnaučiti
167
460120
2896
da će možda naučiti kako učiti
07:55
and eventuallyeventualno discoverotkriti
that they maysvibanj have goalsciljevi
168
463040
2616
te s vremenom otkriti
kako mogu imati ciljeve
07:57
that are contrarysuprotno to humanljudski needspotrebe.
169
465680
2296
koji su suprotni ljudskim potrebama.
08:00
DrDr. BostromBostrom has a numberbroj of followerssljedbenici.
170
468000
1856
Dr. Bostrom ima neki broj sljedbenika.
08:01
He is supportedpodržan by people
suchtakav as ElonElon MuskMošus and StephenStjepan HawkingHawking.
171
469880
4320
Podržavaju ga ljudi
poput Elona Muska i Stephena Hawkinga.
08:06
With all dueuslijed respectpoštovanje
172
474880
2400
Sa svim dužnim poštovanjem
08:10
to these brilliantsjajan mindsmisli,
173
478160
2016
prema tim briljantnim umovima,
08:12
I believe that they
are fundamentallyfundamentalno wrongpogrešno.
174
480200
2256
vjerujem kako su oni
iz temelja u krivu.
08:14
Now, there are a lot of pieceskomada
of DrDr. Bostrom'sBostrom je argumentargument to unpackRaspakirajte,
175
482480
3176
Sad, ima puno dijelova
dr. Bostromovog argumenta za maknuti,
08:17
and I don't have time to unpackRaspakirajte them all,
176
485680
2136
a nemam vremena kako bih ih maknuo sve,
08:19
but very brieflykratko, considerrazmotriti this:
177
487840
2696
ali vrlo kratko, razmislite o ovome:
08:22
supersuper knowingpoznavanje is very differentdrugačiji
than supersuper doing.
178
490560
3736
super znanje je vrlo različito
od super djelovanja.
08:26
HALHAL was a threatprijetnja to the DiscoveryOtkriće crewposada
179
494320
1896
HAL je bio prijetnja posadi Discoveryja
08:28
only insofarograničenja o as HALHAL commandedzapovjedio
all aspectsaspekti of the DiscoveryOtkriće.
180
496240
4416
samo stoga što je HAL
upravljao svime u Discoveryju.
08:32
So it would have to be
with a superintelligencesuperinteligencija.
181
500680
2496
Tako bi trebalo biti
i sa superinteligencijom.
08:35
It would have to have dominionvlast
over all of our worldsvijet.
182
503200
2496
Morala bi imati vlast
nad cijelim našim svijetom.
08:37
This is the stuffstvari of SkynetSkynet
from the moviefilm "The TerminatorOnaj koji ograničuje"
183
505720
2816
Tako je sastavljen Skynet
iz filma "Terminator"
08:40
in whichkoji we had a superintelligencesuperinteligencija
184
508560
1856
u kojem smo imali superinteligenciju
08:42
that commandedzapovjedio humanljudski will,
185
510440
1376
koja je upravljala ljudskom voljom,
08:43
that directedusmjerene everysvaki deviceuređaj
that was in everysvaki cornerugao of the worldsvijet.
186
511840
3856
koja je vodila svaki uređaj
koji je bio u svakom kutku svijeta.
08:47
PracticallyPraktički speakinggovor,
187
515720
1456
Praktično govoreći,
08:49
it ain'tnije gonna happendogoditi se.
188
517200
2096
to se neće dogoditi.
08:51
We are not buildingzgrada AIsAIs
that controlkontrolirati the weathervrijeme,
189
519320
3056
Ne gradimo UI-e
koji kontroliraju vrijeme,
08:54
that directdirektno the tidesmorske mijene,
190
522400
1336
koji upravljaju plimom,
08:55
that commandnaredba us
capricioushirovita, chaotichaotičan humansljudi.
191
523760
3376
koji upravljaju nama
jogunastima, kaotičnim ljudima.
08:59
And furthermoreosim toga, if suchtakav
an artificialUmjetna intelligenceinteligencija existedpostojala,
192
527160
3896
I nadalje, ako bi takva
umjetna superinteligencija postojala,
09:03
it would have to competekonkurirati
with humanljudski economiesekonomija,
193
531080
2936
morala bi se nadmetati
sa ljudskim ekonomijama,
09:06
and therebytime competekonkurirati for resourcesresursi with us.
194
534040
2520
i time se nadmetati za resurse sa nama.
09:09
And in the endkraj --
195
537200
1216
I na kraju --
09:10
don't tell SiriSiri this --
196
538440
1240
nemojte reći Siri ovo --
09:12
we can always unplugisključite iz them.
197
540440
1376
uvijek ih možemo ištekati.
09:13
(LaughterSmijeh)
198
541840
2120
(Smijeh)
09:17
We are on an incrediblenevjerojatan journeyputovanje
199
545360
2456
Mi smo na nevjerojatnom putovanju
09:19
of coevolutioncoevolution with our machinesstrojevi.
200
547840
2496
koevolucije sa našim strojevima.
09:22
The humansljudi we are todaydanas
201
550360
2496
Ljudi koji smo danas
09:24
are not the humansljudi we will be then.
202
552880
2536
nisu ljudi koji ćemo biti tada.
09:27
To worrybrinuti now about the riseustati
of a superintelligencesuperinteligencija
203
555440
3136
Brinuti sada o usponu
superinteligencije
09:30
is in manymnogi waysnačine a dangerousopasno distractionodvlačenje pažnje
204
558600
3056
je na puno načina
opasno odvraćanje pažnje
09:33
because the riseustati of computingračunanje itselfsebe
205
561680
2336
stoga što nam već uspon računarstva sam
09:36
bringsdonosi to us a numberbroj
of humanljudski and societaldruštvene issuespitanja
206
564040
3016
donosi brojna
ljudska i društvena pitanja
09:39
to whichkoji we mustmora now attendprisustvovati.
207
567080
1640
kojima se moramo pozabaviti sada.
09:41
How shalltreba I bestnajbolje organizeorganizirati societydruštvo
208
569360
2816
Kako ću najbolje organizirati društvo
09:44
when the need for humanljudski laborrad diminishessmanjuje?
209
572200
2336
kad se potreba za radom smanji?
09:46
How can I bringdonijeti understandingrazumijevanje
and educationobrazovanje throughoutkroz the globeGlobus
210
574560
3816
Kako mogu donijeti razumijevanje
i obrazovanje širom svijeta
09:50
and still respectpoštovanje our differencesRazlike?
211
578400
1776
a i dalje uvažavati razlike?
09:52
How mightmoć I extendprodužiti and enhancepovećati humanljudski life
throughkroz cognitivespoznajni healthcarezdravstvo?
212
580200
4256
Kako mogu produljiti i poboljšati ljudski
život kroz kognitivnu zdravstvenu skrb?
09:56
How mightmoć I use computingračunanje
213
584480
2856
Kako mogu koristiti računarstvo
09:59
to help take us to the starszvijezde?
214
587360
1760
za pomoć kako bi došli do zvijezda?
10:01
And that's the excitinguzbudljiv thing.
215
589760
2040
A to je uzbudljiva stvar.
10:04
The opportunitiesprilike to use computingračunanje
216
592400
2336
Prilike za korištenje računarstva
10:06
to advancenapredovati the humanljudski experienceiskustvo
217
594760
1536
kako bi unaprijedili ljudsko iskustvo
10:08
are withinunutar our reachdohvatiti,
218
596320
1416
su nam unutar dosega,
10:09
here and now,
219
597760
1856
sada i ovdje,
10:11
and we are just beginningpočetak.
220
599640
1680
a tek smo na početku.
10:14
Thank you very much.
221
602280
1216
Hvala vam puno.
10:15
(ApplausePljesak)
222
603520
4286
(Pljesak)
Translated by Stjepan Mateljan
Reviewed by Tilen Pigac

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com