ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

Grady Booch: Ne féljünk a szuper-intelligens mesterséges értelemtől!

Filmed:
2,866,438 views

Az új technika új félelmeket szül – mondja Grady Booch, tudós és filozófus, de a mindenható, érzéketlen mesterséges értelemtől nem kell félnünk. Booch csillapítja a sci-fi keltette legrosszabb félelmünket a szuper-intelligens számítógépektől, mert elmagyarázza, hogyan taníthatjuk (és nem programozhatjuk) őket, hogy alkalmazkodjanak értékrendünkhöz. Ahelyett, hogy létünk valószínűtlen fenyegetettsége miatt nyugtalankodnánk, Booch arra sarkall bennünket, gondoljunk bele, hogy a mesterséges értelem mennyit javíthat az emberek életén.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidkölyök,
I was the quintessentialtömör nerdkockafejû.
0
760
3840
Kiskoromban a végletekig kocka voltam.
00:17
I think some of you were, too.
1
5320
2176
Szerintem páran önök közül is.
00:19
(LaughterNevetés)
2
7520
1216
(Nevetés)
00:20
And you, sirúr, who laughednevetett the loudestleghangosabb,
you probablyvalószínűleg still are.
3
8760
3216
Maga, uram, aki a leghangosabban
nevetett, talán még mindig az.
00:24
(LaughterNevetés)
4
12000
2256
(Nevetés)
Észak-Texas poros pusztai
kisvárosában nőttem föl,
00:26
I grewnőtt up in a smallkicsi townváros
in the dustyporos plainssíkság of northészaki TexasTexas,
5
14280
3496
00:29
the sonfiú of a sheriffseriff
who was the sonfiú of a pastorlelkész.
6
17800
3336
egy sheriff fiaként,
akinek lelkész volt az apja.
00:33
GettingSzerzés into troublebaj was not an optionválasztási lehetőség.
7
21160
1920
Rosszalkodni nem volt lehetőségem.
Szórakozásból differenciál- és
integrálszámítás-könyvet kezdtem olvasni.
00:36
And so I startedindult readingolvasás
calculuskalkulus bookskönyvek for funmóka.
8
24040
3256
00:39
(LaughterNevetés)
9
27320
1536
(Nevetés)
00:40
You did, too.
10
28880
1696
Maguk is.
00:42
That led me to buildingépület a laserlézer
and a computerszámítógép and modelmodell rocketsrakéták,
11
30600
3736
Így kezdtem lézert, számítógépet
és rakétamodellt építeni.
00:46
and that led me to makinggyártás
rocketrakéta fuelüzemanyag in my bedroomhálószoba.
12
34360
3000
Aztán rákaptam arra, hogy a hálószobámban
rakéta-hajtóanyagot kontyvasszak..
00:49
Now, in scientifictudományos termsfeltételek,
13
37960
3656
Tudományos értelemben
00:53
we call this a very badrossz ideaötlet.
14
41640
3256
ez nagyon rossz ötlet.
00:56
(LaughterNevetés)
15
44920
1216
(Nevetés)
00:58
Around that sameazonos time,
16
46160
2176
Akkortájt kezdték játszani
01:00
StanleyStanley Kubrick'sKubrick "2001: A SpaceHely OdysseyOdyssey"
camejött to the theatersszínházak,
17
48360
3216
Stanley Kubrick 2001: Űrodüsszeia
c. filmjét a mozikban,
01:03
and my life was foreverörökké changedmegváltozott.
18
51600
2200
s életem mindörökre megváltozott.
01:06
I lovedszeretett everything about that moviefilm,
19
54280
2056
Minden rettentően tetszett a filmben,
01:08
especiallykülönösen the HALHAL 9000.
20
56360
2536
különösen a HAL 9000.
01:10
Now, HALHAL was a sentientérző computerszámítógép
21
58920
2056
A HAL tudományos számítógép volt,
01:13
designedtervezett to guideútmutató the DiscoveryFelfedezés spacecraftűrhajó
22
61000
2456
amelyet a Discovery űrhajó
Föld–Jupiter közötti útjának
01:15
from the EarthFöld to JupiterJupiter.
23
63480
2536
irányítására terveztek.
01:18
HALHAL was alsois a flawedhibás characterkarakter,
24
66040
2056
A HAL ráadásul romlott jellemű volt,
01:20
for in the endvég he choseválasztotta
to valueérték the missionmisszió over humanemberi life.
25
68120
4280
mert végül az emberi életnél
többre értékelte a küldetést.
01:24
Now, HALHAL was a fictionalkitalált characterkarakter,
26
72840
2096
A HAL kitalált szereplő volt,
01:26
but nonethelessennek ellenére he speaksbeszél to our fearsfélelmek,
27
74960
2656
de azért hangot ad félelmünknek,
01:29
our fearsfélelmek of beinglény subjugatedleigázott
28
77640
2096
azon félelmünknek, hogy alá vagyunk vetve
01:31
by some unfeelingérzéketlen, artificialmesterséges intelligenceintelligencia
29
79760
3016
bizonyos érzéketlen
mesterséges intelligenciának (MI),
01:34
who is indifferentközömbös to our humanityemberiség.
30
82800
1960
aki közömbös emberi mivoltunk iránt.
01:37
I believe that suchilyen fearsfélelmek are unfoundedmegalapozatlan.
31
85880
2576
Ezek a félelmek alaptalanok.
01:40
IndeedValóban, we standállvány at a remarkablefigyelemre méltó time
32
88480
2696
Olyan nevezetes időket élünk
01:43
in humanemberi historytörténelem,
33
91200
1536
most történelmünkben,
01:44
where, drivenhajtott by refusalmegtagadása to acceptelfogad
the limitshatárok of our bodiestestületek and our mindselmék,
34
92760
4976
amelyben testünk és lelkünk korlátait
vagy tagadva vagy elfogadva
01:49
we are buildingépület machinesgépek
35
97760
1696
kiváló, gyönyörűen bonyolult
01:51
of exquisitegyönyörű, beautifulszép
complexitybonyolultság and graceGrace
36
99480
3616
és kecses gépeket építünk,
01:55
that will extendkiterjesztése the humanemberi experiencetapasztalat
37
103120
2056
amelyek képzeletünket túlszárnyalva
01:57
in waysmódokon beyondtúl our imaginingElképzelem.
38
105200
1680
kibővítik emberi élményeinket.
01:59
After a careerkarrier that led me
from the AirLevegő ForceErő AcademyAkadémia
39
107720
2576
Pályafutásom során,
amely a Légierő Akadémiától
02:02
to SpaceHely CommandParancs to now,
40
110320
1936
az Űrparancsnokságig ívelt,
02:04
I becamelett a systemsrendszerek engineermérnök,
41
112280
1696
rendszermérnök lettem.
02:06
and recentlymostanában I was drawnhúzott
into an engineeringmérnöki problemprobléma
42
114000
2736
Nemrég a NASA
Mars-expedíciójával kapcsolatos
02:08
associatedtársult with NASA'sA NASA missionmisszió to MarsMars.
43
116760
2576
egyik mérnöki feladatba vontak be.
02:11
Now, in spacehely flightsjáratok to the MoonHold,
44
119360
2496
A holdutazáskor támaszkodhatunk
02:13
we can relytámaszkodni uponesetén
missionmisszió controlellenőrzés in HoustonHouston
45
121880
3136
az expedíció Houstonból
történő irányítására,
amellyel leshetjük
az út minden mozzanatát.
02:17
to watch over all aspectsszempontok of a flightrepülési.
46
125040
1976
02:19
HoweverAzonban, MarsMars is 200 timesalkalommal furthertovábbi away,
47
127040
3536
De a Mars 200-szor messzebb van,
02:22
and as a resulteredmény it takes
on averageátlagos 13 minutespercek
48
130600
3216
ezért a jelek átlag 13 perc alatt
02:25
for a signaljel to travelutazás
from the EarthFöld to MarsMars.
49
133840
3136
jutnak el a Földről a Marsra.
02:29
If there's troublebaj,
there's not enoughelég time.
50
137000
3400
Ha baj történik, szűk az idő.
02:32
And so a reasonableésszerű engineeringmérnöki solutionmegoldás
51
140840
2496
Ezért az észszerű mérnöki megoldás
02:35
callshívások for us to put missionmisszió controlellenőrzés
52
143360
2576
azt diktálja, hogy az utazás irányítását
02:37
insidebelül the wallsfalak of the OrionOrion spacecraftűrhajó.
53
145960
3016
az Orion űrhajón belül oldjuk meg.
02:41
AnotherEgy másik fascinatingelbűvölő ideaötlet
in the missionmisszió profileProfil
54
149000
2896
Az utazáshoz kapcsolódik
egy másik elragadó ötlet:
02:43
placeshelyek humanoidhumanoid robotsrobotok
on the surfacefelület of MarsMars
55
151920
2896
vigyünk a Mars felszínére
humanoid robotokat,
02:46
before the humansemberek themselvesmaguk arrivemegérkezik,
56
154840
1856
még az ember odaérkezése előtt,
02:48
first to buildépít facilitiesfelszerelés
57
156720
1656
előbb a berendezések megépítésére,
02:50
and latera későbbiekben to serveszolgál as collaborativeegyüttműködő
memberstagjai of the sciencetudomány teamcsapat.
58
158400
3360
majd hogy hasznos tagjai
legyenek a tudóscsoportnak.
02:55
Now, as I lookednézett at this
from an engineeringmérnöki perspectivetávlati,
59
163400
2736
Mérnöki szemszögből nézve
02:58
it becamelett very clearegyértelmű to me
that what I neededszükséges to architectépítészmérnök
60
166160
3176
világossá vált számomra,
hogy okos, együttműködő,
03:01
was a smartOkos, collaborativeegyüttműködő,
61
169360
2176
szociálisan intelligens
mesterséges értelmet kell alkotnom.
03:03
sociallytársadalmilag intelligentintelligens
artificialmesterséges intelligenceintelligencia.
62
171560
2376
03:05
In other wordsszavak, I neededszükséges to buildépít
something very much like a HALHAL
63
173960
4296
Azaz, a HAL-hoz valami
nagyon hasonlót kell építenem,
03:10
but withoutnélkül the homicidalgyilkos tendenciestendenciák.
64
178280
2416
de olyant, ami gyilkos hajlamoktól mentes.
03:12
(LaughterNevetés)
65
180720
1360
(Nevetés)
03:14
Let's pauseszünet for a momentpillanat.
66
182920
1816
Egy pillanat.
03:16
Is it really possiblelehetséges to buildépít
an artificialmesterséges intelligenceintelligencia like that?
67
184760
3896
Tényleg lehetséges ilyen
mesterséges értelmet létrehozni?
03:20
ActuallyValójában, it is.
68
188680
1456
A válasz: igen.
03:22
In manysok waysmódokon,
69
190160
1256
Ez több szempontból is
03:23
this is a hardkemény engineeringmérnöki problemprobléma
70
191440
1976
nehéz mérnöki feladat,
03:25
with elementselemek of AIAI,
71
193440
1456
de az MI elemeivel
03:26
not some wetnedves hairhaj balllabda of an AIAI problemprobléma
that needsigények to be engineeredmanipulált.
72
194920
4696
nem olyan, amit ne lehetne megoldani.
03:31
To paraphraseparafrázis AlanAlan TuringTuring,
73
199640
2656
Alan Turing után szabadon:
03:34
I'm not interestedérdekelt
in buildingépület a sentientérző machinegép.
74
202320
2376
Nem érdekel érző gép megépítése.
03:36
I'm not buildingépület a HALHAL.
75
204720
1576
Nem építek HAL-t.
03:38
All I'm after is a simpleegyszerű brainagy,
76
206320
2416
Csupán egyszerű agyat akarok,
03:40
something that offersajánlatok
the illusionillúzió of intelligenceintelligencia.
77
208760
3120
ami az intelligencia illúzióját kelti.
03:45
The artművészet and the sciencetudomány of computingszámítástechnika
have come a long way
78
213000
3136
A számítástechnika művészete
és tudománya hosszú utat tett meg
03:48
sincemivel HALHAL was onscreenképernyőn megjelenő,
79
216160
1496
a HAL képernyőre kerüléséig,
03:49
and I'd imagineKépzeld el if his inventorfeltaláló
DrDr. ChandraChandra were here todayMa,
80
217680
3216
és elképzelem, ha feltalálója,
dr. Chandra most itt lenne,
03:52
he'dő lenne have a wholeegész lot of questionskérdések for us.
81
220920
2336
lenne hozzánk jó pár kérdése.
03:55
Is it really possiblelehetséges for us
82
223280
2096
Meg tudjuk-e valósítani,
03:57
to take a systemrendszer of millionsTöbb millió
uponesetén millionsTöbb millió of deviceskészülékek,
83
225400
4016
hogy milliók rendszerét
milliónyi gépre telepítve
04:01
to readolvas in theirazok dataadat streamspatakok,
84
229440
1456
elolvassuk az adatfolyamukat,
04:02
to predictmegjósolni theirazok failureshibák
and acttörvény in advanceelőleg?
85
230920
2256
hogy előre megtippeljük
hibáikat és tetteiket?
04:05
Yes.
86
233200
1216
Igen.
04:06
Can we buildépít systemsrendszerek that converseConverse
with humansemberek in naturaltermészetes languagenyelv?
87
234440
3176
Képesek vagyunk-e emberi nyelven
beszélő gépeket építeni?
04:09
Yes.
88
237640
1216
Igen.
Képesek vagyunk-e tárgyfölismerő,
érzelmeket azonosító,
04:10
Can we buildépít systemsrendszerek
that recognizeelismerik objectstárgyak, identifyazonosítani emotionsérzelmek,
89
238880
2976
04:13
emoteemote themselvesmaguk,
playjáték gamesjátékok and even readolvas lipsajkak?
90
241880
3376
érzelmüket kifejező, játékot játszó
és szájról olvasó gépeket építeni?
04:17
Yes.
91
245280
1216
Igen.
04:18
Can we buildépít a systemrendszer that setskészletek goalscélok,
92
246520
2136
Képesek vagyunk-e célokat kitűző,
04:20
that carrieshordoz out planstervek againstellen those goalscélok
and learnstanul alongmentén the way?
93
248680
3616
célokat megvalósító és menet
közben tanuló gépeket építeni?
04:24
Yes.
94
252320
1216
Igen.
04:25
Can we buildépít systemsrendszerek
that have a theoryelmélet of mindelme?
95
253560
3336
Képesek vagyunk-e tudatelmélettel
bíró rendszereket építeni?
04:28
This we are learningtanulás to do.
96
256920
1496
Ezt most tanuljuk.
04:30
Can we buildépít systemsrendszerek that have
an ethicaletikai and moralerkölcsi foundationAlapítvány?
97
258440
3480
Képesek vagyunk-e etikai és erkölcsi
alapokon álló gépeket építeni?
04:34
This we mustkell learntanul how to do.
98
262480
2040
Ezt még meg kell tanulnunk.
04:37
So let's acceptelfogad for a momentpillanat
99
265360
1376
Egyelőre fogadjuk el,
04:38
that it's possiblelehetséges to buildépít
suchilyen an artificialmesterséges intelligenceintelligencia
100
266760
2896
hogy űrutazásokra képesek
vagyunk megépíteni
04:41
for this kindkedves of missionmisszió and othersmások.
101
269680
2136
ilyen mesterséges értelmet.
04:43
The nextkövetkező questionkérdés
you mustkell askkérdez yourselfsaját magad is,
102
271840
2536
A következő kérdés:
04:46
should we fearfélelem it?
103
274400
1456
kell-e félnünk tőle?
04:47
Now, everyminden newúj technologytechnológia
104
275880
1976
Minden új technológia
04:49
bringshoz with it
some measuremérték of trepidationfelindulás.
105
277880
2896
bizonyos mértékű felbolydulást okoz.
04:52
When we first saw carsautók,
106
280800
1696
Az első kocsik megpillantásakor
04:54
people lamentedpanaszkodott that we would see
the destructionmegsemmisítés of the familycsalád.
107
282520
4016
az emberek azon siránkoztak,
hogy tönkremennek a családok.
04:58
When we first saw telephonestelefonok come in,
108
286560
2696
Az első telefonok megjelenésekor
05:01
people were worriedaggódó it would destroyelpusztítani
all civilcivil conversationbeszélgetés.
109
289280
2896
az emberek attól tartottak,
hogy kipusztul az emberi beszéd.
05:04
At a pointpont in time we saw
the writtenírott wordszó becomeválik pervasiveátható,
110
292200
3936
Amikor elterjedt a nyomtatott írás,
05:08
people thought we would loseelveszít
our abilityképesség to memorizememorizál.
111
296160
2496
az emberek azt hitték,
elvész az emlékezőtehetségünk.
05:10
These things are all trueigaz to a degreefokozat,
112
298680
2056
Bizonyos fokig ez mind igaz,
05:12
but it's alsois the caseügy
that these technologiestechnológiák
113
300760
2416
de az is tény, hogy az új technológiák
05:15
broughthozott to us things
that extendedkiterjedt the humanemberi experiencetapasztalat
114
303200
3376
alapvetően az emberi élmények
kibővítését eredményezték.
05:18
in some profoundmély waysmódokon.
115
306600
1880
05:21
So let's take this a little furthertovábbi.
116
309840
2280
Gondolkodjunk el ezen egy kicsit.
05:25
I do not fearfélelem the creationTeremtés
of an AIAI like this,
117
313120
4736
Nem félek az MI létrehozásától,
05:29
because it will eventuallyvégül is
embodytestesítik some of our valuesértékeket.
118
317880
3816
mert meg fogja testesíteni
némely értékünket.
05:33
ConsiderFontolja meg this: buildingépület a cognitivemegismerő systemrendszer
is fundamentallyalapvetően differentkülönböző
119
321720
3496
Vegyük tekintetbe, hogy kognitív rendszert
építeni teljesen más,
05:37
than buildingépület a traditionalhagyományos
software-intensiveszoftver-intenzív systemrendszer of the pastmúlt.
120
325240
3296
mint hagyományos szoftveres rendszert.
05:40
We don't programprogram them. We teachtanít them.
121
328560
2456
Az MI-ket nem programozzuk,
hanem tanítjuk.
05:43
In ordersorrend to teachtanít a systemrendszer
how to recognizeelismerik flowersvirágok,
122
331040
2656
Hogy megtanítsam a virág fölismerését,
05:45
I showelőadás it thousandsTöbb ezer of flowersvirágok
of the kindsféle I like.
123
333720
3016
a rendszernek ezernyi
ilyesféle virágot mutatok.
05:48
In ordersorrend to teachtanít a systemrendszer
how to playjáték a gamejátszma, meccs --
124
336760
2256
Hogy megtanítsam játékot játszani...
05:51
Well, I would. You would, too.
125
339040
1960
Megtenném. Önök is.
05:54
I like flowersvirágok. Come on.
126
342600
2040
Szeretem a virágokat. Tényleg.
05:57
To teachtanít a systemrendszer
how to playjáték a gamejátszma, meccs like Go,
127
345440
2856
Hogy megtanítsam a gépnek
a go játékot játszani,
06:00
I'd have it playjáték thousandsTöbb ezer of gamesjátékok of Go,
128
348320
2056
ezernyi játszmát kell vele játszanom,
06:02
but in the processfolyamat I alsois teachtanít it
129
350400
1656
de közben tanítom is,
06:04
how to discernfelismerni
a good gamejátszma, meccs from a badrossz gamejátszma, meccs.
130
352080
2416
hogyan különböztesse meg
a jó játszmát a rossztól.
06:06
If I want to createteremt an artificiallymesterségesen
intelligentintelligens legaljogi assistantasszisztens,
131
354520
3696
Ha mesterségesen intelligens
jogi segéderőt akarnék csinálni,
06:10
I will teachtanít it some corpustest of lawtörvény
132
358240
1776
betanítanék neki néhány törvénykönyvet,
06:12
but at the sameazonos time I am fusingFixáló with it
133
360040
2856
de egyben beleplántálnám
az irgalom s az igazságosság érzését,
amelyek hozzátartoznak a joghoz.
06:14
the senseérzék of mercyirgalom and justiceigazságszolgáltatás
that is partrész of that lawtörvény.
134
362920
2880
Tudományosan ezt hívjuk alapigazságnak,
06:18
In scientifictudományos termsfeltételek,
this is what we call groundtalaj truthigazság,
135
366560
2976
06:21
and here'sitt the importantfontos pointpont:
136
369560
2016
s ez a fontos, ez a lényeg:
06:23
in producingtermelő these machinesgépek,
137
371600
1456
a gépek készítésekor
06:25
we are thereforeebből adódóan teachingtanítás them
a senseérzék of our valuesértékeket.
138
373080
3416
ezért tanítjuk nekik
az értékeink iránti fogékonyságot.
06:28
To that endvég, I trustbizalom
an artificialmesterséges intelligenceintelligencia
139
376520
3136
Ezért ugyanúgy bízom, ha nem jobban,
06:31
the sameazonos, if not more,
as a humanemberi who is well-trainedjól képzett.
140
379680
3640
a mesterséges értelemben,
mint a jól képzett emberben.
06:36
But, you maylehet askkérdez,
141
384080
1216
De kérdezhetik, mi a helyzet
06:37
what about roguegazember agentsszerek,
142
385320
2616
a gazemberekkel,
06:39
some well-fundedjól finanszírozott
nongovernmentnongovernment organizationszervezet?
143
387960
3336
a gazdag civil szervezetekkel?
06:43
I do not fearfélelem an artificialmesterséges intelligenceintelligencia
in the handkéz of a lonemagányos wolffarkas.
144
391320
3816
Nem tartok attól, hogy a MI
egy magányos farkas kezébe kerül.
06:47
ClearlyEgyértelműen, we cannotnem tud protectvéd ourselvesminket
againstellen all randomvéletlen actscselekmények of violenceerőszak,
145
395160
4536
Tény, hogy nem tudjuk magunkat megvédeni
a spontán erőszakos cselekedetektől,
06:51
but the realityvalóság is suchilyen a systemrendszer
146
399720
2136
de az a helyzet, hogy egy ilyen rendszer
06:53
requiresigényel substantiallényeges trainingkiképzés
and subtleapró trainingkiképzés
147
401880
3096
alapos, kifinomult kiképzést igényel,
06:57
farmessze beyondtúl the resourceserőforrások of an individualEgyedi.
148
405000
2296
ami jócskán meghaladja
egy egyén erőforrásait.
06:59
And furthermoretovábbá,
149
407320
1216
Továbbá,
07:00
it's farmessze more than just injectingintravénás
an internetInternet virusvírus to the worldvilág,
150
408560
3256
ez sokkal több, mint egy internetvírust
kibocsátani a világba;
07:03
where you pushnyom a buttongomb,
all of a suddenhirtelen it's in a millionmillió placeshelyek
151
411840
3096
ott csak leütünk egy billentyűt,
és hirtelen milliónyi helyen
07:06
and laptopslaptopok startRajt blowingfúj up
all over the placehely.
152
414960
2456
és laptopon működésbe lépnek.
07:09
Now, these kindsféle of substancesanyagok
are much largernagyobb,
153
417440
2816
Ezek az állományok sokkal nagyobbak,
07:12
and we'lljól certainlybiztosan see them comingeljövetel.
154
420280
1715
és biztos eljön az idejük.
07:14
Do I fearfélelem that suchilyen
an artificialmesterséges intelligenceintelligencia
155
422520
3056
Féljek-e, hogy ilyen mesterséges értelem
07:17
mightesetleg threatenfenyeget all of humanityemberiség?
156
425600
1960
az egész emberiséget veszélyeztetheti?
07:20
If you look at moviesfilmek
suchilyen as "The MatrixMátrix," "MetropolisNagyváros,"
157
428280
4376
Ha megnézzük a Mátrix, a Metropolis,
07:24
"The TerminatorTerminátor,"
showsműsorok suchilyen as "WestworldFeltámad a vadnyugat,"
158
432680
3176
a Terminátor c. filmeket,
a Westworld c. filmsorozatot,
07:27
they all speakbeszél of this kindkedves of fearfélelem.
159
435880
2136
mind az efféle félelemről szólnak.
07:30
IndeedValóban, in the bookkönyv "SuperintelligenceSuperintelligence"
by the philosopherfilozófus NickNick BostromBostrom,
160
438040
4296
Nick Bostrom filozófus
a Szuperintelligencia c. könyvében
07:34
he pickscsákány up on this themetéma
161
442360
1536
foglalkozik a témával:
07:35
and observesmegjegyzi that a superintelligencesuperintelligence
mightesetleg not only be dangerousveszélyes,
162
443920
4016
figyelmeztet, hogy a szuper-intelligencia
nemcsak veszélyes lehet,
07:39
it could representképvisel an existentialegzisztenciális threatfenyegetés
to all of humanityemberiség.
163
447960
3856
hanem az emberiség létét is fenyegetheti.
07:43
DrDr. Bostrom'sBostrom barátait basicalapvető argumentérv
164
451840
2216
Dr. Bostrom fő érve,
07:46
is that suchilyen systemsrendszerek will eventuallyvégül is
165
454080
2736
hogy az ilyen rendszereknek végül
07:48
have suchilyen an insatiabletelhetetlen
thirstszomjúság for informationinformáció
166
456840
3256
olyan telhetetlen információéhségük lehet,
07:52
that they will perhapstalán learntanul how to learntanul
167
460120
2896
hogy talán azt is megtanulják,
hogyan kell tanulni,
07:55
and eventuallyvégül is discoverfelfedez
that they maylehet have goalscélok
168
463040
2616
és végső fokon rájönnek,
hogy olyan céljaik lehetnek,
07:57
that are contraryellentétes to humanemberi needsigények.
169
465680
2296
amelyek ellentétesek
az emberi szükségletekkel.
08:00
DrDr. BostromBostrom has a numberszám of followerskövetői.
170
468000
1856
Dr. Bostromnak sok követője van.
08:01
He is supportedtámogatott by people
suchilyen as ElonElon MuskPézsma and StephenIstván HawkingSolymászat.
171
469880
4320
Elon Musk
és Stephen Hawking is támogatja például.
08:06
With all dueesedékes respecttisztelet
172
474880
2400
E ragyogó elmék iránti
08:10
to these brilliantragyogó mindselmék,
173
478160
2016
minden kötelező tiszteletem ellenére,
08:12
I believe that they
are fundamentallyalapvetően wrongrossz.
174
480200
2256
úgy vélem, hogy alapvetően tévednek.
08:14
Now, there are a lot of piecesdarabok
of DrDr. Bostrom'sBostrom barátait argumentérv to unpackCsomagolja ki,
175
482480
3176
Dr. Bostromnak számos,
megvizsgálásra érdemes érve van,
08:17
and I don't have time to unpackCsomagolja ki them all,
176
485680
2136
de most itt nincs időnk mindegyikre.
08:19
but very brieflytömören, considerfontolgat this:
177
487840
2696
Dióhéjban, gondoljuk át a következőket:
08:22
superszuper knowingtudva is very differentkülönböző
than superszuper doing.
178
490560
3736
a szuper tudás egészen más,
mint a szuper cselekedet.
08:26
HALHAL was a threatfenyegetés to the DiscoveryFelfedezés crewlegénység
179
494320
1896
A HAL akkor jelentett fenyegetést
a Discovery személyzetére,
08:28
only insofarAmennyiben as HALHAL commandedmegparancsolta
all aspectsszempontok of the DiscoveryFelfedezés.
180
496240
4416
amikor a Discoveryt
teljesen ő irányította.
08:32
So it would have to be
with a superintelligencesuperintelligence.
181
500680
2496
Ehhez szuper intelligensnek kell lennie.
08:35
It would have to have dominiondomínium
over all of our worldvilág.
182
503200
2496
Ez világuralmat jelentene.
08:37
This is the stuffdolog of SkynetSkynet
from the moviefilm "The TerminatorTerminátor"
183
505720
2816
Aztán itt van a Skynet a Terminátorból,
amelyben szuper intelligencia van,
08:40
in whichmelyik we had a superintelligencesuperintelligence
184
508560
1856
amely az emberi akaratot irányítja;
08:42
that commandedmegparancsolta humanemberi will,
185
510440
1376
08:43
that directedirányított everyminden deviceeszköz
that was in everyminden cornersarok of the worldvilág.
186
511840
3856
az egész világon minden készüléket
a Skynet irányít.
08:47
PracticallyGyakorlatilag speakingbeszélő,
187
515720
1456
Ilyen a gyakorlatban
08:49
it ain'tnem gonna happentörténik.
188
517200
2096
nem történhet meg.
08:51
We are not buildingépület AIsAIs
that controlellenőrzés the weatheridőjárás,
189
519320
3056
Nem építünk olyan MI-t,
amely az időjárást
08:54
that directközvetlen the tidesárapály,
190
522400
1336
vagy a dagályt irányítja,
08:55
that commandparancs us
capriciousszeszélyes, chaoticzavaros humansemberek.
191
523760
3376
vagy nekünk, szeszélyes,
zűrös embereknek parancsol.
08:59
And furthermoretovábbá, if suchilyen
an artificialmesterséges intelligenceintelligencia existedlétezett,
192
527160
3896
Továbbá, ha létezne is
ilyen mesterséges értelem,
09:03
it would have to competeversenyez
with humanemberi economiesgazdaságok,
193
531080
2936
meg kellene küzdenie
az emberi takarékoskodással,
09:06
and therebyezáltal competeversenyez for resourceserőforrások with us.
194
534040
2520
és ezért harcolnia kellene
velünk az erőforrásokért.
09:09
And in the endvég --
195
537200
1216
Végül...
– meg ne mondják Sirinek –,
09:10
don't tell SiriSiri this --
196
538440
1240
09:12
we can always unplughúzza ki them.
197
540440
1376
bármikor kikapcsolhatjuk őket.
09:13
(LaughterNevetés)
198
541840
2120
(Nevetés)
09:17
We are on an incrediblehihetetlen journeyutazás
199
545360
2456
A gépeinkkel közös
09:19
of coevolutionkoevolúcióra with our machinesgépek.
200
547840
2496
hihetetlen fejlődési úton járunk.
09:22
The humansemberek we are todayMa
201
550360
2496
Ma emberekként nem olyanok vagyunk,
09:24
are not the humansemberek we will be then.
202
552880
2536
mint amilyenek egykor leszünk.
09:27
To worryaggodalom now about the riseemelkedik
of a superintelligencesuperintelligence
203
555440
3136
A szuper intelligencia megjelenése
miatti mai aggodalmak
09:30
is in manysok waysmódokon a dangerousveszélyes distractionzaklatottság
204
558600
3056
több szempontból
veszélyes figyelemelterelés,
09:33
because the riseemelkedik of computingszámítástechnika itselfmaga
205
561680
2336
mert a számítástechnika fejlődése
már önmagában is
09:36
bringshoz to us a numberszám
of humanemberi and societaltársadalmi issueskérdések
206
564040
3016
egy csomó emberi
és társadalmi kérdést vet föl,
09:39
to whichmelyik we mustkell now attendVegyen részt.
207
567080
1640
amelyekbe be kell kapcsolódnunk.
09:41
How shallköteles I bestlegjobb organizeszervez societytársadalom
208
569360
2816
Hogyan szervezzem
a legjobban a társadalmat,
09:44
when the need for humanemberi labormunkaerő diminishescsökken?
209
572200
2336
ha a munkaerő-szükséglet csökken?
09:46
How can I bringhoz understandingmegértés
and educationoktatás throughoutegész the globeföldgolyó
210
574560
3816
Hogyan érhető el megértés
és végezhető oktatás a Földön,
a különbségek tiszteletben tartásával?
09:50
and still respecttisztelet our differenceskülönbségek?
211
578400
1776
09:52
How mightesetleg I extendkiterjesztése and enhancefokozza humanemberi life
throughkeresztül cognitivemegismerő healthcareegészségügyi?
212
580200
4256
Hogyan hosszabbítható meg és javítható
az élet kognitív egészségügy révén?
09:56
How mightesetleg I use computingszámítástechnika
213
584480
2856
Hogyan használhatom a számítástechnikát,
09:59
to help take us to the starscsillagok?
214
587360
1760
hogy eljussunk a csillagokba?
10:01
And that's the excitingizgalmas thing.
215
589760
2040
Ez itt az izgató kérdés.
A számítástechnikában rejlő
lehetőségek kihasználása
10:04
The opportunitieslehetőségek to use computingszámítástechnika
216
592400
2336
10:06
to advanceelőleg the humanemberi experiencetapasztalat
217
594760
1536
az emberi élmények javítására
10:08
are withinbelül our reachelér,
218
596320
1416
jelenleg csak
10:09
here and now,
219
597760
1856
karnyújtásnyira van,
10:11
and we are just beginningkezdet.
220
599640
1680
és ez csupán a kezdet.
10:14
Thank you very much.
221
602280
1216
Köszönöm szépen.
10:15
(ApplauseTaps)
222
603520
4286
(Taps)
Translated by Peter Pallós
Reviewed by Melissa Csikszentmihályi

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com