ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com
TED2017

Stuart Russell: 3 principles for creating safer AI

Stuart Russell: Miképp tehet jobbá a mesterséges intelligencia?

Filmed:
1,465,832 views

Hogyan vehetjük hasznát a szuperintelligens mesterséges intelligenciának (MI) úgy, hogy elkerüljünk egy katasztrofális robot-hatalomátvételt? Ahogy közeledünk a mindentudó gépek létrehozásához, a MI úttörő, Stuart Russell, egy kicsit máson dolgozik: bizonytalan robotokon. Ismerjük meg a jövőképét egy emberrel összeegyeztethető MI-ról, mely a problémák megoldását józan észre, altruizmusra és más gyökeresen emberi értékekre alapozva segíti.
- AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio

Double-click the English transcript below to play the video.

00:12
This is LeeLee SedolSEDOL.
0
712
1552
Ő Lee Sedol,
00:14
LeeLee SedolSEDOL is one of the world'svilág
greatestlegnagyobb Go playersJátékosok,
1
2288
3997
a világ egyik legjobb Go-játékosa,
aki itt épp arra gondol, amit
Szilícium-völgyi barátaim csak úgy hívnak:
00:18
and he's havingamelynek what my friendsbarátok
in SiliconSzilícium ValleyVölgy call
2
6309
2885
00:21
a "HolySzent CowTehén" momentpillanat --
3
9218
1510
"azt a leborult szivarvégit!".
00:22
(LaughterNevetés)
4
10752
1073
(Nevetés)
00:23
a momentpillanat where we realizemegvalósítani
5
11849
2188
A pillanat, amikor rádöbbenünk,
00:26
that AIAI is actuallytulajdonképpen progressinghalad
a lot fastergyorsabb than we expectedvárt.
6
14061
3296
hogy a MI sokkal gyorsabban fejlődik,
mint amire számítottunk.
00:30
So humansemberek have lostelveszett on the Go boardtábla.
What about the realigazi worldvilág?
7
18154
3047
A Go táblán az ember alul maradt.
De mi lesz a való életben?
00:33
Well, the realigazi worldvilág is much biggernagyobb,
8
21225
2100
A való világ sokkal nagyobb,
00:35
much more complicatedbonyolult than the Go boardtábla.
9
23349
2249
sokszorta összetettebb, mint a Go.
00:37
It's a lot lessKevésbé visiblelátható,
10
25622
1819
Nem annyira látható,
00:39
but it's still a decisiondöntés problemprobléma.
11
27465
2038
de az is döntési probléma.
00:42
And if we think about some
of the technologiestechnológiák
12
30948
2321
Ha néhány új technológiára gondolunk,
00:45
that are comingeljövetel down the pikecsuka ...
13
33293
1749
melyek szárnyaikat bontogatják...
00:47
NorikoNoriko [AraiArai] mentionedemlített that readingolvasás
is not yetmég happeningesemény in machinesgépek,
14
35738
4335
Noriko [Arai] megemlítette,
hogy a gépek még nem olvasnak,
00:52
at leastlegkevésbé with understandingmegértés.
15
40097
1500
legalábbis még nem értik.
00:53
But that will happentörténik,
16
41621
1536
De ez is el fog jönni,
00:55
and when that happensmegtörténik,
17
43181
1771
és amikor bekövetkezik,
00:56
very soonhamar afterwardskésőbb,
18
44976
1187
onnan már nem kell sok,
00:58
machinesgépek will have readolvas everything
that the humanemberi raceverseny has ever writtenírott.
19
46187
4572
hogy elolvassanak mindent,
amit az emberi faj valaha leírt.
01:03
And that will enableengedélyezze machinesgépek,
20
51850
2030
Ez képessé fogja tenni őket,
01:05
alongmentén with the abilityképesség to look
furthertovábbi aheadelőre than humansemberek can,
21
53904
2920
hogy távolabbra lássanak,
mint amire az ember képes,
01:08
as we'vevoltunk alreadymár seenlátott in Go,
22
56848
1680
ahogy a Go-ban már láttuk.
01:10
if they alsois have accesshozzáférés
to more informationinformáció,
23
58552
2164
Ha még több információhoz is hozzáférnek,
01:12
they'llfognak be ableképes to make better decisionsdöntések
in the realigazi worldvilág than we can.
24
60740
4268
képesek lesznek a való világban is
jobb döntéseket hozni nálunk.
01:18
So is that a good thing?
25
66792
1606
Vajon ez jó hír?
01:21
Well, I hoperemény so.
26
69898
2232
Remélem.
01:26
Our entireteljes civilizationcivilizáció,
everything that we valueérték,
27
74694
3255
A teljes civilizációnk, minden,
amit számunkra értéket képvisel,
01:29
is basedszékhelyű on our intelligenceintelligencia.
28
77973
2068
az intelligenciánkon alapul.
01:32
And if we had accesshozzáférés
to a lot more intelligenceintelligencia,
29
80065
3694
Ha sokkal több intelligenciához
férnénk hozzá,
01:35
then there's really no limithatár
to what the humanemberi raceverseny can do.
30
83783
3302
határtalan lehetőségek nyílnának meg
az emberi faj előtt.
01:40
And I think this could be,
as some people have describedleírt it,
31
88665
3325
Azt hiszem, ez lehet -
ahogy néhányan megfogalmazták -
01:44
the biggestlegnagyobb eventesemény in humanemberi historytörténelem.
32
92014
2016
az emberi történelem legnagyobb eseménye.
01:48
So why are people sayingmondás things like this,
33
96665
2829
Mégis miért hangzanak el akkor olyanok,
01:51
that AIAI mightesetleg spellhelyesírás the endvég
of the humanemberi raceverseny?
34
99518
2876
hogy a MI az emberi faj végét jelentheti?
01:55
Is this a newúj thing?
35
103438
1659
Ez valami új dolog?
01:57
Is it just ElonElon MuskPézsma and BillBill GatesKapuk
and StephenIstván HawkingSolymászat?
36
105121
4110
Csak Elon Musk, Bill Gates
és Stephen Hawking gondolja így?
02:01
ActuallyValójában, no. This ideaötlet
has been around for a while.
37
109953
3262
Valójában nem.
Ez már régebb óta kísértő elgondolás.
02:05
Here'sItt van a quotationIdézet:
38
113239
1962
Nézzük ezt az idézetet:
02:07
"Even if we could keep the machinesgépek
in a subservientalázatos positionpozíció,
39
115225
4350
"Még ha képesek is lennénk a gépeket
alárendelt szolgai szerepben tartani,
02:11
for instancepélda, by turningfordítás off the powererő
at strategicstratégiai momentspillanatok" --
40
119599
2984
például úgy, hogy kritikus helyzetekben
kikapcsolnánk őket," -
02:14
and I'll come back to that
"turningfordítás off the powererő" ideaötlet latera későbbiekben on --
41
122607
3237
később még visszatérek
erre a kikapcsolás-ötletre -
02:17
"we should, as a speciesfaj,
feel greatlynagymértékben humbledmegalázta."
42
125868
2804
"mi, mint élőlények, nagyon megalázva
éreznénk magunkat."
02:22
So who said this?
This is AlanAlan TuringTuring in 1951.
43
130177
3448
Ki mondta ezt?
Alan Turing 1951-ben.
02:26
AlanAlan TuringTuring, as you know,
is the fatherapa of computerszámítógép sciencetudomány
44
134300
2763
Alarn Turingról tudjuk,
hogy a számítástudomány atyja,
02:29
and in manysok waysmódokon,
the fatherapa of AIAI as well.
45
137087
3048
és sok tekintetben a MI atyja is.
02:33
So if we think about this problemprobléma,
46
141239
1882
Ezt a problémakört,
02:35
the problemprobléma of creatinglétrehozása something
more intelligentintelligens than your ownsaját speciesfaj,
47
143145
3787
amikor saját fajunknál intelligensebb
teremtményeket hozunk létre,
02:38
we mightesetleg call this "the gorillaGorilla problemprobléma,"
48
146956
2622
hívhatjuk a "gorilla-problémának",
02:42
because gorillas'gorillák ancestorselődök did this
a fewkevés millionmillió yearsévek agoezelőtt,
49
150345
3750
mivel gorilla őseink épp ezt csinálták,
néhány millió évvel ezelőtt,
02:46
and now we can askkérdez the gorillasgorillák:
50
154119
1745
így most megkérdezhetjük a gorillákat:
02:48
Was this a good ideaötlet?
51
156752
1160
Jó ötlet volt?
02:49
So here they are havingamelynek a meetingtalálkozó
to discussmegvitatása whetherakár it was a good ideaötlet,
52
157936
3530
Itt éppen arról értekeznek,
hogy jó ötlet volt-e,
02:53
and after a little while,
they concludekövetkeztetést levonni, no,
53
161490
3346
és kisvártatva arra jutnak, hogy nem,
02:56
this was a terribleszörnyű ideaötlet.
54
164860
1345
ez szörnyű ötlet volt.
02:58
Our speciesfaj is in direszörnyű straitsszorosok.
55
166229
1782
Fajunk a kihalás szélén áll.
03:00
In facttény, you can see the existentialegzisztenciális
sadnessszomorúság in theirazok eyesszemek.
56
168538
4263
Valójában a lét szomorúsága
tükröződik a szemükben.
03:04
(LaughterNevetés)
57
172825
1640
(Nevetés)
03:06
So this queasyundorító feelingérzés that makinggyártás
something smarterintelligensebb than your ownsaját speciesfaj
58
174489
4840
A saját fajunknál valami
okosabbat létrehozni,
03:11
is maybe not a good ideaötlet --
59
179353
2365
talán nem is jó ötlet,
ami felkavaró érzés -
03:14
what can we do about that?
60
182488
1491
mégis hogyan kerülhetjük el?
03:16
Well, really nothing,
exceptkivéve stop doing AIAI,
61
184003
4767
Tulajdonképpen sehogy,
kivéve, ha leállítjuk a MI kutatást,
03:20
and because of all
the benefitselőnyök that I mentionedemlített
62
188794
2510
de a sok előny, amit említettem,
03:23
and because I'm an AIAI researcherkutató,
63
191328
1716
és mert én MI-kutató vagyok,
03:25
I'm not havingamelynek that.
64
193068
1791
nem állítanám le.
03:27
I actuallytulajdonképpen want to be ableképes
to keep doing AIAI.
65
195283
2468
Igazából folytatni szeretném
a MI fejlesztést.
03:30
So we actuallytulajdonképpen need to nailköröm down
the problemprobléma a bitbit more.
66
198615
2678
Egy kissé pontosítanunk kell a problémát.
03:33
What exactlypontosan is the problemprobléma?
67
201317
1371
Mi is igazából a probléma?
03:34
Why is better AIAI possiblyesetleg a catastrophekatasztrófa?
68
202712
3246
Miért jelenthet katasztrófát egy jobb MI?
03:39
So here'sitt anotheregy másik quotationIdézet:
69
207398
1498
Vegyünk egy másik idézetet:
03:41
"We had better be quiteegészen sure
that the purposecélja put into the machinegép
70
209935
3335
"Jó lesz nagyon odafigyelnünk rá,
hogy a gépbe táplált cél
03:45
is the purposecélja whichmelyik we really desirevágy."
71
213294
2298
valóban az a cél, amit tényleg akarunk."
03:48
This was said by NorbertNorbert WienerWiener in 1960,
72
216282
3498
Ezt Norbert Wiener mondta 1960-ban,
03:51
shortlyRöviddel after he watchedfigyelte
one of the very earlykorai learningtanulás systemsrendszerek
73
219804
4002
közvetlen azután, hogy látott
egy nagyon korai tanuló rendszert,
03:55
learntanul to playjáték checkersdáma
better than its creatorTeremtő.
74
223830
2583
amelyik az alkotójánál
jobb volt a dámajátékban.
04:00
But this could equallyegyaránt have been said
75
228602
2683
De ugyanezt elmondhatta volna
04:03
by KingKirály MidasMidas.
76
231309
1167
Midász király is.
Így szólt: "Azt akarom, változzon
minden arannyá, amit megérintek",
04:05
KingKirály MidasMidas said, "I want everything
I touchérintés to turnfordulat to goldArany,"
77
233083
3134
04:08
and he got exactlypontosan what he askedkérdezte for.
78
236241
2473
és pontosan azt kapta, amit kért.
04:10
That was the purposecélja
that he put into the machinegép,
79
238738
2751
Ez volt a cél, amit betáplált a gépbe,
04:13
so to speakbeszél,
80
241513
1450
mondhatjuk így is,
04:14
and then his foodélelmiszer and his drinkital
and his relativesrokonok turnedfordult to goldArany
81
242987
3444
így aztán az étele, az itala,
és a rokonai is arannyá változtak,
04:18
and he diedmeghalt in miserynyomor and starvationéhezés.
82
246455
2281
ő pedig nyomorúságos éhhalált halt.
04:22
So we'lljól call this
"the KingKirály MidasMidas problemprobléma"
83
250444
2341
Szóval ezt hívjuk
"Midász király problémának",
04:24
of statingamely an objectivecélkitűzés
whichmelyik is not, in facttény,
84
252809
3305
amikor olyan célt nevezünk meg,
ami valójában
04:28
trulyvalóban alignedigazított with what we want.
85
256138
2413
nem igazodik jól szándékainkhoz.
04:30
In modernmodern termsfeltételek, we call this
"the valueérték alignmentigazítás problemprobléma."
86
258575
3253
Mai kifejezéssel ezt
"érték-illesztési problémának" nevezzük.
04:37
PuttingElhelyezés in the wrongrossz objectivecélkitűzés
is not the only partrész of the problemprobléma.
87
265047
3485
A probléma nem csak a rossz cél
betáplálását jelenti.
04:40
There's anotheregy másik partrész.
88
268556
1152
Van egy másik oldala is.
04:42
If you put an objectivecélkitűzés into a machinegép,
89
270160
1943
Ha egy célt előírunk egy gépnek,
04:44
even something as simpleegyszerű as,
"FetchFetch the coffeekávé,"
90
272127
2448
akár olyan egyszerűt is, mint:
"Hozd ide a kávét",
04:47
the machinegép saysmondja to itselfmaga,
91
275908
1841
a gép azt mondja magának:
04:50
"Well, how mightesetleg I failnem sikerül
to fetchFetch the coffeekávé?
92
278733
2623
"Miképp vallhatok kudarcot,
a kávé oda vitelében?"
04:53
SomeoneValaki mightesetleg switchkapcsoló me off.
93
281380
1580
Például valaki közben kikapcsol.
04:55
OK, I have to take stepslépések to preventmegelőzése that.
94
283645
2387
Rendben, akkor ezt meg kell akadályoznom.
04:58
I will disableletiltása my 'off'"ki" switchkapcsoló.
95
286056
1906
Le fogom tiltani a kikapcsológombomat.
05:00
I will do anything to defendmegvédeni myselfmagamat
againstellen interferenceinterferencia
96
288534
2959
Mindent megteszek
az akadályok elhárításáért
05:03
with this objectivecélkitűzés
that I have been givenadott."
97
291517
2629
a cél érdekében, amit feladatul kaptam."
05:06
So this single-mindedcéltudatos pursuittörekvés
98
294170
2012
Szóval ez az együgyű törekvés
05:09
in a very defensivevédekező modemód
of an objectivecélkitűzés that is, in facttény,
99
297213
2945
ilyen önvédelmező módon
olyan cél felé viszi,
05:12
not alignedigazított with the trueigaz objectivescélkitűzések
of the humanemberi raceverseny --
100
300182
2814
ami igazából nem illeszkedik jól
az emberi faj valós céljaihoz -
05:16
that's the problemprobléma that we facearc.
101
304122
1862
ez a probléma, amivel szembesülünk.
05:19
And in facttény, that's the high-valuenagy értékű
takeawayelvihető from this talk.
102
307007
4767
Valójában ez a nagyon értékes
útravaló üzenete ennek az előadásnak.
05:23
If you want to rememberemlékezik one thing,
103
311798
2055
Ha csak egy dologra szeretnének emlékezni,
05:25
it's that you can't fetchFetch
the coffeekávé if you're deadhalott.
104
313877
2675
ez legyen: nem tudod felszolgálni a kávét,
ha meghaltál.
05:28
(LaughterNevetés)
105
316576
1061
(Nevetés)
05:29
It's very simpleegyszerű. Just rememberemlékezik that.
RepeatIsmételje meg a it to yourselfsaját magad threehárom timesalkalommal a day.
106
317661
3829
Roppant egyszerű. Csak erre emlékezzenek!
Ismételjék el naponta háromszor!
05:33
(LaughterNevetés)
107
321514
1821
(Nevetés)
05:35
And in facttény, this is exactlypontosan the plotcselekmény
108
323359
2754
Tulajdonképpen erről szól
05:38
of "2001: [A SpaceHely OdysseyOdyssey]"
109
326137
2648
a "2001: Űrodüsszeia".
05:41
HALHAL has an objectivecélkitűzés, a missionmisszió,
110
329226
2090
HAL-nak van egy célja, egy küldetése,
05:43
whichmelyik is not alignedigazított
with the objectivescélkitűzések of the humansemberek,
111
331340
3732
mely nincs az emberi igényekhez igazítva,
05:47
and that leadsvezet to this conflictösszeütközés.
112
335096
1810
és ez nézeteltérésekhez vezet.
05:49
Now fortunatelyszerencsére, HALHAL
is not superintelligentsuperintelligent.
113
337494
2969
De szerencsére HAL nem szuperintelligens.
05:52
He's prettyszép smartOkos,
but eventuallyvégül is DaveDave outwitsoutwits him
114
340487
3587
Meglehetősen okos,
de végül Dave túljár az eszén,
05:56
and manageskezeli to switchkapcsoló him off.
115
344098
1849
és sikerül kikapcsolnia.
06:01
But we mightesetleg not be so luckyszerencsés.
116
349828
1619
De lehet, hogy mi nem leszünk
ilyen szerencsések.
06:08
So what are we going to do?
117
356193
1592
Akkor mit tegyünk majd?
06:12
I'm tryingmegpróbálja to redefineújradefiniál AIAI
118
360371
2601
Megpróbálom újraértelmezni az MI-t,
hogy eltávolodjunk ettől
a klasszikus szemlélettől,
06:14
to get away from this classicalklasszikus notionfogalom
119
362996
2061
06:17
of machinesgépek that intelligentlyintelligensen
pursuefolytat objectivescélkitűzések.
120
365081
4567
mely szerint az intelligens gépek
célokért küzdenek.
06:22
There are threehárom principleselvek involvedrészt.
121
370712
1798
Három alapelvről van szó.
06:24
The first one is a principleelv
of altruismönzetlenség, if you like,
122
372534
3289
Az első az altruizmus alapelve,
ha úgy tetszik:
06:27
that the robot'srobot only objectivecélkitűzés
123
375847
3262
a robot egyetlen célja,
06:31
is to maximizemaximalizálása the realizationmegvalósítása
of humanemberi objectivescélkitűzések,
124
379133
4246
hogy végsőkig segítse
az emberi értékekhez igazodó
06:35
of humanemberi valuesértékeket.
125
383403
1390
emberi célok megvalósulását.
06:36
And by valuesértékeket here I don't mean
touchy-feelyérzékeny-feely, goody-goodyszenteskedő valuesértékeket.
126
384817
3330
Értékek alatt nem mézes-mázas,
szuper jó értékekre gondolok.
06:40
I just mean whatevertök mindegy it is
that the humanemberi would preferjobban szeret
127
388171
3787
Hanem arra, amilyennek az emberek
06:43
theirazok life to be like.
128
391982
1343
az életüket szeretnék.
06:47
And so this actuallytulajdonképpen violatesmegsérti Asimov'sAsimov lawtörvény
129
395364
2309
Ez valójában megsérti Asimov törvényét,
06:49
that the robotrobot has to protectvéd
its ownsaját existencelétezés.
130
397697
2329
hogy a robotnak meg kell védenie
saját magát.
06:52
It has no interestérdeklődés in preservingmegőrzése
its existencelétezés whatsoeverakármi.
131
400050
3723
Semmiféle önmegóvási célja nincs.
06:57
The secondmásodik lawtörvény is a lawtörvény
of humilityalázatosság, if you like.
132
405420
3768
A második törvény, ha úgy tetszik,
az alázatosság törvénye.
07:01
And this turnsmenetek out to be really
importantfontos to make robotsrobotok safebiztonságos.
133
409974
3743
Úgy tűnik, ez rendkívül fontos,
hogy a robotokat biztonságossá tegyük.
07:05
It saysmondja that the robotrobot does not know
134
413741
3142
Azt mondja ki, hogy a robot nem ismeri
07:08
what those humanemberi valuesértékeket are,
135
416907
2028
az emberi értékeket,
07:10
so it has to maximizemaximalizálása them,
but it doesn't know what they are.
136
418959
3178
maximalizálni igyekszik,
ám mégsem tudja, mik azok.
07:15
And that avoidselkerüli a this problemprobléma
of single-mindedcéltudatos pursuittörekvés
137
423254
2626
Ez elkerüli az együgyű célratörő
07:17
of an objectivecélkitűzés.
138
425904
1212
magatartást.
07:19
This uncertaintybizonytalanság turnsmenetek out to be crucialalapvető.
139
427140
2172
Ez a bizonytalanság kulcsfontosságú.
07:21
Now, in ordersorrend to be usefulhasznos to us,
140
429726
1639
Hogy ennek hasznát vegyük,
07:23
it has to have some ideaötlet of what we want.
141
431389
2731
némi elképzelésének kell lennie,
hogy mit is akarunk.
07:27
It obtainsmegszerzi that informationinformáció primarilyelsősorban
by observationmegfigyelés of humanemberi choicesválasztás,
142
435223
5427
Ehhez az információt az emberi döntések
megfigyeléséből szerzi,
07:32
so our ownsaját choicesválasztás revealfelfed informationinformáció
143
440674
2801
mert a döntéseink árulkodnak arról,
07:35
about what it is that we preferjobban szeret
our liveséletét to be like.
144
443499
3300
hogy milyenné szeretnénk tenni
az életünket.
07:40
So those are the threehárom principleselvek.
145
448632
1683
Ez a három alapelv.
Nézzük, hogyan alkalmazhatóak
a következő kérdésre:
07:42
Let's see how that appliesalkalmazandó
to this questionkérdés of:
146
450339
2318
07:44
"Can you switchkapcsoló the machinegép off?"
as TuringTuring suggestedjavasolt.
147
452681
2789
"Ki tudod kapcsolni a gépet?" -
ahogy Turing javasolta.
07:49
So here'sitt a PRPR2 robotrobot.
148
457073
2120
Tehát itt egy PR2-es robot.
07:51
This is one that we have in our lablabor,
149
459217
1821
Ez van nálunk a laborban,
07:53
and it has a bignagy redpiros "off" switchkapcsoló
right on the back.
150
461062
2903
és van egy nagy,
piros "off" kapcsoló a hátán.
07:56
The questionkérdés is: Is it
going to let you switchkapcsoló it off?
151
464541
2615
A kérdés:
engedni fogja, hogy kikapcsoljuk?
07:59
If we do it the classicalklasszikus way,
152
467180
1465
Ha hagyományosan csináljuk,
08:00
we give it the objectivecélkitűzés of, "FetchFetch
the coffeekávé, I mustkell fetchFetch the coffeekávé,
153
468669
3482
azt a parancsot adjuk neki,
hogy: "Hozd ide a kávét!",
"Hoznom kell a kávét,
nem tudom hozni, ha halott vagyok" -
08:04
I can't fetchFetch the coffeekávé if I'm deadhalott,"
154
472175
2580
08:06
so obviouslymagától értetődően the PRPR2
has been listeningkihallgatás to my talk,
155
474779
3341
tehát a PR2 nyilván hallgat rám,
08:10
and so it saysmondja, thereforeebből adódóan,
"I mustkell disableletiltása my 'off'"ki" switchkapcsoló,
156
478144
3753
ezért azt mondja:
"Le kell tiltanom az 'off' gombom,
és jobb lenne ártalmatlanítani
mindenkit a Starbuksnál is,
08:14
and probablyvalószínűleg taserTaser all the other
people in StarbucksStarbucks
157
482976
2694
08:17
who mightesetleg interferezavarja with me."
158
485694
1560
aki utamat állhatja."
08:19
(LaughterNevetés)
159
487278
2062
(Nevetés)
08:21
So this seemsÚgy tűnik, to be inevitableelkerülhetetlen, right?
160
489364
2153
Ez tehát elkerülhetetlennek tűnik, igaz?
08:23
This kindkedves of failurehiba modemód
seemsÚgy tűnik, to be inevitableelkerülhetetlen,
161
491541
2398
Ez a zátonyra futás
elkerülhetetlennek látszik,
08:25
and it followskövetkezik from havingamelynek
a concreteKonkrét, definitehatározott objectivecélkitűzés.
162
493963
3543
és ez egyszerűen a konkrét,
meghatározott célból következik.
08:30
So what happensmegtörténik if the machinegép
is uncertainbizonytalan about the objectivecélkitűzés?
163
498812
3144
Mi történik, ha a gép
nem biztos a céljában?
08:33
Well, it reasonsokok in a differentkülönböző way.
164
501980
2127
Akkor másképp okoskodik.
08:36
It saysmondja, "OK, the humanemberi
mightesetleg switchkapcsoló me off,
165
504131
2424
Azt mondja magában:
"Talán kikapcsol az ember,
08:39
but only if I'm doing something wrongrossz.
166
507144
1866
de csak akkor, ha valami rosszat teszek.
08:41
Well, I don't really know what wrongrossz is,
167
509747
2475
Nem igazán tudom, mi rossz,
08:44
but I know that I don't want to do it."
168
512246
2044
de azt tudom,
hogy olyat nem akarok tenni."
08:46
So that's the first and secondmásodik
principleselvek right there.
169
514314
3010
Ez volt eddig az első
és a második alapelv.
08:49
"So I should let the humanemberi switchkapcsoló me off."
170
517348
3359
"Engednem kell tehát,
hogy az ember kikapcsoljon."
08:53
And in facttény you can calculatekiszámítja
the incentiveösztönző that the robotrobot has
171
521721
3956
Tényleg ki lehet számolni
a robotnak szükséges ösztönzést,
08:57
to allowlehetővé teszi the humanemberi to switchkapcsoló it off,
172
525701
2493
hogy megengedje a kikapcsolását,
és ez közvetlenül
azzal van összefüggésben,
09:00
and it's directlyközvetlenül tiedkötött to the degreefokozat
173
528218
1914
09:02
of uncertaintybizonytalanság about
the underlyingalapjául szolgáló objectivecélkitűzés.
174
530156
2746
hogy az elérni kívánt cél
mennyire bizonytalan.
09:05
And then when the machinegép is switchedkapcsolva off,
175
533977
2949
Itt jön képbe a harmadik alapelv,
09:08
that thirdharmadik principleelv comesjön into playjáték.
176
536950
1805
amikor a gép ki van kapcsolva.
09:10
It learnstanul something about the objectivescélkitűzések
it should be pursuingfolytat,
177
538779
3062
Megtanul valami újat a célokról,
amikért küzd,
09:13
because it learnstanul that
what it did wasn'tnem volt right.
178
541865
2533
mivel rájön, hogy amit tett,
nem volt helyes.
09:16
In facttény, we can, with suitablealkalmas use
of Greekgörög symbolsszimbólumok,
179
544422
3570
Ténylegesen képesek vagyunk ezt levezetni
egy halom görög betűvel.
09:20
as mathematiciansmatematikusok usuallyáltalában do,
180
548016
2131
Ahogy a matematikusoknál ez szokás:
09:22
we can actuallytulajdonképpen provebizonyít a theoremtétel
181
550171
1984
be tudjuk bizonyítani a tételt,
09:24
that saysmondja that suchilyen a robotrobot
is provablyprovably beneficialjótékony to the humanemberi.
182
552179
3553
mely szerint egy ilyen robot
garantáltan hasznos az ember számára.
09:27
You are provablyprovably better off
with a machinegép that's designedtervezett in this way
183
555756
3803
Jobban járunk egy olyan géppel,
amit így terveztek,
09:31
than withoutnélkül it.
184
559583
1246
mint nélküle.
09:33
So this is a very simpleegyszerű examplepélda,
but this is the first steplépés
185
561237
2906
Szóval ez egy egyszerű példa volt,
de ez az első lépés abban,
09:36
in what we're tryingmegpróbálja to do
with human-compatibleemberi-kompatibilis AIAI.
186
564167
3903
amin dolgozunk,
hogy ember-kompatibilis MI-t alkossunk.
09:42
Now, this thirdharmadik principleelv,
187
570657
3257
Ez a harmadik alapelv...
09:45
I think is the one that you're probablyvalószínűleg
scratchingkarcolás your headfej over.
188
573938
3112
Talán már többen merengenek rajta
09:49
You're probablyvalószínűleg thinkinggondolkodás, "Well,
you know, I behaveviselkedik badlyrosszul.
189
577074
3239
ezen gondolatmenettel:
"Néha én nem viselkedek túl jól,
09:52
I don't want my robotrobot to behaveviselkedik like me.
190
580337
2929
nem akarom, hogy a robot
úgy viselkedjen, mint én.
09:55
I sneakbesurranó down in the middleközépső of the night
and take stuffdolog from the fridgehűtőszekrény.
191
583290
3434
Éjjel lesettenkedek és kifosztom a hűtőt.
09:58
I do this and that."
192
586748
1168
Csinálok még ezt azt."
09:59
There's all kindsféle of things
you don't want the robotrobot doing.
193
587940
2797
Sok mindent nem szeretnénk,
hogy a robot csináljon.
10:02
But in facttény, it doesn't
quiteegészen work that way.
194
590761
2071
Szerencsére azért ez nem így működik.
10:04
Just because you behaveviselkedik badlyrosszul
195
592856
2155
Csak mert rosszul viselkedünk,
10:07
doesn't mean the robotrobot
is going to copymásolat your behaviorviselkedés.
196
595035
2623
a robot nem fog leutánozni.
10:09
It's going to understandmegért your motivationsmotivációk
and maybe help you resistellenáll them,
197
597682
3910
Meg fogja érteni a motivációnk,
és talán segít ellenállni a kísértésnek,
10:13
if appropriatemegfelelő.
198
601616
1320
alkalomadtán.
10:16
But it's still difficultnehéz.
199
604206
1464
Azért ez még így is nehéz.
10:18
What we're tryingmegpróbálja to do, in facttény,
200
606302
2545
Azon dolgozunk,
10:20
is to allowlehetővé teszi machinesgépek to predictmegjósolni
for any personszemély and for any possiblelehetséges life
201
608871
5796
hogy a gépek képessé váljanak arra,
hogy bárkinek
bárrmilyen életkörülményei is vannak,
10:26
that they could liveélő,
202
614691
1161
10:27
and the liveséletét of everybodymindenki elsemás:
203
615876
1597
és egyáltalán mindenki esetén
10:29
WhichAmely would they preferjobban szeret?
204
617497
2517
meg tudják jósolni, hogy ő mit szeretne.
10:34
And there are manysok, manysok
difficultiesnehézségek involvedrészt in doing this;
205
622061
2954
Ebben azonban nagyon sok a nehézség.
10:37
I don't expectelvár that this
is going to get solvedmegoldott very quicklygyorsan.
206
625039
2932
Nem számítok rá,
hogy ez egyhamar megoldódik.
10:39
The realigazi difficultiesnehézségek, in facttény, are us.
207
627995
2643
A fő nehézség éppen mi magunk vagyunk.
10:44
As I have alreadymár mentionedemlített,
we behaveviselkedik badlyrosszul.
208
632149
3117
Ahogy már említettem,
csúnyán viselkedünk,
10:47
In facttény, some of us are downrightegyenesen nastycsúnya.
209
635290
2321
néhányunk egyenesen gazemberként.
10:50
Now the robotrobot, as I said,
doesn't have to copymásolat the behaviorviselkedés.
210
638431
3052
A robotnak pedig, ahogy mondtam,
nem kell másolnia minket.
10:53
The robotrobot does not have
any objectivecélkitűzés of its ownsaját.
211
641507
2791
Nincs is önálló célja.
10:56
It's purelytisztán altruisticönzetlen.
212
644322
1737
Csak tisztán altruista.
10:59
And it's not designedtervezett just to satisfyteljesít
the desiresvágyak of one personszemély, the userhasználó,
213
647293
5221
Nem is úgy van tervezve, hogy csak
egy ember kívánságait tartsa szem előtt,
11:04
but in facttény it has to respecttisztelet
the preferencesbeállítások of everybodymindenki.
214
652538
3138
hanem mindenki igényeire
tekintettel kell lennie.
11:09
So it can dealüzlet with a certainbizonyos
amountösszeg of nastinessaljasság,
215
657263
2570
El kell tehát boldoguljon
bizonyos mértékű galádsággal,
11:11
and it can even understandmegért
that your nastinessaljasság, for examplepélda,
216
659857
3701
sőt, meg kell értenie, miért viselkedünk
renitens módon:
11:15
you maylehet take bribesmegvesztegetés as a passportútlevél officialhivatalos
217
663582
2671
például, hogy vámkezelőként
csúszópénzt fogadunk el,
11:18
because you need to feedtakarmány your familycsalád
and sendelküld your kidsgyerekek to schooliskola.
218
666277
3812
mert el kell látnunk a családunkat
és fizetnünk a gyerekeink iskoláztatását.
Megérteni a cselekedetet,
de ez nem jelenti, hogy ő is lopni fog.
11:22
It can understandmegért that;
it doesn't mean it's going to steallop.
219
670113
2906
11:25
In facttény, it'llez lesz just help you
sendelküld your kidsgyerekek to schooliskola.
220
673043
2679
Azon lesz, hogy segítsen
a gyerekek beiskolázásában.
11:28
We are alsois computationallyszámítástechnikai limitedkorlátozott.
221
676976
3012
Továbbá az agyunk számítási
teljesítménye is korlátozott.
11:32
LeeLee SedolSEDOL is a brilliantragyogó Go playerjátékos,
222
680012
2505
Lee Sedol briliáns Go játékos,
11:34
but he still lostelveszett.
223
682541
1325
mégis veszített.
11:35
So if we look at his actionsakciók,
he tookvett an actionakció that lostelveszett the gamejátszma, meccs.
224
683890
4239
Ha konkrétan elemezzük a lépéseit,
volt egy lépése, ami miatt veszített.
11:40
That doesn't mean he wanted to loseelveszít.
225
688153
2161
Holott nem akart veszíteni.
11:43
So to understandmegért his behaviorviselkedés,
226
691340
2040
Hogy megértsük a viselkedését,
11:45
we actuallytulajdonképpen have to invertmegfordítása
throughkeresztül a modelmodell of humanemberi cognitionmegismerés
227
693404
3644
igazából meg kell fordítanunk
az emberi értelem modelljét,
11:49
that includesmagába foglalja our computationalszámítási
limitationskorlátozások -- a very complicatedbonyolult modelmodell.
228
697072
4977
melyben helyet kap a véges számítási
kapacitás - ez egy bonyolult modell.
11:54
But it's still something
that we can work on understandingmegértés.
229
702073
2993
De ez is olyasmi, aminek megértésén
van még mit dolgozni.
11:57
ProbablyValószínűleg the mosta legtöbb difficultnehéz partrész,
from my pointpont of viewKilátás as an AIAI researcherkutató,
230
705876
4320
Szerintem egy MI-kutatónak
valószínűleg az a legnehezebb,
12:02
is the facttény that there are lots of us,
231
710220
2575
hogy sokan vagyunk,
12:06
and so the machinegép has to somehowvalahogy
tradekereskedelmi off, weighmérjünk up the preferencesbeállítások
232
714294
3581
és a gépnek valamiképp súlyoznia kell
és egyszerre optimalizálni
12:09
of manysok differentkülönböző people,
233
717899
2225
megannyi különböző emberre tekintettel,
12:12
and there are differentkülönböző waysmódokon to do that.
234
720148
1906
és erre különböző megoldások vannak.
12:14
EconomistsKözgazdászok, sociologistsszociológusok,
moralerkölcsi philosophersfilozófusok have understoodmegértett that,
235
722078
3689
Közgazdászok, szociológusok,
filozófusok rájöttek már erre,
12:17
and we are activelyaktívan
looking for collaborationegyüttműködés.
236
725791
2455
s mi élénken keressük az együttműködést.
12:20
Let's have a look and see what happensmegtörténik
when you get that wrongrossz.
237
728270
3251
Nézzük meg, mi történik,
ha nem jól alkalmazzuk az eddigieket.
12:23
So you can have
a conversationbeszélgetés, for examplepélda,
238
731545
2133
Megbeszéljük a dolgokat,
például az intelligens
személyi asszisztensünkkel
12:25
with your intelligentintelligens personalszemélyes assistantasszisztens
239
733702
1944
12:27
that mightesetleg be availableelérhető
in a fewkevés years'évek' time.
240
735670
2285
ami akár néhány éven belül elérhető lehet.
12:29
Think of a SiriSiri on steroidsszteroidok.
241
737979
2524
Olyan, mint egy felturbózott Siri.
12:33
So SiriSiri saysmondja, "Your wifefeleség calledhívott
to remindemlékeztet you about dinnervacsora tonightma este."
242
741627
4322
Siri megszólal: "Hívott a feleséged,
hogy figyelmeztessen a mai vacsorára."
12:38
And of coursetanfolyam, you've forgottenelfelejtett.
"What? What dinnervacsora?
243
746616
2508
Mi persze elfeledkeztünk róla:
"Mi? Miféle vacsora?
12:41
What are you talkingbeszél about?"
244
749148
1425
Miről beszélsz?"
12:42
"Uh, your 20thth anniversaryévforduló at 7pmPM."
245
750597
3746
"Hát, a 20-adik évfordulótok, este 7-kor."
12:48
"I can't do that. I'm meetingtalálkozó
with the secretary-generalfőtitkár at 7:30.
246
756915
3719
"Ez nem fog menni.
7:30-kor a főtitkárral van találkozóm.
12:52
How could this have happenedtörtént?"
247
760658
1692
Hogyan fordulhatott ez elő?"
12:54
"Well, I did warnfigyelmeztet you, but you overrodebelovagolt
my recommendationajánlást."
248
762374
4660
"Nos, én figyelmeztettelek,
de te máshogy döntöttél."
13:00
"Well, what am I going to do?
I can't just tell him I'm too busyelfoglalt."
249
768146
3328
"Most mitévő legyek?
Nem mondhatom neki, hogy sok a dolgom."
13:04
"Don't worryaggodalom. I arrangedelrendezve
for his planerepülőgép to be delayedkésett."
250
772490
3281
"Aggodalomra semmi ok.
Elintéztem, hogy késsen a gépe."
13:07
(LaughterNevetés)
251
775795
1682
(Nevetés)
13:10
"Some kindkedves of computerszámítógép malfunctionüzemzavar."
252
778249
2101
"Lesz valami számítástechnikai gubanc."
13:12
(LaughterNevetés)
253
780374
1212
(Nevetés)
13:13
"Really? You can do that?"
254
781610
1617
"Komolyan? Te erre is képes vagy?"
13:16
"He sendsküld his profoundmély apologiesElnézést
255
784400
2179
"Üzent, hogy mélységesen sajnálja,
13:18
and looksúgy néz ki, forwardelőre to meetingtalálkozó you
for lunchebéd tomorrowholnap."
256
786603
2555
és már nagyon várja
a holnapi közös ebédet."
13:21
(LaughterNevetés)
257
789182
1299
(Nevetés)
13:22
So the valuesértékeket here --
there's a slightenyhe mistakehiba going on.
258
790505
4403
Itt az értékek tekintetében
van egy kis megbicsaklás...
13:26
This is clearlytisztán followingkövetkező my wife'sfelesége valuesértékeket
259
794932
3009
Ez a feleségem értékrendjéről szól,
13:29
whichmelyik is "Happyboldog wifefeleség, happyboldog life."
260
797965
2069
ami úgy szól:
"Boldog feleség, boldog élet."
13:32
(LaughterNevetés)
261
800058
1583
(Nevetés)
13:33
It could go the other way.
262
801665
1444
De ez elsülhet ellenkezőleg is.
13:35
You could come home
after a hardkemény day'snapok work,
263
803821
2201
Hazaérünk a munkából egy nehéz nap után.
13:38
and the computerszámítógép saysmondja, "Long day?"
264
806046
2195
és a számítógép így szól: "Hosszú nap?"
13:40
"Yes, I didn't even have time for lunchebéd."
265
808265
2288
"Igen, még ebédelni sem volt időm."
"Akkor nagyon éhes lehetsz."
13:42
"You mustkell be very hungryéhes."
266
810577
1282
13:43
"StarvingÉhező, yeah.
Could you make some dinnervacsora?"
267
811883
2646
"Igen, éhen halok.
Készítenél valami vacsorát?"
13:48
"There's something I need to tell you."
268
816070
2090
"Valamit el kell mondanom..."
13:50
(LaughterNevetés)
269
818184
1155
(Nevetés)
13:52
"There are humansemberek in SouthDél SudanSzudán
who are in more urgentsürgős need than you."
270
820193
4905
"Dél-Szudánban emberi lényeknek sokkal
nagyobb szükségük van az ételre."
13:57
(LaughterNevetés)
271
825122
1104
(Nevetés)
"Szóval én távoztam.
Csinálj magadnak vacsorát!"
13:58
"So I'm leavingkilépő. Make your ownsaját dinnervacsora."
272
826250
2075
14:00
(LaughterNevetés)
273
828349
2000
(Nevetés)
Ezeket a problémákat
még meg kell oldanunk,
14:02
So we have to solvemegfejt these problemsproblémák,
274
830823
1739
14:04
and I'm looking forwardelőre
to workingdolgozó on them.
275
832586
2515
de alig várom, hogy dolgozhassak rajtuk.
14:07
There are reasonsokok for optimismoptimizmus.
276
835125
1843
Több okunk is van optimizmusra.
14:08
One reasonok is,
277
836992
1159
Az első,
14:10
there is a massivetömeges amountösszeg of dataadat.
278
838175
1868
hogy rengeteg adat áll rendelkezésre.
14:12
Because rememberemlékezik -- I said
they're going to readolvas everything
279
840067
2794
Mert mindent el fognak olvasni,
amit az emberi faj valaha is írt.
14:14
the humanemberi raceverseny has ever writtenírott.
280
842885
1546
14:16
MostA legtöbb of what we writeír about
is humanemberi beingslények doing things
281
844455
2724
Az írásaink zöme arról szól,
hogy emberek tesznek valamit,
14:19
and other people gettingszerzés upsetszomorú about it.
282
847203
1914
és ettől más emberi lények dühösek.
14:21
So there's a massivetömeges amountösszeg
of dataadat to learntanul from.
283
849141
2398
Rengeteg ismeretanyag van,
amiből tanulni lehet.
14:23
There's alsois a very
strongerős economicgazdasági incentiveösztönző
284
851563
2236
Továbbá van egy nagyon erős
gazdasági nyomás,
hogy ezt jól valósítsuk meg.
14:27
to get this right.
285
855331
1186
Képzeljük el az otthoni
háztartási robotunkat.
14:28
So imagineKépzeld el your domesticbelföldi robot'srobot at home.
286
856541
2001
14:30
You're latekéső from work again
and the robotrobot has to feedtakarmány the kidsgyerekek,
287
858566
3067
Megint későn érünk haza,
a robotnak kell megetetnie a gyerekeket.
14:33
and the kidsgyerekek are hungryéhes
and there's nothing in the fridgehűtőszekrény.
288
861657
2823
A gyerekek éhesek, de üres a hűtőszekrény.
14:36
And the robotrobot seeslát the catmacska.
289
864504
2605
Ekkor a robot meglátja a macskát.
14:39
(LaughterNevetés)
290
867133
1692
(Nevetés)
14:40
And the robotrobot hasn'tmég nem quiteegészen learnedtanult
the humanemberi valueérték functionfunkció properlymegfelelően,
291
868849
4190
Mivel a robot nem sajátította el
elég jól az emberi értékrendet,
14:45
so it doesn't understandmegért
292
873063
1251
nem érti,
14:46
the sentimentalszentimentális valueérték of the catmacska outweighsnagyobb, mint a
the nutritionaltáplálkozási valueérték of the catmacska.
293
874338
4844
hogy a macska szentimentális értéke
túlmutat a tápértékén.
14:51
(LaughterNevetés)
294
879206
1095
(Nevetés)
14:52
So then what happensmegtörténik?
295
880325
1748
Vajon mi történik?
14:54
Well, it happensmegtörténik like this:
296
882097
3297
Valami ilyesmi:
14:57
"DerangedŐrült robotrobot cooksszakácsok kittycica
for familycsalád dinnervacsora."
297
885418
2964
"A zsarnok robot feltálalta
vacsorára a család cicáját."
15:00
That one incidentincidens would be the endvég
of the domesticbelföldi robotrobot industryipar.
298
888406
4523
Egyetlen ilyen fiaskó
a háztartási robotipar végét jelentené.
15:04
So there's a hugehatalmas incentiveösztönző
to get this right
299
892953
3372
Szóval nagy nyomás van rajtunk,
hogy ügyesen kezeljük ezt,
15:08
long before we reachelér
superintelligentsuperintelligent machinesgépek.
300
896349
2715
még jóval azelőtt, hogy elérnénk
a szuperintelligens gépekig.
15:12
So to summarizeösszesít:
301
900128
1535
Összefoglalva tehát:
15:13
I'm actuallytulajdonképpen tryingmegpróbálja to changeváltozás
the definitionmeghatározás of AIAI
302
901687
2881
megpróbálom megváltoztatni
a MI definícióját úgy,
15:16
so that we have provablyprovably
beneficialjótékony machinesgépek.
303
904592
2993
hogy bizonyíthatóan hasznunkra
levő gépeket jelentsenek.
15:19
And the principleselvek are:
304
907609
1222
Az alapelvek pedig:
15:20
machinesgépek that are altruisticönzetlen,
305
908855
1398
a gépek altruisták,
15:22
that want to achieveelér only our objectivescélkitűzések,
306
910277
2804
azaz csak a mi céljaink
elérésével foglalkoznak,
15:25
but that are uncertainbizonytalan
about what those objectivescélkitűzések are,
307
913105
3116
miközben bizonytalanok a mi céljainkban,
15:28
and will watch all of us
308
916245
1998
de figyelnek minket,
15:30
to learntanul more about what it is
that we really want.
309
918267
3203
hogy megértsék, mit is akarunk valójában.
15:34
And hopefullyremélhetőleg in the processfolyamat,
we will learntanul to be better people.
310
922373
3559
És remélhetően ebben a folyamatban
mi is jobb emberekké válunk.
15:37
Thank you very much.
311
925956
1191
Nagyon köszönöm.
15:39
(ApplauseTaps)
312
927171
3709
(Taps)
15:42
ChrisChris AndersonAnderson: So interestingérdekes, StuartStuart.
313
930904
1868
Chris Anderson: Nagyon érdekes, Stuart.
15:44
We're going to standállvány here a bitbit
because I think they're settingbeállítás up
314
932796
3170
Álljunk arrébb kicsit, mert rendezkednek
a következő előadó miatt.
15:47
for our nextkövetkező speakerhangszóró.
315
935990
1151
15:49
A couplepárosít of questionskérdések.
316
937165
1538
Pár kérdés.
15:50
So the ideaötlet of programmingprogramozás in ignorancetudatlanság
seemsÚgy tűnik, intuitivelyösztönösen really powerfulerős.
317
938727
5453
Ez a tudatlanság alapú programozás
elég hatékony dolognak tűnik.
Ha elérjük a szuperintelligenciát,
15:56
As you get to superintelligencesuperintelligence,
318
944204
1594
15:57
what's going to stop a robotrobot
319
945822
2258
mi akadályozza meg a robotot abban,
16:00
readingolvasás literatureirodalom and discoveringfelfedezése
this ideaötlet that knowledgetudás
320
948104
2852
hogy az irodalmat olvasgatva
arra a felismerésre jusson,
hogy a tudás jobb, mint a tudatlanság,
16:02
is actuallytulajdonképpen better than ignorancetudatlanság
321
950980
1572
16:04
and still just shiftingelmozduló its ownsaját goalscélok
and rewritingátírás that programmingprogramozás?
322
952576
4218
és ezért átírja a saját programját,
hogy legyenek saját céljai?
16:09
StuartStuart RussellRussell: Yes, so we want
it to learntanul more, as I said,
323
957692
6356
Stuart Russell: Igen, ahogy mondtam is,
jobban meg kell ismerjük
16:16
about our objectivescélkitűzések.
324
964072
1287
a saját céljainkat is.
16:17
It'llEz lesz only becomeválik more certainbizonyos
as it becomesválik more correcthelyes,
325
965383
5521
Csak annyival válik magabiztosabbá,
amennyivel jobban átlátja a dolgokat,
16:22
so the evidencebizonyíték is there
326
970928
1945
ez rá a garancia,
16:24
and it's going to be designedtervezett
to interpretértelmezése it correctlyhelyesen.
327
972897
2724
és úgy lesz tervezve,
hogy ezt jól értelmezze.
16:27
It will understandmegért, for examplepélda,
that bookskönyvek are very biasedelfogult
328
975645
3956
Például rá fog jönni,
hogy a könyvek nagyon elfogultak
a megismert bizonyítékaik alapján.
16:31
in the evidencebizonyíték they containtartalmaz.
329
979625
1483
16:33
They only talk about kingskirályok and princeshercegek
330
981132
2397
Kizárólag királyokról
és hercegekről szólnak,
16:35
and eliteelit whitefehér maleférfi people doing stuffdolog.
331
983553
2800
csak fehér férfiak csinálnak mindent.
16:38
So it's a complicatedbonyolult problemprobléma,
332
986377
2096
Szóval komplikált a probléma,
16:40
but as it learnstanul more about our objectivescélkitűzések
333
988497
3872
de ahogy egyre jobban
megismeri a céljainkat,
16:44
it will becomeválik more and more usefulhasznos to us.
334
992393
2063
annál inkább lesz hasznunkra.
16:46
CACA: And you couldn'tnem tudott
just boilforral it down to one lawtörvény,
335
994480
2526
CA: Nem lehetne csak
egy szabályra egyszerűsíteni,
16:49
you know, hardwiredvezetékes in:
336
997030
1650
simán betáplálva, hogy:
16:50
"if any humanemberi ever triespróbálkozás to switchkapcsoló me off,
337
998704
3293
"Ha egy ember megpróbál kikapcsolni,
16:54
I complyfelel meg. I complyfelel meg."
338
1002021
1935
elfogadom, elfogadom."
16:55
SRSR: AbsolutelyTeljesen not.
339
1003980
1182
SR: Egyáltalán nem.
16:57
That would be a terribleszörnyű ideaötlet.
340
1005186
1499
Ez egy szörnyű elképzelés.
16:58
So imagineKépzeld el that you have
a self-drivingönálló vezetés carautó
341
1006709
2689
Képzeld csak el,
hogy van egy önvezető autód,
17:01
and you want to sendelküld your five-year-oldöt-év-régi
342
1009422
2433
és el akarod vele küldeni
az ötéves gyereked
17:03
off to preschoolóvodai.
343
1011879
1174
az óvodába.
17:05
Do you want your five-year-oldöt-év-régi
to be ableképes to switchkapcsoló off the carautó
344
1013077
3101
Azt akarod,
hogy az ötéves képes legyen
kikapcsolni az autót útközben?
17:08
while it's drivingvezetés alongmentén?
345
1016202
1213
17:09
ProbablyValószínűleg not.
346
1017439
1159
Valószínűleg nem.
17:10
So it needsigények to understandmegért how rationalracionális
and sensibleérzékeny the personszemély is.
347
1018622
4703
Tehát szükséges, hogy értse, mennyire
racionális és józan az adott ember.
17:15
The more rationalracionális the personszemély,
348
1023349
1676
Minél racionálisabb az ember,
annál inkább hajlandó engedni,
hogy kikapcsolják.
17:17
the more willinghajlandó you are
to be switchedkapcsolva off.
349
1025049
2103
17:19
If the personszemély is completelyteljesen
randomvéletlen or even maliciousrosszindulatú,
350
1027176
2543
Ha a személy teljesen zavart,
vagy akár ártó szándékú,
17:21
then you're lessKevésbé willinghajlandó
to be switchedkapcsolva off.
351
1029743
2512
akkor kevésbé lesz hajlandó rá,
hogy kikapcsolják.
17:24
CACA: All right. StuartStuart, can I just say,
352
1032279
1866
CA: Rendben, Stuart,
csak annyit mondok,
17:26
I really, really hoperemény you
figureábra this out for us.
353
1034169
2314
nagyon-nagyon remélem,
hogy megoldod ezt nekünk.
17:28
Thank you so much for that talk.
That was amazingelképesztő.
354
1036507
2375
Igazán köszönöm az előadást.
Lenyűgöző volt.
17:30
SRSR: Thank you.
355
1038906
1167
SR: Köszönöm.
17:32
(ApplauseTaps)
356
1040097
1837
(Taps)
Translated by Krisztian Rassay
Reviewed by Tímea Hegyessy

▲Back to top

ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com