ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com
TED2017

Stuart Russell: 3 principles for creating safer AI

Stuart Russell: Yapay zeka bizleri nasıl daha iyi insanlar yapacak

Filmed:
1,465,832 views

Süper-zeki yapay zekanın gücünden robotlar yönetimi ele geçirmeden nasıl faydalanabiliriz? Her şeyi bilen makineleri yaratmaya yaklaşırken, yapay zeka öncüsü Stuart Russell farklı birşey üstüne çalışıyor: Tereddüte düşen robotlar. Sağduyu, özgecilik ve diğer insani değerlerle sorunları çözebilen insan-uyumlu bir yapay zeka hakkındaki vizyonunu dinleyin.
- AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too. Full bio

Double-click the English transcript below to play the video.

00:12
This is LeeLee SedolSEDOL.
0
712
1552
Burada gördüğünüz Lee Sedol.
00:14
LeeLee SedolSEDOL is one of the world'sDünyanın en
greatestEn büyük Go playersoyuncu,
1
2288
3997
Lee Sedol dünyadaki en iyi
Go oyuncularından biri.
00:18
and he's havingsahip olan what my friendsarkadaşlar
in SiliconSilikon ValleyVadi call
2
6309
2885
Burada Silikon Vadisi'ndeki
arkadaşlarımın deyişiyle
00:21
a "HolyKutsal Cowİnek" momentan --
3
9218
1510
bir 'Aman Tanrım' anı yaşıyor
00:22
(LaughterKahkaha)
4
10752
1073
(Gülüşmeler)
00:23
a momentan where we realizegerçekleştirmek
5
11849
2188
Bu, yapay zekanın beklediğimizden
00:26
that AIAI is actuallyaslında progressingilerliyor
a lot fasterDaha hızlı than we expectedbeklenen.
6
14061
3296
çok daha hızlı ilerlediğini
anladığımız bir an.
İnsanlar Go tahtasında kaybetti.
Peki ya gerçek hayatta?
00:30
So humansinsanlar have lostkayıp on the Go boardyazı tahtası.
What about the realgerçek worldDünya?
7
18154
3047
00:33
Well, the realgerçek worldDünya is much biggerDaha büyük,
8
21225
2100
Gerçek dünya Go tahtasından
00:35
much more complicatedkarmaşık than the Go boardyazı tahtası.
9
23349
2249
çok daha büyük ve
çok daha karmaşık.
00:37
It's a lot lessaz visiblegözle görülür,
10
25622
1819
Daha az şeffaf
00:39
but it's still a decisionkarar problemsorun.
11
27465
2038
ama yine de bir karar
sorunu oluşturuyor.
Eğer gelmekte olan
bazı teknolojileri
00:42
And if we think about some
of the technologiesteknolojiler
12
30948
2321
00:45
that are cominggelecek down the pikePike ...
13
33293
1749
düşünecek olursak...
00:47
NorikoNoriko [AraiArai] mentionedadı geçen that readingokuma
is not yethenüz happeningolay in machinesmakineler,
14
35738
4335
Noriko [Arai] makinelerin henüz
okuyamadığından bahsetti;
en azından okuduklarını anlamadıklarından
00:52
at leasten az with understandinganlayış.
15
40097
1500
00:53
But that will happenolmak,
16
41621
1536
Ama bu gerçekleşecek
00:55
and when that happensolur,
17
43181
1771
ve bunun gerçekleşmesinin
hemen ardından makineler,
00:56
very soonyakında afterwardssonradan,
18
44976
1187
insan türünün tarih boyunca yazdığı
00:58
machinesmakineler will have readokumak everything
that the humaninsan raceyarış has ever writtenyazılı.
19
46187
4572
her şeyi okumuş olacak.
Bu da makinelere
insanlardan daha öteye
01:03
And that will enableetkinleştirmek machinesmakineler,
20
51850
2030
01:05
alonguzun bir with the abilitykabiliyet to look
furtherayrıca aheadönde than humansinsanlar can,
21
53904
2920
bakma yetisini verecek.
01:08
as we'vebiz ettik alreadyzaten seengörüldü in Go,
22
56848
1680
Go oyununda gördüğümüz gibi
01:10
if they alsoAyrıca have accesserişim
to more informationbilgi,
23
58552
2164
eğer daha fazla bilgiye erişebilirlerse,
01:12
they'llacaklar be ableyapabilmek to make better decisionskararlar
in the realgerçek worldDünya than we can.
24
60740
4268
gerçek hayatta bizden daha iyi
kararlar alabilecekler.
Peki bu iyi bir şey mi?
01:18
So is that a good thing?
25
66792
1606
01:21
Well, I hopeumut so.
26
69898
2232
Umarım öyledir.
Tüm uygarlığımız,
01:26
Our entiretüm civilizationmedeniyet,
everything that we valuedeğer,
27
74694
3255
değer verdiğimiz her şey
zekamıza dayanıyor.
01:29
is basedmerkezli on our intelligencezeka.
28
77973
2068
Eğer bizlerin daha fazla zekaya
erişebilme şansı olsa
01:32
And if we had accesserişim
to a lot more intelligencezeka,
29
80065
3694
insan türünün yapabileceği şeylerin
bir sınırı olmayacak.
01:35
then there's really no limitsınır
to what the humaninsan raceyarış can do.
30
83783
3302
01:40
And I think this could be,
as some people have describedtarif edilen it,
31
88665
3325
Sanırım bu, bazılarının
tanımladığı gibi
01:44
the biggesten büyük eventolay in humaninsan historytarih.
32
92014
2016
dünya tarihindeki en önemli
olay olacaktır.
01:48
So why are people sayingsöz things like this,
33
96665
2829
Peki neden bazıları
yapay zekanın insan türünün
01:51
that AIAI mightbelki spellbüyü the endson
of the humaninsan raceyarış?
34
99518
2876
sonunu getirebileceğini söylüyor?
Bu yeni bir endişe mi?
01:55
Is this a newyeni thing?
35
103438
1659
01:57
Is it just ElonElon MuskMisk and BillBill GatesGates
and StephenStephen HawkingHawking?
36
105121
4110
Yani bunu düşünen sadece Elon
Musk, Bill Gates ve Stephen Hawking mi?
02:01
ActuallyAslında, no. This ideaFikir
has been around for a while.
37
109953
3262
Aslında hayır. Bu fikir
uzun zamandır var.
02:05
Here'sİşte a quotationalıntı:
38
113239
1962
İşte size bir alıntı:
02:07
"Even if we could keep the machinesmakineler
in a subservientitaatkar positionpozisyon,
39
115225
4350
''Makineleri itaatkâr bir pozisyonda
tutabiliyor olsak bile
02:11
for instanceörnek, by turningdöndürme off the powergüç
at strategicstratejik momentsanlar" --
40
119599
2984
-örneğin güç ünitelerini
stratejik anlarda kapatarak-
02:14
and I'll come back to that
"turningdöndürme off the powergüç" ideaFikir latersonra on --
41
122607
3237
(birazdan bu ''güç ünitesini kapama''
fikrine geri döneceğim)
02:17
"we should, as a speciesTürler,
feel greatlyçokça humbledboyunları bükük."
42
125868
2804
insan türü olarak bizler
çok aşağılanmış gibi hissedeceğiz."
02:22
So who said this?
This is AlanAlan TuringTuring in 1951.
43
130177
3448
Peki bunu kim söyledi?
1951 yılında Alan Turing.
02:26
AlanAlan TuringTuring, as you know,
is the fatherbaba of computerbilgisayar scienceBilim
44
134300
2763
Alan Turing bildiğiniz gibi
bilgisayar biliminin
ve ayrıca pek çok yönden
yapay zekanın da babasıdır.
02:29
and in manyçok waysyolları,
the fatherbaba of AIAI as well.
45
137087
3048
02:33
So if we think about this problemsorun,
46
141239
1882
Eğer bu problemi kendi türümüzden
02:35
the problemsorun of creatingoluşturma something
more intelligentakıllı than your ownkendi speciesTürler,
47
143145
3787
daha zeki bir tür yaratma
problemi olarak düşünürsek,
buna ''goril problemi'' de
diyebiliriz.
02:38
we mightbelki call this "the gorillagoril problemsorun,"
48
146956
2622
Çünkü gorillerin ataları
bunu birkaç milyon yıl önce yaptı:
02:42
because gorillas'goriller ancestorsatalarımız did this
a fewaz millionmilyon yearsyıl agoönce,
49
150345
3750
02:46
and now we can asksormak the gorillasgoriller:
50
154119
1745
Gorillere bugün şu soruyu sorabiliriz:
02:48
Was this a good ideaFikir?
51
156752
1160
Bu iyi bir fikir miydi?
02:49
So here they are havingsahip olan a meetingtoplantı
to discusstartışmak whetherolup olmadığını it was a good ideaFikir,
52
157936
3530
Burada toplantıdalar
ve bu fikri değerlendiriyorlar.
02:53
and after a little while,
they concludesonuçlandırmak, no,
53
161490
3346
Sonunda da bunun kötü bir fikir
olduğuna karar veriyorlar.
02:56
this was a terriblekorkunç ideaFikir.
54
164860
1345
Türümüz zor durumda.
02:58
Our speciesTürler is in direkorkunç straitsboğazlar.
55
166229
1782
03:00
In factgerçek, you can see the existentialvaroluşsal
sadnessüzüntü in theironların eyesgözleri.
56
168538
4263
Aslında gözlerindeki varoluşsal
üzüntüyü görebiliyorsunuz.
03:04
(LaughterKahkaha)
57
172825
1640
(Gülüşmeler)
03:06
So this queasyMidem bulanıyor feelingduygu that makingyapma
something smarterdaha akıllı than your ownkendi speciesTürler
58
174489
4840
Kendi türünüzden daha zeki
bir şey yaratmanın
pek de iyi bir fikir olmayabileceğine
dair tatsız bir his...
03:11
is maybe not a good ideaFikir --
59
179353
2365
Bu konuda ne yapabiliriz?
03:14
what can we do about that?
60
182488
1491
03:16
Well, really nothing,
exceptdışında stop doing AIAI,
61
184003
4767
Doğrusu, yapay zeka ile uğraşmayı
bırakmaktan başka bir şey yapamayız.
03:20
and because of all
the benefitsfaydaları that I mentionedadı geçen
62
188794
2510
Ama az önce sözünü ettiğim
tüm yararlarından dolayı
03:23
and because I'm an AIAI researcheraraştırmacı,
63
191328
1716
ve ben de bir YZ araştırmacısı
olduğumdan,
03:25
I'm not havingsahip olan that.
64
193068
1791
buna katılmıyorum.
03:27
I actuallyaslında want to be ableyapabilmek
to keep doing AIAI.
65
195283
2468
Aslında ben YZ yapmaya
çalışmayı sürdürmek istiyorum.
Yani aslında soruna biraz daha
yakından bakmalıyız.
03:30
So we actuallyaslında need to nailtırnak down
the problemsorun a bitbit more.
66
198615
2678
03:33
What exactlykesinlikle is the problemsorun?
67
201317
1371
Sorun tam olarak nedir?
03:34
Why is better AIAI possiblybelki a catastropheafet?
68
202712
3246
Neden daha iyi bir YZ
muhtemelen bir felaket olsun?
İşte bir başka alıntı:
03:39
So here'sburada anotherbir diğeri quotationalıntı:
69
207398
1498
''Makinelere verdiğimiz amaçların
aslında bizlerin arzuladığı
03:41
"We had better be quiteoldukça sure
that the purposeamaç put into the machinemakine
70
209935
3335
amaçlar olduğuna emin olmalıyız.''
03:45
is the purposeamaç whichhangi we really desirearzu etmek."
71
213294
2298
03:48
This was said by NorbertNorbert WienerWiener in 1960,
72
216282
3498
Norbert Wiener bunu 1960 yılında,
ilk öğrenim sistemlerinden birinin,
03:51
shortlykısa bir süre after he watchedizledi
one of the very earlyerken learningöğrenme systemssistemler
73
219804
4002
dama oynamayı, yaratıcısından daha iyi
başardığını izledikten sonra söylemişti.
03:55
learnöğrenmek to playoyun checkersDama
better than its creatoryaratıcı.
74
223830
2583
Ama bu pekâlâ Kral Midas
tarafından da söylenmiş olabilirdi.
04:00
But this could equallyaynı derecede have been said
75
228602
2683
04:03
by KingKral MidasMidas.
76
231309
1167
Kral Midas şöyle demişti: ''Dokunduğum
her şeyin altın olmasını istiyorum,''
04:05
KingKral MidasMidas said, "I want everything
I touchdokunma to turndönüş to goldaltın,"
77
233083
3134
04:08
and he got exactlykesinlikle what he askeddiye sordu for.
78
236241
2473
ve istediğini tam olarak elde etti.
04:10
That was the purposeamaç
that he put into the machinemakine,
79
238738
2751
Onun makineye verdiği amacın
bu olduğu söylenebilir.
04:13
so to speakkonuşmak,
80
241513
1450
04:14
and then his foodGıda and his drinkiçki
and his relativesakrabaları turneddönük to goldaltın
81
242987
3444
Bunun üstüne, yiyeceği ve içeceği
ve akrabaları altına dönüştü.
04:18
and he diedvefat etti in miserysefalet and starvationaçlık.
82
246455
2281
Kendisi de açlık ve sefalet içinde öldü.
O zaman, belirttiğimiz ereklerin,
04:22
So we'lliyi call this
"the KingKral MidasMidas problemsorun"
83
250444
2341
04:24
of statingbelirten an objectiveamaç
whichhangi is not, in factgerçek,
84
252809
3305
aslında istediğimiz şey ile
gerçekte uyuşmaması durumuna
04:28
trulygerçekten alignedhizalanmış with what we want.
85
256138
2413
''Kral Midas Problemi'' diyelim.
04:30
In modernmodern termsşartlar, we call this
"the valuedeğer alignmenthizalama problemsorun."
86
258575
3253
Modern terimlerle buna
''değer uyuşmazlığı problemi'' diyoruz.
Problem, yanlış amaç
yerleştirmekten ibaret değil.
04:37
PuttingKoyarak in the wrongyanlış objectiveamaç
is not the only partBölüm of the problemsorun.
87
265047
3485
04:40
There's anotherbir diğeri partBölüm.
88
268556
1152
Bir yönü daha var.
04:42
If you put an objectiveamaç into a machinemakine,
89
270160
1943
Bir makineye bir amaç verirseniz,
04:44
even something as simplebasit as,
"FetchGetirme the coffeeKahve,"
90
272127
2448
örneğin ''kahvemi getir'' gibi
basit bir hedef olsa bile
makine kendi kendine şöyle der:
04:47
the machinemakine saysdiyor to itselfkendisi,
91
275908
1841
''Kahveyi getirmekte nasıl
başarısızlığa uğrayabilirim?
04:50
"Well, how mightbelki I failbaşarısız
to fetchgetirme the coffeeKahve?
92
278733
2623
04:53
SomeoneBirisi mightbelki switchşalter me off.
93
281380
1580
Biri beni kapatabilir.
Peki. Bunu önlemek için
bir şeyler yapmalıyım.
04:55
OK, I have to take stepsadımlar to preventönlemek that.
94
283645
2387
04:58
I will disabledevre dışı bırakma my 'off'"kapalı" switchşalter.
95
286056
1906
'Kapama' düğmemi işlev
dışı bırakacağım.
Bana verilen komutu yerine
getirmemi engelleyebilecek
05:00
I will do anything to defendsavunmak myselfkendim
againstkarşısında interferencegirişim
96
288534
2959
her türlü müdahaleye karşı kendimi
savunmak için ne gerekiyorsa yapacağım."
05:03
with this objectiveamaç
that I have been givenverilmiş."
97
291517
2629
05:06
So this single-mindedtek fikirli pursuitkovalama
98
294170
2012
Sonuç olarak,
gayet savunmacı bir moddaki
05:09
in a very defensivesavunma modekip
of an objectiveamaç that is, in factgerçek,
99
297213
2945
bu tek-hedef odaklı hareket,
insan türünün gerçek
hedefleriyle örtüşmüyor.
05:12
not alignedhizalanmış with the truedoğru objectiveshedefleri
of the humaninsan raceyarış --
100
300182
2814
Karşı karşıya kaldığımız sorun aslında bu.
05:16
that's the problemsorun that we faceyüz.
101
304122
1862
Doğrusu, tam da bu,
bu konuşmanın en değerli dersi.
05:19
And in factgerçek, that's the high-valueyüksek değerli
takeawaypaket servisi olan Restoran from this talk.
102
307007
4767
05:23
If you want to rememberhatırlamak one thing,
103
311798
2055
Hatırlamanız gereken bir şey varsa,
05:25
it's that you can't fetchgetirme
the coffeeKahve if you're deadölü.
104
313877
2675
o da ölüyken kahve
getiremeyeceğiniz olmalı.
05:28
(LaughterKahkaha)
105
316576
1061
(Gülüşmeler)
05:29
It's very simplebasit. Just rememberhatırlamak that.
RepeatTekrar it to yourselfkendin threeüç timeszamanlar a day.
106
317661
3829
Bu çok basit. Sadece bunu hatırlayın.
Kendinize bunu günde üç kez tekrar edin.
05:33
(LaughterKahkaha)
107
321514
1821
(Gülüşmeler)
05:35
And in factgerçek, this is exactlykesinlikle the plotarsa
108
323359
2754
Aslında, bu tam da
''2001: [Bir Uzay Destanı]'' filmindeki
hikayedir.
05:38
of "2001: [A SpaceUzay OdysseyOdyssey]"
109
326137
2648
05:41
HALHAL has an objectiveamaç, a missionmisyon,
110
329226
2090
HAL'in insanların hedefleriyle örtüşmeyen
05:43
whichhangi is not alignedhizalanmış
with the objectiveshedefleri of the humansinsanlar,
111
331340
3732
bir hedefi, bir misyonu vardır.
05:47
and that leadspotansiyel müşteriler to this conflictfikir ayrılığı.
112
335096
1810
Bu da bir çatışmaya neden olur.
05:49
Now fortunatelyneyse ki, HALHAL
is not superintelligentanlaman.
113
337494
2969
Neyse ki, HAL süper-zekalı değildir.
05:52
He's prettygüzel smartakıllı,
but eventuallysonunda DaveDave outwitsoutwits him
114
340487
3587
Çok zeki olsa da,
sonunda Dave onu atlatır
05:56
and managesyönetir to switchşalter him off.
115
344098
1849
ve onu kapatmayı başarır.
Ama biz o kadar şanslı olamayabiliriz.
06:01
But we mightbelki not be so luckyşanslı.
116
349828
1619
Peki ne yapacağız o zaman?
06:08
So what are we going to do?
117
356193
1592
Ben komutları zekice izleyen
makinelerle ilgili
06:12
I'm tryingçalışıyor to redefineyeniden tanımlamak AIAI
118
360371
2601
06:14
to get away from this classicalKlasik notionkavram
119
362996
2061
bu klasik düşünceden
kurtulmamız için
06:17
of machinesmakineler that intelligentlyakıllıca
pursuesürdürmek objectiveshedefleri.
120
365081
4567
yapay zekayı yeniden
tanımlamaya çalışıyorum.
06:22
There are threeüç principlesprensipler involvedilgili.
121
370712
1798
Bununla ilgili üç ilke var.
06:24
The first one is a principleprensip
of altruismözgecilik, if you like,
122
372534
3289
Birincisi, çıkar gözetmemezlik de
denilebilecek bir ilke.
06:27
that the robot'srobotun only objectiveamaç
123
375847
3262
Yani robotların tek hedeflerinin
insanların hedeflerine,
06:31
is to maximizeen üst düzeye çıkarmak the realizationgerçekleşme
of humaninsan objectiveshedefleri,
124
379133
4246
insanların değerlerine
hitap etmek olması.
06:35
of humaninsan valuesdeğerler.
125
383403
1390
06:36
And by valuesdeğerler here I don't mean
touchy-feelyhassas duyusal, goody-goodymelek valuesdeğerler.
126
384817
3330
'Değerler' derken, samimiyete dayanan
değerleri kastetmiyorum.
06:40
I just mean whateverher neyse it is
that the humaninsan would prefertercih etmek
127
388171
3787
Sadece, insanların hayatlarının
nasıl olması gerektiği hakkındaki
06:43
theironların life to be like.
128
391982
1343
tercihlerini kastetiyorum.
Bu, aslında Asimov'un
06:47
And so this actuallyaslında violatesihlal ediyor Asimov'sAsimov's lawhukuk
129
395364
2309
"robotların kendi varlıklarını korumaları
gerektiği" kuralını çiğniyor.
06:49
that the robotrobot has to protectkorumak
its ownkendi existencevaroluş.
130
397697
2329
06:52
It has no interestfaiz in preservingkoruma
its existencevaroluş whatsoeverher ne.
131
400050
3723
Robotlar, kendi varlıklarını
korumakla ilgilenmez.
İkinci kuralın
mütevazilikle ilgili olduğu söylenebilir.
06:57
The secondikinci lawhukuk is a lawhukuk
of humilitytevazu, if you like.
132
405420
3768
07:01
And this turnsdönüşler out to be really
importantönemli to make robotsrobotlar safekasa.
133
409974
3743
Bunun, bir robotun güvenilir olmasında
büyük katkısı olduğu ortaya çıktı.
07:05
It saysdiyor that the robotrobot does not know
134
413741
3142
Bu kural, robotların insanların
değerlerinin ne olduğunu
bilmeden onları arttırmaya
çalıştığını söylüyor.
07:08
what those humaninsan valuesdeğerler are,
135
416907
2028
07:10
so it has to maximizeen üst düzeye çıkarmak them,
but it doesn't know what they are.
136
418959
3178
Yani bilmediği değerleri
arttırmaya çalışıyor.
Bu da tek-hedefli uğraş
problemini önler.
07:15
And that avoidsönler this problemsorun
of single-mindedtek fikirli pursuitkovalama
137
423254
2626
07:17
of an objectiveamaç.
138
425904
1212
Bu belirsizliğin çok önemli
olduğu ortaya çıktı.
07:19
This uncertaintybelirsizlik turnsdönüşler out to be crucialçok önemli.
139
427140
2172
Bunun bize yararlı olabilmesi için
07:21
Now, in ordersipariş to be usefulişe yarar to us,
140
429726
1639
07:23
it has to have some ideaFikir of what we want.
141
431389
2731
robotların bizlerin ne isteyebileceği
hakkında bir fikri olmalı.
07:27
It obtainselde eder that informationbilgi primarilyÖncelikle
by observationgözlem of humaninsan choicesseçimler,
142
435223
5427
Bu bilgiyi de birincil olarak insanların
tercihlerini gözlemleyerek elde eder.
Dolayısıyla bizim tercihlerimiz,
07:32
so our ownkendi choicesseçimler revealortaya çıkartmak informationbilgi
143
440674
2801
yaşamlarımızın nasıl olmasını
istediğimize ilişkin bilgi sunuyor.
07:35
about what it is that we prefertercih etmek
our liveshayatları to be like.
144
443499
3300
İşte üç ilke bunlar.
07:40
So those are the threeüç principlesprensipler.
145
448632
1683
O zaman bu ilkelerin,
07:42
Let's see how that appliesgeçerlidir
to this questionsoru of:
146
450339
2318
Turing'in önerdiği
''makineyi kapatabilir misin?''
07:44
"Can you switchşalter the machinemakine off?"
as TuringTuring suggestedönerdi.
147
452681
2789
sorusuna nasıl
uygulandığını inceleyelim.
07:49
So here'sburada a PRPR2 robotrobot.
148
457073
2120
Burada gördüğünüz bir PR2 robotu.
07:51
This is one that we have in our lablaboratuvar,
149
459217
1821
Bu gördüğünüz bizim
laboratuvarımızdaki PR2.
07:53
and it has a bigbüyük redkırmızı "off" switchşalter
right on the back.
150
461062
2903
Gördüğünüz gibi arkasında kocaman
kırmızı bir ''kapat'' düğmesi var.
07:56
The questionsoru is: Is it
going to let you switchşalter it off?
151
464541
2615
Sorumuz şu:
Onu kapatmanıza izin verecek mi?
07:59
If we do it the classicalKlasik way,
152
467180
1465
Bunu klasik şekilde
yapacak olursak
08:00
we give it the objectiveamaç of, "FetchGetirme
the coffeeKahve, I mustşart fetchgetirme the coffeeKahve,
153
468669
3482
ve ona ''kahveyi getir,
kahveyi getirmeliyim,
ölürsem kahveyi getiremem''
amacını verirsek,
08:04
I can't fetchgetirme the coffeeKahve if I'm deadölü,"
154
472175
2580
tabi PR2 konuşmamı dinlemekteydi,
08:06
so obviouslybelli ki the PRPR2
has been listeningdinleme to my talk,
155
474779
3341
dolayısıyla ''kapama düğmemi
işlev dışı bırakmalıyım
08:10
and so it saysdiyor, thereforebu nedenle,
"I mustşart disabledevre dışı bırakma my 'off'"kapalı" switchşalter,
156
478144
3753
ve Starbucks'ta bana
müdahale etmeye çalışan
08:14
and probablymuhtemelen taserTAŞER all the other
people in StarbucksStarbucks
157
482976
2694
diğer insanları da belki
elektrikle şoklarım'' der.
08:17
who mightbelki interferekarışmak with me."
158
485694
1560
08:19
(LaughterKahkaha)
159
487278
2062
(Gülüşmeler)
Yani bu kaçınılmaz
görünüyor, değil mi?
08:21
So this seemsgörünüyor to be inevitablekaçınılmaz, right?
160
489364
2153
08:23
This kindtür of failurebaşarısızlık modekip
seemsgörünüyor to be inevitablekaçınılmaz,
161
491541
2398
Bu çeşit bir hata modu
kaçınılmaz görünüyor ve
08:25
and it followsşu from havingsahip olan
a concretebeton, definitekesin objectiveamaç.
162
493963
3543
bu da kesin ve net bir hedef
konulmasından kaynaklanıyor.
08:30
So what happensolur if the machinemakine
is uncertainbelirsiz about the objectiveamaç?
163
498812
3144
Peki, eğer makine hedef hakkında
emin değilse ne olur?
08:33
Well, it reasonsnedenleri in a differentfarklı way.
164
501980
2127
O zaman daha farklı bir mantık yürütür.
08:36
It saysdiyor, "OK, the humaninsan
mightbelki switchşalter me off,
165
504131
2424
O zaman der ki,
''Peki, insan beni kapatabilir
08:39
but only if I'm doing something wrongyanlış.
166
507144
1866
ama sadece yanlış bişey yaparsam.
08:41
Well, I don't really know what wrongyanlış is,
167
509747
2475
Ben neyin yanlış olduğunu
tam bilmiyorum
08:44
but I know that I don't want to do it."
168
512246
2044
ama yanlış yapmak
istemediğimi biliyorum.''
08:46
So that's the first and secondikinci
principlesprensipler right there.
169
514314
3010
Burada birinci ve ikinci
ilkeleri görebiliyorsunuz.
08:49
"So I should let the humaninsan switchşalter me off."
170
517348
3359
''Öyleyse insanın beni
kapatmasına izin vermeliyim.''
08:53
And in factgerçek you can calculatehesaplamak
the incentiveözendirici that the robotrobot has
171
521721
3956
Aslında bir robotun insana
kendini kapatması için izin vermesindeki
08:57
to allowizin vermek the humaninsan to switchşalter it off,
172
525701
2493
motivasyonu hesaplayabilirsiniz.
09:00
and it's directlydirekt olarak tiedbağlı to the degreederece
173
528218
1914
Bu doğrudan, komutun belirsizlik
09:02
of uncertaintybelirsizlik about
the underlyingtemel objectiveamaç.
174
530156
2746
derecesinin ne olduğuna bağlıdır.
09:05
And then when the machinemakine is switchedanahtarlamalı off,
175
533977
2949
Sonra makine kapatılınca,
üçüncü ilke devreye girer.
09:08
that thirdüçüncü principleprensip comesgeliyor into playoyun.
176
536950
1805
09:10
It learnsöğrenir something about the objectiveshedefleri
it should be pursuingpeşinde,
177
538779
3062
Çünkü izlediği amaçlara
ilişkin bir şey öğrenir,
çünkü yapmış olduğu şeyin
yanlış olduğunu öğrenir.
09:13
because it learnsöğrenir that
what it did wasn'tdeğildi right.
178
541865
2533
Aslında, matematikçilerin
sıkça yaptığı gibi
09:16
In factgerçek, we can, with suitableuygun use
of GreekYunanca symbolssemboller,
179
544422
3570
Yunan harflerinin uygun kullanımıyla,
09:20
as mathematiciansmatematikçiler usuallygenellikle do,
180
548016
2131
böyle bir robotun,
insanlara yararının kanıtlanabileceğini
09:22
we can actuallyaslında provekanıtlamak a theoremteoremi
181
550171
1984
09:24
that saysdiyor that suchböyle a robotrobot
is provablykanıtlanmıştır beneficialfaydalı to the humaninsan.
182
552179
3553
söyleyen bir teoremi kanıtlayabiliriz.
09:27
You are provablykanıtlanmıştır better off
with a machinemakine that's designedtasarlanmış in this way
183
555756
3803
Bu şekilde tasarlanmış
bir makinenin varlığı,
yokluğuna oranla
sizi daha iyi kılacaktır.
09:31
than withoutolmadan it.
184
559583
1246
09:33
So this is a very simplebasit exampleörnek,
but this is the first stepadım
185
561237
2906
Bu çok basit örnek aslında
başarmaya çalıştığımız
09:36
in what we're tryingçalışıyor to do
with human-compatibleinsan uyumlu AIAI.
186
564167
3903
insan-uyumlu YZ
yolunda ilk adımımızdır.
09:42
Now, this thirdüçüncü principleprensip,
187
570657
3257
Şimdi bu üçüncü ilke
biraz kafanızı karıştırıyor olabilir.
09:45
I think is the one that you're probablymuhtemelen
scratchingtırmalamak your headkafa over.
188
573938
3112
Herhalde şunu düşünüyorsunuz:
''Eğer ben yanlış hareket ediyorsam,
09:49
You're probablymuhtemelen thinkingdüşünme, "Well,
you know, I behaveDavranmak badlykötü.
189
577074
3239
09:52
I don't want my robotrobot to behaveDavranmak like me.
190
580337
2929
robotumun da benim gibi hareket
etmesini istemiyorum.
Geceleri usulca gidip buzluktan
bişeyler aşırıyorum.
09:55
I sneakgizlice down in the middleorta of the night
and take stuffşey from the fridgebuzdolabı.
191
583290
3434
Bunun gibi şeyler yapıyorum.''
09:58
I do this and that."
192
586748
1168
09:59
There's all kindsçeşit of things
you don't want the robotrobot doing.
193
587940
2797
Robotun yapmamasını istediğiniz
birçok şey olabilir.
10:02
But in factgerçek, it doesn't
quiteoldukça work that way.
194
590761
2071
Ama aslında bu pek öyle çalışmıyor.
10:04
Just because you behaveDavranmak badlykötü
195
592856
2155
Sırf siz kötü bir şey yaptınız diye,
10:07
doesn't mean the robotrobot
is going to copykopya your behaviordavranış.
196
595035
2623
robot da sizin hareketinizi
taklit edecek değil.
Sizi buna iteni anlayacak ve
belki de direnmeniz için
10:09
It's going to understandanlama your motivationsmotivasyonları
and maybe help you resistdirenmek them,
197
597682
3910
size yardım edecek,
eğer uygunsa.
10:13
if appropriateuygun.
198
601616
1320
10:16
But it's still difficultzor.
199
604206
1464
Ama bu hâlâ zor.
10:18
What we're tryingçalışıyor to do, in factgerçek,
200
606302
2545
Aslında yapmaya çalıştığımız şey,
makinelerin herhangi biri ve
yaşayabilecekleri herhangi bir olası yaşam
10:20
is to allowizin vermek machinesmakineler to predicttahmin
for any personkişi and for any possiblemümkün life
201
608871
5796
ve diğer herkesin yaşamı için
öngörüler yapmalarını sağlamak:
10:26
that they could livecanlı,
202
614691
1161
10:27
and the liveshayatları of everybodyherkes elsebaşka:
203
615876
1597
10:29
WhichHangi would they prefertercih etmek?
204
617497
2517
Neyi tercih ederlerdi?
10:34
And there are manyçok, manyçok
difficultieszorluklar involvedilgili in doing this;
205
622061
2954
Bunu yapmak konusunda
çok fazla güçlük var.
Bunun yakın zamanda
çözüleceğini de sanmıyorum.
10:37
I don't expectbeklemek that this
is going to get solvedçözülmüş very quicklyhızlı bir şekilde.
206
625039
2932
10:39
The realgerçek difficultieszorluklar, in factgerçek, are us.
207
627995
2643
Gerçek zorluk, aslında biziz.
10:44
As I have alreadyzaten mentionedadı geçen,
we behaveDavranmak badlykötü.
208
632149
3117
Bahsettiğim gibi,
kötü davranışlarımız var.
10:47
In factgerçek, some of us are downrightdobra dobra nastykötü.
209
635290
2321
Aslına bakarsanız,
bazılarımız gerçekten kötü.
10:50
Now the robotrobot, as I said,
doesn't have to copykopya the behaviordavranış.
210
638431
3052
Dediğim gibi robot bu davranışları
tekrarlamak zorunda değil.
10:53
The robotrobot does not have
any objectiveamaç of its ownkendi.
211
641507
2791
Robotun kendine ait bir hedefi yok.
10:56
It's purelyyalnızca altruisticfedakar.
212
644322
1737
Onlar bütünüyle fedakâr.
10:59
And it's not designedtasarlanmış just to satisfytatmin etmek
the desiresarzuları of one personkişi, the userkullanıcı,
213
647293
5221
Bu sadece bir kişinin,
kullanıcının arzularını
tatmin etmek üzere
tasarlanmış değil,
11:04
but in factgerçek it has to respectsaygı
the preferencesTercihler of everybodyherkes.
214
652538
3138
aslında herkesin tercihlerine saygı
duymak için tasarlanırlar.
Makineler bir kısım
kötü davranışı algılayabilir
11:09
So it can dealanlaştık mı with a certainbelli
amounttutar of nastinesspislik,
215
657263
2570
ve hatta kötü davranışın
ardındaki nedenleri de anlayabilir.
11:11
and it can even understandanlama
that your nastinesspislik, for exampleörnek,
216
659857
3701
Örneğin görev başında rüşvet
alan bir pasaport memuruysanız,
11:15
you mayMayıs ayı take bribesrüşvet as a passportpasaport officialresmi
217
663582
2671
bunu aile geçindirmek ve çocukları okula
göndermek için yaptığınızı anlayabilir.
11:18
because you need to feedbesleme your familyaile
and sendgöndermek your kidsçocuklar to schoolokul.
218
666277
3812
11:22
It can understandanlama that;
it doesn't mean it's going to stealçalmak.
219
670113
2906
Bu onun da çalacağı
anlamına gelmez.
Aslında çocuklarınızı okula
gönderebilmeniz için size yardım edecek.
11:25
In factgerçek, it'llolacak just help you
sendgöndermek your kidsçocuklar to schoolokul.
220
673043
2679
11:28
We are alsoAyrıca computationallyhesaplama açısından limitedsınırlı.
221
676976
3012
Bizler ayrıca hesaplama
açısından sınırlıyız.
11:32
LeeLee SedolSEDOL is a brilliantparlak Go playeroyuncu,
222
680012
2505
Lee Sedol parlak bir Go oyuncusu,
11:34
but he still lostkayıp.
223
682541
1325
ama yine de kaybetti.
11:35
So if we look at his actionseylemler,
he tookaldı an actionaksiyon that lostkayıp the gameoyun.
224
683890
4239
Hamlelerine bakılırsa,
oyunu kaybetmesine
neden olan bir hamle yaptı.
11:40
That doesn't mean he wanted to losekaybetmek.
225
688153
2161
Bu onun kaybetmek istediği
anlamına gelmiyor.
11:43
So to understandanlama his behaviordavranış,
226
691340
2040
Yani onun davranışını anlamak için,
bizim hesaplama konusundaki
11:45
we actuallyaslında have to invertters çevir
throughvasitasiyla a modelmodel of humaninsan cognitionbiliş
227
693404
3644
sınırlarımızı da içeren bir insan zekası
modeli süzgecinden geçirmek gerek.
11:49
that includesiçerir our computationalbilişimsel
limitationssınırlamaları -- a very complicatedkarmaşık modelmodel.
228
697072
4977
Bu da çok karmaşık bir model.
Ama yine de anlamaya
çalışabileceğimiz bir kavram.
11:54
But it's still something
that we can work on understandinganlayış.
229
702073
2993
11:57
ProbablyMuhtemelen the mostçoğu difficultzor partBölüm,
from my pointpuan of viewgörünüm as an AIAI researcheraraştırmacı,
230
705876
4320
Bir YZ araştırmacısı olarak baktığımda,
en zor olan kısım belki de
12:02
is the factgerçek that there are lots of us,
231
710220
2575
aslında çok fazla sayıda insan oluşu.
Makineler bir şekilde tüm farklı
insanların tercihlerini
12:06
and so the machinemakine has to somehowbir şekilde
tradeTicaret off, weightartmak up the preferencesTercihler
232
714294
3581
ve bunların ağırlıklarını
analiz etmeliler.
12:09
of manyçok differentfarklı people,
233
717899
2225
12:12
and there are differentfarklı waysyolları to do that.
234
720148
1906
Bunu yapmanın farklı yolları var.
12:14
EconomistsEkonomistler, sociologistssosyologlar,
moralmanevi philosophersfilozoflar have understoodanladım that,
235
722078
3689
Ekonomistler, sosyologlar,
filozoflar bunu anlamıştı
ve biz de aktif olarak bir
işbirliği arayışındayız.
12:17
and we are activelyaktif
looking for collaborationişbirliği.
236
725791
2455
12:20
Let's have a look and see what happensolur
when you get that wrongyanlış.
237
728270
3251
O zaman bunu yanlış anladığınızda
neler olabileceğine bir bakalım.
12:23
So you can have
a conversationkonuşma, for exampleörnek,
238
731545
2133
Örneğin zeki kişisel asistanınızla
12:25
with your intelligentakıllı personalkişisel assistantYardımcısı
239
733702
1944
bir sohbet yapabilirsiniz;
12:27
that mightbelki be availablemevcut
in a fewaz years'yıl time.
240
735670
2285
bu birkaç yıl içinde mümkün olabilir.
12:29
Think of a SiriSiri on steroidssteroidler.
241
737979
2524
Yani steroidler verilmiş
bir Siri düşünün.
12:33
So SiriSiri saysdiyor, "Your wifekadın eş calleddenilen
to remindhatırlatmak you about dinnerakşam yemegi tonightBu gece."
242
741627
4322
Siri diyor ki, ''Eşin bu akşamki yemek
randevunuzu hatırlatmak için aradı.''
12:38
And of coursekurs, you've forgottenunutulmuş.
"What? What dinnerakşam yemegi?
243
746616
2508
Tabi siz bunu unutmuştunuz.
''Ne? Ne yemeği?
12:41
What are you talkingkonuşma about?"
244
749148
1425
Neden bahsediyorsun?''
12:42
"Uh, your 20thinci anniversaryyıldönümü at 7pmPM."
245
750597
3746
''Bu akşam 7'de olan
20. yıldönümü yemeğiniz.''
12:48
"I can't do that. I'm meetingtoplantı
with the secretary-generalGenel Sekreter at 7:30.
246
756915
3719
''Ama yemeğe katılamam, saat 7:30'da
Genel Sekreter ile buluşuyorum.
12:52
How could this have happenedolmuş?"
247
760658
1692
Bu nasıl olabildi?''
12:54
"Well, I did warnuyarmak you, but you overrodebozdu
my recommendationtavsiye."
248
762374
4660
''Sizi daha önce bununla ilgili uyarmıştım
ama önerimi çiğnediniz.''
13:00
"Well, what am I going to do?
I can't just tell him I'm too busymeşgul."
249
768146
3328
''Peki ne yapacağım? Genel sekretere
çok meşgul olduğumu söyleyemem.''
13:04
"Don't worryendişelenmek. I arrangeddüzenlenmiş
for his planeuçak to be delayedgecikmiş."
250
772490
3281
"Merak etme, uçağının gecikmesini
sağlıyorum.''
13:07
(LaughterKahkaha)
251
775795
1682
(Gülüşmeler)
13:10
"Some kindtür of computerbilgisayar malfunctionarıza."
252
778249
2101
''Bir çeşit bilgisayar hatası.''
13:12
(LaughterKahkaha)
253
780374
1212
(Gülüşmeler)
13:13
"Really? You can do that?"
254
781610
1617
''Gerçekten mi?
Bunu yapabiliyor musun?''
''Size en içten üzüntülerini
iletiyor ve
13:16
"He sendsgönderir his profoundderin apologiesÖzür dilerim
255
784400
2179
sizinle yarın öğlen yemeğinde
görüşmeyi bekliyor.''
13:18
and looksgörünüyor forwardileri to meetingtoplantı you
for lunchöğle yemeği tomorrowyarın."
256
786603
2555
13:21
(LaughterKahkaha)
257
789182
1299
(Gülüşmeler)
13:22
So the valuesdeğerler here --
there's a slighthafif mistakehata going on.
258
790505
4403
Yani buradaki değerler...
Yanlış olan bir şeyler var.
13:26
This is clearlyAçıkça followingtakip etme my wife'skarısının valuesdeğerler
259
794932
3009
Bu kesinlikle eşimin
değerlerini takip etmekte,
13:29
whichhangi is "HappyMutlu wifekadın eş, happymutlu life."
260
797965
2069
ki bu da ''mutlu bir eş,
mutlu bir hayat'' oluyor.
13:32
(LaughterKahkaha)
261
800058
1583
(Gülüşmeler)
13:33
It could go the other way.
262
801665
1444
Ama bu başka türlü de gidebilir.
13:35
You could come home
after a hardzor day'sgünün work,
263
803821
2201
Yorucu bir iş gününden
eve geldiğinizde,
13:38
and the computerbilgisayar saysdiyor, "Long day?"
264
806046
2195
bilgisayara size ''uzun bir
gün müydü?'' diye soruyor.
13:40
"Yes, I didn't even have time for lunchöğle yemeği."
265
808265
2288
''Evet, öğle yemeğine
bile vaktim olmadı.''
13:42
"You mustşart be very hungry."
266
810577
1282
''Çok aç olmalısın.''
13:43
"StarvingAçlıktan, yeah.
Could you make some dinnerakşam yemegi?"
267
811883
2646
''Evet, açlıktan ölüyorum.
Yiyecek bir şeyler hazırlayabilir misin?''
''Sana söylemem gereken bişey var.''
13:48
"There's something I need to tell you."
268
816070
2090
13:50
(LaughterKahkaha)
269
818184
1155
(Gülüşmeler)
13:52
"There are humansinsanlar in SouthGüney SudanSudan
who are in more urgentacil need than you."
270
820193
4905
''Güney Sudan'da yemeğe
senden daha muhtaç insanlar var.''
13:57
(LaughterKahkaha)
271
825122
1104
(Gülüşmeler)
13:58
"So I'm leavingayrılma. Make your ownkendi dinnerakşam yemegi."
272
826250
2075
''Bu yüzden ben ayrılıyorum.
Kendi yemeğini kendin yap.''
14:00
(LaughterKahkaha)
273
828349
2000
(Gülüşmeler)
14:02
So we have to solveçözmek these problemssorunlar,
274
830823
1739
Bu sorunları çözmeliyiz.
14:04
and I'm looking forwardileri
to workingçalışma on them.
275
832586
2515
Ben de bu sorunların üstünde çalışmayı
sabırsızlıkla bekliyorum.
14:07
There are reasonsnedenleri for optimismiyimserlik.
276
835125
1843
İyimser olmamız için
sebeplerimiz var.
14:08
One reasonneden is,
277
836992
1159
Bir nedenimiz
14:10
there is a massivemasif amounttutar of dataveri.
278
838175
1868
varolan büyük bir veri oluşu.
14:12
Because rememberhatırlamak -- I said
they're going to readokumak everything
279
840067
2794
Çünkü hatırlarsanız, insanların
tarih boyunca yazdığı
her şeyi okuyacaklarını
söylemiştim.
14:14
the humaninsan raceyarış has ever writtenyazılı.
280
842885
1546
Yazdığımız çoğu şey,
insanların yaptığı şeyler ve
14:16
MostÇoğu of what we writeyazmak about
is humaninsan beingsvarlıklar doing things
281
844455
2724
başkalarının bunlardan
dolayı üzülmesi ile ilgili.
14:19
and other people gettingalma upsetüzgün about it.
282
847203
1914
14:21
So there's a massivemasif amounttutar
of dataveri to learnöğrenmek from.
283
849141
2398
Yani öğrenilecek birçok şey var.
14:23
There's alsoAyrıca a very
stronggüçlü economicekonomik incentiveözendirici
284
851563
2236
Ayrıca bunu
gerçekleştirmek için
güçlü bir ekonomik itki de var.
14:27
to get this right.
285
855331
1186
14:28
So imaginehayal etmek your domesticyerli robot'srobotun at home.
286
856541
2001
Evcil robotunuzun
evinizde olduğunu varsayın.
14:30
You're lategeç from work again
and the robotrobot has to feedbesleme the kidsçocuklar,
287
858566
3067
Yine evinize geç gelmişsiniz ve
robotun çocuklara yemek yedirmesi lazım.
14:33
and the kidsçocuklar are hungry
and there's nothing in the fridgebuzdolabı.
288
861657
2823
Çocuklar aç ve buzdolabında
hiçbir şey yok.
14:36
And the robotrobot seesgörür the catkedi.
289
864504
2605
Robot kedinizi görüyor.
14:39
(LaughterKahkaha)
290
867133
1692
(Gülüşmeler)
14:40
And the robotrobot hasn'tdeğil sahiptir quiteoldukça learnedbilgili
the humaninsan valuedeğer functionfonksiyon properlyuygun şekilde,
291
868849
4190
Robot henüz insanların değer yargılarını
tam olarak kullanmayı
öğrenemediğinden,
14:45
so it doesn't understandanlama
292
873063
1251
kedinin duygusal değerinin,
kedinin besin değerinden
14:46
the sentimentalduygusal valuedeğer of the catkedi outweighsdaha ağır basar
the nutritionalbesin valuedeğer of the catkedi.
293
874338
4844
daha ağır bastığını anlamıyor.
(Gülüşmeler)
14:51
(LaughterKahkaha)
294
879206
1095
14:52
So then what happensolur?
295
880325
1748
O zaman ne olur?
14:54
Well, it happensolur like this:
296
882097
3297
Şöyle bir son dakika haberi:
''Bozuk robot akşam yemeği
için kediyi pişirdi.''
14:57
"DerangedDengesiz robotrobot cooksaşçılar kittypisi
for familyaile dinnerakşam yemegi."
297
885418
2964
15:00
That one incidentolay would be the endson
of the domesticyerli robotrobot industrysanayi.
298
888406
4523
Böyle tek bir olay, evcil robot
endüstrisinin sonu olurdu.
Bu yüzden süper-zeki makinelerden önce
bunu hatasız yapmamız gerekiyor.
15:04
So there's a hugeKocaman incentiveözendirici
to get this right
299
892953
3372
15:08
long before we reachulaşmak
superintelligentanlaman machinesmakineler.
300
896349
2715
15:12
So to summarizeözetlemek:
301
900128
1535
Kısaca özetleyecek olursak:
15:13
I'm actuallyaslında tryingçalışıyor to changedeğişiklik
the definitiontanım of AIAI
302
901687
2881
Ben yapay zekanın tanımını
değiştirmeye çalışıyorum,
15:16
so that we have provablykanıtlanmıştır
beneficialfaydalı machinesmakineler.
303
904592
2993
ki yararları kanıtlanmış
makinelere sahip olabilelim.
15:19
And the principlesprensipler are:
304
907609
1222
İlkeler şunlar:
15:20
machinesmakineler that are altruisticfedakar,
305
908855
1398
Fedakâr makineler,
15:22
that want to achievebaşarmak only our objectiveshedefleri,
306
910277
2804
sadece bizim hedeflerimize
ulaşmak istesinler.
15:25
but that are uncertainbelirsiz
about what those objectiveshedefleri are,
307
913105
3116
Ama bu hedeflerin ne olduğundan
emin olmasınlar
15:28
and will watch all of us
308
916245
1998
ve öğrenmek için
15:30
to learnöğrenmek more about what it is
that we really want.
309
918267
3203
hepimizi izleyip, gerçekte
ne istediğimizi anlasınlar.
Biz de ümit ederim ki bu süreçte
daha iyi insanlar olmayı öğrenelim.
15:34
And hopefullyinşallah in the processsüreç,
we will learnöğrenmek to be better people.
310
922373
3559
15:37
Thank you very much.
311
925956
1191
Çok teşekkür ederim.
15:39
(ApplauseAlkış)
312
927171
3709
(Alkışlar)
15:42
ChrisChris AndersonAnderson: So interestingilginç, StuartStuart.
313
930904
1868
Chris Anderson: Bu çok ilginçti Stuart.
15:44
We're going to standdurmak here a bitbit
because I think they're settingayar up
314
932796
3170
Seninle biraz burada duracağız,
çünkü sanırım bir sonraki konuşmacı
15:47
for our nextSonraki speakerkonuşmacı.
315
935990
1151
için sahneyi kuruyorlar.
15:49
A coupleçift of questionssorular.
316
937165
1538
Sana birkaç sorum var.
15:50
So the ideaFikir of programmingprogramlama in ignorancecehalet
seemsgörünüyor intuitivelysezgisel really powerfulgüçlü.
317
938727
5453
Robotlara cehaleti de programlamak
içgüdüsel olarak çok güçlü bir fikir
gibi duruyor.
15:56
As you get to superintelligencesuperintelligence,
318
944204
1594
Süper-zekaya yaklaştıkça
15:57
what's going to stop a robotrobot
319
945822
2258
bir robotun tüm araştırmaları okuyarak,
16:00
readingokuma literatureEdebiyat and discoveringkeşfetmek
this ideaFikir that knowledgebilgi
320
948104
2852
bilginin aslında cehaletten
daha iyi olduğunu keşfetmesi
16:02
is actuallyaslında better than ignorancecehalet
321
950980
1572
ve kendi hedeflerini belirleyip
16:04
and still just shiftingdeğişken its ownkendi goalshedefleri
and rewritingyeniden yazma that programmingprogramlama?
322
952576
4218
kendini programını yeniden
yazmasını ne durdurabilir?
Stuart Russell: Evet,
aslında dediğim gibi
16:09
StuartStuart RussellRussell: Yes, so we want
it to learnöğrenmek more, as I said,
323
957692
6356
biz de onun kendi hedeflerimiz hakkında
daha çok şey bilmesini istiyoruz.
16:16
about our objectiveshedefleri.
324
964072
1287
16:17
It'llİtll ' only becomeolmak more certainbelli
as it becomesolur more correctdoğru,
325
965383
5521
Onu, bunu doğru şekilde yorumlayacak
biçimde tasarlayacağız.
16:22
so the evidencekanıt is there
326
970928
1945
Örneğin, kitapların içerdikleri
kanıtlar açısından
16:24
and it's going to be designedtasarlanmış
to interpretyorumlamak it correctlydoğru şekilde.
327
972897
2724
son derece taraflı olduğunu anlayacak.
16:27
It will understandanlama, for exampleörnek,
that bookskitaplar are very biasedönyargılı
328
975645
3956
16:31
in the evidencekanıt they containiçermek.
329
979625
1483
Sadece kralların, prenslerin
ve elit beyaz erkeklerin
16:33
They only talk about kingskrallar and princesPrinces
330
981132
2397
16:35
and eliteseçkinler whitebeyaz maleerkek people doing stuffşey.
331
983553
2800
yaptıklarından bahsediyorlar.
16:38
So it's a complicatedkarmaşık problemsorun,
332
986377
2096
Yani bu karmaşık bir problem,
16:40
but as it learnsöğrenir more about our objectiveshedefleri
333
988497
3872
ama bizim hedeflerimizi öğrendikçe,
bize giderek daha da yararlı olacaklar.
16:44
it will becomeolmak more and more usefulişe yarar to us.
334
992393
2063
16:46
CACA: And you couldn'tcould
just boilkaynama it down to one lawhukuk,
335
994480
2526
CA: Ve bunu da tek bir
kurala indirgeyemeyiz,
16:49
you know, hardwiredKablolu in:
336
997030
1650
değil mi, yani
''eğer insan beni kapatmayı denerse,
16:50
"if any humaninsan ever triesçalışır to switchşalter me off,
337
998704
3293
uyacağım. Uyacağım.''
16:54
I complyuymak. I complyuymak."
338
1002021
1935
SR: Kesinlikle hayır.
16:55
SRSR: AbsolutelyKesinlikle not.
339
1003980
1182
Bu berbat bir fikir olurdu.
16:57
That would be a terriblekorkunç ideaFikir.
340
1005186
1499
Yani kendini süren bir arabanız
olduğunu varsayın
16:58
So imaginehayal etmek that you have
a self-drivingkendi kendine sürüş cararaba
341
1006709
2689
ve beş yaşındaki çocuğunuzu
17:01
and you want to sendgöndermek your five-year-oldbeş-yıl-yaşlı
342
1009422
2433
anaokuluna göndermek istiyorsunuz.
17:03
off to preschoolokul öncesi.
343
1011879
1174
Peki beş yaşındaki çocuğunuzun
17:05
Do you want your five-year-oldbeş-yıl-yaşlı
to be ableyapabilmek to switchşalter off the cararaba
344
1013077
3101
araba seyir halindeyken
arabayı kapatabilmesini ister miydiniz?
17:08
while it's drivingsürme alonguzun bir?
345
1016202
1213
Muhtemelen hayır.
Yani bu durumda robotun,
17:09
ProbablyMuhtemelen not.
346
1017439
1159
17:10
So it needsihtiyaçlar to understandanlama how rationalakılcı
and sensiblemantıklı the personkişi is.
347
1018622
4703
bir insanın ne kadar mantıklı ve
rasyonel olduğunu anlaması gerekiyor.
Bir insan ne kadar rasyonel ise
17:15
The more rationalakılcı the personkişi,
348
1023349
1676
17:17
the more willingistekli you are
to be switchedanahtarlamalı off.
349
1025049
2103
siz de o kadar kapatılmayı
kabul edersiniz.
17:19
If the personkişi is completelytamamen
randomrasgele or even maliciouskötü amaçlı,
350
1027176
2543
Eğer bir kişi tamamen plansız
ve hatta kötü niyetliyse
17:21
then you're lessaz willingistekli
to be switchedanahtarlamalı off.
351
1029743
2512
o zaman siz de kapatılmak için
daha az hevesli olursunuz.
17:24
CACA: All right. StuartStuart, can I just say,
352
1032279
1866
CA: Peki. Stuart,
sadece şunu söyleyebilirim.
17:26
I really, really hopeumut you
figureşekil this out for us.
353
1034169
2314
Umarım bunu hepimiz için çözebilirsin.
17:28
Thank you so much for that talk.
That was amazingşaşırtıcı.
354
1036507
2375
Konuşman için çok teşekkürler.
Muhteşemdi.
SR: Teşekkürler.
17:30
SRSR: Thank you.
355
1038906
1167
(Alkışlar)
17:32
(ApplauseAlkış)
356
1040097
1837
Translated by Günperi Sisman
Reviewed by Sevkan Uzel

▲Back to top

ABOUT THE SPEAKER
Stuart Russell - AI expert
Stuart Russell wrote the standard text on AI; now he thinks deeply on AI's future -- and the future of us humans, too.

Why you should listen

Stuart Russell is a professor (and formerly chair) of Electrical Engineering and Computer Sciences at University of California at Berkeley. His book Artificial Intelligence: A Modern Approach (with Peter Norvig) is the standard text in AI; it has been translated into 13 languages and is used in more than 1,300 universities in 118 countries. His research covers a wide range of topics in artificial intelligence including machine learning, probabilistic reasoning, knowledge representation, planning, real-time decision making, multitarget tracking, computer vision, computational physiology, global seismic monitoring and philosophical foundations.

He also works for the United Nations, developing a new global seismic monitoring system for the nuclear-test-ban treaty. His current concerns include the threat of autonomous weapons and the long-term future of artificial intelligence and its relation to humanity.

More profile about the speaker
Stuart Russell | Speaker | TED.com