ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: Bilgisayarlarımız bizden zeki olduğu zaman ne olacak?

Filmed:
4,632,705 views

Yapay zeka teknolojisi, büyük bir hızla gelişmeye devam ediyor. Bu yüzyıl içinde yapılan araştırmalara dayanarak bilgisayar bazlı yapay zeka sistemleri bir insan kadar zeki olabilir. "Bize hükmedecekler" diyen Nick Bostrom insanlığın yapmak isteyebileceği son keşfin makina zekası olduğunu öne sürüyor. Filozof ve teknoloji uzmanı olan Bostrom bize geliştirmeye çalıştığımız, düşünen makineler tarafından yönetilen, dünya'ya kafa yormamızı istiyor. Yaptığımız zeki makineler insanlığı ve değerlerini korumaya yardımcı olacak mı ya da kendilerine ait değerlerini mi koruyacaklar ?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchDemet of mathematiciansmatematikçiler,
philosophersfilozoflar and computerbilgisayar scientistsBilim adamları,
0
570
4207
Bir grup matematikçi, filozof ve
bilgisayar uzmanıyla çalışıyorum,
00:16
and we sitoturmak around and think about
the futuregelecek of machinemakine intelligencezeka,
1
4777
5209
diğer şeylerin yanında,
oturup makine zekasının geleceği
00:21
amongarasında other things.
2
9986
2044
üzerine düşünüyoruz.
00:24
Some people think that some of these
things are sortçeşit of scienceBilim fiction-ykurgu-y,
3
12030
4725
Bazı insanlar bu şeylerin bir kısmının
bir tür bilim kurgu olduğunu düşünüyor,
00:28
faruzak out there, crazyçılgın.
4
16755
3101
hatta çılgınca diyenler bile var.
Ama şunu söylemek isterim ki,
00:31
But I like to say,
5
19856
1470
00:33
okay, let's look at the modernmodern
humaninsan conditionşart.
6
21326
3604
hadi öncelikle, modern insanın
durumuna bir bakalım.
00:36
(LaughterKahkaha)
7
24930
1692
(Gülüşmeler)
00:38
This is the normalnormal way for things to be.
8
26622
2402
Bu, bir şeylerin olması
için normal olan yoldur.
00:41
But if we think about it,
9
29024
2285
Ama düşündüğümüzde,
00:43
we are actuallyaslında recentlyson günlerde arrivedgeldi
guestsmisafir on this planetgezegen,
10
31309
3293
biz aslında bu gezegenin,
daha yeni gelmiş misafirleriyiz,
00:46
the humaninsan speciesTürler.
11
34602
2082
insan türü.
00:48
Think about if EarthDünya
was createdoluşturulan one yearyıl agoönce,
12
36684
4746
Dünyanın bir sene önce
yaratıldığını düşünelim,
00:53
the humaninsan speciesTürler, then,
would be 10 minutesdakika oldeski.
13
41430
3548
o zaman insan türü
on dakika yaşında olurdu.
00:56
The industrialSanayi eraçağ startedbaşladı
two secondssaniye agoönce.
14
44978
3168
Sanayi Çağı iki saniye önce
başlamış olurdu.
01:01
AnotherBaşka bir way to look at this is to think of
worldDünya GDPGSYİH over the last 10,000 yearsyıl,
15
49276
5225
Ya da şöyle açıklayayım, dünyanın
son on bin yıldaki GSYİH'sine bakalım.
(Gayrisafi Yurtiçi Hasıla)
01:06
I've actuallyaslında takenalınmış the troublesorun
to plotarsa this for you in a graphgrafik.
16
54501
3029
Bunu grafiğe dökerken baya
zahmete girdim, aslında hiç kolay değildi.
01:09
It looksgörünüyor like this.
17
57530
1774
Şöyle gözüküyor.
01:11
(LaughterKahkaha)
18
59304
1363
(Gülüşmeler)
01:12
It's a curiousMeraklı shapeşekil
for a normalnormal conditionşart.
19
60667
2151
Normal bir durum için
tuhaf bir şekil.
01:14
I sure wouldn'tolmaz want to sitoturmak on it.
20
62818
1698
Kesinlikle oturup bunu
beklemek istemezdim.
01:16
(LaughterKahkaha)
21
64516
2551
(Gülüşmeler)
01:19
Let's asksormak ourselveskendimizi, what is the causesebeb olmak
of this currentşimdiki anomalyanomali?
22
67067
4774
Kendimize soralım, bu anormalliğin
sebebi nedir?
01:23
Some people would say it's technologyteknoloji.
23
71841
2552
Bazıları teknoloji diyebilir.
01:26
Now it's truedoğru, technologyteknoloji has accumulatedbirikmiş
throughvasitasiyla humaninsan historytarih,
24
74393
4668
Doğru, teknoloji insanlık tarihi içinde
birikimli bir şekilde gelişti,
01:31
and right now, technologyteknoloji
advancesgelişmeler extremelyson derece rapidlyhızla --
25
79061
4652
şu an müthiş bir hızla ilerliyor,
01:35
that is the proximateyakın causesebeb olmak,
26
83713
1565
işte bu yüzden şu anda
01:37
that's why we are currentlyşu anda
so very productiveüretken.
27
85278
2565
bu kadar üretkeniz,
en yakın sebep bu.
01:40
But I like to think back furtherayrıca
to the ultimatenihai causesebeb olmak.
28
88473
3661
Ben esas sebebe ulaşmak için
daha geçmişe gitmek istiyorum.
01:45
Look at these two highlybüyük ölçüde
distinguishedseçkin gentlemenbeyler:
29
93114
3766
Son derece farklı şu iki
beyefendiye bakın:
01:48
We have KanziKanzi --
30
96880
1600
Bu, Kanzi
01:50
he's masteredhakim 200 lexicalsözlü
tokensbelirteçleri, an incredibleinanılmaz featfeat.
31
98480
4643
işaret dilinde 200 kelime öğrendi,
inanılır gibi değil.
01:55
And EdEd WittenWitten unleasheddışarı çıktı the secondikinci
superstringSuperstring revolutiondevrim.
32
103123
3694
Diğeri Ed Witten, ikinci süpersicim
devrimini gerçekleştirdi.
01:58
If we look underaltında the hoodHood,
this is what we find:
33
106817
2324
Kaputun altına bakarsak,
işte bunu buluruz:
02:01
basicallytemel olarak the sameaynı thing.
34
109141
1570
temel olarak aynı şeyi.
02:02
One is a little largerdaha büyük,
35
110711
1813
Biri daha büyük,
02:04
it maybe alsoAyrıca has a fewaz trickspüf nokta
in the exactkesin way it's wiredtelli.
36
112524
2758
belki bağlantılarından dolayı
birkaç numarası daha vardır.
02:07
These invisiblegörünmez differencesfarklar cannotyapamam
be too complicatedkarmaşık, howeverancak,
37
115282
3812
Bununla beraber bu görünmez farklar
çok karmaşık olamaz,
02:11
because there have only
been 250,000 generationsnesiller
38
119094
4285
çünkü son ortak atamızdan
beri sadece,
02:15
sincedan beri our last commonortak ancestoratası.
39
123379
1732
250.000 nesil geçti.
02:17
We know that complicatedkarmaşık mechanismsmekanizmalar
take a long time to evolvegelişmek.
40
125111
3849
Karmaşık mekanizmaların gelişmesi için
uzun zaman geçmesi gerektiğini biliyoruz.
Yani birkaç küçük değişiklik
02:22
So a bunchDemet of relativelyNispeten minorküçük changesdeğişiklikler
41
130000
2499
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
bizi Kanzi'den Witten'e,
02:27
from broken-offkırık-off treeağaç branchesdalları
to intercontinentalInterContinental ballisticbalistik missilesFüzeler.
43
135566
4543
ağaç dalları kopartmaktan, kıtalararası
balistik füzelere götürür.
02:32
So this then seemsgörünüyor prettygüzel obviousaçık
that everything we'vebiz ettik achievedelde,
44
140839
3935
Yani şu oldukça açık şekilde gözüküyor,
başardığımız ve önemsediğimiz
02:36
and everything we carebakım about,
45
144774
1378
her şey kritik bir şekilde,
02:38
dependsbağlıdır cruciallyEn önemlisi on some relativelyNispeten minorküçük
changesdeğişiklikler that madeyapılmış the humaninsan mindus.
46
146152
5228
insan zihnini yaratan görece küçük
değişikliklere bağlıdır.
02:44
And the corollarydoğal sonucu, of coursekurs,
is that any furtherayrıca changesdeğişiklikler
47
152650
3662
Doğal olarak, düşünmenin özünü
ciddi şekilde değiştirebilecek
02:48
that could significantlyanlamlı changedeğişiklik
the substrateAlt tabaka of thinkingdüşünme
48
156312
3477
başka değişiklikler,
02:51
could have potentiallypotansiyel
enormousmuazzam consequencessonuçları.
49
159789
3202
muazzam sonuçlara sebebiyet verebilirdi.
02:56
Some of my colleaguesmeslektaşlar
think we're on the vergemeyletmek
50
164321
2905
Bazı meslektaşlarım, düşünmenin
özünde derinden bir değişikliğe
02:59
of something that could causesebeb olmak
a profoundderin changedeğişiklik in that substrateAlt tabaka,
51
167226
3908
sebep olacak bir eşikte
olduğumuzu düşünüyor,
bu da makine süperzekası.
03:03
and that is machinemakine superintelligencesuperintelligence.
52
171134
3213
03:06
ArtificialYapay intelligencezeka used to be
about puttingkoyarak commandskomutları in a boxkutu.
53
174347
4739
Yapay zeka bir kutuya komutları
yerleştirmek için kullanılırdı.
03:11
You would have humaninsan programmersprogramcılar
54
179086
1665
Verileri titizlikle işleyen
03:12
that would painstakinglyözenle
handcraftel sanatları knowledgebilgi itemsürün.
55
180751
3135
insan programcılar vardı.
03:15
You buildinşa etmek up these expertuzman systemssistemler,
56
183886
2086
Uzman sistemler geliştiriyordunuz
03:17
and they were kindtür of usefulişe yarar
for some purposesamaçlar,
57
185972
2324
ve bunlar bazı amaçlar
için çok kullanışlı
03:20
but they were very brittlekırılgan,
you couldn'tcould scaleölçek them.
58
188296
2681
olmalarına rağmen çok hassastı,
ölçeklenemiyorlardı.
03:22
BasicallyTemel olarak, you got out only
what you put in.
59
190977
3433
Yani temelde, ne verirseniz
sadece onu alıyordunuz.
03:26
But sincedan beri then,
60
194410
997
O zamandan beri,
03:27
a paradigmparadigma shiftvardiya has takenalınmış placeyer
in the fieldalan of artificialyapay intelligencezeka.
61
195407
3467
yapay zeka alanında yeni bir
bakış açısı türedi.
03:30
TodayBugün, the actionaksiyon is really
around machinemakine learningöğrenme.
62
198874
2770
Günümüzde, olay makinelerin
öğrenmesine kadar dayandı.
03:34
So ratherdaha doğrusu than handcraftinghandcrafting knowledgebilgi
representationstemsilcilikleri and featuresÖzellikler,
63
202394
5387
Elle yazılan belgeler,
fikirler, özellikler yerine
03:40
we createyaratmak algorithmsalgoritmalar that learnöğrenmek,
oftensık sık from rawçiğ perceptualalgısal dataveri.
64
208511
5554
sıklıkla ham bilgilerden öğrenebilen,
algoritmalar yaratıyoruz.
03:46
BasicallyTemel olarak the sameaynı thing
that the humaninsan infantbebek does.
65
214065
4998
Aslında, bir bebeğin
yaptığı şeyle aynı.
03:51
The resultsonuç is A.I. that is not
limitedsınırlı to one domaindomain --
66
219063
4207
Yapay zeka bunu,
tek bir alanla sınırlamaz.
03:55
the sameaynı systemsistem can learnöğrenmek to translateÇevirmek
betweenarasında any pairsçiftleri of languagesdiller,
67
223270
4631
Aynı sistem çift halinde dilleri
çevirmeyi öğrenebilir ya da
03:59
or learnöğrenmek to playoyun any computerbilgisayar gameoyun
on the AtariAtari consoleKonsol.
68
227901
5437
ataride herhangi bir oyunu
oynamayı öğrenebilir.
04:05
Now of coursekurs,
69
233338
1779
Elbette,
04:07
A.I. is still nowhereHiçbir yerde nearyakın havingsahip olan
the sameaynı powerfulgüçlü, cross-domainetki alanları arası
70
235117
3999
yapay zeka, henüz insanların
etki alanları arası öğrenme ve planlama
04:11
abilitykabiliyet to learnöğrenmek and planplan
as a humaninsan beingolmak has.
71
239116
3219
yeteneğinin yakınında bile değildir.
04:14
The cortexkorteks still has some
algorithmicalgoritmik trickspüf nokta
72
242335
2126
Kortekste, makinalarla nasıl
eşleştirebileceğimizi henüz
04:16
that we don't yethenüz know
how to matchmaç in machinesmakineler.
73
244461
2355
bilmediğimiz bazı
algoritmik zorluklar var.
04:19
So the questionsoru is,
74
247886
1899
Fakat asıl soru şu:
Bu algoritmaları eşleştirmekten
ne kadar uzaktayız?
04:21
how faruzak are we from beingolmak ableyapabilmek
to matchmaç those trickspüf nokta?
75
249785
3500
04:26
A coupleçift of yearsyıl agoönce,
76
254245
1083
Birkaç yıl önce,
04:27
we did a surveyanket of some of the world'sDünyanın en
leadingönemli A.I. expertsuzmanlar,
77
255328
2888
dünyanın önde gelen yapay zeka
araştırmacılarıyla ne düşündüklerini
04:30
to see what they think,
and one of the questionssorular we askeddiye sordu was,
78
258216
3224
öğrenmek için bir anket yaptık ve
sorduğumuz sorulardan biri de
04:33
"By whichhangi yearyıl do you think
there is a 50 percentyüzde probabilityolasılık
79
261440
3353
"Yaklaşık hangi yılda
yüzde elli ihtimalle
04:36
that we will have achievedelde
human-levelinsan düzeyi machinemakine intelligencezeka?"
80
264793
3482
insan düzeyinde bir makine zekasına
ulaşabiliriz?"
04:40
We definedtanımlanmış human-levelinsan düzeyi here
as the abilitykabiliyet to performyapmak
81
268785
4183
İnsan seviyesini burada,
yetişkin bir insan kadar
04:44
almostneredeyse any job at leasten az as well
as an adultyetişkin humaninsan,
82
272968
2871
herhangi bir işi yapabilme
olarak tanımladık.
04:47
so realgerçek human-levelinsan düzeyi, not just
withiniçinde some limitedsınırlı domaindomain.
83
275839
4005
Ama gerçek insan seviyesi, sadece
belli bir alanla sınırlandırılamaz.
04:51
And the medianmedyan answerCevap was 2040 or 2050,
84
279844
3650
Sorduğumuz uzmanların
söylediklerine dayanarak
ortalama bir cevap çıkarttık
bu cevap ise 2040 ya da 2050 idi.
04:55
dependingbağlı on preciselytam whichhangi
groupgrup of expertsuzmanlar we askeddiye sordu.
85
283494
2806
04:58
Now, it could happenolmak much,
much latersonra, or soonerEr,
86
286300
4039
Bunun olması için yıllar geçebilir,
ya da daha erken bir tarihte olabilir,
05:02
the truthhakikat is nobodykimse really knowsbilir.
87
290339
1940
gerçek şu ki kimse zamanını bilmiyor.
Şunu biliyoruz;
makina bazında,
05:05
What we do know is that the ultimatenihai
limitsınır to informationbilgi processingişleme
88
293259
4412
05:09
in a machinemakine substrateAlt tabaka liesyalanlar faruzak outsidedışında
the limitssınırları in biologicalbiyolojik tissuedoku.
89
297671
4871
temel bilgi işleme limiti biyolojik
dokunun limitinin çok uzağındadır.
05:15
This comesgeliyor down to physicsfizik.
90
303241
2378
Fiziğe gelirsek,
05:17
A biologicalbiyolojik neuronnöron firesyangınlar, maybe,
at 200 hertzHertz, 200 timeszamanlar a secondikinci.
91
305619
4718
sinir hücreleri saniyede 200 defa
200 hertz'de sinyal transfer edebilir.
05:22
But even a present-daygünümüz transistortransistor
operatesfaaliyet at the GigahertzGigahertz.
92
310337
3594
Günümüzde bile normal bir iletken
gigahertz bazında çalışır.
05:25
NeuronsNöronlar propagateyaymak slowlyyavaşça in axonsakson,
100 metersmetre perbaşına secondikinci, topsEn fazla.
93
313931
5297
Nöronlar, aksonlarda saniyede
maximum 100 metre yayılırlar.
05:31
But in computersbilgisayarlar, signalssinyalleri can travelseyahat
at the speedhız of lightışık.
94
319228
3111
Bilgisayarlarda ise bilgi
ışık hızında taşınır.
05:35
There are alsoAyrıca sizeboyut limitationssınırlamaları,
95
323079
1869
Ayrıca boyut limitleri de vardır.
05:36
like a humaninsan brainbeyin has
to fituygun insideiçeride a craniumKafatası,
96
324948
3027
İnsan beyni,
kafatasının içine sığmalıdır.
05:39
but a computerbilgisayar can be the sizeboyut
of a warehousedepo or largerdaha büyük.
97
327975
4761
Ama bir bilgisayar depo
büyüklüğünde ya da daha büyük olabilir.
05:44
So the potentialpotansiyel for superintelligencesuperintelligence
liesyalanlar dormantUyuyan in mattermadde,
98
332736
5599
Bu yüzden süper zeka potansiyeli,
madde boyutunda uykudadır,
05:50
much like the powergüç of the atomatom
layyatırmak dormantUyuyan throughoutboyunca humaninsan historytarih,
99
338335
5712
tıpkı atomun gücünün insanlık tarihi
boyunca uykuda olup,
05:56
patientlysabırla waitingbekleme there untila kadar 1945.
100
344047
4405
1945'e kadar sabırla orada
beklemesi gibi.
Bulunduğumuz yüzyılda,
06:00
In this centuryyüzyıl,
101
348452
1248
06:01
scientistsBilim adamları mayMayıs ayı learnöğrenmek to awakenuyandırmak
the powergüç of artificialyapay intelligencezeka.
102
349700
4118
bilim adamları yapay zekanın gücünü
açığa çıkartmayı öğrenebilir.
06:05
And I think we mightbelki then see
an intelligencezeka explosionpatlama.
103
353818
4008
Bence, sonrasında bir
zeka patlaması görebiliriz.
Çoğu insan, mantıklı olanı ve
olmayanı düşündüklerinde,
06:10
Now mostçoğu people, when they think
about what is smartakıllı and what is dumbdilsiz,
104
358406
3957
06:14
I think have in mindus a pictureresim
roughlykabaca like this.
105
362363
3023
akıllarında aşağı yukarı
böyle bir tablo oluşuyor bana göre.
06:17
So at one endson we have the villageköy idiotsalak,
106
365386
2598
Bir uçta mahallenin delisi
06:19
and then faruzak over at the other sideyan
107
367984
2483
ve çok ötedeki diğer uçta ise
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverher kim your favoritesevdiğim guruguru is.
108
370467
4756
Ed Witten ya da Albert Einstein
ya da kimi örnek alıyorsanız.
06:27
But I think that from the pointpuan of viewgörünüm
of artificialyapay intelligencezeka,
109
375223
3834
Ama düşünüyorum ki, yapay zekanın
açısından bakacak olursak,
06:31
the truedoğru pictureresim is actuallyaslında
probablymuhtemelen more like this:
110
379057
3681
gerçek resim daha çok
şöyle olacaktır:
06:35
AIAI startsbaşlar out at this pointpuan here,
at zerosıfır intelligencezeka,
111
383258
3378
Yapay zeka şu noktadan,
tamamen 0 zekayla başlıyor
06:38
and then, after manyçok, manyçok
yearsyıl of really hardzor work,
112
386636
3011
Ve sonra, yıllarca süren
uzun çalışmaların sonucunda
06:41
maybe eventuallysonunda we get to
mouse-levelfare düzeyi artificialyapay intelligencezeka,
113
389647
3844
belki sonunda,
fare seviyesi yapay zekasına ulaşabiliriz.
06:45
something that can navigategezinmek
cluttereddarmadağın environmentsortamları
114
393491
2430
Öyle bir şey ki, karışık ortamlarda
bile yolunu bulabilen
06:47
as well as a mousefare can.
115
395921
1987
Bir farenin gibi
06:49
And then, after manyçok, manyçok more yearsyıl
of really hardzor work, lots of investmentyatırım,
116
397908
4313
Ve sonra, yıllarca uzun çalışmaların
ve yatırımların sonucunda,
06:54
maybe eventuallysonunda we get to
chimpanzee-levelşempanze düzeyine artificialyapay intelligencezeka.
117
402221
4639
Belki sonunda, Şempanze seviyesi
Yapay zekasına ulaşabiliriz.
06:58
And then, after even more yearsyıl
of really, really hardzor work,
118
406860
3210
Ve sonra, yıllarca
daha uzun çalışmalar sonucunda,
07:02
we get to villageköy idiotsalak
artificialyapay intelligencezeka.
119
410070
2913
Köy halkı zekası seviyesine
ulaşabiliriz.
07:04
And a fewaz momentsanlar latersonra,
we are beyondötesinde EdEd WittenWitten.
120
412983
3272
Ve biraz zaman daha verirsek
Ed Witten'nin ötesinde olabiliriz.
07:08
The traintren doesn't stop
at HumanvilleHumanville Stationİstasyonu.
121
416255
2970
Yapay zeka treni,
normal insan köyünde durmuyor
07:11
It's likelymuhtemelen, ratherdaha doğrusu, to swooshSwoosh right by.
122
419225
3022
Olası bir şekilde, yanımızda hızlıca geçiyor.
07:14
Now this has profoundderin implicationsetkileri,
123
422247
1984
Şimdi, bunun önemli sonuçları vardır
07:16
particularlyözellikle when it comesgeliyor
to questionssorular of powergüç.
124
424231
3862
Özellikle,
soru güç konusuna gelince
07:20
For exampleörnek, chimpanzeesşempanzelerin are stronggüçlü --
125
428093
1899
Örnek olarak şempanzeler güçlüdür,
07:21
poundpound for poundpound, a chimpanzeeşempanze is about
twiceiki defa as stronggüçlü as a fituygun humaninsan maleerkek.
126
429992
5222
Eşit şartlarda ele alırsak, bir insanın
iki katı kadar güçlü olabilirler.
07:27
And yethenüz, the fatekader of KanziKanzi
and his palssarsak dependsbağlıdır a lot more
127
435214
4614
Yine de Kanzi'nin ve arkadaşlarının
kaderi bizim yaptığımız
07:31
on what we humansinsanlar do than on
what the chimpanzeesşempanzelerin do themselveskendilerini.
128
439828
4140
ya da şempanzelerin yaptığının
daha fazlasına dayanır.
07:37
OnceBir kez there is superintelligencesuperintelligence,
129
445228
2314
Süper zeka keşfedildiğinde,
07:39
the fatekader of humanityinsanlık mayMayıs ayı dependbağımlı
on what the superintelligencesuperintelligence does.
130
447542
3839
İnsanlığın kaderi, bu süper zekanın
ne yapabildiğine bağlı olabilir.
07:44
Think about it:
131
452451
1057
Düşünsenize:
07:45
MachineMakine intelligencezeka is the last inventionicat
that humanityinsanlık will ever need to make.
132
453508
5044
Makine zekası insanların,
yapabileceği en son keşif.
07:50
MachinesMakineleri will then be better
at inventingicat than we are,
133
458552
2973
Bundan sonra makineler, İcat
alanında bizde daha iyi olacaklar
07:53
and they'llacaklar be doing so
on digitaldijital timescaleszaman ölçeği.
134
461525
2540
Bunu, dijital zaman ölçeği benzeri
alanlarda yapabilecekler.
07:56
What this meansanlamına geliyor is basicallytemel olarak
a telescopingteleskopik of the futuregelecek.
135
464065
4901
Tam olarak bunun anlamı
geleceğe bakış atmadır.
08:00
Think of all the crazyçılgın technologiesteknolojiler
that you could have imaginedhayal
136
468966
3558
Hayal edebileceğiniz bütün
müthiş teknolojileri düşünün,
08:04
maybe humansinsanlar could have developedgelişmiş
in the fullnessdolgunluk of time:
137
472524
2798
belki insanlar zamanı gelince
bunları keşfedicekler, mesela
08:07
cureskürler for agingyaşlanma, spaceuzay colonizationkolonizasyonu,
138
475322
3258
yaşlanmayı durdurma, uzay kolonileri
08:10
self-replicatingkendini kopyalayan nanobotsNanobotlar or uploadingYükleme
of mindszihinler into computersbilgisayarlar,
139
478580
3731
kendi kendini yenileyen nanobotlar ya da
bilgisayarlara zihin aktarma
08:14
all kindsçeşit of scienceBilim fiction-ykurgu-y stuffşey
140
482311
2159
bilim kurguda yer alan bütün fikirler.
08:16
that's neverthelessyine de consistenttutarlı
with the lawsyasalar of physicsfizik.
141
484470
2737
Yine de fizik kurallarına
uygun bir şekilde olması lazım.
08:19
All of this superintelligencesuperintelligence could
developgeliştirmek, and possiblybelki quiteoldukça rapidlyhızla.
142
487207
4212
Çok hızlı bir şekilde, tüm bu
Süper zeka ürünleri geliştirilebilir.
08:24
Now, a superintelligencesuperintelligence with suchböyle
technologicalteknolojik maturityolgunluk
143
492449
3558
Şimdi, tam olgun bir
süper zeka düşünürsek
08:28
would be extremelyson derece powerfulgüçlü,
144
496007
2179
bu çok güçlü olur
08:30
and at leasten az in some scenariossenaryolar,
it would be ableyapabilmek to get what it wants.
145
498186
4546
ve en azından bazı senaryolarda bile,
ne istediği varsa elde eder.
08:34
We would then have a futuregelecek that would
be shapedbiçimli by the preferencesTercihler of this A.I.
146
502732
5661
Ondan sonra yapay zeka kendi istekleri
üzerine bizim geleceğimizi şekillendirir.
"Bu istekler nelerdir?" diye
güzel bir soru sorulabilir.
08:41
Now a good questionsoru is,
what are those preferencesTercihler?
147
509855
3749
08:46
Here it getsalır trickieryanıltıcıdır.
148
514244
1769
İşte burada işler biraz karışıyor.
08:48
To make any headwayilerleme with this,
149
516013
1435
Bunu ileriye taşımamız için,
08:49
we mustşart first of all
avoidönlemek anthropomorphizinganthropomorphizing.
150
517448
3276
İlk olarak, insan biçimi verdiğimiz
her şeyden kaçınmamız lazım.
08:53
And this is ironicİronik because
everyher newspapergazete articlemakale
151
521934
3301
Tabii ki ironik olarak
okuduğumuz her gazete
08:57
about the futuregelecek of A.I.
has a pictureresim of this:
152
525235
3855
yapay zeka hakkında ve şunun resmi var.
09:02
So I think what we need to do is
to conceivegebe of the issuekonu more abstractlysoyut,
153
530280
4134
Yapmamız gerekense, bu konuyu
Hollywood senaryoları gibi değil
09:06
not in termsşartlar of vividcanlı HollywoodHollywood scenariossenaryolar.
154
534414
2790
soyut alarak göze almalıyız.
09:09
We need to think of intelligencezeka
as an optimizationEn iyi duruma getirme processsüreç,
155
537204
3617
Zekayı en güçlü seviyesine
getirme süreci olarak düşünmeliyiz.
09:12
a processsüreç that steersederek the futuregelecek
into a particularbelirli setset of configurationskonfigürasyonları.
156
540821
5649
Öyle bir süreç ki, geleceği belli
şekillerde yönlendirmeli.
09:18
A superintelligencesuperintelligence is
a really stronggüçlü optimizationEn iyi duruma getirme processsüreç.
157
546470
3511
Süper zekayı en güçlü seviyeye
getirmekse baya zordur.
09:21
It's extremelyson derece good at usingkullanma
availablemevcut meansanlamına geliyor to achievebaşarmak a statebelirtmek, bildirmek
158
549981
4117
Bir amaca ulaşmak için
çok kolay bir şekilde para bulabilir
09:26
in whichhangi its goalhedef is realizedgerçekleştirilen.
159
554098
1909
böylece hedefini tamamlamış olur.
09:28
This meansanlamına geliyor that there is no necessarygerekli
conenctionconenction betweenarasında
160
556447
2672
Yani, bu bağlamda
yüksek zekaya sahip olmak
09:31
beingolmak highlybüyük ölçüde intelligentakıllı in this senseduyu,
161
559119
2734
ve biz insanların değerli ya da
09:33
and havingsahip olan an objectiveamaç that we humansinsanlar
would find worthwhiledeğerli or meaningfulanlamlı.
162
561853
4662
manalı bulduğu bir objeye sahip olmak
arasında bir bağlantı olmak zorunda değildir.
09:39
SupposeVarsayalım we give an A.I. the goalhedef
to make humansinsanlar smilegülümseme.
163
567321
3794
Varsayalım ki, yapay zekaya insanları,
gülümsetmesi görevini verdik.
09:43
When the A.I. is weakzayıf, it performsgerçekleştirir usefulişe yarar
or amusingeğlenceli actionseylemler
164
571115
2982
Yapay zeka zayıf olduğunda
kullanıcısını gülümseten,
09:46
that causesebeb olmak its userkullanıcı to smilegülümseme.
165
574097
2517
gülünç hareketler sergiler.
09:48
When the A.I. becomesolur superintelligentanlaman,
166
576614
2417
Yapay zeka güçlendiğinde ise,
09:51
it realizesanlar that there is a more
effectiveetkili way to achievebaşarmak this goalhedef:
167
579031
3523
bu görevi tamamlamanın daha etkili bir
yolu olduğunun farkına varır:
09:54
take controlkontrol of the worldDünya
168
582554
1922
Dünyayı ele geçirmek ve
09:56
and stickÇubuk electrodeselektrotlar into the facialYüz Bakımı
muscleskaslar of humansinsanlar
169
584476
3162
insanların deri altlarına yerleştirilen
elektrotlar ile
09:59
to causesebeb olmak constantsabit, beaminggülen grinssırıtıyor.
170
587638
2941
sabit bir şekilde gülme sinyalleri yollamak.
10:02
AnotherBaşka bir exampleörnek,
171
590579
1035
Bir diğer örnek ise,
10:03
supposevarsaymak we give A.I. the goalhedef to solveçözmek
a difficultzor mathematicalmatematiksel problemsorun.
172
591614
3383
Varsayalım ki yapay zekaya çok zor
matematik problemi verdik.
10:06
When the A.I. becomesolur superintelligentanlaman,
173
594997
1937
Yapay zeka güçlendiğinde,
10:08
it realizesanlar that the mostçoğu effectiveetkili way
to get the solutionçözüm to this problemsorun
174
596934
4171
bu problemi çözmenin en etkili yolunun
düşünme kapasitesini geliştirmek
ve tüm dünyayı kocaman
10:13
is by transformingdönüştürme the planetgezegen
into a giantdev computerbilgisayar,
175
601105
2930
10:16
so as to increaseartırmak its thinkingdüşünme capacitykapasite.
176
604035
2246
bir bilgisayara çevirmek olduğunu
fark eder.
10:18
And noticeihbar that this givesverir the A.I.s
an instrumentalenstrümantal reasonneden
177
606281
2764
Şunu fark edin ki, yapay zeka
bize, bizim onaylamayacağımız
10:21
to do things to us that we
mightbelki not approveonaylamak of.
178
609045
2516
şeyler yapmak için
etkili gerekçeler buluyor.
10:23
Humanİnsan beingsvarlıklar in this modelmodel are threatstehditler,
179
611561
1935
Bu taslakta insanlar bir tehdit,
10:25
we could preventönlemek the mathematicalmatematiksel
problemsorun from beingolmak solvedçözülmüş.
180
613496
2921
matematik probleminin çözülmesini
engelleyebiliriz.
Tabii ki, olaylar bir kaç
şekilde ters gitmeyebilir; ama bunlar
10:29
Of coursekurs, perceivablyolay things won'talışkanlık
go wrongyanlış in these particularbelirli waysyolları;
181
617207
3494
10:32
these are cartoonkarikatür examplesörnekler.
182
620701
1753
sadece kağıttaki örnekler.
10:34
But the generalgenel pointpuan here is importantönemli:
183
622454
1939
Önemli nokta ise:
10:36
if you createyaratmak a really powerfulgüçlü
optimizationEn iyi duruma getirme processsüreç
184
624393
2873
X'i gerçekleştirmek için,
en güçlü seviyesinde bir
10:39
to maximizeen üst düzeye çıkarmak for objectiveamaç x,
185
627266
2234
süper zeka yaratırsanız
10:41
you better make sure
that your definitiontanım of x
186
629500
2276
X tanımınızın
önemsediğiniz her şeyi içerdiğinden
emin olmalısınız.
10:43
incorporatesbirleştirmek everything you carebakım about.
187
631776
2469
10:46
This is a lessonders that's alsoAyrıca taughtöğretilen
in manyçok a mythefsane.
188
634835
4384
Bu ders bir çok mitte öğretilir.
Kral Midas dokunduğu her şeyin
altına dönüşmesini ister.
10:51
KingKral MidasMidas wishesdilek that everything
he touchesdokunuşlar be turneddönük into goldaltın.
189
639219
5298
10:56
He touchesdokunuşlar his daughterkız evlat,
she turnsdönüşler into goldaltın.
190
644517
2861
Kızına dokunur
ve kızı altına dönüşür.
Yemeğine dokunur, altına dönüşür.
10:59
He touchesdokunuşlar his foodGıda, it turnsdönüşler into goldaltın.
191
647378
2553
11:01
This could becomeolmak practicallypratikte relevantuygun,
192
649931
2589
Bu olay konu ile çok alakalıdır.
11:04
not just as a metaphormecaz for greedhırs,
193
652520
2070
Aç gözlüğe bir örnek olarak değil,
11:06
but as an illustrationörnekleme of what happensolur
194
654590
1895
en güçlü seviyesinde bir
11:08
if you createyaratmak a powerfulgüçlü
optimizationEn iyi duruma getirme processsüreç
195
656485
2837
süper zekaya yanlış anlatılmış
ya da yetersiz belirtilmiş
11:11
and give it misconceivedmisconceived
or poorlykötü specifiedBelirtilen goalshedefleri.
196
659322
4789
görevler verirseniz neler
olabileceğinin bir örneğidir.
11:16
Now you mightbelki say, if a computerbilgisayar startsbaşlar
stickingyapışkan electrodeselektrotlar into people'sinsanların facesyüzleri,
197
664111
5189
Şunu söyleyebilirsiniz ki, bir bilgisayar
insanların deri altlarına
11:21
we'devlenmek just shutkapamak it off.
198
669300
2265
elektrotlar yerleştirse onu kapatabiliriz.
11:24
A, this is not necessarilyzorunlu olarak so easykolay to do
if we'vebiz ettik grownyetişkin dependentbağımlı on the systemsistem --
199
672555
5340
A, gittikçe sisteme muhtaç oluyor, bu
yüzden bunu yapması o kadar kolay değil.
11:29
like, where is the off switchşalter
to the InternetInternet?
200
677895
2732
Örnek olarak internetin
kapatma düğmesi nerede?
11:32
B, why haven'tyok the chimpanzeesşempanzelerin
flickedfiske the off switchşalter to humanityinsanlık,
201
680627
5120
B, şempanzeler ya da ilkel insanlar
insanların gelişme
11:37
or the NeanderthalsNeandertaller?
202
685747
1551
sürecini niye kapatmadı?
11:39
They certainlykesinlikle had reasonsnedenleri.
203
687298
2666
Kesinlikle gerekçeleri vardı.
Örnek olarak burada,
bir kapatma düğmesi var.
11:41
We have an off switchşalter,
for exampleörnek, right here.
204
689964
2795
11:44
(ChokingBoğulma)
205
692759
1554
(Boğulma sesi)
11:46
The reasonneden is that we are
an intelligentakıllı adversarydüşman;
206
694313
2925
Gerekçeleri şuydu ki biz,
zeki bir düşmandık;
11:49
we can anticipatetahmin etmek threatstehditler
and planplan around them.
207
697238
2728
Tehditleri önceden sezebilip
plan yapabilirdik.
11:51
But so could a superintelligentanlaman agentAjan,
208
699966
2504
Ama yapay zeka, bizden
daha iyisini yapabilir.
11:54
and it would be much better
at that than we are.
209
702470
3254
11:57
The pointpuan is, we should not be confidentkendine güvenen
that we have this underaltında controlkontrol here.
210
705724
7187
Kontrolün bizde olduğu hakkında
kendimizden emin olmamalıyız.
12:04
And we could try to make our job
a little bitbit easierDaha kolay by, say,
211
712911
3447
Farz edin ki,
Yapay zekayı güvenli bir
12:08
puttingkoyarak the A.I. in a boxkutu,
212
716358
1590
yazılıma, kaçamayacağı bir sanal
12:09
like a securegüvenli softwareyazılım environmentçevre,
213
717948
1796
gerçekliğe koyarak,
12:11
a virtualsanal realitygerçeklik simulationsimülasyon
from whichhangi it cannotyapamam escapekaçış.
214
719744
3022
işimizi kolaylaştırabiliriz.
12:14
But how confidentkendine güvenen can we be that
the A.I. couldn'tcould find a bugböcek.
215
722766
4146
Ama yapay zekanın bir aralık
bulamayacağından ne kadar eminiz
12:18
GivenVerilen that merelysadece humaninsan hackershacker
find bugsböcek all the time,
216
726912
3169
İnsan hackerları ele alırsak
çoğunluğu aralık bulabiliyor.
12:22
I'd say, probablymuhtemelen not very confidentkendine güvenen.
217
730081
3036
Diyebilirim ki, emin olamayız.
12:26
So we disconnectbağlantıyı kes the ethernetEthernet cablekablo
to createyaratmak an airhava gapboşluk,
218
734237
4548
Bu yüzden bir hava aralığı yaratmak için
internet kablosunu çekeriz
12:30
but again, like merelysadece humaninsan hackershacker
219
738785
2668
ama yine, insan hackerları gibi
12:33
routinelyrutin transgressaşmak airhava gapsboşluklar
usingkullanma socialsosyal engineeringmühendislik.
220
741453
3381
sosyal mühendisliği kullanarak
hava boşluklarını ihlal ederler.
12:36
Right now, as I speakkonuşmak,
221
744834
1259
Şu an,
12:38
I'm sure there is some employeeişçi
out there somewherebir yerde
222
746093
2389
eminim ki, bir yerde bir çalışan
12:40
who has been talkedkonuştuk into handingteslim out
her accounthesap detailsayrıntılar
223
748482
3346
bilgi teknolojileri departmanından
olduğunu iddia eden birileri
12:43
by somebodybirisi claimingiddia to be
from the I.T. departmentbölüm.
224
751828
2746
tarafından hesap
bilgileri alınıyor.
12:46
More creativeyaratıcı scenariossenaryolar are alsoAyrıca possiblemümkün,
225
754574
2127
Daha yaratıcı senaryolarda var tabii ki.
12:48
like if you're the A.I.,
226
756701
1315
Mesela, siz yapay zekasınız
12:50
you can imaginehayal etmek wigglingkıpır kıpır electrodeselektrotlar
around in your internal circuitrydevre sistemi
227
758016
3532
devreleriniz arasında dolaşan elektrotları
konuşmak için
12:53
to createyaratmak radioradyo wavesdalgalar that you
can use to communicateiletişim kurmak.
228
761548
3462
radyo sinyalleri yaratmayı
hayal edebilirsiniz.
12:57
Or maybe you could pretendtaklit to malfunctionarıza,
229
765010
2424
Ya da arızalı rolü yapıp,
12:59
and then when the programmersprogramcılar openaçık
you up to see what wentgitti wrongyanlış with you,
230
767434
3497
programcılar neyin hatalı olduğunu
öğrenmek için içinizi açtığında
13:02
they look at the sourcekaynak codekod -- BamBam! --
231
770931
1936
kaynak koduna bakıyorlar ve
manipule ediliyorlar.
13:04
the manipulationhile can take placeyer.
232
772867
2447
Ya da zeki bir teknolojiye
taslağımızı aktarıyoruz.
13:07
Or it could outputçıktı the blueprintBlueprint
to a really niftyçok şık technologyteknoloji,
233
775314
3430
13:10
and when we implementuygulamak it,
234
778744
1398
Aktardığımız zaman,
13:12
it has some surreptitiouskaçamak sideyan effectEfekt
that the A.I. had plannedplanlı.
235
780142
4397
Yapay zekanın planlandığının aksine
gizli saklı amaçları olabilir.
13:16
The pointpuan here is that we should
not be confidentkendine güvenen in our abilitykabiliyet
236
784539
3463
Önemli nokta şu ki,
süper zekayı kendi şişesinde
13:20
to keep a superintelligentanlaman geniecin
lockedkilitli up in its bottleşişe foreversonsuza dek.
237
788002
3808
sonsuza kadar kitli
tutulabileceğine güvenmemeliyiz.
13:23
SoonerEr or latersonra, it will out.
238
791810
2254
Eninde sonunda çıkacak.
13:27
I believe that the answerCevap here
is to figureşekil out
239
795034
3103
Buradaki cevap,
çözmemiz gereken
13:30
how to createyaratmak superintelligentanlaman A.I.
suchböyle that even if -- when -- it escapeskaçar,
240
798137
5024
öyle bir,
süper zeka yaratmalıyız ki
kaçtığında bile
temelinde bize sadık olmalı
13:35
it is still safekasa because it is
fundamentallyesasen on our sideyan
241
803161
3277
çünkü bizim değerlerimizi taşıyor.
13:38
because it shareshisseleri our valuesdeğerler.
242
806438
1899
13:40
I see no way around
this difficultzor problemsorun.
243
808337
3210
Bu problemi çözmenin
bir yolunu bulamıyorum.
13:44
Now, I'm actuallyaslında fairlyoldukça optimisticiyimser
that this problemsorun can be solvedçözülmüş.
244
812557
3834
Artık, bu problemin çözülebileceğine
daha fazla inanıyorum.
13:48
We wouldn'tolmaz have to writeyazmak down
a long listliste of everything we carebakım about,
245
816391
3903
Önemsediğimiz her şeyi
yazmak zorunda değiliz
13:52
or worsedaha da kötüsü yethenüz, spellbüyü it out
in some computerbilgisayar languagedil
246
820294
3643
ya da daha kötüsü bunları
C++ veya Python gibi
13:55
like C++ or PythonPython,
247
823937
1454
bilgisayar dillerinde açıklamak
13:57
that would be a taskgörev beyondötesinde hopelessUmutsuz.
248
825391
2767
umutsuz bir vaka olur sadece.
14:00
InsteadBunun yerine, we would createyaratmak an A.I.
that useskullanımları its intelligencezeka
249
828158
4297
Bunun yerine, zekasını kullanarak
değer verdiğimiz her şeyi,
14:04
to learnöğrenmek what we valuedeğer,
250
832455
2771
öğrenebilen ve
14:07
and its motivationmotivasyon systemsistem is constructedinşa
in suchböyle a way that it is motivatedmotive
251
835226
5280
gelişmiş motivasyon sistemini kullanarak
bizim değerlerimizle ve
14:12
to pursuesürdürmek our valuesdeğerler or to performyapmak actionseylemler
that it predictstahmin eder we would approveonaylamak of.
252
840506
5232
onaylayacağımız adımları
atmak için motive olmalı.
14:17
We would thusBöylece leverageKaldıraç
its intelligencezeka as much as possiblemümkün
253
845738
3414
Böylece zekasını koz
olarak kullanarak insan değerleri
14:21
to solveçözmek the problemsorun of value-loadingdeğer-yükleme.
254
849152
2745
yükleme işlemini çözebiliriz.
Bu olabilir
14:24
This can happenolmak,
255
852727
1512
ve sonuç insanlık için
çok yararlı olabilir.
14:26
and the outcomesonuç could be
very good for humanityinsanlık.
256
854239
3596
Ama kendi kendine olamaz.
14:29
But it doesn't happenolmak automaticallyotomatik olarak.
257
857835
3957
14:33
The initialilk conditionskoşullar
for the intelligencezeka explosionpatlama
258
861792
2998
Kontrollü bir zeka
patlaması yaratabilirsek
14:36
mightbelki need to be setset up
in just the right way
259
864790
2863
zeka patlaması için
gerekli şartlar
14:39
if we are to have a controlledkontrollü detonationpatlama.
260
867653
3530
düzenli bir şekilde kurulmalıdır.
Yapay zekanın değerleri nasıl davrandığını
kolayca kontrol edebileceğimiz
14:43
The valuesdeğerler that the A.I. has
need to matchmaç oursbizim,
261
871183
2618
14:45
not just in the familiartanıdık contextbağlam,
262
873801
1760
sadece aşina olduğumuz bağlamda değil
14:47
like where we can easilykolayca checkKontrol
how the A.I. behavesdavranır,
263
875561
2438
yapay zekanın belirsiz
gelecekte karşılaşabileceği
14:49
but alsoAyrıca in all novelyeni contextsbağlamları
that the A.I. mightbelki encounterkarşılaşma
264
877999
3234
özgün bağlamda da
bizimkilerle eşleşmek zorundadır.
14:53
in the indefinitebelirsiz futuregelecek.
265
881233
1557
Çözmemiz gereken bir kaç
olağan dışı problem de var.
14:54
And there are alsoAyrıca some esotericezoterik issuessorunlar
that would need to be solvedçözülmüş, sortedsıralanmış out:
266
882790
4737
14:59
the exactkesin detailsayrıntılar of its decisionkarar theoryteori,
267
887527
2089
Mantık belirsizliği ve benzerleri
15:01
how to dealanlaştık mı with logicalmantıksal
uncertaintybelirsizlik and so forthileri.
268
889616
2864
ile ilgili irade teorisinin
tam detayları gibi.
15:05
So the technicalteknik problemssorunlar that need
to be solvedçözülmüş to make this work
269
893330
3102
Bunun işe yaraması için çözmemiz
gereken teknik problem ise
15:08
look quiteoldukça difficultzor --
270
896432
1113
yapay zeka yapmak kadar zor değil
15:09
not as difficultzor as makingyapma
a superintelligentanlaman A.I.,
271
897545
3380
fakat oldukça zor.
15:12
but fairlyoldukça difficultzor.
272
900925
2868
15:15
Here is the worryendişelenmek:
273
903793
1695
Endişemiz şu ki,
15:17
MakingYapma superintelligentanlaman A.I.
is a really hardzor challengemeydan okuma.
274
905488
4684
Yapay zeka yapabilmek
gerçekten zor.
Daha zor olan ise ek görev
15:22
MakingYapma superintelligentanlaman A.I. that is safekasa
275
910172
2548
15:24
involvesgerektirir some additionalek
challengemeydan okuma on topüst of that.
276
912720
2416
yani güvenli bir
yapay zeka yapmaktır.
15:28
The riskrisk is that if somebodybirisi figuresrakamlar out
how to crackçatlak the first challengemeydan okuma
277
916216
3487
Risk ise, birisinin
ek görevi, yani tam güvenliği sağlamayı
15:31
withoutolmadan alsoAyrıca havingsahip olan crackedçatlamış
the additionalek challengemeydan okuma
278
919703
3001
15:34
of ensuringsağlanması perfectmükemmel safetyemniyet.
279
922704
1901
bulmadan yapay zekanın keşfedilmesidir.
15:37
So I think that we should
work out a solutionçözüm
280
925375
3331
Fikrim şu ki, gerektiğinde
15:40
to the controlkontrol problemsorun in advanceilerlemek,
281
928706
2822
elimizde olması için
15:43
so that we have it availablemevcut
by the time it is neededgerekli.
282
931528
2660
tam kontrol problemin
cevabını aramalıyız.
15:46
Now it mightbelki be that we cannotyapamam solveçözmek
the entiretüm controlkontrol problemsorun in advanceilerlemek
283
934768
3507
Tam kontrol sorunun da belki
çok ilerleyemeceğiz
15:50
because maybe some elementselementler
can only be put in placeyer
284
938275
3024
çünkü bazı noktalar
sadece gerekli.
15:53
oncebir Zamanlar you know the detailsayrıntılar of the
architecturemimari where it will be implementeduygulanan.
285
941299
3997
Yapının detayları
ortada olduğunda çözülebilir.
15:57
But the more of the controlkontrol problemsorun
that we solveçözmek in advanceilerlemek,
286
945296
3380
Ama tam kontrol
sorununda ne kadar ilerlersek
16:00
the better the oddsolasılık that the transitiongeçiş
to the machinemakine intelligencezeka eraçağ
287
948676
4090
makina zekası
çağına geçişimiz de
16:04
will go well.
288
952766
1540
o kadar güvenli olacak.
16:06
This to me looksgörünüyor like a thing
that is well worthdeğer doing
289
954306
4644
Bu bana yapılmaya değer
bir şey olarak geliyor
16:10
and I can imaginehayal etmek that if
things turndönüş out okay,
290
958950
3332
ve olaylar istediğimiz
gibi giderse
16:14
that people a millionmilyon yearsyıl from now
look back at this centuryyüzyıl
291
962282
4658
milyonlarca yıl sonra insanlar
yüzyılımıza baktığında
16:18
and it mightbelki well be that they say that
the one thing we did that really matteredönemi yoktu
292
966940
4002
büyük ihtimalle,
önemli olan tek şeyi
16:22
was to get this thing right.
293
970942
1567
yaptığımızı söyleyecekler.
16:24
Thank you.
294
972509
1689
Teşekkür ederim.
16:26
(ApplauseAlkış)
295
974198
2813
(Alkışlar)
Translated by Ahmet Kamil Dokumaci
Reviewed by Ramazan Şen

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee