ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky: Sağlık ve insan aklı

Filmed:
606,909 views

Dikkatlice dinleyin - Marvin Minsky'nin sağlık, nüfus fazlalığı ve insan aklı üzerine yaptığı kurnaz, seçici, cezbedici şekilde doğaçlama konuşması ustalıkla derlenmiş: nükte, hikmet ve birazcık da cingözlük, yoksa şaka mı yapıyor? Hayır nasihat.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you asksormak people about what partBölüm of psychologyPsikoloji do they think is hardzor,
0
0
6000
İnsanlara psikolojinin hangi
parçasının zor olduğunu sorsanız
00:24
and you say, "Well, what about thinkingdüşünme and emotionsduygular?"
1
6000
3000
ve "Düşünmek mi, duygular mı?" deseniz.
00:27
MostÇoğu people will say, "EmotionsDuygular are terriblyson derece hardzor.
2
9000
3000
Birçok insan der ki: "Duygular çok zor.
00:30
They're incrediblyinanılmaz complexkarmaşık. They can't -- I have no ideaFikir of how they work.
3
12000
6000
Çok fazla karmaşıklar. Nasıl
çalıştıklarına dair hiçbir fikrim yok."
00:36
But thinkingdüşünme is really very straightforwardbasit:
4
18000
2000
Fakat düşünmek gerçekten çok basittir:
00:38
it's just sortçeşit of some kindtür of logicalmantıksal reasoningmuhakeme, or something.
5
20000
4000
Sadece mantıklı düşünme
veya ona benzer bir şey.
00:42
But that's not the hardzor partBölüm."
6
24000
3000
Fakat bu zor olan kısmı değil.
İşte karşımıza çıkan
problemlerin bir listesi.
00:45
So here'sburada a listliste of problemssorunlar that come up.
7
27000
2000
00:47
One niceGüzel problemsorun is, what do we do about healthsağlık?
8
29000
3000
"Sağlık hakkında ne yapıyoruz?"
güzel bir soru.
00:50
The other day, I was readingokuma something, and the personkişi said
9
32000
4000
Geçen gün bir şey okuyordum ve diyordu ki,
00:54
probablymuhtemelen the largesten büyük singletek causesebeb olmak of diseasehastalık is handshakingel sıkışma in the WestBatı.
10
36000
6000
Batıda hastalığın muhtemelen
en büyük nedeni tokalaşmaktır.
01:00
And there was a little studyders çalışma about people who don't handshakeel sıkışma,
11
42000
4000
Tokalaşmayan insanlar hakkında ve onları
01:04
and comparingkarşılaştıran them with onesolanlar who do handshakeel sıkışma.
12
46000
3000
tokalaşanlarla karşılaştıran
çok az araştırma vardı.
01:07
And I haven'tyok the foggiesthiçbir fikrim ideaFikir of where you find the onesolanlar that don't handshakeel sıkışma,
13
49000
5000
Tokalaşmayanları nerede bulacağım
konusunda en küçük bir fikrim yok
01:12
because they mustşart be hidinggizleme.
14
54000
3000
çünkü saklanıyor olmalılar.
01:15
And the people who avoidönlemek that
15
57000
4000
Bundan kaçınan insanlar
01:19
have 30 percentyüzde lessaz infectiousbulaşıcı diseasehastalık or something.
16
61000
4000
yüzde 30 daha az bulaşıcı hastalık
veya benzer bir şeye yakalanıyorlar.
01:23
Or maybe it was 31 and a quarterçeyrek percentyüzde.
17
65000
3000
Belki de yüzde 31 çeyrektir bu oran.
01:26
So if you really want to solveçözmek the problemsorun of epidemicssalgın hastalıklar and so forthileri,
18
68000
4000
Yani eğer epidemi vb problemleri gerçekten
çözmek istiyorsanız, bununla başlayalım.
01:30
let's startbaşlama with that. And sincedan beri I got that ideaFikir,
19
72000
4000
Bu fikri edindiğimden bu yana,
01:34
I've had to shakesallamak hundredsyüzlerce of handseller.
20
76000
4000
yüzlerce el sıkmak zorunda kaldım.
01:38
And I think the only way to avoidönlemek it
21
80000
5000
Sanırım bundan kaçınmanın tek yolu,
01:43
is to have some horriblekorkunç visiblegözle görülür diseasehastalık,
22
85000
2000
korkunç görünen bir hastalığa sahip olmak
01:45
and then you don't have to explainaçıklamak.
23
87000
3000
ve böylece açıklama yapmak
zorunda kalmazsınız.
01:48
EducationEğitim: how do we improveiyileştirmek educationEğitim?
24
90000
4000
Eğitim: Eğitimi nasıl geliştiririz?
01:52
Well, the singletek besten iyi way is to get them to understandanlama
25
94000
4000
Tek iyi yol onlara anlatılanların
bir sürü saçmalık olduğunu
anlamalarını sağlamaktır.
01:56
that what they're beingolmak told is a wholebütün lot of nonsensesaçmalık.
26
98000
3000
01:59
And then, of coursekurs, you have to do something
27
101000
2000
Sonra, elbette, bunu yumuşatmak için
02:01
about how to moderateılımlı that, so that anybodykimse can -- so they'llacaklar listen to you.
28
103000
5000
bir şey yapmalısınız ki sizi dinlesinler.
02:06
PollutionKirliliği, energyenerji shortagesıkıntısı, environmentalçevre diversityçeşitlilik, povertyyoksulluk.
29
108000
4000
Kirlilik, enerji kısıntısı,
çevresel farklılık, fakirlik.
02:10
How do we make stablekararlı societiestoplumlar? LongevityUzun ömürlü.
30
112000
4000
Dengeli topluluklar nasıl
oluştururuz? Uzun ömürlülük.
02:14
Okay, there'reordasın lots of problemssorunlar to worryendişelenmek about.
31
116000
3000
Peki, endişe edilecek çok problem var.
02:17
AnywayYine de, the questionsoru I think people should talk about --
32
119000
2000
Neyse, sanırım insanların
konuşmaları gereken soru
02:19
and it's absolutelykesinlikle tabootabu -- is, how manyçok people should there be?
33
121000
5000
-- bu kesinlikle yasaktır --
ne kadar insanın olması gerektiğidir?
02:24
And I think it should be about 100 millionmilyon or maybe 500 millionmilyon.
34
126000
7000
Sanırım 100 milyon veya
500 milyon civarında olmalı.
02:31
And then noticeihbar that a great manyçok of these problemssorunlar disappearkaybolmak.
35
133000
5000
Sonra bu problemlerin büyük
kısmının kaybolacağına dikkat edin.
02:36
If you had 100 millionmilyon people
36
138000
2000
Eğer düzgünce yayılmış
100 milyon insan olsaydı,
02:38
properlyuygun şekilde spreadYAYILMIŞ out, then if there's some garbageçöp,
37
140000
6000
sonra etrafa biraz çöp atmış olsaydınız,
02:44
you throwatmak it away, preferablytercihen where you can't see it, and it will rotrot.
38
146000
7000
tercihen görmediğiniz
bir yere, bu çürüyecektir.
02:51
Or you throwatmak it into the oceanokyanus and some fishbalık will benefityarar from it.
39
153000
5000
Veya okyanusa atarsınız
ve balıklar faydalanır.
02:56
The problemsorun is, how manyçok people should there be?
40
158000
2000
Problem, kaç insanın
bulunması gerektiğidir?
02:58
And it's a sortçeşit of choiceseçim we have to make.
41
160000
3000
Yapmamız gereken bir çeşit tercihdir.
03:01
MostÇoğu people are about 60 inchesinç highyüksek or more,
42
163000
3000
Çoğu kimse yaklaşık
1,5 metre veya fazladır
03:04
and there's these cubeküp lawsyasalar. So if you make them this bigbüyük,
43
166000
4000
ve bir de şu küp yasaları var.
Yani onları, nanoteknoloji kullanarak
bu kadar küçük yaparsanız, sanırım --
03:08
by usingkullanma nanotechnologynanoteknoloji, I supposevarsaymak --
44
170000
3000
03:11
(LaughterKahkaha)
45
173000
1000
(Gülüşmeler)
bu durumda bin katı kadar
fazlasına sahip olurdunuz.
03:12
-- then you could have a thousandbin timeszamanlar as manyçok.
46
174000
2000
03:14
That would solveçözmek the problemsorun, but I don't see anybodykimse
47
176000
2000
Bu, problemi çözerdi
ama insanları daha küçültecek
03:16
doing any researchAraştırma on makingyapma people smallerdaha küçük.
48
178000
3000
çalışmalar yapan kimseyi görmüyorum.
03:19
Now, it's niceGüzel to reduceazaltmak the populationnüfus, but a lot of people want to have childrençocuklar.
49
181000
5000
Şimdi, nüfusu azaltmak hoştur
ama çoğu kimse çocuk istiyor.
Muhtemelen birkaç yıl
uzakta tek çözüm var.
03:24
And there's one solutionçözüm that's probablymuhtemelen only a fewaz yearsyıl off.
50
186000
3000
03:27
You know you have 46 chromosomeskromozomlar. If you're luckyşanslı, you've got 23
51
189000
5000
46 kromozomun olduğunu biliyorsunuz.
Eğer şanslıysan her bir
ebeveynden 23 adet gelir.
03:32
from eachher parentebeveyn. SometimesBazen you get an extraekstra one or dropdüşürmek one out,
52
194000
6000
Bazen bir fazla veya bir eksik olur,
03:38
but -- so you can skipatlamak the grandparentbüyükbaba veya büyükanne and great-grandparentbüyük-büyükbaba veya büyükanne stageevre
53
200000
4000
böylece büyük ebeveyn ve büyük
büyük ebeveyn aşamasını atlarsın
03:42
and go right to the great-great-grandparentbüyük-büyük-büyükbaba veya büyükanne. And you have 46 people
54
204000
5000
ve doğrudan büyük-büyük-büyük
ebeveyne gidersin.
46 insan olur
03:47
and you give them a scannertarayıcı, or whateverher neyse you need,
55
209000
3000
ve onlara bir tarayıcı verirsin
veya her ne gerekirse
03:50
and they look at theironların chromosomeskromozomlar and eachher of them saysdiyor
56
212000
4000
ve onlar kromozomlarına bakıp her biri,
03:54
whichhangi one he likesseviyor besten iyi, or she -- no reasonneden to have just two sexescinsiyet
57
216000
5000
hangisini en çok sevdiğini söyler --
sadece iki cinsiyet olması
için artık sebep yok zaten.
03:59
any more, even. So eachher childçocuk has 46 parentsebeveyn,
58
221000
5000
Böylece her çocuğun 46 ebeveyni olur
04:04
and I supposevarsaymak you could let eachher groupgrup of 46 parentsebeveyn have 15 childrençocuklar.
59
226000
6000
ve her 46 ebeveynlik grubun 15 çocuğunun
olmasına izin verebildiğini varsayayım.
04:10
Wouldn'tOlmaz that be enoughyeterli? And then the childrençocuklar
60
232000
2000
Bu yeterli olmaz mıydı?
Sonra çocuklar hayli destek,
terbiye ve eğitim alacaklardı.
04:12
would get plentybol of supportdestek, and nurturingbesleyici, and mentoringdanışmanlık,
61
234000
4000
04:16
and the worldDünya populationnüfus would declinedüşüş very rapidlyhızla
62
238000
2000
Dünya nüfusu çok çabuk düşecekti
04:18
and everybodyherkes would be totallybütünüyle happymutlu.
63
240000
3000
ve herkes çok mutlu olacaktı.
04:21
TimesharingPro'yu is a little furtherayrıca off in the futuregelecek.
64
243000
3000
Zaman paylaşımı biraz
daha ötede, gelecekte.
04:24
And there's this great novelyeni that ArthurArthur ClarkeClarke wroteyazdı twiceiki defa,
65
246000
3000
Bir de Arthur Clarke'ın iki kez yazdığı,
"Against the Fall of Night"
04:27
calleddenilen "AgainstKarşı the FallSonbahar of Night" and "The CityŞehir and the StarsYıldız."
66
249000
4000
ve "Şehir ve Yıldızlar" adlı
şu harika roman var.
04:31
They're bothher ikisi de wonderfulolağanüstü and largelybüyük oranda the sameaynı,
67
253000
3000
Her ikisi de muhteşem
ve arada ortaya çıkan
04:34
exceptdışında that computersbilgisayarlar happenedolmuş in betweenarasında.
68
256000
2000
bilgisayarlar hariç, neredeyse aynı.
04:36
And ArthurArthur was looking at this oldeski bookkitap, and he said, "Well, that was wrongyanlış.
69
258000
5000
Arthur bu eski kitaba bakıyordu
ve "Şey, bu yanlış olmuş.
04:41
The futuregelecek mustşart have some computersbilgisayarlar."
70
263000
2000
Gelecekte bilgisayarlar
bulunmalıydı." dedi.
04:43
So in the secondikinci versionversiyon of it, there are 100 billionmilyar
71
265000
5000
Böylece ikinci sürümünde
Dünya'da 100 milyon
04:48
or 1,000 billionmilyar people on EarthDünya, but they're all storeddepolanan on hardzor disksdiskler or floppiesdisketler,
72
270000
8000
veya 1 milyar insan bulunuyor
ama hepsi sabit disklerde,
disketlerde veya gelecekteki
04:56
or whateverher neyse they have in the futuregelecek.
73
278000
2000
benzer bir şeyde depolanmışlardır.
04:58
And you let a fewaz millionmilyon of them out at a time.
74
280000
4000
Bunların birkaç milyonu
bir anda dışardadır.
05:02
A personkişi comesgeliyor out, they livecanlı for a thousandbin yearsyıl
75
284000
4000
Bir insan çıkar, bir şeylerle
uğraşarak bin yıl kadar yaşar
05:06
doing whateverher neyse they do, and then, when it's time to go back
76
288000
6000
ve sonra, bir milyar
veya bir milyon yıl için
05:12
for a billionmilyar yearsyıl -- or a millionmilyon, I forgetunutmak, the numberssayılar don't mattermadde --
77
294000
4000
geri gitme zamanı geldiğinde,
unutuyorum, sayılar önemli değil
05:16
but there really aren'tdeğil very manyçok people on EarthDünya at a time.
78
298000
4000
ama Dünya üstünde aynı anda
gerçekten çok insan yok.
05:20
And you get to think about yourselfkendin and your memorieshatıralar,
79
302000
2000
Kendin ve anıların hakkında düşünürsün
05:22
and before you go back into suspensionsüspansiyon, you editDüzenle your memorieshatıralar
80
304000
5000
ve askıya geri dönmeden
önce anılarını düzeltirsin
05:27
and you changedeğişiklik your personalitykişilik and so forthileri.
81
309000
3000
ve kişiliğini değiştirirsin falan.
05:30
The plotarsa of the bookkitap is that there's not enoughyeterli diversityçeşitlilik,
82
312000
6000
Kitabın anafikri yeterince
çeşitlilik olmadığıdır,
05:36
so that the people who designedtasarlanmış the cityŞehir
83
318000
3000
bu yüzden şehri tasarlayan insanlar
05:39
make sure that everyher now and then an entirelyBaştan sona newyeni personkişi is createdoluşturulan.
84
321000
4000
ara sıra tamamen yeni bir insan
yaratıldığını garantiye almaktadırlar.
05:43
And in the novelyeni, a particularbelirli one namedadlı AlvinAlvin is createdoluşturulan. And he saysdiyor,
85
325000
6000
Romanda, Alvin isimli
belirli biri yaratılır.
05:49
maybe this isn't the besten iyi way, and wrecksvirane the wholebütün systemsistem.
86
331000
4000
Der ki, belki en iyi yol bu olmayabilir
ve tüm sistemi mahveder.
05:53
I don't think the solutionsçözeltiler that I proposedönerilen
87
335000
2000
Önerdiğim çözümlerin yeterince iyi
05:55
are good enoughyeterli or smartakıllı enoughyeterli.
88
337000
3000
veya yeterince zekice
olduğunu düşünmüyorum.
05:58
I think the bigbüyük problemsorun is that we're not smartakıllı enoughyeterli
89
340000
4000
Sanırım asıl büyük problem,
karşılaştığımız problemlerin
06:02
to understandanlama whichhangi of the problemssorunlar we're facingkarşı are good enoughyeterli.
90
344000
4000
hangisinin yeterince iyi olduğunu
anlayacak kadar zeki olmayışımız.
06:06
ThereforeBu nedenle, we have to buildinşa etmek superSüper intelligentakıllı machinesmakineler like HALHAL.
91
348000
4000
Bu nedenle HAL gibi süper
zeki makineler yapmalıyız.
06:10
As you rememberhatırlamak, at some pointpuan in the bookkitap for "2001,"
92
352000
5000
Hatırlarsın, "2001" kitabının bir yerinde
06:15
HALHAL realizesanlar that the universeEvren is too bigbüyük, and grandbüyük, and profoundderin
93
357000
5000
HAL, şu gerçekten aptal astronotlar için
evrenin çok büyük, muhteşem
06:20
for those really stupidaptal astronautsastronotlar. If you contrastkontrast HAL'sHAL'ın behaviordavranış
94
362000
4000
ve derin olduğunu farkeder.
Eğer HAL'in davranışını,
06:24
with the trivialitybasmakalıp of the people on the spaceshipuzay gemisi,
95
366000
4000
uzay gemisindeki insanların
basitlikleriyle karşılaştırırsan
06:28
you can see what's writtenyazılı betweenarasında the lineshatlar.
96
370000
3000
satır aralarında
ne yazdığını görebilirsin.
06:31
Well, what are we going to do about that? We could get smarterdaha akıllı.
97
373000
3000
Peki bu konuda ne yapacağız?
Daha zeki olabilirdik.
06:34
I think that we're prettygüzel smartakıllı, as comparedkarşılaştırıldığında to chimpanzeesşempanzelerin,
98
376000
5000
Şempanzelere göre oldukça zekiyiz sanırım,
06:39
but we're not smartakıllı enoughyeterli to dealanlaştık mı with the colossaldevasa problemssorunlar that we faceyüz,
99
381000
6000
ama karşılaştığımız dev problemlerle
uğraşacak kadar zeki sayılmayız,
06:45
eitherya in abstractsoyut mathematicsmatematik
100
387000
2000
ne soyut matematikte,
06:47
or in figuringendam out economiesekonomiler, or balancingDengeleme the worldDünya around.
101
389000
5000
ne ekonomileri anlamada,
ne de dünyamızı dengelemede.
06:52
So one thing we can do is livecanlı longeruzun.
102
394000
3000
Öyleyse yapabileceğimiz
tek şey uzun yaşamak
06:55
And nobodykimse knowsbilir how hardzor that is,
103
397000
2000
ve kimse ne kadar zor olduğunu bilmez
06:57
but we'lliyi probablymuhtemelen find out in a fewaz yearsyıl.
104
399000
3000
ama muhtemelen birkaç yıla bulacağız.
07:00
You see, there's two forksçatal in the roadyol. We know that people livecanlı
105
402000
3000
Bakın, yol ikiye ayrılıyor.
İnsanların neredeyse şempanzelerin
iki katı uzun yaşadığını biliyoruz
07:03
twiceiki defa as long as chimpanzeesşempanzelerin almostneredeyse,
106
405000
4000
07:07
and nobodykimse liveshayatları more than 120 yearsyıl,
107
409000
4000
ve kimse 120 yıldan fazla yaşamaz,
07:11
for reasonsnedenleri that aren'tdeğil very well understoodanladım.
108
413000
3000
çok iyi anlaşılmayan sebeplerden ötürü.
07:14
But lots of people now livecanlı to 90 or 100,
109
416000
3000
Ama çoğu kimse şu an
90 veya 100 yıl yaşıyor,
07:17
unlessolmadıkça they shakesallamak handseller too much or something like that.
110
419000
4000
tabii fazla tokalaşma vb yapmadıkça.
07:21
And so maybe if we livedyaşamış 200 yearsyıl, we could accumulatebiriktirmek enoughyeterli skillsbecerileri
111
423000
5000
Yani belki 200 yıl yaşarsak
bazı problemleri çözmek için
07:26
and knowledgebilgi to solveçözmek some problemssorunlar.
112
428000
5000
yeterince beceri ve bilgi edinebiliriz.
07:31
So that's one way of going about it.
113
433000
2000
İşte problemi halletme yollarından biri.
07:33
And as I said, we don't know how hardzor that is. It mightbelki be --
114
435000
3000
Dediğim gibi, ne kadar
zor olduğunu bilmiyoruz.
07:36
after all, mostçoğu other mammalsmemeliler livecanlı halfyarım as long as the chimpanzeeşempanze,
115
438000
6000
Kısaca diğer tüm memeliler
şempanzenin yarısı kadar fazla yaşarlar,
07:42
so we're sortçeşit of threeüç and a halfyarım or fourdört timeszamanlar, have fourdört timeszamanlar
116
444000
3000
böylece biz, çoğu memelinin ömrünün
üç buçuk veya dört katı yaşarız.
07:45
the longevityuzun ömürlü of mostçoğu mammalsmemeliler. And in the casedurum of the primatesprimatlar,
117
447000
6000
Primatlar düşünüldüğünde,
neredeyse aynı genlere sahibiz.
07:51
we have almostneredeyse the sameaynı genesgenler. We only differfarklılık from chimpanzeesşempanzelerin,
118
453000
4000
Sadece şempanzelerden farklıyız,
07:55
in the presentmevcut statebelirtmek, bildirmek of knowledgebilgi, whichhangi is absolutekesin hogwashsaçmalık,
119
457000
6000
tamamen değersiz şimdiki bilgi düzeyinde,
08:01
maybe by just a fewaz hundredyüz genesgenler.
120
463000
2000
yalnızca birkaç yüz genle belki.
08:03
What I think is that the genegen counterssayaçları don't know what they're doing yethenüz.
121
465000
3000
Sanırım gen sayıcıları hala
ne yaptıklarını bilmiyorlar.
08:06
And whateverher neyse you do, don't readokumak anything about geneticsgenetik
122
468000
3000
Ne yaparsanız yapın, sakın
hayat sürecinizde yayınlanan
08:09
that's publishedyayınlanan withiniçinde your lifetimeömür, or something.
123
471000
3000
genetik hakkındaki şeyleri okumayın.
08:12
(LaughterKahkaha)
124
474000
3000
(Gülüşmeler)
08:15
The stuffşey has a very shortkısa half-lifeHalf-Life, sameaynı with brainbeyin scienceBilim.
125
477000
4000
Maddenin çok kısa bir yarılanma
süresi var, beyin boyutuyla aynı.
Sadece dört veya beş geni düzeltirsek,
08:19
And so it mightbelki be that if we just fixdüzeltmek fourdört or fivebeş genesgenler,
126
481000
6000
08:25
we can livecanlı 200 yearsyıl.
127
487000
2000
200 yıl yaşayabilmemiz mümkün.
08:27
Or it mightbelki be that it's just 30 or 40,
128
489000
3000
Veya tahmini 30 ila 40 olsa,
08:30
and I doubtşüphe that it's severalbirkaç hundredyüz.
129
492000
2000
belki birkaç yüz olabilir.
08:32
So this is something that people will be discussingtartışılması
130
494000
4000
Yani insanların tartışacağı bir mesele bu
ve çoğu etikçinin, bilirsiniz,
bir etikçi aklınızda olan
08:36
and lots of ethicistsethicists -- you know, an ethicistahlâkbilimci is somebodybirisi
131
498000
3000
08:39
who seesgörür something wrongyanlış with whateverher neyse you have in mindus.
132
501000
3000
her şeyde yanlış bir şeyler gören kişidir.
08:42
(LaughterKahkaha)
133
504000
3000
(Gülüşmeler)
08:45
And it's very hardzor to find an ethicistahlâkbilimci who considersdikkate alır any changedeğişiklik
134
507000
4000
Yapmaya değer bir değişiklik olduğuna
inanan bir etikçi bulmak çok zordur
08:49
worthdeğer makingyapma, because he saysdiyor, what about the consequencessonuçları?
135
511000
4000
çünkü ya sonuçlar diye sorar.
08:53
And, of coursekurs, we're not responsiblesorumluluk sahibi for the consequencessonuçları
136
515000
3000
Tabii ki, şu an yaptıklarımızın
sonuçlarından sorumlu değiliz,
08:56
of what we're doing now, are we? Like all this complaintşikayet about clonesklonlar.
137
518000
6000
öyle değil mi?
Tüm bu klonlar hakkındaki şikayet gibi.
09:02
And yethenüz two randomrasgele people will matedostum and have this childçocuk,
138
524000
3000
Yine de iki rastgele insan
evlenecek ve çocukları olacak,
09:05
and bothher ikisi de of them have some prettygüzel rottençürük genesgenler,
139
527000
4000
her ikisinin de hayli
bozuk bazı genleri olur
09:09
and the childçocuk is likelymuhtemelen to come out to be averageortalama.
140
531000
4000
ve çocuk muhtemelen normal doğacak.
09:13
WhichHangi, by chimpanzeeşempanze standardsstandartlar, is very good indeedaslında.
141
535000
6000
Şempanze standartlarında cidden çok iyi.
Eğer hayatımız uzun olursa, nüfus artış
problemiyle yüzleşmek zorunda kalacağız.
09:19
If we do have longevityuzun ömürlü, then we'lliyi have to faceyüz the populationnüfus growthbüyüme
142
541000
3000
09:22
problemsorun anywayneyse. Because if people livecanlı 200 or 1,000 yearsyıl,
143
544000
4000
Çünkü 200 veya 1000 yıl yaşarsak,
09:26
then we can't let them have a childçocuk more than about oncebir Zamanlar everyher 200 or 1,000 yearsyıl.
144
548000
6000
her 200 veya 1000 yılda bir defadan fazla
çocuk sahibi olmalarına izin veremeyiz.
09:32
And so there won'talışkanlık be any workforceişgücü.
145
554000
3000
Bu durumda işgücü olmayacak.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedişaretlendi out, and othersdiğerleri have,
146
557000
4000
Laurie Garrett'ın
belirttiği şeylerden biri,
09:39
is that a societytoplum that doesn't have people
147
561000
5000
çalışma yaşında nüfusu olmayan
toplumların başı dertte.
09:44
of workingçalışma ageyaş is in realgerçek troublesorun. And things are going to get worsedaha da kötüsü,
148
566000
3000
Daha da kötüleşecek
09:47
because there's nobodykimse to educateEğitmek the childrençocuklar or to feedbesleme the oldeski.
149
569000
6000
çünkü çocukları eğitecek veya
yaşlıları besleyecek kimse yok.
09:53
And when I'm talkingkonuşma about a long lifetimeömür, of coursekurs,
150
575000
2000
Uzun yaşam süresi hakkında
konuştuğumda, tabii ki,
09:55
I don't want somebodybirisi who'skim 200 yearsyıl oldeski to be like our imagegörüntü
151
577000
6000
200 yaşında olan birinin, 200
yaşındaki -ki aslında ölü olan-
10:01
of what a 200-year-old-yaşında is -- whichhangi is deadölü, actuallyaslında.
152
583000
4000
bizim görüntümüze benzemesini istemem.
10:05
You know, there's about 400 differentfarklı partsparçalar of the brainbeyin
153
587000
2000
Bilirsiniz, beynin farklı
işlevlere sahip gibi görünen
10:07
whichhangi seemgörünmek to have differentfarklı functionsfonksiyonlar.
154
589000
2000
yaklaşık 400 farklı bölümü vardır.
10:09
NobodyKimse knowsbilir how mostçoğu of them work in detaildetay,
155
591000
3000
Çoğunun detaylı olarak nasıl
çalıştıklarını kimse bilmez
10:12
but we do know that there'reordasın lots of differentfarklı things in there.
156
594000
4000
ama içeride çok sayıda
farklı şey olduğunu biliyoruz.
10:16
And they don't always work togetherbirlikte. I like Freud'sFreud'un theoryteori
157
598000
2000
Her zaman birlikte çalışmazlar.
10:18
that mostçoğu of them are cancellingiptal etme eachher other out.
158
600000
4000
Çoğunun diğerini sıfırladığı şeklindeki
Freud'un teorisini severim.
10:22
And so if you think of yourselfkendin as a sortçeşit of cityŞehir
159
604000
4000
Eğer kendinizi yüzlerce kaynağı olan
10:26
with a hundredyüz resourceskaynaklar, then, when you're afraidkorkmuş, for exampleörnek,
160
608000
6000
bir tür şehir gibi düşünüyorsanız
o halde, mesela korktuğunuzda,
10:32
you mayMayıs ayı discardıskarta your long-rangeuzun mesafe goalshedefleri, but you mayMayıs ayı think deeplyderinden
161
614000
4000
uzun vadeli hedeflerinizi iptal
edebilirsiniz, ama daha derin düşünebilir
10:36
and focusodak on exactlykesinlikle how to achievebaşarmak that particularbelirli goalhedef.
162
618000
4000
ve tamamen o belirli hedefi nasıl
başaracağınıza odaklanabilirsiniz.
10:40
You throwatmak everything elsebaşka away. You becomeolmak a monomaniacmonomaniac --
163
622000
3000
Diğer herşeyi atarsınız.
Saplantılı biri olursunuz --
10:43
all you carebakım about is not steppingAdım out on that platformplatform.
164
625000
4000
tüm umursadığınız bu
platformdan dışarı çıkmamaktır.
10:47
And when you're hungry, foodGıda becomesolur more attractiveçekici, and so forthileri.
165
629000
4000
Aç olduğunuzda, yemek
daha çekici olur falan.
10:51
So I see emotionsduygular as highlybüyük ölçüde evolvedgelişti subsetsalt kümeleri of your capabilitykabiliyet.
166
633000
6000
Böylece becerilerinizin çokca gelişmiş
alt kümeleri olarak duyguları görüyorum.
10:57
EmotionDuygu is not something addedkatma to thought. An emotionalduygusal statebelirtmek, bildirmek
167
639000
4000
Duygu sadece düşünceye
eklenmiş bir şey değildir.
Duygusal bir durum, genelde
müsait kaynaklarınızın 100
11:01
is what you get when you removeKaldır 100 or 200
168
643000
4000
11:05
of your normallynormalde availablemevcut resourceskaynaklar.
169
647000
3000
veya 200 tanesini çıkardığınızda
elde ettiğinizdir.
11:08
So thinkingdüşünme of emotionsduygular as the oppositekarşısında of -- as something
170
650000
3000
Yani duyguları, düşünmekten
az bir şeyin zıttı gibi düşünmek
11:11
lessaz than thinkingdüşünme is immenselyson derece productiveüretken. And I hopeumut,
171
653000
4000
son derece verimlidir.
11:15
in the nextSonraki fewaz yearsyıl, to showgöstermek that this will leadöncülük etmek to smartakıllı machinesmakineler.
172
657000
4000
Umarım gelecek birkaç yılda, bunun
göstergesi olan akıllı makineler çıkacak.
11:19
And I guesstahmin I better skipatlamak all the restdinlenme of this, whichhangi are some detailsayrıntılar
173
661000
3000
Sanırım gerisi çok önemli
değil, bu akıllı makineleri
11:22
on how we mightbelki make those smartakıllı machinesmakineler and --
174
664000
5000
nasıl yapacağımız hakkındaki detaylar.
11:27
(LaughterKahkaha)
175
669000
5000
(Gülüşmeler)
11:32
-- and the mainana ideaFikir is in factgerçek that the coreçekirdek of a really smartakıllı machinemakine
176
674000
5000
Aslında ana fikir,
gerçekten akıllı bir makine,
11:37
is one that recognizestanır that a certainbelli kindtür of problemsorun is facingkarşı you.
177
679000
5000
bir problemle karşı karşıya
kaldığınızı farkeder.
11:42
This is a problemsorun of suchböyle and suchböyle a typetip,
178
684000
3000
Problem buna benzer bir şeydir
11:45
and thereforebu nedenle there's a certainbelli way or waysyolları of thinkingdüşünme
179
687000
5000
ve bu nedenle böyle
bir problem için iyi olacak
belli bir düşünme
yolu veya yolları vardır.
11:50
that are good for that problemsorun.
180
692000
2000
11:52
So I think the futuregelecek, mainana problemsorun of psychologyPsikoloji is to classifysınıflandırmak
181
694000
4000
Sanırım gelecek, piskolojinin ana problemi
11:56
typestürleri of predicamentspredicaments, typestürleri of situationsdurumlar, typestürleri of obstaclesengeller
182
698000
4000
çıkmazları, durumları,
engelleri sınıflandırmak
12:00
and alsoAyrıca to classifysınıflandırmak availablemevcut and possiblemümkün waysyolları to think and pairçift them up.
183
702000
6000
ve bunları düşünüp eşleştirecek uygun
ve olası düşünce yollarını
da sınıflandırmaktır.
12:06
So you see, it's almostneredeyse like a PavlovianPavlov --
184
708000
3000
Görüyorsunuz ya, nerdeyse Pavlovcu gibi --
12:09
we lostkayıp the first hundredyüz yearsyıl of psychologyPsikoloji
185
711000
2000
gerçekten basit teorilerle
12:11
by really trivialönemsiz theoriesteoriler, where you say,
186
713000
3000
piskolojinin ilk yüz yılını kaybettik;
12:14
how do people learnöğrenmek how to reacttepki to a situationdurum? What I'm sayingsöz is,
187
716000
6000
insanlar nasıl öğrenir, bir
duruma nasıl reaksiyon verir?
Söylediğim şey, binlerce portu
bulunan büyük, devasa sistem
12:20
after we go throughvasitasiyla a lot of levelsseviyeleri, includingdahil olmak üzere designingtasarım
188
722000
5000
tasarlamayı da içeren birçok
seviyeyi atladıktan sonra
12:25
a hugeKocaman, messydağınık systemsistem with thousandsbinlerce of portsbağlantı noktaları,
189
727000
3000
12:28
we'lliyi endson up again with the centralmerkezi problemsorun of psychologyPsikoloji.
190
730000
4000
tekrar piskolojinin asıl
problemi ile yüzleşeceğiz.
12:32
SayingDemek, not what are the situationsdurumlar,
191
734000
3000
Durumlar nedir değil, benim belirttiğim
12:35
but what are the kindsçeşit of problemssorunlar
192
737000
2000
problem türleri nelerdir
12:37
and what are the kindsçeşit of strategiesstratejiler, how do you learnöğrenmek them,
193
739000
3000
ve strateji türleri nelerdir,
bunları nasıl öğrenirsiniz,
12:40
how do you connectbağlamak them up, how does a really creativeyaratıcı personkişi
194
742000
3000
bunları nasıl birleştirirsiniz,
gerçekten yaratıcı biri
12:43
inventicat etmek a newyeni way of thinkingdüşünme out of the availablemevcut resourceskaynaklar and so forthileri.
195
745000
5000
uygun kaynaklar arasından yeni bir
düşünme yolu nasıl bulur falan.
12:48
So, I think in the nextSonraki 20 yearsyıl,
196
750000
2000
Sanırım gelecek 20 senede
12:50
if we can get ridkurtulmuş of all of the traditionalgeleneksel approachesyaklaşımlar to artificialyapay intelligencezeka,
197
752000
5000
eğer yapay zekaya geleneksel
yaklaşımlardan sıyrılabilirsek,
12:55
like neuralsinirsel netsfileler and geneticgenetik algorithmsalgoritmalar
198
757000
2000
sinir ağları, genetik algoritmalar
ve kurallı sistemler gibi
12:57
and rule-basedkurala dayalı systemssistemler, and just turndönüş our sightsmanzaraları a little bitbit higherdaha yüksek to say,
199
759000
6000
ve fikrimizi sadece biraz daha
yükseğe yöneltirsek mesela,
tüm bu şeyleri doğru problem türü için
kullanabilen bir sistem yapabilir miyiz?
13:03
can we make a systemsistem that can use all those things
200
765000
2000
13:05
for the right kindtür of problemsorun? Some problemssorunlar are good for neuralsinirsel netsfileler;
201
767000
4000
Bazı problemler sinir ağları
için iyidir, ama geriye kalanlar,
13:09
we know that othersdiğerleri, neuralsinirsel netsfileler are hopelessUmutsuz on them.
202
771000
3000
sinir ağları için umut vadetmiyor.
13:12
GeneticGenetik algorithmsalgoritmalar are great for certainbelli things;
203
774000
3000
Genetik algoritmalar
belli şeyler için harika,
13:15
I suspectşüpheli I know what they're badkötü at, and I won'talışkanlık tell you.
204
777000
4000
hangi konuda kötü olduklarında
şüpheliyim ve söylemeyeceğim.
13:19
(LaughterKahkaha)
205
781000
1000
(Gülüşmeler)
13:20
Thank you.
206
782000
2000
Teşekkürler.
13:22
(ApplauseAlkış)
207
784000
6000
(Alkışlar)
Translated by Suleyman Cengiz
Reviewed by Yunus Aşık

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee