ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins'le beyin araştırmalarının, bilgisayar kullanımını nasıl değiştireceği üzerine

Filmed:
1,674,773 views

Treo'nun yaratıcısı Jeff Hawkins, beyni farklı bir şekilde görmemizi istiyor: hızlı bir işlemciden ziyade, deneyimlerimizi depolayan ve geleceği tahmin etmemiz için bunları zihnimizde yeniden canlandırmamızı sağlayan bir bellek olarak.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designdizayn mobileseyyar computersbilgisayarlar and I studyders çalışma brainsbeyin.
0
0
3000
Benim iki işim var: taşınabilir bilgisayarlar tasarlıyorum ve beyni inceliyorum.
00:29
And today'sbugünkü talk is about brainsbeyin and,
1
4000
2000
Ve bugünkü konuşma beyinle ilgili --
00:31
yayyuppi, somewherebir yerde I have a brainbeyin fanyelpaze out there.
2
6000
2000
Hey! Oralarda bir yerde bir "beyin hayranı" var.
00:33
(LaughterKahkaha)
3
8000
2000
(Kahkahalar)
00:35
I'm going to, if I can have my first slidekaymak up here,
4
10000
2000
Eğer ilk slaydımı gösterebilirsem
00:37
and you'llEğer olacak see the titleBaşlık of my talk and my two affiliationsÜyelikler.
5
12000
4000
konuşmamım başlığını ve görevlerimi görebilirsiniz.
00:41
So what I'm going to talk about is why we don't have a good brainbeyin theoryteori,
6
16000
4000
Konuşmamda, neden iyi bir beyin teorimiz olmadığından,
00:45
why it is importantönemli that we should developgeliştirmek one and what we can do about it.
7
20000
3000
neden bir teori geliştirmemiz gerektiğinden ve bununla ilgili ne yapabileceğimizden bahsedeceğim.
00:48
And I'll try to do all that in 20 minutesdakika. I have two affiliationsÜyelikler.
8
23000
3000
Bütün bunları 20 dakikada yapmaya çalışacağım. İki görevim var.
00:51
MostÇoğu of you know me from my PalmPalm and HandspringHandspring daysgünler,
9
26000
3000
Çoğunuz beni Palm ve Handspring'ten tanıyorsunuz.
00:54
but I alsoAyrıca runkoş a nonprofitkâr amacı gütmeyen scientificilmi researchAraştırma instituteenstitü
10
29000
3000
Ama ben, kâr gütmeyen bir bilimsel araştırma enstitüsü olan ve
00:57
calleddenilen the RedwoodRedwood NeuroscienceNörolojik InstituteEnstitüsü in MenloMenlo ParkPark,
11
32000
2000
Menlo Park'ta yer alan Redwood Nöroloji Enstitüsü'nü de yönetiyorum.
00:59
and we studyders çalışma theoreticalteorik neurosciencenörobilim,
12
34000
2000
Teorik nöroloji alanında araştırmalar yapıyoruz.
01:01
and we studyders çalışma how the neocortexneokorteks worksEserleri.
13
36000
2000
Neokorteksin işleyişini araştırıyoruz.
01:03
I'm going to talk all about that.
14
38000
2000
Bugün sadece bunlardan bahsedeceğim.
01:05
I have one slidekaymak on my other life, the computerbilgisayar life, and that's the slidekaymak here.
15
40000
3000
Hayatımın diğer kısmıyla, bilgisayarlarla, ilgili bir tek slayt var, o da bu.
01:08
These are some of the productsÜrünler I've workedişlenmiş on over the last 20 yearsyıl,
16
43000
3000
Bunlar, ilk dizüstü bilgisayarlardan başlayarak, ilk tablet bilgisayarlara
01:11
startingbaşlangıç back from the very originalorijinal laptopdizüstü to some of the first tabletTablet computersbilgisayarlar
17
46000
4000
ve son olarak Treo'ya kadar, son 20 senedir üzerinde çalıştığım
01:15
and so on, and endingbitirme up mostçoğu recentlyson günlerde with the TreoTreo,
18
50000
2000
ürünlerden bazıları;
01:17
and we're continuingdevam ediyor to do this.
19
52000
2000
ve buna devam ediyoruz.
01:19
And I've donetamam this because I really believe that mobileseyyar computingbilgi işlem
20
54000
2000
Bunu yaptım çünkü gerçekten inanıyorum ki,
01:21
is the futuregelecek of personalkişisel computingbilgi işlem, and I'm tryingçalışıyor to make the worldDünya
21
56000
3000
kişisel bilgisayarların geleceği taşınabilir bilgisayar kullanımında,
01:24
a little bitbit better by workingçalışma on these things.
22
59000
3000
ve bunlar üzerinde çalışarak Dünya'ya bir katkım olsun istiyorum.
01:27
But this was, I have to admititiraf etmek, all an accidentkaza.
23
62000
2000
Ama bu, itiraf etmeliyim, bir kazaydı.
01:29
I really didn't want to do any of these productsÜrünler
24
64000
2000
Bu ürünleri yapmayı hiç istememiştim,
01:31
and very earlyerken in my careerkariyer I decidedkarar
25
66000
2000
ve daha kariyerimin başındayken
01:33
I was not going to be in the computerbilgisayar industrysanayi.
26
68000
3000
bilgisayar endüstrisine girmemeye karar vermiştim.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Buna girmeden önce, geçen gün İnternet'ten bulduğum
01:38
this one little pictureresim of graffitigrafiti there I pickedseçilmiş off the web the other day.
28
73000
2000
şu resimde gördüğünüz Graffiti'den bahsedeyim sizlere.
01:40
I was looking for a pictureresim of graffitigrafiti, little textMetin inputgiriş languagedil,
29
75000
3000
Graffiti'nin bir resmi arıyordum, metin girmek için basit bir dil.
01:43
and I foundbulunan the websiteWeb sitesi dedicatedadanmış to teachersöğretmenler who want to make these,
30
78000
3000
Kara tahtaların üzerine asılan fişler olur ya hani?
01:46
you know, the scriptkomut dosyası writingyazı things acrosskarşısında the topüst of theironların blackboardyazı tahtası,
31
81000
3000
Onlardan hazırlamak isteyen öğretmenlere yönelik bir site buldum.
01:49
and they had addedkatma graffitigrafiti to it, and I'm sorry about that.
32
84000
3000
O fişlere duvar yazılarını eklemişler, ve bu yüzden özür dilerim.
01:52
(LaughterKahkaha)
33
87000
2000
(Kahkahalar)
01:54
So what happenedolmuş was, when I was younggenç and got out of engineeringmühendislik schoolokul
34
89000
5000
Ben gençken, mühendislik fakültesini bitirdikten sonra,
01:59
at CornellCornell in '79, I decidedkarar -- I wentgitti to work for IntelIntel and
35
94000
4000
-- Cornell, '79 -- Intel'de çalışmaya başladım.
02:03
I was in the computerbilgisayar industrysanayi -- and threeüç monthsay into that,
36
98000
3000
Bilgisayar endüstrisine girmiştim ama üç ay sonra
02:06
I felldüştü in love with something elsebaşka, and I said, "I madeyapılmış the wrongyanlış careerkariyer choiceseçim here,"
37
101000
4000
başka bir şeye vuruldum. Ardından, "Yanlış kariyeri seçmişim" dedim
02:10
and I felldüştü in love with brainsbeyin.
38
105000
3000
ve beyne aşık oldum.
02:13
This is not a realgerçek brainbeyin. This is a pictureresim of one, a linehat drawingçizim.
39
108000
3000
Bu gerçek bir beyin değil. Bir beyin resmi, basit bir çizim.
02:16
But I don't rememberhatırlamak exactlykesinlikle how it happenedolmuş,
40
111000
3000
Tam olarak nasıl olduğunu hatırlamıyorum,
02:19
but I have one recollectionhatırlama, whichhangi was prettygüzel stronggüçlü in my mindus.
41
114000
3000
ama aklımda yer etmiş önemli bir anım var.
02:22
In SeptemberEylül 1979, ScientificBilimsel AmericanAmerikan camegeldi out
42
117000
3000
1979 Eylül'ünde, Scientific American dergisinin
02:25
with a singletek topickonu issuekonu about the brainbeyin. And it was quiteoldukça good.
43
120000
3000
dosya konusu beyindi. Ve oldukça iyiydi.
02:28
It was one of the besten iyi issuessorunlar ever. And they talkedkonuştuk about the neuronnöron
44
123000
3000
Çıkardıkları en iyi sayılardan biriyidi. Nörondan, beynin gelişiminden,
02:31
and developmentgelişme and diseasehastalık and visionvizyon and all the things
45
126000
2000
hastalığından, görme yetisinden ve beyinle ilgili
02:33
you mightbelki want to know about brainsbeyin. It was really quiteoldukça impressiveetkileyici.
46
128000
3000
merak ettiğiniz her şeyden bahsediyordu. Gerçekten etkileyiciydi.
02:36
And one mightbelki have the impressionizlenim that we really knewbiliyordum a lot about brainsbeyin.
47
131000
3000
İnsan, beyinle ilgili çok şey bilindiği izlenimine kapılabilir.
02:39
But the last articlemakale in that issuekonu was writtenyazılı by FrancisFrancis CrickCrick of DNADNA fameşöhret.
48
134000
4000
Ama o sayıdaki son makale, DNA'yla meşhur olan Francis Crick tarafından kalem alınmıştı.
02:43
TodayBugün is, I think, the 50thinci anniversaryyıldönümü of the discoverykeşif of DNADNA.
49
138000
3000
Sanıyorum bugün, DNA'nın keşfinin 50. yıl dönümü.
02:46
And he wroteyazdı a storyÖykü basicallytemel olarak sayingsöz,
50
141000
2000
Kısaca şunu söyleyen bir yazı yazmıştı:
02:48
well, this is all well and good, but you know what,
51
143000
3000
Tamam, bütün bunlar iyi, hoş ama, ne var biliyor musunuz;
02:51
we don't know diddleyDiddley squatağız kavgası about brainsbeyin
52
146000
2000
beyin hakkında hiçbir şey bilmiyoruz;
02:53
and no one has a clueipucu how these things work,
53
148000
2000
kimse bu şeylerin nasıl çalıştığını bilmiyor,
02:55
so don't believe what anyonekimse tellsanlatır you.
54
150000
2000
yani kimsenin söylediklerine inanmayın.
02:57
This is a quotealıntı from that articlemakale. He said, "What is conspicuouslybariz lackingeksik,"
55
152000
3000
Bu o makaleden bir alıntı: "Eksikliği aşikâr olan,"
03:00
he's a very properuygun Britishİngiliz gentlemanbeyefendi so, "What is conspicuouslybariz lackingeksik
56
155000
4000
-- tam bir İngiliz beyefendisiydi -- "Eksikliği aşikâr olan şey, tüm bu farklı
03:04
is a broadgeniş frameworkiskelet of ideasfikirler in whichhangi to interpretyorumlamak these differentfarklı approachesyaklaşımlar."
57
159000
3000
yaklaşımları yorumlamamızı sağlayacak geniş bir fikir çerçevesidir."
03:07
I thought the wordsözcük frameworkiskelet was great.
58
162000
2000
"Fikir çerçevesi" kelimesinin harika olduğunu düşünmüştüm.
03:09
He didn't say we didn't even have a theoryteori. He saysdiyor,
59
164000
2000
Bir teorimiz bile olmadığını söylemiyordu. Diyordu ki,
03:11
we don't even know how to beginbaşla to think about it --
60
166000
2000
bu konuyu daha nasıl ele alacağımızı bilmiyoruz --
03:13
we don't even have a frameworkiskelet.
61
168000
2000
bir taslağımız bile yok.
03:15
We are in the pre-paradigmöncesi paradigma daysgünler, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Paradigma öncesi dönemdeyiz -- Thomas Kuhn'un deyişiyle.
03:18
And so I felldüştü in love with this, and said look,
63
173000
3000
İşte ben buna aşık oldum ve dedim ki:
03:21
we have all this knowledgebilgi about brainsbeyin. How hardzor can it be?
64
176000
3000
beyinle ilgili bunca şey biliyoruz. Ne kadar zor olabilir ki?
03:24
And this is something we can work on my lifetimeömür. I feltkeçe I could make a differencefark,
65
179000
3000
Bu hayatım boyunca üzerinde çalışabileceğimiz bir şey. Bir şeyleri değiştirebileceğimi düşündüm.
03:27
and so I trieddenenmiş to get out of the computerbilgisayar business, into the brainbeyin business.
66
182000
4000
Ve böylelikle bilgisayar işini bırakıp, beyin işine girmeye çalıştım.
03:31
First, I wentgitti to MITMIT, the AIAI lablaboratuvar was there,
67
186000
2000
İlk olarak MIT'e gittim; orada yapay zeka laboratuvarı vardı,
03:33
and I said, well, I want to buildinşa etmek intelligentakıllı machinesmakineler, too,
68
188000
2000
ve dedim ki, ben de akıllı makineler yapmak istiyorum,
03:35
but the way I want to do it is to studyders çalışma how brainsbeyin work first.
69
190000
3000
ama bunun için önce beynin nasıl çalıştığını araştıracağım.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Dediler ki: "Yo, öyle bir şey yapmana gerek yok;
03:41
We're just going to programprogram computersbilgisayarlar; that's all we need to do.
71
196000
2000
biz sadece bilgisayarları programlıyoruz; yapmamız gereken sadece bu."
03:43
And I said, no, you really oughtgerektiğini to studyders çalışma brainsbeyin. They said, oh, you know,
72
198000
3000
Ben, "Hayır, gerçekten beyni araştırmanız lazım", dedim. Yanıldığımı söylediler.
03:46
you're wrongyanlış. And I said, no, you're wrongyanlış, and I didn't get in.
73
201000
2000
"Hayır, siz yanılıyorsunuz", dedim; ve reddedildim.
03:48
(LaughterKahkaha)
74
203000
1000
(Kahkahalar)
03:50
But I was a little disappointedhayal kırıklığına uğramış -- prettygüzel younggenç -- but I wentgitti back again
75
205000
2000
Biraz hayal kırıklığına uğramıştım -- gençtim; ama sonra tekrar gittim,
03:52
a fewaz yearsyıl latersonra and this time was in CaliforniaCalifornia, and I wentgitti to BerkeleyBerkeley.
76
207000
3000
bir kaç sene sonra -- bu defa California'da, Berkeley'e gittim.
03:55
And I said, I'll go in from the biologicalbiyolojik sideyan.
77
210000
4000
Dedim ki, işin biyolojik tarafında şansımı deneyeceğim.
03:59
So I got in -- in the PhPH.D. programprogram in biophysicsbiyofizik, and I was, all right,
78
214000
3000
Kabul edildim; biyofizik doktora programına başladım, her şey yolundaydı;
04:02
I'm studyingders çalışıyor brainsbeyin now, and I said, well, I want to studyders çalışma theoryteori.
79
217000
3000
artık beyni araştırıyordum ve dedim ki: "teorik çalışmak istiyorum".
04:05
And they said, oh no, you can't studyders çalışma theoryteori about brainsbeyin.
80
220000
2000
Dediler ki: "Yo, beyinle ilgili teorik çalışma yapamazsın.
04:07
That's not something you do. You can't get fundedfinanse for that.
81
222000
2000
"Böyle bir şey olmaz. Bu işi finanse edecek birini bulamazsın.
04:09
And as a graduatemezun olmak studentÖğrenci, you can't do that. So I said, oh my goshAllah Allah.
82
224000
4000
"Ve zaten bir lisansüstü öğrencisi olarak bunu yapamazsın." Hay Allah!
04:13
I was very depressedbunalımlı. I said, but I can make a differencefark in this fieldalan.
83
228000
2000
Çok üzülmüştüm. Ama dedim ki: "Bu alanda bir fark yaratabilirim."
04:15
So what I did is I wentgitti back in the computerbilgisayar industrysanayi
84
230000
3000
Ve bilgisayar endüstrisine geri dönüp,
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
bir süre burada çalışıp, bir şeyler yapmam lazım, dedim.
04:20
That's when I designedtasarlanmış all those computerbilgisayar productsÜrünler.
86
235000
3000
İşte bütün o bilgisayar ürünlerini o zaman tasarladım.
04:23
(LaughterKahkaha)
87
238000
1000
(Kahkahalar)
04:24
And I said, I want to do this for fourdört yearsyıl, make some moneypara,
88
239000
3000
Ve dedim ki; dört sene bu işi yapacağım, para biriktireceğim
04:27
like I was havingsahip olan a familyaile, and I would matureOlgun a bitbit,
89
242000
4000
-- o sıralar aile kuruyordum -- biraz olgunlaşırım,
04:31
and maybe the business of neurosciencenörobilim would matureOlgun a bitbit.
90
246000
3000
ve belki bu sırada nöroloji de biraz olgunlaşır.
04:34
Well, it tookaldı longeruzun than fourdört yearsyıl. It's been about 16 yearsyıl.
91
249000
3000
Dört seneden uzun sürdü. Yaklaşık 16 sene oldu.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Ama şimdi beyin üzerine çalışıyorum ve size bundan bahsedeceğim.
04:39
So why should we have a good brainbeyin theoryteori?
93
254000
3000
Neden iyi bir beyin teorisine ihtiyacımız var?
04:42
Well, there's lots of reasonsnedenleri people do scienceBilim.
94
257000
3000
İnsanın bilimle ilgilienmesinin nedenleri var.
04:45
One is -- the mostçoğu basictemel one is -- people like to know things.
95
260000
3000
Bir tanesi -- en temel olanı -- insanların bilgiye aç olması.
04:48
We're curiousMeraklı, and we just go out and get knowledgebilgi, you know?
96
263000
2000
Merak ediyoruz ve bir yerlere gidip bir şeyler öğreniyoruz, değil mi?
04:50
Why do we studyders çalışma antskarıncalar? Well, it's interestingilginç.
97
265000
2000
Neden karıncaları araştırıyoruz? Çünkü ilginç.
04:52
Maybe we'lliyi learnöğrenmek something really usefulişe yarar about it, but it's interestingilginç and fascinatingbüyüleyici.
98
267000
3000
Belki işimize yarayacak bir şeyler de öğrenebiliriz; ama ilginç ve hayranlık uyandırıyor.
04:55
But sometimesara sıra, a scienceBilim has some other attributesöznitelikleri
99
270000
2000
Ama bir bilim dalını ilginç kılan
04:57
whichhangi makesmarkaları it really, really interestingilginç.
100
272000
2000
başka özellikler de vardır.
04:59
SometimesBazen a scienceBilim will tell something about ourselveskendimizi,
101
274000
3000
Bazen bir bilim dalı bize kendimiz hakkında bir şeyler söyler,
05:02
it'llolacak tell us who we are.
102
277000
1000
bize, kim olduğumuzu öğretir.
05:03
RarelyNadiren, you know: evolutionevrim did this and CopernicusCopernicus did this,
103
278000
3000
Kendimize -- işte, evrim şunu yaptı, Kopernik bunu yaptı --
05:06
where we have a newyeni understandinganlayış of who we are.
104
281000
2000
nadiren farklı bir şekilde bakmaya başlarız.
05:08
And after all, we are our brainsbeyin. My brainbeyin is talkingkonuşma to your brainbeyin.
105
283000
4000
Ve sonuçta, biz beyinleriz. Benim beynim sizin beyninizle konuşuyor.
05:12
Our bodiesbedenler are hangingasılı alonguzun bir for the ridebinmek, but my brainbeyin is talkingkonuşma to your brainbeyin.
106
287000
3000
Bedenlerimiz de bizle takılıyorlar, ama benim beynim sizin beyninizle konuşuyor.
05:15
And if we want to understandanlama who we are and how we feel and perceivealgıladıkları,
107
290000
3000
Ve ne olduğumuzu, hislerin ve algıların nasıl çalıştığını anlamak istersek
05:18
we really understandanlama what brainsbeyin are.
108
293000
2000
beyinleri gerçekten kavrayabiliriz.
05:20
AnotherBaşka bir thing is sometimesara sıra scienceBilim
109
295000
2000
Bir de, bilim bazen
05:22
leadspotansiyel müşteriler to really bigbüyük societaltoplumsal benefitsfaydaları and technologiesteknolojiler,
110
297000
2000
toplumsal faydalar ve teknolojiler,
05:24
or businessesişletmeler, or whateverher neyse, that come out of it. And this is one, too,
111
299000
2000
ve iş dalları falan sağlar. Ve bu da öyle,
05:26
because when we understandanlama how brainsbeyin work, we're going to be ableyapabilmek
112
301000
3000
çünkü, beynin nasıl çalıştığını anlarsak,
05:29
to buildinşa etmek intelligentakıllı machinesmakineler, and I think that's actuallyaslında a good thing on the wholebütün,
113
304000
3000
akıllı makineler yapabileceğiz ve bence bu çok güzel bir şey,
05:32
and it's going to have tremendousmuazzam benefitsfaydaları to societytoplum,
114
307000
2000
ve topluma inanılmaz ölçüde yararlı olacağını düşünüyorum --
05:34
just like a fundamentaltemel technologyteknoloji.
115
309000
2000
en temel teknolojiler gibi.
05:36
So why don't we have a good theoryteori of brainsbeyin?
116
311000
2000
Peki, neden iyi bir beyin teorimiz yok?
05:38
And people have been workingçalışma on it for 100 yearsyıl.
117
313000
3000
Üstelik insanlar yüz yıldır bununla uğraşıyor.
05:41
Well, let's first take a look at what normalnormal scienceBilim looksgörünüyor like.
118
316000
2000
Gelin önce normal bilime bir göz atalım.
05:43
This is normalnormal scienceBilim.
119
318000
2000
Bu normal bilim.
05:45
NormalNormal scienceBilim is a niceGüzel balancedenge betweenarasında theoryteori and experimentalistsexperimentalists.
120
320000
4000
Normal bilimde, teoriyle deneyselcilik arasında bir denge vardır.
05:49
And so the theoristkuramcı guys say, well, I think this is what's going on,
121
324000
2000
Teorist der ki: "bence bu işler şöyle şöyle olmaktadır."
05:51
and the experimentalistDeneyciler saysdiyor, no, you're wrongyanlış.
122
326000
2000
Deneyci de der ki: "Hayır, yanılıyorsun."
05:53
And it goesgider back and forthileri, you know?
123
328000
2000
Ve bu böyle gider, değil mi?
05:55
This worksEserleri in physicsfizik. This worksEserleri in geologyJeoloji. But if this is normalnormal scienceBilim,
124
330000
2000
Bu fizikte işe yarar. Bu jeolojide işe yarar. Ama ele aldığımız normal bilimse,
05:57
what does neurosciencenörobilim look like? This is what neurosciencenörobilim looksgörünüyor like.
125
332000
3000
nöroloji nasıl görünür? Nöroloji şuna benzer.
06:00
We have this mountaindağ of dataveri, whichhangi is anatomyanatomi, physiologyfizyoloji and behaviordavranış.
126
335000
5000
Elimizde bir yığın veri var: anatomi, fizyoloji ve davranış.
06:05
You can't imaginehayal etmek how much detaildetay we know about brainsbeyin.
127
340000
3000
Beyinle ilgili ne kadar çok şey bildiğimizi hayal bile edemezsiniz.
06:08
There were 28,000 people who wentgitti to the neurosciencenörobilim conferencekonferans this yearyıl,
128
343000
4000
Bu sene nöroloji konferansına 28.000 kişi katıldı,
06:12
and everyher one of them is doing researchAraştırma in brainsbeyin.
129
347000
2000
ve hepsi beyin üzerine araştırma yapıyor.
06:14
A lot of dataveri. But there's no theoryteori. There's a little, wimpywimpy boxkutu on topüst there.
130
349000
4000
Veri çok; ama teori yok. Orada tepede küçük bir kutu var.
06:18
And theoryteori has not playedOyunun a rolerol in any sortçeşit of grandbüyük way in the neurosciencesNörobilim.
131
353000
5000
Ve teori, nörolojide hiçbir önemli rol üstlenmedi.
06:23
And it's a realgerçek shameutanç. Now why has this come about?
132
358000
3000
Gerçekten yazık. Peki, neden böyle oldu?
06:26
If you asksormak neuroscientistsnörologlar, why is this the statebelirtmek, bildirmek of affairilişki,
133
361000
2000
Nörologlara, "neden durum böyle", diyecek olursanız --
06:28
they'llacaklar first of all admititiraf etmek it. But if you asksormak them, they'llacaklar say,
134
363000
3000
-- Onlar da buna hak verirler. Ama sorduğunuzda,
06:31
well, there's variousçeşitli reasonsnedenleri we don't have a good brainbeyin theoryteori.
135
366000
3000
"iyi bir beyin teorisinin olmayışının çeşitli nedenleri var", derler.
06:34
Some people say, well, we don't still have enoughyeterli dataveri,
136
369000
2000
Bazıları, "elimizde yeterince veri yok", der;
06:36
we need to get more informationbilgi, there's all these things we don't know.
137
371000
3000
"daha fazla şey bilmemiz lazım; bilmediğimiz bunca şey var".
06:39
Well, I just told you there's so much dataveri cominggelecek out your earskulaklar.
138
374000
3000
İyi de, demin söyledim, paçalarımızdan veri akıyor.
06:42
We have so much informationbilgi, we don't even know how to beginbaşla to organizedüzenlemek it.
139
377000
3000
Elimizde çok fazla bilgi var; bunu nasıl düzenleyeceğimizi bilmiyoruz.
06:45
What good is more going to do?
140
380000
2000
Daha fazlası ne işimize yarayacak?
06:47
Maybe we'lliyi be luckyşanslı and discoverkeşfetmek some magicsihirli thing, but I don't think so.
141
382000
3000
Belki şansımız yaver gider ve mucizevi bir şey buluruz; ama sanmıyorum.
06:50
This is actuallyaslında a symptombelirti of the factgerçek that we just don't have a theoryteori.
142
385000
3000
Bu, aslında bir teorimiz olmayışının belirtisi.
06:53
We don't need more dataveri -- we need a good theoryteori about it.
143
388000
3000
Daha fazla veriye ihtiyacımız yok -- onunla ilgili iyi bir teoriye ihtiyacımız var.
06:56
AnotherBaşka bir one is sometimesara sıra people say, well, brainsbeyin are so complexkarmaşık,
144
391000
3000
Bazı insanlar da, "beyin çok karmaşık,
06:59
it'llolacak take anotherbir diğeri 50 yearsyıl.
145
394000
2000
"bir 50 sene daha alır" diyor.
07:01
I even think ChrisChris said something like this yesterdaydün.
146
396000
2000
Hatta sanırım dün Chris böyle bir şey söyledi.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Tam ne demiştin Chris, emin değilim; ama
07:05
well, it's one of the mostçoğu complicatedkarmaşık things in the universeEvren. That's not truedoğru.
148
400000
3000
"evrendeki en karmaşık şeylerden biri" gibi bir şeydi. Bu yanlış.
07:08
You're more complicatedkarmaşık than your brainbeyin. You've got a brainbeyin.
149
403000
2000
Sen, beyninden daha karmaşıksın. Bir defa sende beyin var.
07:10
And it's alsoAyrıca, althougholmasına rağmen the brainbeyin looksgörünüyor very complicatedkarmaşık,
150
405000
2000
Ve ayrıca, beyin karmaşık görünse de,
07:12
things look complicatedkarmaşık untila kadar you understandanlama them.
151
407000
3000
anlayıncaya kadar her şey karmaşıktır.
07:15
That's always been the casedurum. And so all we can say, well,
152
410000
3000
Bu hep böyledir. O yüzden diyebiliriz ki:
07:18
my neocortexneokorteks, whichhangi is the partBölüm of the brainbeyin I'm interestedilgili in, has 30 billionmilyar cellshücreler.
153
413000
4000
"Neokorteksimde -- beynin benim ilgilendiğim bölgesinde -- 30 milyar hücre var.
07:22
But, you know what? It's very, very regulardüzenli.
154
417000
2000
"Ama, bu son derece olağan".
07:24
In factgerçek, it looksgörünüyor like it's the sameaynı thing repeatedtekrarlanan over and over and over again.
155
419000
3000
Hatta, aynı yapının üst üste tekrar edilmiş hâli gibi görünüyor.
07:27
It's not as complexkarmaşık as it looksgörünüyor. That's not the issuekonu.
156
422000
3000
Göründüğü kadar karmaşık değil. Sorun o değil.
07:30
Some people say, brainsbeyin can't understandanlama brainsbeyin.
157
425000
2000
Bazıları da diyor ki: "beyinler beyinleri anlayamaz".
07:32
Very Zen-likeZen gibi. WhooWhoo. (LaughterKahkaha)
158
427000
3000
Çok zenvâri. Vay be!
07:35
You know,
159
430000
1000
(Kahkahalar)
07:36
it soundssesleri good, but why? I mean, what's the pointpuan?
160
431000
3000
Kulağa güzel geliyor; ama neden? Ne anlamı var yani?
07:39
It's just a bunchDemet of cellshücreler. You understandanlama your liverkaraciğer.
161
434000
3000
Alt tarafı bir grup hücre. Karaciğerinizi anlıyorsunuz ya!
07:42
It's got a lot of cellshücreler in it too, right?
162
437000
2000
Onda da bir sürü hücre var, değil mi?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Yani bu argüman da geçerli değil bence.
07:46
And finallyen sonunda, some people say, well, you know,
164
441000
2000
Ve son olarak, bazıları da diyor ki:
07:48
I don't feel like a bunchDemet of cellshücreler, you know. I'm consciousbilinçli.
165
443000
4000
"Kendimi bir grup hücreden ibaret hissettmiyorum. Benim bilincim var.
07:52
I've got this experiencedeneyim, I'm in the worldDünya, you know.
166
447000
2000
"Ben bir şeyler tecrübe ediyorum, dünyadayım yani.
07:54
I can't be just a bunchDemet of cellshücreler. Well, you know,
167
449000
2000
"Sadece bir grup hücre olamam."
07:56
people used to believe there was a life forcekuvvet to be livingyaşam,
168
451000
3000
Bir ara "yaşam atılımı" diye bir şey sayesinde yaşadığımızı sananlar vardı;
07:59
and we now know that's really not truedoğru at all.
169
454000
2000
ki biz böyle bir şey olmadığını biliyoruz.
08:01
And there's really no evidencekanıt that saysdiyor -- well, other than people
170
456000
3000
Bunu destekleyen hiç kanıt yok --sadece bazı insanlar
08:04
just have disbeliefgüvensizlik that cellshücreler can do what they do.
171
459000
2000
hücrelerin, yapabildiklerini yaptıklarına inanmıyorlar.
08:06
And so, if some people have fallendüşmüş into the pitçukur of metaphysicalmetafiziksel dualismikilik,
172
461000
3000
Yani, bazı insanlar metafiziksel ikiliğe kendilerini kaptırmışlarsa,
08:09
some really smartakıllı people, too, but we can rejectReddet all that.
173
464000
3000
-bazı zeki insanlar bile- bunu tümden bir kenara bırakabiliriz.
08:12
(LaughterKahkaha)
174
467000
2000
(Kahkahalar)
08:14
No, I'm going to tell you there's something elsebaşka,
175
469000
3000
Ben size, "başka bir şey var", diyeceğim;
08:17
and it's really fundamentaltemel, and this is what it is:
176
472000
2000
ve bu çok temel bir şey:
08:19
there's anotherbir diğeri reasonneden why we don't have a good brainbeyin theoryteori,
177
474000
2000
iyi bir beyin teorimiz olmamasının bir nedeni daha var ki
08:21
and it's because we have an intuitivesezgisel, strongly-heldgüçlü düzenlenen,
178
476000
3000
o da cevabı görmemizi engelleyen, sezgisel,
08:24
but incorrectyanlış assumptionvarsayım that has preventedönlenmiş us from seeinggörme the answerCevap.
179
479000
5000
kuvvetle inandığımız, ama yanlış olan bir varsayımımız olması.
08:29
There's something we believe that just, it's obviousaçık, but it's wrongyanlış.
180
484000
3000
Gün gibi ortada, deyip inandığımız bir şey; ama yanlış.
08:32
Now, there's a historytarih of this in scienceBilim and before I tell you what it is,
181
487000
4000
Şimdi bunun bilim tarihinde de örnekleri var ve ne olduğunu söylemeden önce
08:36
I'm going to tell you a bitbit about the historytarih of it in scienceBilim.
182
491000
2000
size bilim tarihindeki örneklerden bahsedeceğim.
08:38
You look at some other scientificilmi revolutionsdevrimler,
183
493000
2000
Diğer bilimsel devrimlere baktığınızda--
08:40
and this casedurum, I'm talkingkonuşma about the solargüneş systemsistem, that's CopernicusCopernicus,
184
495000
2000
-- ki burumda Kopernik'in Güneş sisteminden,
08:42
Darwin'sDarwin'in evolutionevrim, and tectonictektonik platesplakaları, that's WegenerWegener.
185
497000
3000
Darwin'in evriminden ve Wegener'in tektonik levhalarından bahsediyorum--
08:45
They all have a lot in commonortak with brainbeyin scienceBilim.
186
500000
3000
bunların hepsinin beyin bilimiyle ortak noktaları var.
08:48
First of all, they had a lot of unexplainedaçıklanmamış dataveri. A lot of it.
187
503000
3000
İlk olarak, hepsinde, açıklanamayan bir yığın veri vardı.
08:51
But it got more manageableyönetilebilir oncebir Zamanlar they had a theoryteori.
188
506000
3000
Ama bir teori geliştirdikleri zaman, daha kolay idare edilebilir oldular.
08:54
The besten iyi mindszihinler were stumpedKoçan -- really, really smartakıllı people.
189
509000
3000
En parlak beyinler allak bullak olmuştu; çok, çok zeki insanlar.
08:57
We're not smarterdaha akıllı now than they were then.
190
512000
2000
Biz şimdi onlardan daha zeki değiliz.
08:59
It just turnsdönüşler out it's really hardzor to think of things,
191
514000
2000
Anlaşılan o ki, bazı şeyleri düşünmek çok zor;
09:01
but oncebir Zamanlar you've thought of them, it's kindtür of easykolay to understandanlama it.
192
516000
2000
ama bir şeyi bir defa buldunuz mu, anlaması çok kolay oluyor.
09:03
My daughterskız çocukları understoodanladım these threeüç theoriesteoriler
193
518000
2000
Benim kızlarım bu üç hikâyeyi
09:05
in theironların basictemel frameworkiskelet by the time they were in kindergartenAnaokulu.
194
520000
3000
anaokulu çağındayken, en basit hatlarıyla anlamışlardı.
09:08
And now it's not that hardzor, you know, here'sburada the appleelma, here'sburada the orangePortakal,
195
523000
3000
Çok da zor değil; hani var ya, "bu elma, bu portakal...
09:11
you know, the EarthDünya goesgider around, that kindtür of stuffşey.
196
526000
3000
"...Dünya bunun etrafında dönüyor" falan? O tür şeyler.
09:14
FinallySon olarak, anotherbir diğeri thing is the answerCevap was there all alonguzun bir,
197
529000
2000
Bir de şu var: cevap hep oradaydı;
09:16
but we kindtür of ignoredihmal it because of this obviousaçık thing, and that's the thing.
198
531000
3000
ama şu "gün gibi ortada" olan şey, cevabı görmemizi engelledi. O da şu:
09:19
It was an intuitivesezgisel, strong-heldgüçlü düzenlenen beliefinanç that was wrongyanlış.
199
534000
3000
Sezgisel, sarsılmaz bir inançtı ve yanlıştı.
09:22
In the casedurum of the solargüneş systemsistem, the ideaFikir that the EarthDünya is spinningdöndürme
200
537000
3000
Güneş sistemi örneğinde, Dünya'nın dönmesi,
09:25
and the surfaceyüzey of the EarthDünya is going like a thousandbin milesmil an hoursaat,
201
540000
3000
ve Dünya'nın dış yüzeyinin saatte bin mil hız yapması,
09:28
and the EarthDünya is going throughvasitasiyla the solargüneş systemsistem about a millionmilyon milesmil an hoursaat.
202
543000
3000
ve Dünya'nın, Güneş sistemi içinde saatte bir milyon mil hız yapması--
09:31
This is lunacyçılgınlık. We all know the EarthDünya isn't movinghareketli.
203
546000
2000
Bu çılgınlık. Hepimiz, Dünya'nın hareket etmediğini biliyoruz.
09:33
Do you feel like you're movinghareketli a thousandbin milesmil an hoursaat?
204
548000
2000
Hiç saatte bin mil hızla hareket ediyormuşsunuz gibi geliyor mu size?
09:35
Of coursekurs not. You know, and someonebirisi who said,
205
550000
2000
Tabii ki hayır. Ve biriniz çıkıp,
09:37
well, it was spinningdöndürme around in spaceuzay and it's so hugeKocaman,
206
552000
2000
sonsuz bir boşlukta döndüğünü söylese
09:39
they would lockkilitlemek you up, and that's what they did back then.
207
554000
2000
onu hapse atarlardı ve zaten o zamanlar öyle yaptılar.
09:41
(LaughterKahkaha)
208
556000
1000
(Kahkahalar)
09:42
So it was intuitivesezgisel and obviousaçık. Now what about evolutionevrim?
209
557000
3000
Sezgiseldi ve apaçık ortadaydı. Peki ya evrim?
09:45
Evolution'sEvolution'ın the sameaynı thing. We taughtöğretilen our kidsçocuklar, well, the Bibleİncil saysdiyor,
210
560000
3000
Evrim de aynı hesap. Çocuklarımıza, "İncil diyor ki:
09:48
you know, God createdoluşturulan all these speciesTürler, catskediler are catskediler, dogsköpekler are dogsköpekler,
211
563000
2000
"'bütün canlıları Tanrı yarattı; kediler kedidir; köpekler köpektir;
09:50
people are people, plantsbitkiler are plantsbitkiler, they don't changedeğişiklik.
212
565000
3000
"'insanlar insandır; bitkiler bitkidir; ve değişmezler.
09:53
NoahNoah put them on the ArkArk in that ordersipariş, blahbla, blahbla, blahbla. And, you know,
213
568000
4000
"'Nuh onları gemisine aldı...'", falan filan dedik. İşin aslı,
09:57
the factgerçek is, if you believe in evolutionevrim, we all have a commonortak ancestoratası,
214
572000
4000
eğer evrime inanıyorsanız, hepimizin ortak bir atası var,
10:01
and we all have a commonortak ancestrysoy with the plantbitki in the lobbylobi.
215
576000
3000
ve hepimizin lobideki bitkiyle ortak bir atası var.
10:04
This is what evolutionevrim tellsanlatır us. And, it's truedoğru. It's kindtür of unbelievableInanılmaz.
216
579000
3000
Evrim bize bunu söylüyor. Ve bu doğru. Neredeyse inanılmaz.
10:07
And the sameaynı thing about tectonictektonik platesplakaları, you know?
217
582000
3000
Tektonik levhalar için de aynı şey geçerli, değil mi?
10:10
All the mountainsdağlar and the continentskıtalar are kindtür of floatingyüzer around
218
585000
2000
Bütün bu dağlar ve kıtalar, Dünya'nın üzerinde
10:12
on topüst of the EarthDünya, you know? It's like, it doesn't make any senseduyu.
219
587000
4000
batmadan yüzüyorlar. Bu-- bu çok anlamsız.
10:16
So what is the intuitivesezgisel, but incorrectyanlış assumptionvarsayım,
220
591000
4000
Peki bizi, beyinleri anlamaktan alıkoyan sezgisel, ama yanlış
10:20
that's kepttuttu us from understandinganlayış brainsbeyin?
221
595000
2000
varsayım nedir?
10:22
Now I'm going to tell it to you, and it's going to seemgörünmek obviousaçık that that is correctdoğru,
222
597000
2000
Şimdi bunun ne olduğunu söyleyeceğim ve size bu doğru gibi gelecek;
10:24
and that's the pointpuan, right? Then I'm going to have to make an argumenttartışma
223
599000
2000
ama zaten olay bu. Sonra diğer varsayım hakkında neden
10:26
why you're incorrectyanlış about the other assumptionvarsayım.
224
601000
2000
yanıldığınızla ilgili bir argüman geliştirmem gerekecek.
10:28
The intuitivesezgisel but obviousaçık thing is that somehowbir şekilde intelligencezeka
225
603000
3000
Sezgisel ama besbelli olan şey:
10:31
is definedtanımlanmış by behaviordavranış,
226
606000
2000
zekâ davranışla tanımlanır;
10:33
that we are intelligentakıllı because of the way that we do things
227
608000
2000
davranış biçimimiz nedeniyle zekiyiz ve
10:35
and the way we behaveDavranmak intelligentlyakıllıca, and I'm going to tell you that's wrongyanlış.
228
610000
3000
zekice davranıyoruz. Ben size bunun yanlış olduğunu söylüyorum.
10:38
What it is is intelligencezeka is definedtanımlanmış by predictiontahmin.
229
613000
2000
Doğrusu: zekâ öngörüyle tanımlanır.
10:40
And I'm going to work you throughvasitasiyla this in a fewaz slidesslaytlar here,
230
615000
3000
Bunu size birkaç slaytla anlatacağım ve
10:43
give you an exampleörnek of what this meansanlamına geliyor. Here'sİşte a systemsistem.
231
618000
4000
nasıl çalıştığıyla ilgili bir örnek vereceğim. Bu bir sistem.
10:47
EngineersMühendisler like to look at systemssistemler like this. ScientistsBilim adamları like to look at systemssistemler like this.
232
622000
3000
Mühendisler ve bilimadamları sistemleri böyle incelemeyi severler.
10:50
They say, well, we have a thing in a boxkutu, and we have its inputsgirişler and its outputsçıkış.
233
625000
3000
Derler ki: "kutuda bir şey var; ve girdiler ve çıktılar var".
10:53
The AIAI people said, well, the thing in the boxkutu is a programmableprogramlanabilir computerbilgisayar
234
628000
3000
Yapay zekâcılar der ki: "kutunun içindeki, programlanabilir bir bilgisayardır;
10:56
because that's equivalenteşdeğer to a brainbeyin, and we'lliyi feedbesleme it some inputsgirişler
235
631000
2000
"çünkü bir beyine eşdeğerdir ve ona veri girişi yaparsak,
10:58
and we'lliyi get it to do something, have some behaviordavranış.
236
633000
2000
"bir şeyler yapmasını, harekete geçmesini sağlayabiliriz".
11:00
And AlanAlan TuringTuring definedtanımlanmış the TuringTuring testÖlçek, whichhangi is essentiallyesasen sayingsöz,
237
635000
3000
Alan Turing, "Turing testi"ni tanımlamıştı ki buna göre
11:03
we'lliyi know if something'sşey intelligentakıllı if it behavesdavranır identicalözdeş to a humaninsan.
238
638000
3000
eğer bir şey insanla özdeş davranıyorsa, zekidir.
11:06
A behavioraldavranışsal metricmetrik of what intelligencezeka is,
239
641000
3000
Zekânın, davranışsal bir ölçüm yöntemi.
11:09
and this has stucksıkışmış in our mindszihinler for a long perioddönem of time.
240
644000
3000
Bu uzun bir süre kafamızda yer etti.
11:12
RealityGerçeklik thoughgerçi, I call it realgerçek intelligencezeka.
241
647000
2000
Oysa gerçekte -- ben buna "gerçek zekâ" diyorum.
11:14
RealGerçek intelligencezeka is builtinşa edilmiş on something elsebaşka.
242
649000
2000
Gerçek zeka başka bir şey üzerine kurulmuştur.
11:16
We experiencedeneyim the worldDünya throughvasitasiyla a sequencesıra of patternsdesenler, and we storemağaza them,
243
651000
4000
Biz dünyayı bir örüntü dizisi olarak tecrübe ediyoruz ve bunları kaydedip,
11:20
and we recallhatırlama them. And when we recallhatırlama them, we matchmaç them up
244
655000
3000
hatırlıyoruz. Ve hatırlarken, bunları gerçeklikle eşleştiriyoruz,
11:23
againstkarşısında realitygerçeklik, and we're makingyapma predictionstahminler all the time.
245
658000
4000
ve sürekli tahminler yürütüyoruz.
11:27
It's an eternalsonsuz metricmetrik. There's an eternalsonsuz metricmetrik about us sortçeşit of sayingsöz,
246
662000
3000
Başı sonu olmayan bir ölçüm yöntemi. Bizde sürekli,
11:30
do we understandanlama the worldDünya? Am I makingyapma predictionstahminler? And so on.
247
665000
3000
"Dünyayı anlıyor muyuz? Tahminler yürütüyor muyum?" diyen bir ölçüm sistemi var.
11:33
You're all beingolmak intelligentakıllı right now, but you're not doing anything.
248
668000
2000
Hepiniz şu an zekisiniz; ama hiçbir şey yapmıyoruz.
11:35
Maybe you're scratchingtırmalamak yourselfkendin, or pickingtoplama your noseburun,
249
670000
2000
Belki bir yerinizi kaşıyorsunuz, burnunuzu karıştırıyorsunuz,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
ne bileyim, ama şu an bir şey yapmıyorsunuz,
11:39
but you're beingolmak intelligentakıllı; you're understandinganlayış what I'm sayingsöz.
251
674000
3000
ama yine de zekisiniz, benim ne demek istediğimi anlıyorsunuz.
11:42
Because you're intelligentakıllı and you speakkonuşmak Englishİngilizce,
252
677000
2000
Çünkü zekisiniz ve İngilizce biliyorsunuz,
11:44
you know what wordsözcük is at the endson of this -- (SilenceSessizlik)
253
679000
1000
bu cümleyi nasıl bitireceğimi --
11:45
sentencecümle.
254
680000
2000
biliyorsunuz.
11:47
The wordsözcük camegeldi into you, and you're makingyapma these predictionstahminler all the time.
255
682000
3000
Kelime aklınıza geldi; ve sürekli bu tür öngörülerde bulunuyorsunuz.
11:50
And then, what I'm sayingsöz is,
256
685000
2000
Yani, söylediğim şu:
11:52
is that the eternalsonsuz predictiontahmin is the outputçıktı in the neocortexneokorteks.
257
687000
2000
Öngörünüz, neokorteksin çıktısı;
11:54
And that somehowbir şekilde, predictiontahmin leadspotansiyel müşteriler to intelligentakıllı behaviordavranış.
258
689000
3000
ve bir şekilde, öngörü, zeki davranışlara olanak sağlıyor.
11:57
And here'sburada how that happensolur. Let's startbaşlama with a non-intelligentAkıllı Sigara brainbeyin.
259
692000
3000
Bu da şöyle oluyor: Zeki olmayan bir beyinle başlayalım.
12:00
Well I'll arguetartışmak a non-intelligentAkıllı Sigara brainbeyin, we got holdambar of an oldeski brainbeyin,
260
695000
4000
Zeki olmayan bir beynin -- eski bir beyin bulduk, diyelim --
12:04
and we're going to say it's like a non-mammalolmayan memeli, like a reptilesürüngen,
261
699000
3000
-- ve bir memeliye ait değil, bir sürüngen gibi, diyelim --
12:07
so I'll say, an alligatortimsah; we have an alligatortimsah.
262
702000
2000
-- Bir timsah, diyelim; elimizde bir timsah var.
12:09
And the alligatortimsah has some very sophisticatedsofistike sensesduyular.
263
704000
3000
Ve timsahların bazı çok karmaşık duyuları vardır.
12:12
It's got good eyesgözleri and earskulaklar and touchdokunma sensesduyular and so on,
264
707000
3000
Çok iyi gözleri ve kulakları, ve dokunma duyusu vardır.
12:15
a mouthağız and a noseburun. It has very complexkarmaşık behaviordavranış.
265
710000
4000
Ağzı, burnu var. Çok karmaşık davranışları vardır.
12:19
It can runkoş and hidesaklamak. It has fearsendişe and emotionsduygular. It can eatyemek you, you know.
266
714000
4000
Kaçıp saklanabilir. Korkuları ve duyguları vardır. Sizi yiyebilir de, değil mi?
12:23
It can attacksaldırı. It can do all kindsçeşit of stuffşey.
267
718000
4000
Saldırabilir. Bütün bunları yapabilir.
12:27
But we don't considerdüşünmek the alligatortimsah very intelligentakıllı, not like in a humaninsan sortçeşit of way.
268
722000
5000
Ama biz timsahı pek zeki bulmayız, bir insan gibi değildir yani.
12:32
But it has all this complexkarmaşık behaviordavranış alreadyzaten.
269
727000
2000
Ama zaten çok karmaşık davranışları var.
12:34
Now, in evolutionevrim, what happenedolmuş?
270
729000
2000
Şimdi, evrimde ne oldu?
12:36
First thing that happenedolmuş in evolutionevrim with mammalsmemeliler,
271
731000
3000
Memelilerin evriminde olan ilk şey:
12:39
we startedbaşladı to developgeliştirmek a thing calleddenilen the neocortexneokorteks.
272
734000
2000
Neokorteks diye bir şey edindik.
12:41
And I'm going to representtemsil etmek the neocortexneokorteks here,
273
736000
2000
Neokorteksi, eski beynin üstündeki
12:43
by this boxkutu that's stickingyapışkan on topüst of the oldeski brainbeyin.
274
738000
2000
kutuyla temsil edelim.
12:45
NeocortexYeni korteksimiz meansanlamına geliyor newyeni layertabaka. It is a newyeni layertabaka on topüst of your brainbeyin.
275
740000
3000
Neokorteks, "yeni katman" demek. Beyninizin üzerinde yeni bir katman.
12:48
If you don't know it, it's the wrinklykırışık thing on the topüst of your headkafa that,
276
743000
3000
Bilmiyorsanız, başınızın üstündeki o buruş buruş şey;
12:51
it's got wrinklykırışık because it got shoveditti in there and doesn't fituygun.
277
746000
3000
buruş buruş, çünkü oraya girsin diye iyice sıkıştırılmış.
12:54
(LaughterKahkaha)
278
749000
1000
(Kahkahalar)
12:55
No, really, that's what it is. It's about the sizeboyut of a tabletablo napkinpeçete.
279
750000
2000
Hayır, geçrketen öyle. Bir kumaş peçete kadar boyu var.
12:57
And it doesn't fituygun, so it getsalır all wrinklykırışık. Now look at how I've drawnçekilmiş this here.
280
752000
3000
Ve oraya sığmıyor, o yüzden buruşuyor. Bunu nasıl çizdiğime dikkat edin.
13:00
The oldeski brainbeyin is still there. You still have that alligatortimsah brainbeyin.
281
755000
4000
Eski beyin hâlâ orada. Hâlâ o timsah beyni sizde var.
13:04
You do. It's your emotionalduygusal brainbeyin.
282
759000
2000
Hâlâ var. O, duygusal beyniniz.
13:06
It's all those things, and all those gutbağırsak reactionsreaksiyonları you have.
283
761000
3000
Bütün o şeyler ve içgüdüsel tepkileriniz o işte.
13:09
And on topüst of it, we have this memorybellek systemsistem calleddenilen the neocortexneokorteks.
284
764000
3000
Ve onun üzerinde, neokorteks dediğimiz hafıza sistemi var.
13:12
And the memorybellek systemsistem is sittingoturma over the sensoryduyusal partBölüm of the brainbeyin.
285
767000
4000
Ve hafıza sistemi, beynin duyusal kısmının hemen üstünde.
13:16
And so as the sensoryduyusal inputgiriş comesgeliyor in and feedsbeslemeleri from the oldeski brainbeyin,
286
771000
3000
Yani duyusal veriler eski beyne girdikçe
13:19
it alsoAyrıca goesgider up into the neocortexneokorteks. And the neocortexneokorteks is just memorizingezberleme.
287
774000
4000
neokortekse çıkıyor. Ve neokorteks sadece ezberliyor.
13:23
It's sittingoturma there sayingsöz, ahAh, I'm going to memorizeezberlemek all the things that are going on:
288
778000
4000
Orada oturup diyor ki: "Bütün bu olup biteni ezberlemem lazım;
13:27
where I've been, people I've seengörüldü, things I've heardduymuş, and so on.
289
782000
2000
"bulunduğum yerler, gördüğüm insanlar, duyduğum şeyler..." vesaire.
13:29
And in the futuregelecek, when it seesgörür something similarbenzer to that again,
290
784000
4000
Ve gelecekte, ona benzer bir şeyi,
13:33
so in a similarbenzer environmentçevre, or the exactkesin sameaynı environmentçevre,
291
788000
3000
benzer veya birebir aynı ortamda tekrar görünce,
13:36
it'llolacak playoyun it back. It'llİtll ' startbaşlama playingoynama it back.
292
791000
2000
kayıtları tekrar oynatmaya başlayacak.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
"A, ben daha önce burda bulunmuştum. Ve daha önce buradayken,
13:40
this happenedolmuş nextSonraki. It allowsverir you to predicttahmin the futuregelecek.
294
795000
3000
"sonra şöyle olmuştu". Geleceği öngörmenizi sağlıyor.
13:43
It allowsverir you to, literallyharfi harfine it feedsbeslemeleri back the signalssinyalleri into your brainbeyin;
295
798000
4000
Sinyalleri tekrar beyninize yollar ve
13:47
they'llacaklar let you see what's going to happenolmak nextSonraki,
296
802000
2000
bir sonra olacakları görmenizi,
13:49
will let you hearduymak the wordsözcük "sentencecümle" before I said it.
297
804000
3000
ben söylemeden "biliyorsunuz"u duymanızı sağlar.
13:52
And it's this feedingbesleme back into the oldeski brainbeyin
298
807000
3000
Ve daha zekice kararlar almanızı sağlayacak olan şey
13:55
that'llo olacak allowizin vermek you to make very more intelligentakıllı decisionskararlar.
299
810000
3000
sinyallerin eski beyne tekrar bildirilmesidir.
13:58
This is the mostçoğu importantönemli slidekaymak of my talk, so I'll dwellyaşamak on it a little bitbit.
300
813000
3000
Bu, konuşmamdaki en önemli slayt; o yüzden biraz üzerinde durmak istiyorum.
14:01
And so, all the time you say, oh, I can predicttahmin the things.
301
816000
4000
Siz böylelikle sürekli, "a, öngörebiliyorum" dersiniz.
14:05
And if you're a ratsıçan and you go throughvasitasiyla a mazeLabirent, and then you learnöğrenmek the mazeLabirent,
302
820000
3000
Ve eğer bir fareyseniz ve bir labirentten geçip, labirenti öğrenirseniz
14:08
the nextSonraki time you're in a mazeLabirent, you have the sameaynı behaviordavranış,
303
823000
2000
labirente bir daha girdiğinizde, davranışlarınız aynı olacak,
14:10
but all of a suddenani, you're smarterdaha akıllı
304
825000
2000
ama birden daha zeki olacaksınız,
14:12
because you say, oh, I recognizetanımak this mazeLabirent, I know whichhangi way to go,
305
827000
3000
çünkü diyeceksiniz ki: "A, ben bu labirenti biliyorum, nereden gideceğimi de biliyorum,
14:15
I've been here before, I can envisionöngörülüyor the futuregelecek. And that's what it's doing.
306
830000
3000
"daha önce burada bulunmıştum; geleceğini canlandırabiliyorum". Ve fare de böyle yapar.
14:18
In humansinsanlar -- by the way, this is truedoğru for all mammalsmemeliler;
307
833000
3000
İnsanlarda -- bu arada, bu bütün memeliler için geçerli --
14:21
it's truedoğru for other mammalsmemeliler -- and in humansinsanlar, it got a lot worsedaha da kötüsü.
308
836000
2000
bu, bütün memeliler için geçerli ve insanlarda daha da kötüleşti.
14:23
In humansinsanlar, we actuallyaslında developedgelişmiş the frontön partBölüm of the neocortexneokorteks
309
838000
3000
Biz neokorteksin ön bölümünü geliştirdik,
14:26
calleddenilen the anteriorön partBölüm of the neocortexneokorteks. And naturedoğa did a little trickhile.
310
841000
4000
"anterior neokorteks" denen bölgeyi. Ve doğa küçük bir oyun oynadı.
14:30
It copiedkopyalanan the posteriorposterior partBölüm, the back partBölüm, whichhangi is sensoryduyusal,
311
845000
2000
"Posterior" bölgeyi -- duyusal olan arka bölgeyi --
14:32
and put it in the frontön partBölüm.
312
847000
2000
kopyaladı ve öne koydu.
14:34
And humansinsanlar uniquelybenzersiz have the sameaynı mechanismmekanizma on the frontön,
313
849000
2000
Ve, aynı mekanizma, eşsiz bir biçimde, insanlarda öndede var;
14:36
but we use it for motormotor controlkontrol.
314
851000
2000
ama biz onu hareketleri kontrol etmede kullanıyoruz.
14:38
So we are now ableyapabilmek to make very sophisticatedsofistike motormotor planningplanlama, things like that.
315
853000
3000
Bu yüzden çok karmaşık hareketler tasarlayabiliyoruz.
14:41
I don't have time to get into all this, but if you want to understandanlama how a brainbeyin worksEserleri,
316
856000
3000
Bundan bahsedecek çok vaktim yok; ama beynin nasıl çalıştığını anlamak istiyorsanız
14:44
you have to understandanlama how the first partBölüm of the mammalianmemeli neocortexneokorteks worksEserleri,
317
859000
3000
memelilerdeki neokorteksin ilk bölümünün nasıl çalıştığını anlamanız lazım--
14:47
how it is we storemağaza patternsdesenler and make predictionstahminler.
318
862000
2000
-- örüntüleri nasıl kaydedip, tahmin yürüttüğümüzü.
14:49
So let me give you a fewaz examplesörnekler of predictionstahminler.
319
864000
3000
Size bu tahminlerle ilgili birkaç örnek vereyim.
14:52
I alreadyzaten said the wordsözcük "sentencecümle." In musicmüzik,
320
867000
2000
"Biliyorsunuz" kelimesi söylemiştim. Müzikte,
14:54
if you've heardduymuş a songşarkı before, if you heardduymuş JillJill singşarkı söyle those songsşarkılar before,
321
869000
3000
eğer bir şarkıyı, mesela Jill'in o şarkıları söylediğini daha önce duyduysanız,
14:57
when she singsşarkı söyler them, the nextSonraki noteNot popsPOP'ları into your headkafa alreadyzaten --
322
872000
3000
o söylerken, bir sonraki nota aklınıza geliverir--
15:00
you anticipatetahmin etmek it as you're going. If it was an albumalbüm of musicmüzik,
323
875000
2000
söylerken tahmin edersiniz. Eğer bir albüm olsaydı --
15:02
the endson of one albumalbüm, the nextSonraki songşarkı popsPOP'ları into your headkafa.
324
877000
3000
bir şarkının sonundayken, bir sonraki şarkı aklınıza geliverir.
15:05
And these things happenolmak all the time. You're makingyapma these predictionstahminler.
325
880000
2000
Bu tür şeyler sürekli olmakta. Böyle tahminlerde bulunuyorsunuz.
15:07
I have this thing calleddenilen the altereddeğişmiş doorkapı thought experimentdeney.
326
882000
3000
"'Değiştirilmiş kapı' düşünce deneyi" dediğim bir şey var.
15:10
And the altereddeğişmiş doorkapı thought experimentdeney saysdiyor, you have a doorkapı at home,
327
885000
3000
Buna göre, evde bir kapınız var;
15:13
and when you're here, I'm changingdeğiştirme it, I've got a guy
328
888000
3000
ve siz buradayken, ben onu değiştiriyorum;
15:16
back at your houseev right now, movinghareketli the doorkapı around,
329
891000
2000
şu an sizin evde birisi var, kapıyı kurcalıyor,
15:18
and they're going to take your doorknobKapı kolu and movehareket it over two inchesinç.
330
893000
2000
ve kapı kulbunu birkaç santim yukarı kaldıracak.
15:20
And when you go home tonightBu gece, you're going to put your handel out there,
331
895000
2000
Ve siz bu akşam eve döndüğünüzde, elinizi uzatacaksınız,
15:22
and you're going to reachulaşmak for the doorknobKapı kolu and you're going to noticeihbar
332
897000
2000
kapı kulbunu ararken fark edeceksiniz ki
15:24
it's in the wrongyanlış spotyer, and you'llEğer olacak go, whoaçüş, something happenedolmuş.
333
899000
3000
kulp yanlış yerde, ve "bir şeyler olmuş", diyeceksiniz.
15:27
It mayMayıs ayı take a secondikinci to figureşekil out what it was, but something happenedolmuş.
334
902000
2000
Ne olduğunu anlamanız bir iki saniyenizi alabilir, ama bir şeyler olmuş.
15:29
Now I could changedeğişiklik your doorknobKapı kolu in other waysyolları.
335
904000
2000
Kapı kulbunuzu başka şekilde de değiştirebilirdim.
15:31
I can make it largerdaha büyük or smallerdaha küçük, I can changedeğişiklik its brasspirinç to silvergümüş,
336
906000
2000
Büyültüp küçültebilirim; bakırsa gümüş yapabilirim;
15:33
I could make it a leverkolu. I can changedeğişiklik your doorkapı, put colorsrenkler on;
337
908000
2000
manivela yapabilirim. Kapınızı değiştirebilirim, boyarım,
15:35
I can put windowspencereler in. I can changedeğişiklik a thousandbin things about your doorkapı,
338
910000
3000
göz pencere koyabilirim. Kapınızı bin bir şekilde değiştirebilirim,
15:38
and in the two secondssaniye you take to openaçık your doorkapı,
339
913000
2000
ve kapınızı açtığınız o iki saniye içinde
15:40
you're going to noticeihbar that something has changeddeğişmiş.
340
915000
3000
bir şeylerin değiştiğini fark edersiniz.
15:43
Now, the engineeringmühendislik approachyaklaşım to this, the AIAI approachyaklaşım to this,
341
918000
2000
Şimdi, mühendisliğin, yapay zekânın buna yaklaşımı
15:45
is to buildinşa etmek a doorkapı databaseveritabanı. It has all the doorkapı attributesöznitelikleri.
342
920000
3000
kapının bütün özelliklerini tutan bir "kapı veritabanı" kurmaktır.
15:48
And as you go up to the doorkapı, you know, let's checkKontrol them off one at time.
343
923000
3000
Ve siz kapıya giderken, "bütün özellikleri tek tek kontrol edelim.
15:51
DoorKapı, doorkapı, doorkapı, you know, colorrenk, you know what I'm sayingsöz.
344
926000
2000
"kapı, kapı, kapı..." Rengi falan, ne dediğimi anladınız.
15:53
We don't do that. Your brainbeyin doesn't do that.
345
928000
2000
Biz öyle yapmayız ki. Beyniniz öyle yapmaz.
15:55
What your brainbeyin is doing is makingyapma constantsabit predictionstahminler all the time
346
930000
2000
Beyniniz, içinde bulunduğunuz ortamda
15:57
about what is going to happenolmak in your environmentçevre.
347
932000
2000
ne olacağıyla ilgili sürekli tahmin yürütür.
15:59
As I put my handel on this tabletablo, I expectbeklemek to feel it stop.
348
934000
3000
Elimi masaya koyarken, duracağını hissetmeyi bekliyorum.
16:02
When I walkyürümek, everyher stepadım, if I missedcevapsız it by an eighthsekizinci of an inchinç,
349
937000
3000
Yürürken, bir adımım yarım santim kısa düşse,
16:05
I'll know something has changeddeğişmiş.
350
940000
2000
bir şeyin değiştiğini anlarım.
16:07
You're constantlysürekli makingyapma predictionstahminler about your environmentçevre.
351
942000
2000
Çevrenizle ilgili sürekli tahmin yürütüyorsunuz.
16:09
I'll talk about visionvizyon here brieflykısaca. This is a pictureresim of a womankadın.
352
944000
3000
Kısaca görme yetisinden bahsedeyim. Bu bir kadın resmi.
16:12
And when you look at people, your eyesgözleri are caughtyakalandı
353
947000
2000
İnsanlara baktığınızda, gözlerinize saniyede
16:14
over at two to threeüç timeszamanlar a secondikinci.
354
949000
1000
iki-üç defadan fazla bakarlar.
16:15
You're not awarefarkında of this, but your eyesgözleri are always movinghareketli.
355
950000
2000
Bunun farkında değilsiniz, ama gözleriniz sürekli harket eder.
16:17
And so when you look at someone'sbirisi var faceyüz,
356
952000
2000
Yani birinin yüzüne baktığınızda,
16:19
you'dşimdi etsen typicallytipik go from eyegöz to eyegöz to eyegöz to noseburun to mouthağız.
357
954000
2000
genellikle bir o göze, bir bu göze, bir o göze, burna ve ağza bakarsınız.
16:21
Now, when your eyegöz moveshamle from eyegöz to eyegöz,
358
956000
2000
Şimdi, gözleriniz bir gözden diğerine geçerken
16:23
if there was something elsebaşka there like, a noseburun,
359
958000
2000
orada burun gibi başka bir şey olsaydı,
16:25
you'dşimdi etsen see a noseburun where an eyegöz is supposedsözde to be,
360
960000
2000
gözün olması gereken yerde bir burun görürdünüz,
16:27
and you'dşimdi etsen go, oh shitbok, you know --
361
962000
3000
ve -- "Vay anasını!" dersin,
16:30
(LaughterKahkaha)
362
965000
1000
(Kahkahalar)
16:31
There's something wrongyanlış about this personkişi.
363
966000
2000
"bu insanda ters olan bir şeyler var".
16:33
And that's because you're makingyapma a predictiontahmin.
364
968000
2000
Çünkü bir öngörüde bulunuyorsunuz.
16:35
It's not like you just look over there and say, what am I seeinggörme now?
365
970000
2000
Oraya bakıp da, "Şimdi ben ne görüyorum?
16:37
A noseburun, that's okay. No, you have an expectationbeklenti of what you're going to see.
366
972000
3000
"Bir burun, tamam" demiyorsunuz. Ne göreceğinizle ilgili bir beklentiniz var --
16:40
(LaughterKahkaha)
367
975000
1000
(Kahkahalar)
16:41
EveryHer singletek momentan. And finallyen sonunda, let's think about how we testÖlçek intelligencezeka.
368
976000
4000
-- her an. Ve son olarak, zekâyı nasıl sınayabileceğimizi düşünelim.
16:45
We testÖlçek it by predictiontahmin. What is the nextSonraki wordsözcük in this, you know?
369
980000
3000
Tahminlerle sınarız. "Bu cümledeki bir sonraki kelime --?" gibi.
16:48
This is to this as this is to this. What is the nextSonraki numbernumara in this sentencecümle?
370
983000
3000
"Bununla bunun arasındaki ilişki, şununla şunun arasındaki ilişki. Bu cümledeki bir sonraki sayı kaçtır", falan.
16:51
Here'sİşte threeüç visionsvizyonları of an objectnesne.
371
986000
2000
"Bir nesnenin üç görüntüsü şöyledir.
16:53
What's the fourthdördüncü one? That's how we testÖlçek it. It's all about predictiontahmin.
372
988000
4000
"Dördüncüsü nasıldır?" Böyle sınarız. Bunların hepsi tahminlerle ilgili.
16:57
So what is the recipeyemek tarifi for brainbeyin theoryteori?
373
992000
3000
Öyleyse beyin teorisi nelerden oluşur?
17:00
First of all, we have to have the right frameworkiskelet.
374
995000
3000
Öncelikle, doğru çerçeveyi seçmemiz lazım.
17:03
And the frameworkiskelet is a memorybellek frameworkiskelet,
375
998000
2000
Ve çerçeve bir hafıza çerçevesi;
17:05
not a computationhesaplama or behaviordavranış frameworkiskelet. It's a memorybellek frameworkiskelet.
376
1000000
2000
hesaplama veya davranış çerçevesi değil. Bir hafıza çerçevesi.
17:07
How do you storemağaza and recallhatırlama these sequencesdizileri or patternsdesenler? It's spatio-temporalkendisinin zamansal patternsdesenler.
377
1002000
4000
Bu dizileri veya örüntüleri nasıl kaydedip hatırlıyoruz? Uzay-zamansal örüntüler.
17:11
Then, if in that frameworkiskelet, you take a bunchDemet of theoreticiansteorisyenler.
378
1006000
3000
Öyleyse, o çerçevede, bir grup teorisyenle çalışırsınız.
17:14
Now biologistsbiyologlar generallygenellikle are not good theoreticiansteorisyenler.
379
1009000
2000
Biyologlar genelde iyi teorisyenler değildir.
17:16
It's not always truedoğru, but in generalgenel, there's not a good historytarih of theoryteori in biologyBiyoloji.
380
1011000
4000
İstisnalar vardır; ama genelde, teorinin biyolojide çok önemli bir yeri olmamıştır.
17:20
So I foundbulunan the besten iyi people to work with are physicistsfizikçiler,
381
1015000
3000
O yüzden bence en iyisi fizikçilerle, mühendislerle,
17:23
engineersmühendisler and mathematiciansmatematikçiler, who tendeğiliminde to think algorithmicallyalgoritmik.
382
1018000
3000
matematikçilerle, algoritmik düşünen insanlarla çalışmak.
17:26
Then they have to learnöğrenmek the anatomyanatomi, and they'veonlar ettik got to learnöğrenmek the physiologyfizyoloji.
383
1021000
3000
Onların da anatomi ve fizyoloji öğrenmesi gerekiyor.
17:29
You have to make these theoriesteoriler very realisticgerçekçi in anatomicalanatomik termsşartlar.
384
1024000
4000
Bu teorilerin anatomik açıdan gerçekçi olması lazım.
17:33
AnyoneKimse who getsalır up and tellsanlatır you theironların theoryteori about how the brainbeyin worksEserleri
385
1028000
4000
Her kim ki, kalkıp, beynin işleyişiyle ilgili teorisini anlatır,
17:37
and doesn't tell you exactlykesinlikle how it's workingçalışma in the brainbeyin
386
1032000
2000
ama onun, beynin içinde tam olarak nasıl uygulandığını,
17:39
and how the wiringkablolama worksEserleri in the brainbeyin, it is not a theoryteori.
387
1034000
2000
ve beyindeki şebekenin nasıl çalıştığını açıklayamaz, o teori değildir.
17:41
And that's what we're doing at the RedwoodRedwood NeuroscienceNörolojik InstituteEnstitüsü.
388
1036000
3000
Ve biz Redwood Nöroloji Enstitüsü'nde bunu yapıyoruz.
17:44
I would love to have more time to tell you we're makingyapma fantasticfantastik progressilerleme in this thing,
389
1039000
4000
Keşke bundan bahsedecek vaktim olsa. Mükemmeler ilerlemeler kaydediyoruz,
17:48
and I expectbeklemek to be back up on this stageevre,
390
1043000
2000
ve sanıyorum ki tekrar bu sahneye çıkıp,
17:50
maybe this will be some other time in the not too distantuzak futuregelecek and tell you about it.
391
1045000
2000
-- belki çok uzak olmayan gelecekte -- size bundan bahsederim.
17:52
I'm really, really excitedheyecanlı. This is not going to take 50 yearsyıl at all.
392
1047000
3000
Gerçekten çok heyecanlıyım. Bu 50 sene falan almayacak.
17:55
So what will brainbeyin theoryteori look like?
393
1050000
2000
Peki, beyin teorisi neye benzeyecek?
17:57
First of all, it's going to be a theoryteori about memorybellek.
394
1052000
2000
Öncelikle, hafızayla ilgili bir teori olacak.
17:59
Not like computerbilgisayar memorybellek. It's not at all like computerbilgisayar memorybellek.
395
1054000
3000
Bilgisayar hafızası gibi değil. Bilgisayar hafızasına hiç benzemiyor.
18:02
It's very, very differentfarklı. And it's a memorybellek of these very
396
1057000
2000
Çok çok farklı. Gözünüzden gelenler gibi, birden fazla
18:04
high-dimensionalyüksek boyutlu patternsdesenler, like the things that come from your eyesgözleri.
397
1059000
3000
birimle ifade edilen örüntülerin kaydedildiği bir hafıza.
18:07
It's alsoAyrıca memorybellek of sequencesdizileri.
398
1062000
2000
Aynı zamanda bir dizi hafızası.
18:09
You cannotyapamam learnöğrenmek or recallhatırlama anything outsidedışında of a sequencesıra.
399
1064000
2000
Hiçbir şeyi bir dizinin haricinde öğrenemezsiniz veya hatırlayamazsınız.
18:11
A songşarkı mustşart be heardduymuş in sequencesıra over time,
400
1066000
3000
Bir şarkı zaman içinde bir dizi hâlinde duyulmalıdır,
18:14
and you mustşart playoyun it back in sequencesıra over time.
401
1069000
3000
ve siz de zaman içinde bir dizi hâlinde aklınızdan tekrar çalmalısınız.
18:17
And these sequencesdizileri are auto-associativelyAuto-associatively recalledHatırlanacağı, so if I see something,
402
1072000
3000
Ve bu diziler, oto-çağrışımsal olarak hatırlanır.
18:20
I hearduymak something, it remindshatırlatır me of it, and then it playsoyunlar back automaticallyotomatik olarak.
403
1075000
3000
Gördüğüm, duyduğum bir şey bana onu hatırlatırsa, kendiliğinden tekrar çalmaya başlar.
18:23
It's an automaticOtomatik playbackkayıttan yürütme. And predictiontahmin of futuregelecek inputsgirişler is the desiredistenen outputçıktı.
404
1078000
4000
Otomatik pleybek. Ve istenen çıktı, gelecek girdilerin tahmin edilmesidir.
18:27
And as I said, the theoryteori mustşart be biologicallybiyolojik olarak accuratedoğru,
405
1082000
3000
Ve dediğim gibi, teorinin biyolojik açıdan eksiksiz olması lazım;
18:30
it mustşart be testabletest edilebilir, and you mustşart be ableyapabilmek to buildinşa etmek it.
406
1085000
2000
sınanabilir olmalı ve onu kurabilmeniz lazım.
18:32
If you don't buildinşa etmek it, you don't understandanlama it. So, one more slidekaymak here.
407
1087000
4000
Kurmazsanız, anlamazsınız. Bir slayt daha var.
18:36
What is this going to resultsonuç in? Are we going to really buildinşa etmek intelligentakıllı machinesmakineler?
408
1091000
4000
Bunun sonucu ne olacak? Gerçekten akıllı makineler yapacak mıyız?
18:40
AbsolutelyKesinlikle. And it's going to be differentfarklı than people think.
409
1095000
4000
Kesinlikle! Ve bu insanların düşündüğünden farklı olacak.
18:44
No doubtşüphe that it's going to happenolmak, in my mindus.
410
1099000
3000
Bunu yapacağımıza dair hiç kuşkum yok.
18:47
First of all, it's going to be builtinşa edilmiş up, we're going to buildinşa etmek the stuffşey out of siliconsilikon.
411
1102000
4000
Öncelikle, bunu silikondan yapacağız.
18:51
The sameaynı techniquesteknikleri we use for buildingbina siliconsilikon computerbilgisayar memorieshatıralar,
412
1106000
3000
Silikon bilgisayar belleklerinde kullandığımız tekniklerimizi
18:54
we can use for here.
413
1109000
1000
burada da kullanabiliriz.
18:55
But they're very differentfarklı typestürleri of memorieshatıralar.
414
1110000
2000
Ama bunlar çok farklı tür hafızalar,
18:57
And we're going to attachiliştirmek these memorieshatıralar to sensorssensörler,
415
1112000
2000
ve bunları sensörlere bağlayacağız,
18:59
and the sensorssensörler will experiencedeneyim real-livegerçek canlı, real-worldgerçek dünya dataveri,
416
1114000
3000
ve bu sensörler gerçek hayattan, gerçek dünyadan veriler alacaklar,
19:02
and these things are going to learnöğrenmek about theironların environmentçevre.
417
1117000
2000
ve bu şeyler çevrelerini öğrenecekler.
19:04
Now it's very unlikelyolası olmayan the first things you're going to see are like robotsrobotlar.
418
1119000
3000
İlk olarak robotları görme ihtimalimiz çok düşük.
19:07
Not that robotsrobotlar aren'tdeğil usefulişe yarar and people can buildinşa etmek robotsrobotlar.
419
1122000
3000
Robotlar kullanışsız olduğundan veya zaten yapıldığından değil.
19:10
But the roboticsRobotik partBölüm is the hardestEn zor partBölüm. That's the oldeski brainbeyin. That's really hardzor.
420
1125000
4000
Robotlarla ilgili kısım en zoru. O eski beyin. Orası bayağı zor.
19:14
The newyeni brainbeyin is actuallyaslında kindtür of easierDaha kolay than the oldeski brainbeyin.
421
1129000
2000
Yeni beyin aslında eski beyinden daha kolay.
19:16
So the first thing we're going to do are the things that don't requiregerektirir a lot of roboticsRobotik.
422
1131000
3000
O yüzden ilk yapacaklarımız, çok robotik gerektirmeyen şeyler olacak.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Yani bir C-3PO göremeyeceksiniz.
19:21
You're going to more see things like, you know, intelligentakıllı carsarabalar
424
1136000
2000
Daha çok, böyle, akıllı arabalar --
19:23
that really understandanlama what traffictrafik is and what drivingsürme is
425
1138000
3000
-- trafiğin ve şoförlüğün ne olduğunu anlayan,
19:26
and have learnedbilgili that certainbelli typestürleri of carsarabalar with the blinkersgüneş gözlüğü on for halfyarım a minutedakika
426
1141000
3000
ve sinyal ışığı yarım dakikadır yanan diğer arabaların
19:29
probablymuhtemelen aren'tdeğil going to turndönüş, things like that.
427
1144000
2000
muhtemelen dönmeyeceğini anlayan arabalar.
19:31
(LaughterKahkaha)
428
1146000
1000
(Kahkahalar)
19:32
We can alsoAyrıca do intelligentakıllı securitygüvenlik systemssistemler.
429
1147000
2000
Akıllı güvenlik sistemleri de yapabiliriz.
19:34
AnywhereHer yerde where we're basicallytemel olarak usingkullanma our brainbeyin, but not doing a lot of mechanicsmekanik.
430
1149000
4000
Beynimizi kullandığımız ama çok mekanik bir şey gerektirmeyen her alanda.
19:38
Those are the things that are going to happenolmak first.
431
1153000
2000
İlk olarak olacak şeyler bunlardır.
19:40
But ultimatelyen sonunda, the world'sDünyanın en the limitsınır here.
432
1155000
2000
Ama sonuçta, yapılabileceklerin sonu yok.
19:42
I don't know how this is going to turndönüş out.
433
1157000
2000
Bunun sonu nasıl olacak, bilmiyorum.
19:44
I know a lot of people who inventedicat edildi the microprocessorMikroişlemci
434
1159000
2000
"Mikro işlemci"yi icat edenlerin çoğunu tanıyorum ve
19:46
and if you talk to them, they knewbiliyordum what they were doing was really significantönemli,
435
1161000
5000
onlarla konuşursanız, yaptıklarının önemli olduğunun farkında olduklarını;
19:51
but they didn't really know what was going to happenolmak.
436
1166000
3000
ama tam olarak ne olacağını bilmediklerini söylerler.
19:54
They couldn'tcould anticipatetahmin etmek cellhücre phonestelefonlar and the InternetInternet and all this kindtür of stuffşey.
437
1169000
5000
Cep telefonlarını, İnternet'i ve benzer şeyleri kestirememişlerdir.
19:59
They just knewbiliyordum like, hey, they were going to buildinşa etmek calculatorshesap makineleri
438
1174000
2000
Sadece, hesap makineleri ve
20:01
and traffictrafik lightışık controllersdenetleyicileri. But it's going to be bigbüyük.
439
1176000
2000
trafik ışığı sistemleri falan yapacaklarını biliyorlardı. Ama çok önemli olacaktı!
20:03
In the sameaynı way, this is like brainbeyin scienceBilim and these memorieshatıralar
440
1178000
3000
Aynı şekilde, beyin araştırmaları ve bu bellekler
20:06
are going to be a very fundamentaltemel technologyteknoloji, and it's going to leadöncülük etmek
441
1181000
3000
çok önemli, etkili teknolojiler hâlini alacaklar ve
20:09
to very unbelievableInanılmaz changesdeğişiklikler in the nextSonraki 100 yearsyıl.
442
1184000
3000
gelecek yüz sene içinde inanılmaz değişikliklere olanak sağlayacaklar.
20:12
And I'm mostçoğu excitedheyecanlı about how we're going to use them in scienceBilim.
443
1187000
4000
Ve beni en çok heyecanlandıran da bunların bilimdeki kullanım alanları.
20:16
So I think that's all my time, I'm over it, and I'm going to endson my talk
444
1191000
3000
Sanıyorum sürem bu kadardı, süremi aştım ve konuşmamı da burada
20:19
right there.
445
1194000
1000
bitiriyorum.
Translated by Hakan Ergin

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee