ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Hibrit düşünmeye hazır olun

Filmed:
3,548,296 views

İki milyon yıl önce, memeli atalarımız yeni bir beyin fonksiyonu geliştirdiler: Neokorteks. Bu pul büyüklüğündeki doku parçası (bir ceviz büyüklüğündeki beynin etrafında sarılı) insanlığın geldiği yerin kilit noktasıdır. Şimdiyse, fütürist Ray Kurzweil, buluttaki işlem gücünden istifade ettikçe, beyin gücünde bir sonraki büyük sıçrayış için hazır olmamız gerektiğini öne sürüyor.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyÖykü.
0
988
2316
Size bir hikâye anlatmama izin verin.
00:15
It goesgider back 200 millionmilyon yearsyıl.
1
3304
1799
200 milyon yıl öncesine gidiyor.
00:17
It's a storyÖykü of the neocortexneokorteks,
2
5103
1984
Neokorteksin hikâyesi,
00:19
whichhangi meansanlamına geliyor "newyeni rindkabuklu."
3
7087
1974
"yeni yüzey" anlamına geliyor.
00:21
So in these earlyerken mammalsmemeliler,
4
9061
2431
İlk memelilerde,
00:23
because only mammalsmemeliler have a neocortexneokorteks,
5
11492
2055
-- sadece memelilerin neokorteksleri vardır--
00:25
rodent-likekemirgen gibi creaturesyaratıklar.
6
13547
1664
yani kemirgene benzer canlılarda,
00:27
It was the sizeboyut of a postageposta stampkaşe and just as thinince,
7
15211
3579
bir posta pulu büyüklüğünde ve inceliğindeydi.
Ceviz büyüklüğündeki beyinlerinin etrafında
00:30
and was a thinince coveringkapsayan around
8
18790
1439
00:32
theironların walnut-sizedceviz büyüklüğünde brainbeyin,
9
20229
2264
ince bir tabakaydı,
00:34
but it was capableyetenekli of a newyeni typetip of thinkingdüşünme.
10
22493
3701
ama yeni bir düşünme şekli gerçekleştirebiliyordu.
00:38
RatherDaha doğrusu than the fixedsabit behaviorsdavranışlar
11
26194
1567
Memeli olmayan diğer hayvanların
00:39
that non-mammalianolmayan memeli animalshayvanlar have,
12
27761
1992
sahip olduğu sabit davranışlar yerine,
00:41
it could inventicat etmek newyeni behaviorsdavranışlar.
13
29753
2692
yeni davranışlar icat edebiliyordu.
00:44
So a mousefare is escapingkaçan a predatoryırtıcı hayvan,
14
32445
2553
İşte bir fare yırtıcı bir hayvandan kaçıyor,
00:46
its pathyol is blockedbloke edilmiş,
15
34998
1540
yolu kapalı,
00:48
it'llolacak try to inventicat etmek a newyeni solutionçözüm.
16
36538
2129
yeni bir çözüm bulmaya çalışacak.
00:50
That mayMayıs ayı work, it mayMayıs ayı not,
17
38667
1266
İşe yarayabilir, yaramayabilir,
00:51
but if it does, it will rememberhatırlamak that
18
39933
1910
ancak işe yararsa, bunu hatırlayıp
00:53
and have a newyeni behaviordavranış,
19
41843
1292
yeni bir davranışa sahip olacak
00:55
and that can actuallyaslında spreadYAYILMIŞ virallyvirally
20
43135
1457
ve bu davranış, topluluk içinde
00:56
throughvasitasiyla the restdinlenme of the communitytoplum.
21
44592
2195
hızla yayılabilecek.
00:58
AnotherBaşka bir mousefare watchingseyretme this could say,
22
46787
1609
Bunu seyreden diğer bir fare şöyle diyebilir:
01:00
"Hey, that was prettygüzel cleverzeki, going around that rockKaya,"
23
48396
2704
"Hey, bu kayanın etrafından dolanmak çok akıllıcaydı."
01:03
and it could adoptbenimsemek a newyeni behaviordavranış as well.
24
51100
3725
Böylece o da bu yeni davranışı benimseyebilir.
01:06
Non-mammalianSigara-memeli animalshayvanlar
25
54825
1717
Memeli olmayan havyanlar bunların
01:08
couldn'tcould do any of those things.
26
56542
1713
hiçbirini yapamaz.
01:10
They had fixedsabit behaviorsdavranışlar.
27
58255
1215
Sabit davranışları vardır.
01:11
Now they could learnöğrenmek a newyeni behaviordavranış
28
59470
1331
Yeni bir davranışı öğrenebilirler,
01:12
but not in the coursekurs of one lifetimeömür.
29
60801
2576
ancak tek bir ömürde değil.
01:15
In the coursekurs of maybe a thousandbin lifetimesyaşam süreleri,
30
63377
1767
Belki de bin yaşam süresi boyunca,
01:17
it could evolvegelişmek a newyeni fixedsabit behaviordavranış.
31
65144
3330
yeni bir sabit davranış şekli geliştirebilirler.
01:20
That was perfectlykusursuzca okay 200 millionmilyon yearsyıl agoönce.
32
68474
3377
Bu, 200 milyon yıl önce tamamen kabul edilebilirdi.
01:23
The environmentçevre changeddeğişmiş very slowlyyavaşça.
33
71851
1981
Çevre çok yavaş değişiyordu.
01:25
It could take 10,000 yearsyıl for there to be
34
73832
1554
Önemli bir çevresel değişim olması için
01:27
a significantönemli environmentalçevre changedeğişiklik,
35
75386
2092
10.000 sene geçmesi gerekebilirdi,
01:29
and duringsırasında that perioddönem of time
36
77478
1382
bu süre boyunca
01:30
it would evolvegelişmek a newyeni behaviordavranış.
37
78860
2929
yeni bir davranış şekli gelişebilirdi.
01:33
Now that wentgitti alonguzun bir fine,
38
81789
1521
Bu böyle devam etti,
01:35
but then something happenedolmuş.
39
83310
1704
ancak sonra bir şeyler oldu.
01:37
Sixty-five65 millionmilyon yearsyıl agoönce,
40
85014
2246
65 milyon yıl önce,
01:39
there was a suddenani, violentşiddetli
changedeğişiklik to the environmentçevre.
41
87260
2615
çevrede ani ve şiddetli bir değişim oldu.
01:41
We call it the CretaceousKretase extinctionsönme eventolay.
42
89875
3505
Buna Kretase Kitlesel Yokoluşu diyoruz.
01:45
That's when the dinosaursdinozorlar wentgitti extinctsoyu tükenmiş,
43
93380
2293
Dinazorların neslinin tükendiği zaman bu,
01:47
that's when 75 percentyüzde of the
44
95673
3449
hayvan ve bitki türlerinin yüzde 75'inin
01:51
animalhayvan and plantbitki speciesTürler wentgitti extinctsoyu tükenmiş,
45
99122
2746
neslinin tükendiği zaman bu
ve memelilerin ekolojik konumlarını ele geçirdikleri
01:53
and that's when mammalsmemeliler
46
101868
1745
01:55
overtookgeçti theironların ecologicalekolojik nicheniş,
47
103613
2152
zaman bu.
01:57
and to anthropomorphizeanlayışlarımızın, biologicalbiyolojik evolutionevrim said,
48
105765
3654
Biyolojik evrim konuşabilse şöyle derdi:
"Hımm, bu neokorteks oldukça iyi bir şey."
02:01
"HmmHmm, this neocortexneokorteks is prettygüzel good stuffşey,"
49
109419
2025
02:03
and it beganbaşladı to growbüyümek it.
50
111444
1793
Böylece onu geliştirmeye başladı.
02:05
And mammalsmemeliler got biggerDaha büyük,
51
113237
1342
Memeliler daha büyüdüler,
02:06
theironların brainsbeyin got biggerDaha büyük at an even fasterDaha hızlı pacehız,
52
114579
2915
beyinleriyse daha da hızlı şekilde büyüdü
02:09
and the neocortexneokorteks got biggerDaha büyük even fasterDaha hızlı than that
53
117494
3807
ve neokorteks daha da hızlı şekilde büyüdü.
02:13
and developedgelişmiş these distinctiveayırıcı ridgessırtlar and foldskıvrımlar
54
121301
2929
Esasen kapladığı alanı büyütmek için de bu kendine özgü
02:16
basicallytemel olarak to increaseartırmak its surfaceyüzey areaalan.
55
124230
2881
çıkıntı ve girintileri geliştirdi.
02:19
If you tookaldı the humaninsan neocortexneokorteks
56
127111
1819
Eğer bir insan neokorteksini alıp gererseniz,
02:20
and stretchedgergin it out,
57
128930
1301
büyüklüğü yaklaşık olarak
02:22
it's about the sizeboyut of a tabletablo napkinpeçete,
58
130231
1713
bir peçete kadardır
02:23
and it's still a thinince structureyapı.
59
131944
1306
ve hâlâ ince bir yapısı vardır.
02:25
It's about the thicknesskalınlık of a tabletablo napkinpeçete.
60
133250
1980
Yaklaşık olarak bir peçete inceliğindedir.
02:27
But it has so manyçok convolutionsözyinelemelerinin and ridgessırtlar
61
135230
2497
Ancak bir sürü kıvrımı ve çıkıntısı vardır,
02:29
it's now 80 percentyüzde of our brainbeyin,
62
137727
3075
artık beynimizin yüzde 80'i kadardır
02:32
and that's where we do our thinkingdüşünme,
63
140802
2461
Burası düşünme eylemini gerçekleştirdiğimiz yerdir
02:35
and it's the great sublimatorSüblimatör.
64
143263
1761
ve büyük bir değişim yaratır.
02:37
We still have that oldeski brainbeyin
65
145024
1114
Temel içgüdülerimizi ve dürtülerimizi sağlayan
02:38
that providessağlar our basictemel drivessürücüler and motivationsmotivasyonları,
66
146138
2764
eski beynimize hâlâ sahibiz.
02:40
but I mayMayıs ayı have a drivesürücü for conquestfetih,
67
148902
2716
Ancak bir şeyleri keşfetmek için isteğim olabilir
02:43
and that'llo olacak be sublimatedyüceltilmiş by the neocortexneokorteks
68
151618
2715
ve bu neokorteks tarafından, şiir yazmaya,
02:46
into writingyazı a poemşiir or inventingicat an appUygulamanın
69
154333
2909
uygulama geliştirmeye ya da
bir TED konuşması yapmaya dönüştürülecektir.
02:49
or givingvererek a TEDTED Talk,
70
157242
1509
02:50
and it's really the neocortexneokorteks that's where
71
158751
3622
Bu eylemin gerçekleştiği yer
02:54
the actionaksiyon is.
72
162373
1968
tam olarak neokortekstir.
02:56
FiftyElli yearsyıl agoönce, I wroteyazdı a paperkâğıt
73
164341
1717
Elli yıl önce, beynin nasıl çalıştığını düşündüğümü
02:58
describingaçıklayan how I thought the brainbeyin workedişlenmiş,
74
166058
1918
açıklayan bir makale yazdım.
02:59
and I describedtarif edilen it as a seriesdizi of modulesmodüller.
75
167976
3199
Bir dizi modül olarak tanımladım.
03:03
EachHer modulemodül could do things with a patternmodel.
76
171175
2128
Her bir modül bir kalıpla bir şeyler yapabiliyordu.
03:05
It could learnöğrenmek a patternmodel. It could rememberhatırlamak a patternmodel.
77
173303
2746
Bir kalıbı öğrenebiliyordu. Bir kalıbı hatırlayabiliyordu.
03:08
It could implementuygulamak a patternmodel.
78
176049
1407
Bir kalıbı uygulayabiliyordu.
03:09
And these modulesmodüller were organizedörgütlü in hierarchieshiyerarşileri,
79
177456
2679
Bu modüller hiyerarşik olarak düzenlenmişti.
03:12
and we createdoluşturulan that hierarchyhiyerarşi with our ownkendi thinkingdüşünme.
80
180135
2954
Hiyerarşiyi kendi düşüncemizle yaratmıştık.
03:15
And there was actuallyaslında very little to go on
81
183089
3333
50 sene önce,
devam etmek için çok az şey vardı.
03:18
50 yearsyıl agoönce.
82
186422
1562
03:19
It led me to meetkarşılamak PresidentBaşkan JohnsonJohnson.
83
187984
2115
Bu, benim Başkan Johnson'la tanışmama sebep oldu.
03:22
I've been thinkingdüşünme about this for 50 yearsyıl,
84
190099
2173
Bu konuda 50 yıldır düşünmekteyim ve
03:24
and a yearyıl and a halfyarım agoönce I camegeldi out with the bookkitap
85
192272
2828
bir buçuk yıl önce "Bir Zihin Nasıl Yaratılır"
adlı kitabı çıkardım.
03:27
"How To CreateOluşturmak A MindZihin,"
86
195100
1265
03:28
whichhangi has the sameaynı thesistez,
87
196365
1613
Kitap aynı tezlere sahip,
03:29
but now there's a plethorabolluk of evidencekanıt.
88
197978
2812
ancak artık kanıt bolluğu var.
03:32
The amounttutar of dataveri we're gettingalma about the brainbeyin
89
200790
1814
Beyin hakkında edindiğimiz verilerin miktarı
03:34
from neurosciencenörobilim is doublingikiye katlama everyher yearyıl.
90
202604
2203
sinir bilimi sayesinde her sene iki kat artıyor.
03:36
SpatialKayma resolutionçözüm of brainscanningbrainscanning of all typestürleri
91
204807
2654
Her tür beyin taramanın boyutsal çözünürlüğü
03:39
is doublingikiye katlama everyher yearyıl.
92
207461
2285
her sene iki kat artıyor.
03:41
We can now see insideiçeride a livingyaşam brainbeyin
93
209746
1717
Artık yaşayan bir beynin içini görebiliyoruz.
03:43
and see individualbireysel interneuralinterneural connectionsbağlantıları
94
211463
2870
Tekil nöronlar arası bağlantıların oluşumunu
03:46
connectingbağlantı in realgerçek time, firingateş in realgerçek time.
95
214333
2703
gerçekleştiği sırada, ateşlendiği anda görebiliyoruz.
03:49
We can see your brainbeyin createyaratmak your thoughtsdüşünceler.
96
217036
2419
Beyninizin, düşüncelerinizi yaratışını görebiliyoruz.
03:51
We can see your thoughtsdüşünceler createyaratmak your brainbeyin,
97
219455
1575
Düşüncelerinizin, beyninizi yaratışını görebiliyoruz,
03:53
whichhangi is really keyanahtar to how it worksEserleri.
98
221030
1999
ki bu gerçekten nasıl çalıştığına dair kilit noktadır.
03:55
So let me describetanımlamak brieflykısaca how it worksEserleri.
99
223029
2219
Kısaca nasıl çalıştığını anlatmama izin verin.
03:57
I've actuallyaslında countedsayılır these modulesmodüller.
100
225248
2275
Sözünü ettiğim bu modülleri saydım.
03:59
We have about 300 millionmilyon of them,
101
227523
2046
300 milyon kadarına sahibiz
04:01
and we createyaratmak them in these hierarchieshiyerarşileri.
102
229569
2229
ve bunları şöyle hiyerarşiler içinde yaratıyoruz.
04:03
I'll give you a simplebasit exampleörnek.
103
231798
2082
Size basit bir örnek vereceğim.
04:05
I've got a bunchDemet of modulesmodüller
104
233880
2805
Büyük A harfindeki yatay çizgiyi tanıyacak
04:08
that can recognizetanımak the crossbarkol demiri to a capitalBaşkent A,
105
236685
3403
bir sürü modülüm var
04:12
and that's all they carebakım about.
106
240088
1914
ve ilgilendikleri tek şey bu.
04:14
A beautifulgüzel songşarkı can playoyun,
107
242002
1578
Güzel bir şarkı çalabilir,
04:15
a prettygüzel girlkız could walkyürümek by,
108
243580
1434
hoş bir kız geçebilir,
04:17
they don't carebakım, but they see
a crossbarkol demiri to a capitalBaşkent A,
109
245014
2846
umursamazlar, ama büyük A harfindeki yatay çizgiyi görürler.
04:19
they get very excitedheyecanlı and they say "crossbarkol demiri,"
110
247860
3021
Çok heyecanlanırlar ve "yatay çizgi" derler
04:22
and they put out a highyüksek probabilityolasılık
111
250881
2112
ve çıktı aksonlarına yüksek olasılık verirler.
04:24
on theironların outputçıktı axonAxon.
112
252993
1634
O da bir sonraki seviyeye gider
04:26
That goesgider to the nextSonraki levelseviye,
113
254627
1333
04:27
and these layerskatmanlar are organizedörgütlü in conceptualkavramsal levelsseviyeleri.
114
255960
2750
ve bu kademeler kavramsal seviyede organize olmuştur.
04:30
EachHer is more abstractsoyut than the nextSonraki one,
115
258710
1856
Her biri bir sonrakinden daha soyuttur,
04:32
so the nextSonraki one mightbelki say "capitalBaşkent A."
116
260566
2418
yani bir sonraki "büyük A harfi" diyebilir.
04:34
That goesgider up to a higherdaha yüksek
levelseviye that mightbelki say "AppleElma."
117
262984
2891
Bu da "Apple" (Elma) diyebilecek daha yüksek bir seviyeye gider.
04:37
InformationBilgi flowsakar down alsoAyrıca.
118
265875
2167
Bilgi de aşağıya doğru akar.
04:40
If the appleelma recognizertanıyıcı has seengörüldü A-P-P-LA-P-P-L,
119
268042
2936
Eğer apple (elma) sözcüğünü tanıyan kişi A-P-P-L görürse,
04:42
it'llolacak think to itselfkendisi, "HmmHmm, I
think an E is probablymuhtemelen likelymuhtemelen,"
120
270978
3219
kendi kendine şöyle düşünür, "Hımm, sanırım bir E olasılığı var,"
04:46
and it'llolacak sendgöndermek a signalişaret down to all the E recognizerstanıyıcıları
121
274197
2564
ve tüm E tanıyıcılarına doğru bir sinyal göndererek
04:48
sayingsöz, "Be on the lookoutuyanık for an E,
122
276761
1619
şöyle der: "E gelir mi diye bakadurun,
04:50
I think one mightbelki be cominggelecek."
123
278380
1556
bir tane gelebileceğini düşünüyorum."
04:51
The E recognizerstanıyıcıları will loweralt theironların thresholdeşik
124
279936
2843
E tanıyıcıları eşiklerini düşürüp,
04:54
and they see some sloppyyarım yamalak
thing, could be an E.
125
282779
1945
yarım yamalak bir şeyler görürler, bir E olabilir.
04:56
OrdinarilyNormalde you wouldn'tolmaz think so,
126
284724
1490
Normalde böyle düşünmezsiniz, ama
04:58
but we're expectingbekliyor an E, it's good enoughyeterli,
127
286214
2009
bir E bekliyoruz, bu yeterince iyi
05:00
and yeah, I've seengörüldü an E, and then appleelma saysdiyor,
128
288223
1817
evet, bir E gördüm, o zaman apple (elma). Der ki:
05:02
"Yeah, I've seengörüldü an AppleElma."
129
290040
1728
"Evet, bir Apple (elma) gördüm."
05:03
Go up anotherbir diğeri fivebeş levelsseviyeleri,
130
291768
1746
Beş seviye daha yukarı çıkın
05:05
and you're now at a prettygüzel highyüksek levelseviye
131
293514
1353
ve artık bu hiyerarşinin oldukça tepesinde
05:06
of this hierarchyhiyerarşi,
132
294867
1569
05:08
and stretchUzatmak down into the differentfarklı sensesduyular,
133
296436
2353
ve farklı duyulara yayılan bir yerdesiniz.
05:10
and you mayMayıs ayı have a modulemodül
that seesgörür a certainbelli fabrickumaş,
134
298789
2655
Belli bir kumaşı gören, belli bir ses kalitesini duyan,
05:13
hearsduyar a certainbelli voiceses qualitykalite,
smellskokuyor a certainbelli perfumeparfüm,
135
301444
2844
belli bir parfümü koklayan bir modülünüz olabilir
05:16
and will say, "My wifekadın eş has enteredgirdi the roomoda."
136
304288
2513
ve şöyle söyler: "Karım odaya girdi."
05:18
Go up anotherbir diğeri 10 levelsseviyeleri, and now you're at
137
306801
1895
10 seviye daha yukarı gidin, artık çok
05:20
a very highyüksek levelseviye.
138
308696
1160
yukarı bir seviyedesiniz.
05:21
You're probablymuhtemelen in the frontalön cortexkorteks,
139
309856
1937
Muhtemelen ön kortekste bulunuyorsunuz
05:23
and you'llEğer olacak have modulesmodüller that say, "That was ironicİronik.
140
311793
3767
ve şöyle söyleyen modülleriniz var: "Bu ironikti.
05:27
That's funnykomik. She's prettygüzel."
141
315560
2370
Bu komik. O kız çok hoş."
05:29
You mightbelki think that those are more sophisticatedsofistike,
142
317930
2105
Bunların daha sofistike olduğunu düşünebilirsiniz,
05:32
but actuallyaslında what's more complicatedkarmaşık
143
320035
1506
ama asıl karmaşık olan şey
05:33
is the hierarchyhiyerarşi beneathaltında them.
144
321541
2669
onların altındaki hiyerarşi.
05:36
There was a 16-year-old-yaşında girlkız, she had brainbeyin surgerycerrahlık,
145
324210
2620
16 yaşında bir kız vardı, beyin ameliyatı geçirmişti
05:38
and she was consciousbilinçli because the surgeonscerrahlar
146
326830
2051
ve bilinci yerindeydi, çünkü cerrahlar
05:40
wanted to talk to her.
147
328881
1537
onunla konuşmak istemişti.
05:42
You can do that because there's no painAğrı receptorsreseptörleri
148
330418
1822
Bunu yapabilirsiniz, çünkü beyinde
05:44
in the brainbeyin.
149
332240
1038
acı reseptörleri yoktur.
05:45
And wheneverher ne zaman they stimulateduyarılmış particularbelirli,
150
333278
1800
Ve ne zaman, burada kırmızıyla işaretli olan
05:47
very smallküçük pointsmakas on her neocortexneokorteks,
151
335078
2463
neokorteksindeki belli, çok küçük noktaları uyarsalar,
05:49
showngösterilen here in redkırmızı, she would laughgülmek.
152
337541
2665
kız gülmeye başlıyordu.
05:52
So at first they thought they were triggeringtetikleme
153
340206
1440
İlk başta bir çeşit gülme refleksini
05:53
some kindtür of laughgülmek reflexrefleks,
154
341646
1720
tetiklediklerini düşündüler.
05:55
but no, they quicklyhızlı bir şekilde realizedgerçekleştirilen they had foundbulunan
155
343366
2519
Fakat hayır, kısa sürede neokorteksinde mizah saptayan
05:57
the pointsmakas in her neocortexneokorteks that detectbelirlemek humormizah,
156
345885
3044
noktaları bulduklarını fark ettiler.
06:00
and she just foundbulunan everything hilariousneşeli
157
348929
1969
Bu noktaları ne zaman uyarsalar,
06:02
wheneverher ne zaman they stimulateduyarılmış these pointsmakas.
158
350898
2437
kız her şeyi eğlendirici buluyordu.
06:05
"You guys are so funnykomik just standingayakta around,"
159
353335
1925
"Orada öylece dikilirken çok komiksiniz,"
06:07
was the typicaltipik commentyorum Yap,
160
355260
1738
yorumu tipikti ve
06:08
and they weren'tdeğildi funnykomik,
161
356998
2302
komik değillerdi,
06:11
not while doing surgerycerrahlık.
162
359300
3247
yani ameliyat yaparken değil.
06:14
So how are we doing todaybugün?
163
362547
4830
Peki bugün ne durumdayız?
06:19
Well, computersbilgisayarlar are actuallyaslında beginningbaşlangıç to masterana
164
367377
3054
Bilgisayarlar neokortekse benzer tekniklerle
06:22
humaninsan languagedil with techniquesteknikleri
165
370431
2001
insan diline gerçekten de
06:24
that are similarbenzer to the neocortexneokorteks.
166
372432
2867
hâkim olmaya başladılar.
Aslında algoritmayı tanımladım.
06:27
I actuallyaslında describedtarif edilen the algorithmalgoritma,
167
375299
1514
06:28
whichhangi is similarbenzer to something calleddenilen
168
376813
2054
"Hiyerarşik saklı Markov modeli"
06:30
a hierarchicalhiyerarşik hiddengizli MarkovMarkov modelmodel,
169
378867
2233
denen şeye benziyor;
06:33
something I've workedişlenmiş on sincedan beri the '90s.
170
381100
3241
90'lardan beri üzerinde çalıştığım bir şeydi.
06:36
"JeopardyTehlike" is a very broadgeniş naturaldoğal languagedil gameoyun,
171
384341
3238
"Riziko (Jeopardy)" çok yaygın doğal bir dil oyunudur
06:39
and WatsonWatson got a higherdaha yüksek scoreGol
172
387579
1892
ve Watson en iyi iki oyuncunun toplamından
06:41
than the besten iyi two playersoyuncu combinedkombine.
173
389471
2000
daha yüksek bir puan almıştır.
06:43
It got this querySorgu correctdoğru:
174
391471
2499
Şu soruyu doğru bilmiştir:
06:45
"A long, tiresomeyorucu speechkonuşma
175
393970
2085
"Krema kaplı turtayla söylenen
06:48
deliveredteslim by a frothyköpüklü piepasta toppingTepesi,"
176
396055
2152
uzun ve sıkıcı konuşma,"
06:50
and it quicklyhızlı bir şekilde respondedcevap,
"What is a meringuebeze haranguesöylev?"
177
398207
2796
ve hemen cevap vermiştir, "Mereng nutku nedir?"
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
Ve Jennings ile diğer adam bunu anlamadılar.
06:55
It's a prettygüzel sophisticatedsofistike exampleörnek of
179
403638
1926
Bilgisayarların insan dilini gerçekten anladıklarına dair
06:57
computersbilgisayarlar actuallyaslında understandinganlayış humaninsan languagedil,
180
405564
1914
oldukça iyi bir örnek
06:59
and it actuallyaslında got its knowledgebilgi by readingokuma
181
407478
1652
ve aslında edindiği bilgiyi Wikipedia (Vikipedi) ve
07:01
WikipediaWikipedia and severalbirkaç other encyclopediasansiklopediler.
182
409130
3785
diğer başka ansiklopedileri okuyarak öğreniyor.
07:04
FiveBeş to 10 yearsyıl from now,
183
412915
2133
Bundan beş ilâ on yıl sonra,
07:07
searcharama enginesmotorlar will actuallyaslında be basedmerkezli on
184
415048
2184
arama motorları sadece kelime ve bağlantı
07:09
not just looking for combinationskombinasyonlar of wordskelimeler and linksbağlantılar
185
417232
2794
kombinasyonları aramak yerine,
07:12
but actuallyaslında understandinganlayış,
186
420026
1914
gerçekten de anlamaya,
07:13
readingokuma for understandinganlayış the billionsmilyarlarca of pagessayfalar
187
421940
2411
internet ağında ve kitaplarda milyarlarca sayfayı
07:16
on the web and in bookskitaplar.
188
424351
2733
anlamak için okumaya dayanacak.
07:19
So you'llEğer olacak be walkingyürüme alonguzun bir, and GoogleGoogle will poppop up
189
427084
2616
Yani yürürken Google ortaya çıkıp şöyle diyecek,
07:21
and say, "You know, MaryMary, you expressedifade concernilgilendirmek
190
429700
3081
"Bak Mary, bir ay önce bana glutatyon haplarının
07:24
to me a monthay agoönce that your glutathioneglutatyon supplementek
191
432781
3019
kan-beyin bariyerini geçmediği hakkında endişelerini dile getirmiştin.
07:27
wasn'tdeğildi gettingalma pastgeçmiş the blood-brainKan-beyin barrierbariyer.
192
435800
2231
Sadece 13 saniye önce buna yepyeni bir
07:30
Well, newyeni researchAraştırma just camegeldi out 13 secondssaniye agoönce
193
438031
2593
yaklaşım getiren ve glutatyon almanın
07:32
that showsgösterileri a wholebütün newyeni approachyaklaşım to that
194
440624
1711
yeni bir yolunu gösteren
07:34
and a newyeni way to take glutathioneglutatyon.
195
442335
1993
yeni bir araştırma ortaya çıktı.
07:36
Let me summarizeözetlemek it for you."
196
444328
2562
Sana bunu özetlememe izin ver."
07:38
TwentyYirmi yearsyıl from now, we'lliyi have nanobotsNanobotlar,
197
446890
3684
Bundan yirmi yıl sonra nano robotlarımız olacak,
çünkü bir diğer katlanarak artan eğilim de
07:42
because anotherbir diğeri exponentialüstel trendakım
198
450574
1627
07:44
is the shrinkingbüzülür of technologyteknoloji.
199
452201
1615
teknolojinin küçülmesi.
07:45
They'llOnlar olacak go into our brainbeyin
200
453816
2370
Kılcal damarlar aracılığıyla
07:48
throughvasitasiyla the capillarieskılcal
201
456186
1703
beynimize gidecekler
07:49
and basicallytemel olarak connectbağlamak our neocortexneokorteks
202
457889
2477
ve esasen neokorteksimize ilave sağlamak üzere,
07:52
to a syntheticsentetik neocortexneokorteks in the cloudbulut
203
460366
3185
neokorteksimizi buluttaki sentetik
07:55
providingsağlama an extensionuzantı of our neocortexneokorteks.
204
463551
3591
neokortekse bağlayacaklar.
07:59
Now todaybugün, I mean,
205
467142
1578
Yani bugün,
telefonunuzda bir bilgisayar var,
08:00
you have a computerbilgisayar in your phonetelefon,
206
468720
1530
08:02
but if you need 10,000 computersbilgisayarlar for a fewaz secondssaniye
207
470250
2754
ancak karmaşık bir araştırma yapmak üzere
08:05
to do a complexkarmaşık searcharama,
208
473004
1495
birkaç saniyeliğine 10.000 tane bilgisayara ihtiyaç duyarsanız,
08:06
you can accesserişim that for a secondikinci or two in the cloudbulut.
209
474499
3396
bulutta bir-iki saniyeliğine buna erişebilirsiniz.
08:09
In the 2030s, if you need some extraekstra neocortexneokorteks,
210
477895
3095
2030'larda eğer biraz ekstra neokortekse ihtiyaç duyarsanız,
08:12
you'llEğer olacak be ableyapabilmek to connectbağlamak to that in the cloudbulut
211
480990
2273
doğrudan beyninizden buna bulutta
08:15
directlydirekt olarak from your brainbeyin.
212
483263
1648
bağlanabileceksiniz.
08:16
So I'm walkingyürüme alonguzun bir and I say,
213
484911
1543
Yani yürüyorum ve şöyle söylüyorum,
08:18
"Oh, there's ChrisChris AndersonAnderson.
214
486454
1363
"Ah, işte Chris Anderson.
08:19
He's cominggelecek my way.
215
487817
1525
Bana doğru geliyor.
08:21
I'd better think of something cleverzeki to say.
216
489342
2335
Söyleyecek akıllıca bir şeyler düşüneyim.
08:23
I've got threeüç secondssaniye.
217
491677
1524
Sadece üç saniyem var.
08:25
My 300 millionmilyon modulesmodüller in my neocortexneokorteks
218
493201
3097
Neokorteksimdeki 300 milyon modül
bunun için yeterli olmayacak.
08:28
isn't going to cutkesim it.
219
496298
1240
08:29
I need a billionmilyar more."
220
497538
1246
Bir milyar daha fazlasına ihtiyacım var."
08:30
I'll be ableyapabilmek to accesserişim that in the cloudbulut.
221
498784
3323
Buna bulutta ulaşabileceğim.
08:34
And our thinkingdüşünme, then, will be a hybridmelez
222
502107
2812
O zaman düşünmemiz biyolojik ve biyolojik olmayan
08:36
of biologicalbiyolojik and non-biologicalbiyolojik olmayan thinkingdüşünme,
223
504919
3522
hibrit bir düşünme olacak,
08:40
but the non-biologicalbiyolojik olmayan portionkısım
224
508441
1898
ancak biyolojik olmayan kısmı
08:42
is subjectkonu to my lawhukuk of acceleratinghızlanan returnsdöner.
225
510339
2682
benim artan geri dönüşler yasama tabi olacak.
08:45
It will growbüyümek exponentiallykatlanarak.
226
513021
2239
Katlanarak artacak şekilde büyüyecek.
08:47
And rememberhatırlamak what happensolur
227
515260
2016
Neokorteksimizi son genişletişimizde
08:49
the last time we expandedgenişletilmiş our neocortexneokorteks?
228
517276
2645
ne olduğunu hatırlıyor musunuz?
08:51
That was two millionmilyon yearsyıl agoönce
229
519921
1426
Bu, büyük alınlarımızı geliştirip
08:53
when we becameoldu humanoidslardan
230
521347
1236
insansı hâline geldiğimiz iki milyon yıl öncesiydi.
08:54
and developedgelişmiş these largegeniş foreheadsalnına.
231
522583
1594
08:56
Other primatesprimatlar have a slantedeğimli browkaş.
232
524177
2583
Diğer primatların eğimli alınları vardı.
08:58
They don't have the frontalön cortexkorteks.
233
526760
1745
Ön korteksleri yoktu.
09:00
But the frontalön cortexkorteks is not
really qualitativelyniteliksel differentfarklı.
234
528505
3685
Ancak ön korteks gerçekte niteliksel olarak farklı değildir.
09:04
It's a quantitativenicel expansiongenişleme of neocortexneokorteks,
235
532190
2743
Neokorteksin nicelik bakımından genişlemesidir,
09:06
but that additionalek quantitymiktar of thinkingdüşünme
236
534933
2703
ancak o ek düşünme miktarı
09:09
was the enablingetkinleştirme factorfaktör for us to take
237
537636
1779
bizim niteliksel bir sıçrayış yapmamızı ve
09:11
a qualitativenitel leapsıçrama and inventicat etmek languagedil
238
539415
3346
dili, sanatı, bilimi, teknolojiyi ve
09:14
and artSanat and scienceBilim and technologyteknoloji
239
542761
1967
TED konferanslarını keşfetmemizi sağlayan faktördü.
09:16
and TEDTED conferenceskonferanslar.
240
544728
1454
09:18
No other speciesTürler has donetamam that.
241
546182
2131
Başka hiçbir tür bunu yapmamıştı.
09:20
And so, over the nextSonraki fewaz decadeson yıllar,
242
548313
2075
Böylece birkaç on yıl sonra,
09:22
we're going to do it again.
243
550388
1760
bunu tekrar yapacağız.
09:24
We're going to again expandgenişletmek our neocortexneokorteks,
244
552148
2274
Tekrar neokorteksimizi genişleteceğiz,
09:26
only this time we won'talışkanlık be limitedsınırlı
245
554422
1756
ancak bu sefer kapalı alanın sabit mimarisiyle
09:28
by a fixedsabit architecturemimari of enclosurekuşatma.
246
556178
4280
sınırlı olmayacağız.
09:32
It'llİtll ' be expandedgenişletilmiş withoutolmadan limitsınır.
247
560458
3304
Sınırlar olmadan genişleyecek.
09:35
That additionalek quantitymiktar will again
248
563762
2243
Bu ek miktar, tekrar
09:38
be the enablingetkinleştirme factorfaktör for anotherbir diğeri qualitativenitel leapsıçrama
249
566005
3005
kültür ve teknolojide diğer bir niteliksel sıçramayı
09:41
in culturekültür and technologyteknoloji.
250
569010
1635
sağlayan bir faktör olacak.
09:42
Thank you very much.
251
570645
2054
Çok teşekkürler.
09:44
(ApplauseAlkış)
252
572699
3086
(Alkış)
Translated by Eren Gokce
Reviewed by Sevkan Uzel

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com