ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Rej Kurcvajl (Ray Kurzweil): Spremite se za hibridno razmišljanje

Filmed:
3,548,296 views

Pre 200 miliona godina, naši preci sisari razvili su novu karakteristiku mozga: neokorteks. Ovaj komad tkiva veličine markice (obmotan oko mozga u veličini oraha) je ključ za ono što je čovečanstvo postalo. Futurista Rej Kurcvajl predlaže da se spremimo za sledeći veliki skok u moći mozga, dok koristimo moć računarstva u "oblaku".
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyприча.
0
988
2316
Da vam ispričam jednu priču.
Ona nas vraća
200 miliona godina unazad.
00:15
It goesиде back 200 millionмилиона yearsгодине.
1
3304
1799
00:17
It's a storyприча of the neocortexнеокортекс,
2
5103
1984
To je priča o neokorteksu,
00:19
whichкоја meansзначи "newново rinda od kore."
3
7087
1974
što znači "nova kora".
00:21
So in these earlyрано mammalsсисари,
4
9061
2431
Kod ranih sisara,
00:23
because only mammalsсисари have a neocortexнеокортекс,
5
11492
2055
jer jedino sisari imaju neokorteks,
00:25
rodent-likekao pacov creaturesстворења.
6
13547
1664
stvorenja nalik glodarima,
00:27
It was the sizeвеличине of a postagepoštarina stampпечат and just as thinтанак,
7
15211
3579
bio je veličine poštanske markice
i isto tako tanak.
00:30
and was a thinтанак coveringpokrivač around
8
18790
1439
Bio je tanki omotač
00:32
theirњихова walnut-sizedvelicine oraha brainмозак,
9
20229
2264
oko njihovog mozga veličine oraha,
00:34
but it was capableспособан of a newново typeтип of thinkingразмишљање.
10
22493
3701
ali je bio sposoban za
novu vrstu razmišljanja.
Za razliku od utvrđenih ponašanja
00:38
RatherRadije than the fixedфиксно behaviorsпонашања
11
26194
1567
00:39
that non-mammaliansisara animalsЖивотиње have,
12
27761
1992
koje imaju ne-sisari,
00:41
it could inventизумети newново behaviorsпонашања.
13
29753
2692
on je mogao da smisli nova ponašanja.
00:44
So a mouseмиш is escapingbekstvo a predatorpredator,
14
32445
2553
Na primer, miš beži od mesoždera,
00:46
its pathпут is blockedблокирано,
15
34998
1540
put mu je blokiran,
00:48
it'llто ће try to inventизумети a newново solutionрешење.
16
36538
2129
pokušaće da smisli novo rešenje.
00:50
That mayможе work, it mayможе not,
17
38667
1266
To može da uspe ili ne,
00:51
but if it does, it will rememberзапамтити that
18
39933
1910
ali ako uspe, on će to zapamtiti
00:53
and have a newново behaviorпонашање,
19
41843
1292
i imaće novo ponašanje
i to može da se proširi kao virus
00:55
and that can actuallyзаправо spreadширити virallyvirally
20
43135
1457
00:56
throughкроз the restодмор of the communityзаједница.
21
44592
2195
na ostatak zajednice.
00:58
AnotherDrugi mouseмиш watchingгледа this could say,
22
46787
1609
Drugi miš koji to gleda može da kaže:
01:00
"Hey, that was prettyприлично cleverпаметан, going around that rockроцк,"
23
48396
2704
"Bilo je pametno to
što je zaobišao taj kamen",
01:03
and it could adoptусвојити a newново behaviorпонашање as well.
24
51100
3725
i takođe usvoji novo ponašanje.
01:06
Non-mammalianSisara animalsЖивотиње
25
54825
1717
Životinje koje nisu sisari
01:08
couldn'tније могао do any of those things.
26
56542
1713
ne mogu ništa od toga.
One imaju utvrđena ponašanja.
01:10
They had fixedфиксно behaviorsпонашања.
27
58255
1215
01:11
Now they could learnучи a newново behaviorпонашање
28
59470
1331
Mogu da nauče novo ponašanje,
01:12
but not in the courseкурс of one lifetimeживотни век.
29
60801
2576
ali ne u toku jednog života.
01:15
In the courseкурс of maybe a thousandхиљада lifetimesћivota,
30
63377
1767
U toku možda hiljadu života
01:17
it could evolveеволуирати a newново fixedфиксно behaviorпонашање.
31
65144
3330
mogu da razviju novo utvrđeno ponašanje.
01:20
That was perfectlyсавршено okay 200 millionмилиона yearsгодине agoпре.
32
68474
3377
To je bilo potpuno u redu
pre 200 miliona godina.
01:23
The environmentЖивотна средина changedпромењено very slowlyполако.
33
71851
1981
Okruženje se menjalo veoma sporo.
01:25
It could take 10,000 yearsгодине for there to be
34
73832
1554
Moglo je da prođe 10.000 godina
01:27
a significantзначајно environmentalеколошки changeпромена,
35
75386
2092
dok se ne desi značajna promena okruženja,
01:29
and duringу току that periodраздобље of time
36
77478
1382
i u toku tog perioda
01:30
it would evolveеволуирати a newново behaviorпонашање.
37
78860
2929
razvili bi novo ponašanje.
01:33
Now that wentотишао alongзаједно fine,
38
81789
1521
To je prošlo dobro,
01:35
but then something happenedдесило.
39
83310
1704
ali onda se nešto desilo.
01:37
Sixty-five65 millionмилиона yearsгодине agoпре,
40
85014
2246
Pre 65 miliona godina,
01:39
there was a suddenизненадан, violentнасилан
changeпромена to the environmentЖивотна средина.
41
87260
2615
desila se iznenadna, žestoka
promena okruženja.
01:41
We call it the CretaceousDoba krede extinctionизумирање eventдогађај.
42
89875
3505
Nazivamo je K-T izumiranje.
01:45
That's when the dinosaursdinosaurusi wentотишао extinctизумрла,
43
93380
2293
Tada su izumrli dinosaurusi,
01:47
that's when 75 percentпроценат of the
44
95673
3449
izumrlo je 75 posto
01:51
animalживотиња and plantбиљка speciesврсте wentотишао extinctизумрла,
45
99122
2746
životinjskih i biljnih vrsta
01:53
and that's when mammalsсисари
46
101868
1745
i sisari su zauzeli
01:55
overtookprestigla theirњихова ecologicalеколошки nichesvoje mesto,
47
103613
2152
svoje ekološko stanište.
01:57
and to anthropomorphizeprirodna, biologicalбиолошки evolutionеволуција said,
48
105765
3654
I da antropomorfizujemo,
biološka evolucija kaže:
02:01
"HmmHmm, this neocortexнеокортекс is prettyприлично good stuffствари,"
49
109419
2025
"Hm. Taj neokorteks je dobra stvar",
02:03
and it beganпочела to growрасту it.
50
111444
1793
i počinje da ga razvija.
02:05
And mammalsсисари got biggerвеће,
51
113237
1342
Sisari su postali veći,
02:06
theirњихова brainsмозга got biggerвеће at an even fasterбрже paceтемпо,
52
114579
2915
njihov mozak je postao veći
još bržim tempom,
02:09
and the neocortexнеокортекс got biggerвеће even fasterбрже than that
53
117494
3807
i neokorteks se povećao još brže
02:13
and developedразвијен these distinctiveпрепознатљив ridgesgrebene and foldsnabore
54
121301
2929
i razvio ove prepoznatljive
brazde i prevoje,
02:16
basicallyу основи to increaseповећати its surfaceповршина areaподручје.
55
124230
2881
uglavnom da bi povećao svoju površinu.
02:19
If you tookузела the humanљудско neocortexнеокортекс
56
127111
1819
Kad biste uzeli ljudski neokorteks
02:20
and stretchedистегнута it out,
57
128930
1301
i rastegli ga,
02:22
it's about the sizeвеличине of a tableсто napkinsalvetu,
58
130231
1713
bio bi veličine stone salvete,
02:23
and it's still a thinтанак structureструктура.
59
131944
1306
i dalje tanke strukture.
02:25
It's about the thicknessдебљина of a tableсто napkinsalvetu.
60
133250
1980
Otprilike je debljine salvete.
02:27
But it has so manyмноги convolutionsvijugama and ridgesgrebene
61
135230
2497
Ali ima toliko mnogo vijuga i brazdi
02:29
it's now 80 percentпроценат of our brainмозак,
62
137727
3075
da sada predstavlja 80% našeg mozga,
02:32
and that's where we do our thinkingразмишљање,
63
140802
2461
i tu obavljamo razmišljanje,
02:35
and it's the great sublimatorSublimator.
64
143263
1761
i veliki je sublimator.
Još uvek imamo onaj stari mozak
02:37
We still have that oldстари brainмозак
65
145024
1114
02:38
that providesпружа our basicосновно drivesпогони and motivationsмотивације,
66
146138
2764
koji obezbeđuje osnovne nagone
i motivacije,
02:40
but I mayможе have a driveпогон for conquestосвајање,
67
148902
2716
ali ja mogu imati nagon za osvajanjem
02:43
and that'llто ће be sublimatedsublimated by the neocortexнеокортекс
68
151618
2715
i to će neokorteks sublimirati
02:46
into writingписање a poemпесма or inventingizumima an appапликација
69
154333
2909
u pisanje pesme
ili pronalaženje aplikacije
02:49
or givingдавање a TEDTED Talk,
70
157242
1509
ili držanje TED govora,
02:50
and it's really the neocortexнеокортекс that's where
71
158751
3622
i u stvari, neokorteks je mesto gde se
02:54
the actionпоступак is.
72
162373
1968
obavlja radnja.
02:56
FiftyPedeset yearsгодине agoпре, I wroteнаписао a paperпапир
73
164341
1717
Pre 50 godina, napisao sam rad
02:58
describingописујући how I thought the brainмозак workedрадио је,
74
166058
1918
o tome kako sam mislio da mozak radi
02:59
and I describedописани it as a seriesсерије of modulesмодули.
75
167976
3199
i opisao sam ga kao niz modula.
03:03
EachSvaki moduleмодул could do things with a patternобразац.
76
171175
2128
Svaki modul može da radi stvari
pomoću obrasca.
03:05
It could learnучи a patternобразац. It could rememberзапамтити a patternобразац.
77
173303
2746
Može da nauči obrazac, da ga zapamti
03:08
It could implementимплементирати a patternобразац.
78
176049
1407
i primeni.
03:09
And these modulesмодули were organizedорганизован in hierarchieshijerarhija,
79
177456
2679
Ti moduli su organizovani u hijerarhije
03:12
and we createdстворено that hierarchyхијерархија with our ownвластити thinkingразмишљање.
80
180135
2954
i mi kreiramo tu hijerarhiju
svojim razmišljanjem.
03:15
And there was actuallyзаправо very little to go on
81
183089
3333
Nije moglo mnogo toga da se uradi
03:18
50 yearsгодине agoпре.
82
186422
1562
pre 50 godina.
03:19
It led me to meetсусрет PresidentPredsednik JohnsonJohnson.
83
187984
2115
To me je odvelo do predsednika Džonsona.
03:22
I've been thinkingразмишљање about this for 50 yearsгодине,
84
190099
2173
Razmišljao sam o tome 50 godina
03:24
and a yearгодине and a halfпола agoпре I cameДошао out with the bookкњига
85
192272
2828
i pre godinu i po dana, izdao sam knjigu
03:27
"How To CreateKreiranje A MindUm,"
86
195100
1265
"Kako kreirati um",
03:28
whichкоја has the sameисти thesisтеза,
87
196365
1613
koja je imala istu tezu,
03:29
but now there's a plethoraobilje of evidenceдоказ.
88
197978
2812
ali je sada bilo pregršt dokaza.
Količina podataka koje dobijamo o mozgu
03:32
The amountизнос of dataподаци we're gettingдобијања about the brainмозак
89
200790
1814
03:34
from neuroscienceнеуронаука is doublingудвостручавање everyсваки yearгодине.
90
202604
2203
od neuronauke
udvostručuje se svake godine.
03:36
SpatialProstorni resolutionрезолуција of brainscanningbrainscanning of all typesврсте
91
204807
2654
Sve vrste prostorne rezolucije
skeniranog mozga
03:39
is doublingудвостручавање everyсваки yearгодине.
92
207461
2285
udvostručuju se svake godine.
03:41
We can now see insideу a livingживи brainмозак
93
209746
1717
Sada možemo videti
unutrašnjost živog mozga
03:43
and see individualпојединац interneuralinterneural connectionsвезе
94
211463
2870
i pojedinačne međuneuronske veze
03:46
connectingповезивање in realправи time, firingpucanje in realправи time.
95
214333
2703
kako se povezuju u realnom vremenu.
03:49
We can see your brainмозак createстворити your thoughtsмисли.
96
217036
2419
Možemo videti vaš mozak
kako stvara vaše misli.
03:51
We can see your thoughtsмисли createстворити your brainмозак,
97
219455
1575
Možemo videti kako vaše misli
stvaraju vaš mozak,
03:53
whichкоја is really keyкључ to how it worksИзвођење радова.
98
221030
1999
što je ključ toga kako on funkcioniše.
03:55
So let me describeопишите brieflyукратко how it worksИзвођење радова.
99
223029
2219
Da objasnim kratko kako funkcioniše.
03:57
I've actuallyзаправо countedбројање these modulesмодули.
100
225248
2275
U stvari sam izbrojao ove module.
03:59
We have about 300 millionмилиона of them,
101
227523
2046
Imamo ih oko 300 miliona
04:01
and we createстворити them in these hierarchieshijerarhija.
102
229569
2229
i stvaramo ih u ovim hijerarhijama.
04:03
I'll give you a simpleједноставно exampleпример.
103
231798
2082
Daću vam prost primer.
04:05
I've got a bunchгомилу of modulesмодули
104
233880
2805
Imam gomilu modula
04:08
that can recognizeпрепознати the crossbarprečku to a capitalглавни град A,
105
236685
3403
koji mogu da prepoznaju
poprečnu crtu na velikom A,
04:12
and that's all they careнега about.
106
240088
1914
i to je sve što ih zanima.
04:14
A beautifulЛепа songпесма can playигра,
107
242002
1578
Može da svira lepa pesma,
04:15
a prettyприлично girlдевојка could walkходати by,
108
243580
1434
da prođe lepa devojka,
04:17
they don't careнега, but they see
a crossbarprečku to a capitalглавни град A,
109
245014
2846
njih je baš briga,
ali kad vide poprečnu crtu na A,
04:19
they get very excitedузбуђени and they say "crossbarprečku,"
110
247860
3021
uzbude se i kažu: "Crta",
04:22
and they put out a highвисоко probabilityвероватноћа
111
250881
2112
i objavljuju visoku verovatnoću
04:24
on theirњихова outputизлаз axonAxon.
112
252993
1634
na svom izlaznom aksonu.
04:26
That goesиде to the nextследећи levelниво,
113
254627
1333
To se uzdiže na sledeći nivo,
04:27
and these layersслојева are organizedорганизован in conceptualконцептуално levelsнивоа.
114
255960
2750
i ovi slojevi se organizuju
u pojmovne nivoe.
04:30
EachSvaki is more abstractапстрактан than the nextследећи one,
115
258710
1856
Svaki je apstraktniji od sledećeg,
04:32
so the nextследећи one mightМожда say "capitalглавни град A."
116
260566
2418
tako da sledeći može da kaže: "Veliko A".
04:34
That goesиде up to a higherвише
levelниво that mightМожда say "AppleJabuka."
117
262984
2891
To ide na sledeći nivo,
koji može da kaže: "Jabuka"
04:37
InformationInformacije flowsтокови down alsoтакође.
118
265875
2167
Informacija takođe teče nadole.
04:40
If the appleјабука recognizerProgram za prepoznavanje has seenвиђено A-P-P-LA-P-P-L,
119
268042
2936
Ako je prepoznavač jabuke
video J-A-B-U-K,
04:42
it'llто ће think to itselfсам, "HmmHmm, I
think an E is probablyвероватно likelyвероватно,"
120
270978
3219
pomisliće:
"Hm, mislim da je A verovatno",
04:46
and it'llто ће sendпошаљи a signalсигнал down to all the E recognizerselementi za prepoznavanje
121
274197
2564
i poslaće signal dole
do prepoznavača slova A,
04:48
sayingговорећи, "Be on the lookoutPazite for an E,
122
276761
1619
i reći će: "Pazite na A,
04:50
I think one mightМожда be comingдолазе."
123
278380
1556
mislim da će možda biti jedno".
04:51
The E recognizerselementi za prepoznavanje will lowerниже theirњихова thresholdпраг
124
279936
2843
Prepoznavači slova A
će sniziti kriterijum i videti
04:54
and they see some sloppyaljkav
thing, could be an E.
125
282779
1945
neku brljotinu koja bi mogla da bude A.
04:56
OrdinarilyObično you wouldn'tне би think so,
126
284724
1490
Obično ne biste to pomislili,
04:58
but we're expectingочекујући an E, it's good enoughдовољно,
127
286214
2009
ali očekujemo A, dovoljno je slično
05:00
and yeah, I've seenвиђено an E, and then appleјабука saysкаже,
128
288223
1817
i da, video sam A
i onda jabuka kaže:
05:02
"Yeah, I've seenвиђено an AppleJabuka."
129
290040
1728
"Da, video sam Jabuku".
05:03
Go up anotherдруги fiveпет levelsнивоа,
130
291768
1746
Idite nagore još pet nivoa
05:05
and you're now at a prettyприлично highвисоко levelниво
131
293514
1353
i sada ste na prilično visokom nivou
05:06
of this hierarchyхијерархија,
132
294867
1569
ove hijerarhije,
05:08
and stretchстретцх down into the differentразличит sensesчула,
133
296436
2353
i raširite nadole u različitim smerovima
05:10
and you mayможе have a moduleмодул
that seesвиди a certainизвестан fabricтканина,
134
298789
2655
i možda ćete imati modul
koji vidi određenu tkaninu,
05:13
hearsчује a certainизвестан voiceглас qualityквалитета,
smellsмириси a certainизвестан perfumeparfem,
135
301444
2844
čuje određenu zvučnu osobinu
oseća određeni parfem i reći će:
05:16
and will say, "My wifeжена has enteredушао the roomсоба."
136
304288
2513
"Moja žena je
upravo ušla u sobu".
05:18
Go up anotherдруги 10 levelsнивоа, and now you're at
137
306801
1895
Idite nagore još 10 nivoa
i sada ste na vrlo visokom nivou.
05:20
a very highвисоко levelниво.
138
308696
1160
05:21
You're probablyвероватно in the frontalфронтално cortexкортекс,
139
309856
1937
Verovatno ste u frontalnom korteksu,
05:23
and you'llти ћеш have modulesмодули that say, "That was ironicIronično.
140
311793
3767
i imaćete module koji kažu:
"To je bilo ironično.
05:27
That's funnyсмешно. She's prettyприлично."
141
315560
2370
To je smešno. Ona je lepa."
Možda ćete pomisliti
da su ovi sofisticiraniji,
05:29
You mightМожда think that those are more sophisticatedсофистициран,
142
317930
2105
05:32
but actuallyзаправо what's more complicatedкомпликован
143
320035
1506
ali u stvari su komplikovaniji
05:33
is the hierarchyхијерархија beneathиспод them.
144
321541
2669
od hijerarhije ispod njih.
05:36
There was a 16-year-old-година стар girlдевојка, she had brainмозак surgeryоперација,
145
324210
2620
Jedna 16-ogodišnja devojčica
je imala operaciju na mozgu,
05:38
and she was consciousсвесна because the surgeonsHirurzi
146
326830
2051
i bila je svesna jer su hirurzi
05:40
wanted to talk to her.
147
328881
1537
želeli da razgovaraju s njom.
05:42
You can do that because there's no painбол receptorsрецептори
148
330418
1822
To može da se uradi jer nema
receptora za bol u mozgu.
05:44
in the brainмозак.
149
332240
1038
05:45
And wheneverбило кад they stimulatedстимулисано particularпосебно,
150
333278
1800
Kad god bi stimulisali određene
05:47
very smallмали pointsбодова on her neocortexнеокортекс,
151
335078
2463
vrlo male tačke u njenom neokorteksu
05:49
shownпоказано here in redцрвена, she would laughсмех.
152
337541
2665
koje su prikazane crvenom bojom,
ona bi se smejala.
05:52
So at first they thought they were triggeringaktiviranja
153
340206
1440
Prvo su pomislili da pokreću
05:53
some kindкинд of laughсмех reflexrefleks,
154
341646
1720
neku vrstu refleksa za smeh,
05:55
but no, they quicklyбрзо realizedреализован they had foundнашао
155
343366
2519
ali ne, ubrzo su shvatili da su pronašli
05:57
the pointsбодова in her neocortexнеокортекс that detectоткрити humorхумор,
156
345885
3044
tačke u njenom neokorteksu
koje detektuju humor,
06:00
and she just foundнашао everything hilariousхилариоус
157
348929
1969
i njoj je prosto sve bilo smešno
06:02
wheneverбило кад they stimulatedстимулисано these pointsбодова.
158
350898
2437
kad god su stimulisali ove tačke.
06:05
"You guys are so funnyсмешно just standingстојећи around,"
159
353335
1925
"Tako ste smešni kako stojite okolo",
06:07
was the typicalтипично commentкоментар,
160
355260
1738
bio je uobičajen komentar,
06:08
and they weren'tнису funnyсмешно,
161
356998
2302
a oni nisu bili smešni,
06:11
not while doing surgeryоперација.
162
359300
3247
ne dok su operisali.
06:14
So how are we doing todayданас?
163
362547
4830
Kako nam ide danas?
06:19
Well, computersрачунари are actuallyзаправо beginningпочетак to masterмајстор
164
367377
3054
Kompjuteri počinju da ovladavaju
06:22
humanљудско languageЈезик with techniquesтехнике
165
370431
2001
ljudskim jezikom pomoću tehnika
06:24
that are similarслично to the neocortexнеокортекс.
166
372432
2867
koje su slične neokorteksu.
06:27
I actuallyзаправо describedописани the algorithmalgoritam,
167
375299
1514
Opisao sam algoritam
06:28
whichкоја is similarслично to something calledпозвани
168
376813
2054
sličan nečemu što se zove
06:30
a hierarchicalhijerarhijski hiddenсакривен MarkovMarkov modelмодел,
169
378867
2233
hijerarhijski skriveni Markovljev model,
06:33
something I've workedрадио је on sinceОд the '90s.
170
381100
3241
nečemu na čemu sam radio od '90-ih.
06:36
"JeopardyOpasnost" is a very broadширок naturalприродно languageЈезик gameигра,
171
384341
3238
"Jeopardy" je veoma raširena
prirodna jezička igra,
06:39
and WatsonWatson got a higherвише scoreрезултат
172
387579
1892
i Votson je postigao veći skor
06:41
than the bestнајбоље two playersиграчи combinedкомбиновано.
173
389471
2000
nego najbolja dva igrača zajedno.
06:43
It got this queryupit correctтачно:
174
391471
2499
Pogodio je pitanje za ovaj odgovor:
06:45
"A long, tiresomezamorna speechговор
175
393970
2085
"Dugačak, dosadan govor
06:48
deliveredиспоручена by a frothyoporo piepitu toppingna vrhu,"
176
396055
2152
penastog kolača od belanaca",
06:50
and it quicklyбрзо respondedодговорио,
"What is a meringueколач од беланаца harangueizlaganjem?"
177
398207
2796
i brzo je odgovorio:
"Šta je brbljanje puslice?"
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
Dženings i drugi igrač nisu to pogodili.
06:55
It's a prettyприлично sophisticatedсофистициран exampleпример of
179
403638
1926
To je prilično sofisticiran primer
06:57
computersрачунари actuallyзаправо understandingразумевање humanљудско languageЈезик,
180
405564
1914
kako kompjuteri u stvari
razumeju ljudski jezik,
06:59
and it actuallyзаправо got its knowledgeзнање by readingчитање
181
407478
1652
i on je u stvari
07:01
WikipediaWikipedia and severalнеколико other encyclopediasenciklopedije.
182
409130
3785
stekao znanje čitajući Vikipediju
i nekoliko drugih enciklopedija.
07:04
FivePet to 10 yearsгодине from now,
183
412915
2133
Pet do deset godina od sada
07:07
searchПретрага enginesмотори will actuallyзаправо be basedзаснован on
184
415048
2184
pretraživači će biti zasnovani
07:09
not just looking for combinationsкомбинације of wordsречи and linksлинкови
185
417232
2794
ne samo na traženju
kombinacija reči i linkova
07:12
but actuallyзаправо understandingразумевање,
186
420026
1914
već na razumevanju,
07:13
readingчитање for understandingразумевање the billionsмилијарди of pagesстранице
187
421940
2411
čitanju da bi razumeli
milijarde stranica
07:16
on the webвеб and in booksкњиге.
188
424351
2733
na internetu i u knjigama.
07:19
So you'llти ћеш be walkingХодање alongзаједно, and GoogleGoogle will popПоп up
189
427084
2616
Tako da, dok hodate, iskočiće vam Gugl
07:21
and say, "You know, MaryMeri, you expressedизражена concernзабринутост
190
429700
3081
i reći: "Znaš Meri, pre mesec dana
rekla si mi da si zabrinuta
07:24
to me a monthмесец дана agoпре that your glutathioneglutation supplementdodatak
191
432781
3019
zbog toga što tvoj glutationski dodatak
07:27
wasn'tније gettingдобијања pastпрошлост the blood-brainkrv-mozak barrierбаријера.
192
435800
2231
nije prošao kroz
krvno-moždanu barijeru.
07:30
Well, newново researchистраживање just cameДошао out 13 secondsсекунде agoпре
193
438031
2593
Pre 13 sekundi se pojavilo
novo istraživanje
07:32
that showsпоказује a wholeцела newново approachприступ to that
194
440624
1711
koje ima potpuno novi pristup tome
07:34
and a newново way to take glutathioneglutation.
195
442335
1993
i novi način za uzimanje glutationa.
07:36
Let me summarizeрезимирати it for you."
196
444328
2562
Da ti sumiram to."
07:38
TwentyDvadeset yearsгодине from now, we'llдобро have nanobotsNanoboti,
197
446890
3684
Za dvadeset godina,
imaćemo nano-robote
jer još jedan rastući trend je
07:42
because anotherдруги exponentialекспоненцијални trendтренд
198
450574
1627
07:44
is the shrinkingсмањује се of technologyтехнологија.
199
452201
1615
minijaturizacija tehnologije.
07:45
They'llOni ce go into our brainмозак
200
453816
2370
Oni će ulaziti u naš mozak
07:48
throughкроз the capillarieskapilara
201
456186
1703
kroz kapilare
07:49
and basicallyу основи connectцоннецт our neocortexнеокортекс
202
457889
2477
i u osnovi povezivati naš neokorteks
07:52
to a syntheticсинтетички neocortexнеокортекс in the cloudоблак
203
460366
3185
sa sintetičkim neokorteksom u "oblaku",
07:55
providingобезбеђујући an extensionпродужење of our neocortexнеокортекс.
204
463551
3591
obezbeđujući time produžetak
našeg neokorteksa.
Danas,
07:59
Now todayданас, I mean,
205
467142
1578
imate kompjuter u vašem telefonu,
08:00
you have a computerрачунар in your phoneтелефон,
206
468720
1530
08:02
but if you need 10,000 computersрачунари for a fewнеколико secondsсекунде
207
470250
2754
ali ako vam zatreba 10.000 kompjutera
za nekoliko sekundi
08:05
to do a complexкомплекс searchПретрага,
208
473004
1495
da biste uradili složenu pretragu,
08:06
you can accessприступ that for a secondдруго or two in the cloudоблак.
209
474499
3396
možete pristupiti tome
za 1-2 sekunde u "oblaku".
08:09
In the 2030s, if you need some extraекстра neocortexнеокортекс,
210
477895
3095
U 2030-im, ako vam zatreba
dodatni neokorteks,
08:12
you'llти ћеш be ableу могуцности to connectцоннецт to that in the cloudоблак
211
480990
2273
moći ćete da se
povežete sa njim u "oblaku"
08:15
directlyдиректно from your brainмозак.
212
483263
1648
direktno iz vašeg mozga.
08:16
So I'm walkingХодање alongзаједно and I say,
213
484911
1543
Na primer, šetam se i kažem:
08:18
"Oh, there's ChrisKris AndersonAnderson.
214
486454
1363
"Eno ga Kris Anderson.
08:19
He's comingдолазе my way.
215
487817
1525
Ide prema meni.
08:21
I'd better think of something cleverпаметан to say.
216
489342
2335
Bolje da smislim nešto
pametno što ću da kažem.
08:23
I've got threeтри secondsсекунде.
217
491677
1524
Imam tri sekunde.
08:25
My 300 millionмилиона modulesмодули in my neocortexнеокортекс
218
493201
3097
Mojih 300 miliona modula u neokorteksu
08:28
isn't going to cutрез it.
219
496298
1240
neće to uspeti.
08:29
I need a billionмилијарде more."
220
497538
1246
Treba mi još milijardu."
08:30
I'll be ableу могуцности to accessприступ that in the cloudоблак.
221
498784
3323
Moći ću da pristupim tome u "oblaku".
08:34
And our thinkingразмишљање, then, will be a hybridхибрид
222
502107
2812
I onda će naše razmišljanje biti hibrid
08:36
of biologicalбиолошки and non-biologicalnebioloљkim thinkingразмишљање,
223
504919
3522
biološkog i nebiološkog razmišljanja,
08:40
but the non-biologicalnebioloљkim portionдео
224
508441
1898
a nebiološki deo
08:42
is subjectпредмет to my lawзакон of acceleratingубрзава returnsповратак.
225
510339
2682
je podložan mom
Zakonu o ponovnim ubrzanjima.
08:45
It will growрасту exponentiallyекспоненцијално.
226
513021
2239
Povećavaće se eksponencijalno.
08:47
And rememberзапамтити what happensсе дешава
227
515260
2016
Sećate se šta se desilo
08:49
the last time we expandedпроширен our neocortexнеокортекс?
228
517276
2645
poslednji put kad smo
proširili naš neokorteks?
To je bilo pre dva miliona godina,
08:51
That was two millionмилиона yearsгодине agoпре
229
519921
1426
08:53
when we becameпостао humanoidshumanoida
230
521347
1236
kad smo postali humanoidi
08:54
and developedразвијен these largeвелики foreheadsиela.
231
522583
1594
i razvili ova visoka čela.
08:56
Other primatesпримати have a slantediskoљene browobrve.
232
524177
2583
Ostali primati imaju koso čelo.
08:58
They don't have the frontalфронтално cortexкортекс.
233
526760
1745
Oni nemaju frontalni korteks.
09:00
But the frontalфронтално cortexкортекс is not
really qualitativelykvalitativno differentразличит.
234
528505
3685
Ali frontalni korteks nije
kvalitativno drugačiji.
09:04
It's a quantitativeквантитативан expansionекспанзија of neocortexнеокортекс,
235
532190
2743
On je kvantitativni produžetak
neokorteksa,
09:06
but that additionaldodatne quantityKoličina of thinkingразмишљање
236
534933
2703
ali ta dodatna količina razmišljanja
09:09
was the enablingомогућавајући factorфактор for us to take
237
537636
1779
omogućila nam je da načinimo
09:11
a qualitativekvalitativne leapскок and inventизумети languageЈезик
238
539415
3346
kvalitativni skok i izmislimo jezik,
09:14
and artуметност and scienceНаука and technologyтехнологија
239
542761
1967
i umetnost, i nauku, i tehnologiju,
09:16
and TEDTED conferencesконференције.
240
544728
1454
i TED konferencije.
09:18
No other speciesврсте has doneГотово that.
241
546182
2131
Nijedna druga vrsta nije to uradila.
09:20
And so, over the nextследећи fewнеколико decadesдеценија,
242
548313
2075
I tokom sledećih nekoliko decenija,
09:22
we're going to do it again.
243
550388
1760
uradićemo to ponovo.
09:24
We're going to again expandпроширити our neocortexнеокортекс,
244
552148
2274
Proširićemo ponovo svoj neokorteks,
samo ovog puta nećemo biti ograničeni
09:26
only this time we won'tнеће be limitedограничен
245
554422
1756
09:28
by a fixedфиксно architectureархитектура of enclosureкућиште.
246
556178
4280
utvrđenom arhitekturom zatvaranja.
09:32
It'llTo cu be expandedпроширен withoutбез limitограничење.
247
560458
3304
Proširivaće se bez ograničenja.
09:35
That additionaldodatne quantityKoličina will again
248
563762
2243
Taj dodatni kvantitet će ponovo biti
09:38
be the enablingомогућавајући factorфактор for anotherдруги qualitativekvalitativne leapскок
249
566005
3005
faktor koji će omogućiti
još jedan kvalitativni skok
09:41
in cultureкултура and technologyтехнологија.
250
569010
1635
u kulturi i tehnologiji.
09:42
Thank you very much.
251
570645
2054
Hvala vam mnogo.
09:44
(ApplauseAplauz)
252
572699
3086
(Aplauz)
Translated by Milos Milosavljevic
Reviewed by Mile Živković

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com