ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Pregătiți-vă pentru gîndirea hibridă

Filmed:
3,548,296 views

Acum 200 de milioane de ani mamiferele primitive au căpătat o nouă parte a creierului: neocortexul. Acest țesut cît un timbru, care învelea un creier cît o nucă, a fost cheia pentru devenirea umanității. Acum viitorologul Ray Kurzweil ne invită să fim gata pentru următorul mare salt în puterea creierului: conectarea la puterea de calcul din cloud.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storypoveste.
0
988
2316
Să vă spun o poveste.
00:15
It goesmerge back 200 millionmilion yearsani.
1
3304
1799
A început acum 200 de milioane de ani.
00:17
It's a storypoveste of the neocortexneocortex,
2
5103
1984
Este povestea neocortexului,
00:19
whichcare meansmijloace "newnou rindcoaja."
3
7087
1974
care înseamnă „noua scoarță”.
00:21
So in these earlydin timp mammalsmamifere,
4
9061
2431
La mamiferele primitive,
00:23
because only mammalsmamifere have a neocortexneocortex,
5
11492
2055
fiindcă numai mamiferele au neocortex,
00:25
rodent-likerozătoare, cum ar fi creaturescreaturi.
6
13547
1664
un fel de rozătoare,
00:27
It was the sizemărimea of a postagepoştale stamptimbru and just as thinsubţire,
7
15211
3579
neocortexul era mic cît un timbru
și la fel de subțire
și acoperea ca un strat subțire
00:30
and was a thinsubţire coveringcare acoperă around
8
18790
1439
00:32
theiral lor walnut-sizednuca de dimensiuni braincreier,
9
20229
2264
creierul lor mic cît o nucă.
00:34
but it was capablecapabil of a newnou typetip of thinkinggândire.
10
22493
3701
Dar era capabil de un nou mod de a gîndi.
00:38
RatherMai degrabă than the fixedfix behaviorscomportamente
11
26194
1567
Față de celelalte animale,
00:39
that non-mammaliannon-mamifere animalsanimale have,
12
27761
1992
care au un comportament fix,
00:41
it could inventinventa newnou behaviorscomportamente.
13
29753
2692
mamiferele puteau inventa
comportamente noi.
00:44
So a mousemouse is escapingevadarea a predatorprădător,
14
32445
2553
De exemplu, un șoarece e fugărit,
00:46
its pathcale is blockedblocat,
15
34998
1540
ajunge la un obstacol,
00:48
it'llO să try to inventinventa a newnou solutionsoluţie.
16
36538
2129
va încerca să inventeze o nouă soluție.
00:50
That mayMai work, it mayMai not,
17
38667
1266
S-ar putea să reușească sau nu,
00:51
but if it does, it will remembertine minte that
18
39933
1910
dar dacă reușește, va ține minte
00:53
and have a newnou behaviorcomportament,
19
41843
1292
și va avea un nou comportament.
00:55
and that can actuallyde fapt spreadrăspândire virallyvirally
20
43135
1457
Lecția se poate răspîndi ca un virus
00:56
throughprin the restodihnă of the communitycomunitate.
21
44592
2195
în tot restul comunității.
00:58
AnotherUn alt mousemouse watchingvizionarea this could say,
22
46787
1609
Alt șoarece vede întîmplarea și zice:
01:00
"Hey, that was prettyfrumos cleverinteligent, going around that rockstâncă,"
23
48396
2704
„Hm, isteață mișcarea asta pe după bolovan!”
01:03
and it could adoptadopta a newnou behaviorcomportament as well.
24
51100
3725
Și ar putea adopta și el noul comportament.
01:06
Non-mammalianNon-mamifere animalsanimale
25
54825
1717
Non-mamiferele nu puteau face așa ceva.
01:08
couldn'tnu a putut do any of those things.
26
56542
1713
Ele aveau comportament fix.
01:10
They had fixedfix behaviorscomportamente.
27
58255
1215
01:11
Now they could learnînvăța a newnou behaviorcomportament
28
59470
1331
Puteau și ele să învețe comportamente noi,
01:12
but not in the coursecurs of one lifetimedurata de viață.
29
60801
2576
dar nu în cursul unei vieți.
01:15
In the coursecurs of maybe a thousandmie lifetimesvieti,
30
63377
1767
Pe durata a circa 1000 de vieți
01:17
it could evolveevolua a newnou fixedfix behaviorcomportament.
31
65144
3330
putea evolua un nou comportament fix.
01:20
That was perfectlyperfect okay 200 millionmilion yearsani agoîn urmă.
32
68474
3377
Asta era perfect acceptabil
acum 200 de milioane de ani.
01:23
The environmentmediu inconjurator changedschimbat very slowlyîncet.
33
71851
1981
Mediul se schimba foarte încet.
01:25
It could take 10,000 yearsani for there to be
34
73832
1554
Pînă la o nouă schimbare de mediu
01:27
a significantsemnificativ environmentalde mediu changeSchimbare,
35
75386
2092
putea să dureze 10.000 de ani,
01:29
and duringpe parcursul that periodperioadă of time
36
77478
1382
timp în care putea apărea
un nou comportament.
01:30
it would evolveevolua a newnou behaviorcomportament.
37
78860
2929
Totul era în regulă,
01:33
Now that wenta mers alongde-a lungul fine,
38
81789
1521
dar apoi s-a întîmplat ceva.
01:35
but then something happeneds-a întâmplat.
39
83310
1704
01:37
Sixty-fiveŞaizeci şi cinci millionmilion yearsani agoîn urmă,
40
85014
2246
Acum 65 de milioane de ani
01:39
there was a suddenbrusc, violentviolent
changeSchimbare to the environmentmediu inconjurator.
41
87260
2615
s-a produs o schimbare
bruscă și violentă în mediu:
01:41
We call it the CretaceousCretacic extinctionextincţie eventeveniment.
42
89875
3505
extincția în masă din cretacic.
01:45
That's when the dinosaursdinozauri wenta mers extinctdispărut,
43
93380
2293
Atunci au dispărut dinozaurii,
01:47
that's when 75 percentla sută of the
44
95673
3449
atunci au dispărut 75%
din speciile de animale și plante,
01:51
animalanimal and plantplantă speciesspecie wenta mers extinctdispărut,
45
99122
2746
01:53
and that's when mammalsmamifere
46
101868
1745
atunci au ieșit mamiferele
din nișa lor ecologică.
01:55
overtookpreluat theiral lor ecologicalecologic nichenişă,
47
103613
2152
01:57
and to anthropomorphizeanthropomorphize, biologicalbiologic evolutionevoluţie said,
48
105765
3654
Personificînd, evoluția biologică și-a zis:
02:01
"HmmHmm, this neocortexneocortex is prettyfrumos good stuffchestie,"
49
109419
2025
„Hm, neocortexul ăsta e o chestie mișto!”
02:03
and it begana început to growcrește it.
50
111444
1793
Și a început să-l dezvolte.
02:05
And mammalsmamifere got biggermai mare,
51
113237
1342
Mamiferele au crescut,
02:06
theiral lor brainscreier got biggermai mare at an even fastermai repede paceritm,
52
114579
2915
creierul lor a crescut mai repede,
02:09
and the neocortexneocortex got biggermai mare even fastermai repede than that
53
117494
3807
iar neocortexul a crescut
încă și mai repede
02:13
and developeddezvoltat these distinctivedistinctiv ridgescrestele and foldsfalduri
54
121301
2929
și s-au format crestele și cutele specifice,
02:16
basicallype scurt to increasecrește its surfacesuprafaţă areazonă.
55
124230
2881
în esență pentru a mări aria.
02:19
If you tooka luat the humanuman neocortexneocortex
56
127111
1819
Dacă luăm neocortexul uman și-l întindem,
02:20
and stretchedîntins it out,
57
128930
1301
02:22
it's about the sizemărimea of a tablemasa napkinservetel,
58
130231
1713
e cam cît o față de masă
02:23
and it's still a thinsubţire structurestructura.
59
131944
1306
și are tot o structură subțire.
02:25
It's about the thicknessgrosime of a tablemasa napkinservetel.
60
133250
1980
Are grosimea unei fețe de masă.
02:27
But it has so manymulți convolutionscircumvoluţiuni and ridgescrestele
61
135230
2497
Dar are atîtea circumvoluțiuni și îndoituri
02:29
it's now 80 percentla sută of our braincreier,
62
137727
3075
încît acum reprezintă 80% din creier.
02:32
and that's where we do our thinkinggândire,
63
140802
2461
Acolo ne realizăm gîndirea
02:35
and it's the great sublimatorsublimator.
64
143263
1761
și redirijarea impulsurilor.
02:37
We still have that oldvechi braincreier
65
145024
1114
Avem și acum creierul vechi,
02:38
that providesprevede our basicde bază drivesunități and motivationsmotivații,
66
146138
2764
care ne dă dorințele
și motivațiile fundamentale,
02:40
but I mayMai have a driveconduce for conquestcucerire,
67
148902
2716
dar dacă ai poftă de cucerire
02:43
and that'llcare va be sublimatedsublimate by the neocortexneocortex
68
151618
2715
neocortexul o transformă în altceva,
02:46
into writingscris a poempoem or inventinginventarea an appaplicaţia
69
154333
2909
și atunci scrii o poezie
sau programezi un smartphone
02:49
or givingoferindu- a TEDTED Talk,
70
157242
1509
sau ții un discurs la TED.
02:50
and it's really the neocortexneocortex that's where
71
158751
3622
Neocortexul este adevăratul loc
02:54
the actionacțiune is.
72
162373
1968
unde se petrece acțiunea.
02:56
FiftyCincizeci yearsani agoîn urmă, I wrotea scris a paperhârtie
73
164341
1717
Acum 50 de ani am scris un articol
02:58
describingdescriind how I thought the braincreier workeda lucrat,
74
166058
1918
despre cum credeam
că funcționează creierul
02:59
and I describeddescris it as a seriesserie of modulesmodule.
75
167976
3199
și-l descriam ca pe o serie de module.
03:03
EachFiecare modulemodul could do things with a patternmodel.
76
171175
2128
Fiecare modul opera cu structuri:
03:05
It could learnînvăța a patternmodel. It could remembertine minte a patternmodel.
77
173303
2746
putea învăța o structură,
putea memora o structură,
03:08
It could implementaplica a patternmodel.
78
176049
1407
putea construi o structură.
03:09
And these modulesmodule were organizedorganizat in hierarchiesierarhii,
79
177456
2679
Modulele erau organizate în ierarhii,
03:12
and we createdcreată that hierarchyierarhie with our ownpropriu thinkinggândire.
80
180135
2954
iar ierarhia o cream noi înșine
prin gîndire.
03:15
And there was actuallyde fapt very little to go on
81
183089
3333
Aveam foarte puține informații palpabile
acum 50 de ani.
03:18
50 yearsani agoîn urmă.
82
186422
1562
03:19
It led me to meetîntâlni PresidentPreşedintele JohnsonJohnson.
83
187984
2115
Mi-a dat ocazia să-l întîlnesc
pe președintele Johnson.
03:22
I've been thinkinggândire about this for 50 yearsani,
84
190099
2173
M-am tot gîndit la asta în acești ani,
03:24
and a yearan and a halfjumătate agoîn urmă I camea venit out with the bookcarte
85
192272
2828
iar acum un an și jumătate am scos cartea
03:27
"How To CreateCrea A MindMintea,"
86
195100
1265
„Cum se creează o minte”,
03:28
whichcare has the samela fel thesisteză,
87
196365
1613
care susține același lucru,
03:29
but now there's a plethoraserie of evidenceevidență.
88
197978
2812
dar acum există puzderie de dovezi.
03:32
The amountCantitate of datadate we're gettingobtinerea about the braincreier
89
200790
1814
Cantitatea de date
pe care le obținem despre creier
03:34
from neuroscienceneurostiintele is doublingdublare everyfiecare yearan.
90
202604
2203
din neuroștiință se dublează în fiecare an.
03:36
SpatialSpaţiale resolutionrezoluţie of brainscanningbrainscanning of all typestipuri
91
204807
2654
Rezoluția spațială a feluritelor scanere
03:39
is doublingdublare everyfiecare yearan.
92
207461
2285
se dublează și ea anual.
03:41
We can now see insideinterior a livingviaţă braincreier
93
209746
1717
Acum putem scana creierul viu
03:43
and see individualindividual interneuralinterneural connectionsconexiuni
94
211463
2870
și vedea fiecare conexiune neuronală
03:46
connectingconectarea in realreal time, firingardere in realreal time.
95
214333
2703
conectări în timp real,
impulsuri în timp real.
03:49
We can see your braincreier createcrea your thoughtsgânduri.
96
217036
2419
Vedem cum creierul
ne creează gîndurile
03:51
We can see your thoughtsgânduri createcrea your braincreier,
97
219455
1575
și vedem cum gîndurile
ne creează creierul,
03:53
whichcare is really keycheie to how it workslucrări.
98
221030
1999
ceea ce e esențial în funcționarea lui.
03:55
So let me describedescrie brieflyscurt how it workslucrări.
99
223029
2219
Să vă spun pe scurt cum funcționează.
03:57
I've actuallyde fapt countednumărat these modulesmodule.
100
225248
2275
Am și numărat aceste module,
03:59
We have about 300 millionmilion of them,
101
227523
2046
avem circa 300 de milioane
04:01
and we createcrea them in these hierarchiesierarhii.
102
229569
2229
și le creăm în niște ierarhii.
04:03
I'll give you a simplesimplu exampleexemplu.
103
231798
2082
Să vă dau un exemplu simplu.
04:05
I've got a bunchbuchet of modulesmodule
104
233880
2805
Să luăm un grup de module
04:08
that can recognizerecunoaşte the crossbarbara transversală to a capitalcapital A,
105
236685
3403
care identifică linia orizontală din litera A.
04:12
and that's all they careîngrijire about.
106
240088
1914
Numai atît le interesează.
04:14
A beautifulfrumoasa songcântec can playa juca,
107
242002
1578
Poate să se audă un cîntec frumos,
04:15
a prettyfrumos girlfată could walkmers pe jos by,
108
243580
1434
poate să treacă o fată drăguță,
04:17
they don't careîngrijire, but they see
a crossbarbara transversală to a capitalcapital A,
109
245014
2846
pe ele nu le interesează,
dar cînd văd linia lui A
04:19
they get very excitedexcitat and they say "crossbarbara transversală,"
110
247860
3021
se entuziasmează,
spun „Linie orizontală!”
04:22
and they put out a highînalt probabilityprobabilitate
111
250881
2112
și produc un semnal de mare probabilitate
04:24
on theiral lor outputproducție axonAxon.
112
252993
1634
în axonul lor de ieșire.
04:26
That goesmerge to the nextUrmător → levelnivel,
113
254627
1333
Acesta merge la nivelul următor.
04:27
and these layersstraturi are organizedorganizat in conceptualconceptual levelsniveluri.
114
255960
2750
Straturile sînt organizate
pe niveluri conceptuale.
04:30
EachFiecare is more abstractabstract than the nextUrmător → one,
115
258710
1856
Fiecare e mai abstract decît cel dinainte.
04:32
so the nextUrmător → one mightar putea say "capitalcapital A."
116
260566
2418
Și următorul zice de exemplu „Litera A”.
04:34
That goesmerge up to a highersuperior
levelnivel that mightar putea say "AppleApple."
117
262984
2891
Asta ajunge la nivelul următor
care zice de exemplu „APPLE”.
04:37
InformationInformaţii flowsfluxurile down alsode asemenea.
118
265875
2167
Informația curge și în jos.
04:40
If the applemăr recognizerrecunoaștere has seenvăzut A-P-P-LP-P-ADRIAN,
119
268042
2936
Dacă identificatorul de APPLE
vede A-P-P-L,
04:42
it'llO să think to itselfîn sine, "HmmHmm, I
think an E is probablyprobabil likelyprobabil,"
120
270978
3219
se gîndește:
„Hm, cred că s-ar putea să urmeze un E.”
04:46
and it'llO să sendtrimite a signalsemnal down to all the E recognizersDetectorii
121
274197
2564
și trimite un semnal în jos
spre identificatoarele de E:
04:48
sayingzicală, "Be on the lookoutLookout for an E,
122
276761
1619
„Căutați bine un E,
cred că urmează să vină!”
04:50
I think one mightar putea be comingvenire."
123
278380
1556
04:51
The E recognizersDetectorii will lowerinferior theiral lor thresholdprag
124
279936
2843
Identificatoarele de E
își vor reduce pragul
04:54
and they see some sloppydesfundat
thing, could be an E.
125
282779
1945
și vor vedea ceva neclar,
ar putea fi un E.
04:56
OrdinarilyDe obicei you wouldn'tnu ar fi think so,
126
284724
1490
În mod normal n-ar crede,
04:58
but we're expectingașteptându- an E, it's good enoughdestul,
127
286214
2009
dar acum se așteaptă la un E, e bun așa.
05:00
and yeah, I've seenvăzut an E, and then applemăr saysspune,
128
288223
1817
„Da, am văzut un E.”
Apoi APPLE spune:
05:02
"Yeah, I've seenvăzut an AppleApple."
129
290040
1728
„Da, am văzut APPLE.”
05:03
Go up anothero alta fivecinci levelsniveluri,
130
291768
1746
Cu 5 niveluri mai sus
05:05
and you're now at a prettyfrumos highînalt levelnivel
131
293514
1353
ajungem la un nivel
relativ înalt al ierarhiei
05:06
of this hierarchyierarhie,
132
294867
1569
05:08
and stretchîntinde down into the differentdiferit sensessimțurile,
133
296436
2353
și ne uităm la diferitele simțuri.
05:10
and you mayMai have a modulemodul
that seesvede a certainanumit fabricțesătură,
134
298789
2655
Putem avea un modul
care vede un anumit material textil,
05:13
hearsaude a certainanumit voicevoce qualitycalitate,
smellsmiroase a certainanumit perfumeparfum,
135
301444
2844
aude un anumit timbru de voce,
miroase un anumit parfum
05:16
and will say, "My wifesoție has entereda intrat the roomcameră."
136
304288
2513
și spune:
„A intrat nevastă-mea în cameră.”
05:18
Go up anothero alta 10 levelsniveluri, and now you're at
137
306801
1895
Mai urcăm 10 niveluri și ajungem
05:20
a very highînalt levelnivel.
138
308696
1160
la un nivel foarte înalt.
05:21
You're probablyprobabil in the frontalfrontal cortexcortex,
139
309856
1937
Ne aflăm probabil în zona frontală,
05:23
and you'llveți have modulesmodule that say, "That was ironicironic.
140
311793
3767
unde găsim module care spun:
„Ce curios! Ce amuzant! Ce fată drăguță!”
05:27
That's funnyamuzant. She's prettyfrumos."
141
315560
2370
05:29
You mightar putea think that those are more sophisticatedsofisticat,
142
317930
2105
Ați putea crede că aceste niveluri
sînt mai sofisticate,
05:32
but actuallyde fapt what's more complicatedcomplicat
143
320035
1506
dar de fapt nu e mai complicată
05:33
is the hierarchyierarhie beneathsub them.
144
321541
2669
decît ierarhia de sub ele.
05:36
There was a 16-year-old-de ani girlfată, she had braincreier surgeryinterventie chirurgicala,
145
324210
2620
Unei fete de 16 ani i se făcea
o operație pe creier.
05:38
and she was consciousconştient because the surgeonschirurgi
146
326830
2051
Era conștientă, pentru că chirurgii
05:40
wanted to talk to her.
147
328881
1537
țineau să vorbească cu ea.
05:42
You can do that because there's no paindurere receptorsreceptorii
148
330418
1822
Se poate face asta, creierul nu are
receptori pentru durere.
05:44
in the braincreier.
149
332240
1038
05:45
And wheneveroricând they stimulatedstimulate particularspecial,
150
333278
1800
Și de cîte ori chirurgii stimulau
05:47
very smallmic pointspuncte on her neocortexneocortex,
151
335078
2463
anumite puncte mici de pe neocortex,
05:49
shownafișate here in redroșu, she would laugha rade.
152
337541
2665
cele roșii de pe ecran, fata rîdea.
05:52
So at first they thought they were triggeringdeclanşarea
153
340206
1440
La început credeau că i-au declanșat
05:53
some kinddrăguț of laugha rade reflexreflex,
154
341646
1720
un fel de reflexe ale rîsului,
05:55
but no, they quicklyrepede realizedrealizat they had foundgăsite
155
343366
2519
dar nu, și-au dat seama imediat
că au găsit
05:57
the pointspuncte in her neocortexneocortex that detectdetecta humorumor,
156
345885
3044
punctele de pe neocortex
care detectează umorul.
06:00
and she just foundgăsite everything hilariousvesel
157
348929
1969
Fetei i se părea totul amuzant
06:02
wheneveroricând they stimulatedstimulate these pointspuncte.
158
350898
2437
de cîte ori îi stimulau aceste puncte.
06:05
"You guys are so funnyamuzant just standingpermanent around,"
159
353335
1925
”Sînteți tare comici
cum stați așa în jurul meu!”
06:07
was the typicaltipic commentcometariu,
160
355260
1738
zicea ea mereu.
06:08
and they weren'tnu au fost funnyamuzant,
161
356998
2302
Dar ei nu erau comici,
06:11
not while doing surgeryinterventie chirurgicala.
162
359300
3247
că doar făceau o operație.
06:14
So how are we doing todayastăzi?
163
362547
4830
Cum stau lucrurile azi?
06:19
Well, computerscalculatoare are actuallyde fapt beginningînceput to mastermaestru
164
367377
3054
Calculatoarele au început să stăpînească
06:22
humanuman languagelimba with techniquestehnici
165
370431
2001
limbajul uman folosind procese
06:24
that are similarasemănător to the neocortexneocortex.
166
372432
2867
similare cu cele din neocortex.
06:27
I actuallyde fapt describeddescris the algorithmAlgoritmul,
167
375299
1514
Eu am descris un algoritm
06:28
whichcare is similarasemănător to something calleddenumit
168
376813
2054
similar cu cel numit
06:30
a hierarchicalierarhice hiddenascuns MarkovMarkov modelmodel,
169
378867
2233
„modelul Markov ascuns ierarhic”
06:33
something I've workeda lucrat on sincede cand the '90s.
170
381100
3241
și la care lucrez din anii 1990.
06:36
"JeopardyPericol" is a very broadlarg naturalnatural languagelimba gamejoc,
171
384341
3238
„Jeopardy” e un joc bazat
pe limbajul natural,
06:39
and WatsonWatson got a highersuperior scorescor
172
387579
1892
iar Watson a obținut un scor mai mare
06:41
than the bestCel mai bun two playersjucători combinedcombinate.
173
389471
2000
decît cei mai buni doi jucători la un loc.
06:43
It got this queryinterogare correctcorect:
174
391471
2499
A rezolvat corect proba aceasta:
06:45
"A long, tiresomeobositoare speechvorbire
175
393970
2085
„Un discurs lung și obositor
ținut de o plăcintă însiropată.”
06:48
deliveredlivrat by a frothyspumos pieplacinta toppingtopping,"
176
396055
2152
06:50
and it quicklyrepede respondeda răspuns,
"What is a meringuebezea harangueharangue?"
177
398207
2796
Watson a spus pe loc:
„Ce este o poliloghie de sarailie?”
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
Jennings și celălalt n-au putut răspunde.
06:55
It's a prettyfrumos sophisticatedsofisticat exampleexemplu of
179
403638
1926
E un exemplu foarte sofisticat
06:57
computerscalculatoare actuallyde fapt understandingînţelegere humanuman languagelimba,
180
405564
1914
de înțelegere a limbajului uman
de către computere.
06:59
and it actuallyde fapt got its knowledgecunoştinţe by readingcitind
181
407478
1652
Watson și-a acumulat cunoștințele
07:01
WikipediaWikipedia and severalmai mulți other encyclopediasenciclopedii.
182
409130
3785
citind Wikipedia
și alte cîteva enciclopedii.
07:04
FiveCinci to 10 yearsani from now,
183
412915
2133
Peste 5–10 ani motoarele
de căutare vor funcționa
07:07
searchcăutare enginesmotoare will actuallyde fapt be basedbazat on
184
415048
2184
07:09
not just looking for combinationscombinaţii of wordscuvinte and linksLink-uri
185
417232
2794
nu prin analiza combinațiilor de cuvinte,
07:12
but actuallyde fapt understandingînţelegere,
186
420026
1914
ci prin înțelegerea propriu-zisă,
07:13
readingcitind for understandingînţelegere the billionsmiliarde of pagespagini
187
421940
2411
citirea și înțelegerea a miliarde de pagini
07:16
on the webweb and in bookscărți.
188
424351
2733
de pe internet și din cărți.
07:19
So you'llveți be walkingmers alongde-a lungul, and GoogleGoogle will poppop up
189
427084
2616
O să mergi la plimbare,
iar Google o să iasă
07:21
and say, "You know, MaryMary, you expressedexprimate concernîngrijorare
190
429700
3081
și o să-ți spună:
„Maria, te plîngeai acum o lună
07:24
to me a monthlună agoîn urmă that your glutathioneglutation supplementsupliment
191
432781
3019
că suplimentul tău de glutationă
nu poate trece de bariera hematoencefalică.
07:27
wasn'tnu a fost gettingobtinerea pasttrecut the blood-brainsânge-creier barrierbarieră.
192
435800
2231
07:30
Well, newnou researchcercetare just camea venit out 13 secondssecunde agoîn urmă
193
438031
2593
Ei bine, acum 13 secunde
a apărut un articol nou
07:32
that showsspectacole a wholeîntreg newnou approachabordare to that
194
440624
1711
care prezintă o nouă abordare a problemei
07:34
and a newnou way to take glutathioneglutation.
195
442335
1993
și o nouă tehnică de administrare
a glutationei.
07:36
Let me summarizerezuma it for you."
196
444328
2562
Hai să-ți fac un rezumat.”
07:38
TwentyDouăzeci yearsani from now, we'llbine have nanobotsNanobots,
197
446890
3684
Peste 20 de ani vom avea nanoroboți,
07:42
because anothero alta exponentialexponențială trendtendinţă
198
450574
1627
fiindcă o altă tendință exponențială
07:44
is the shrinkingscădere of technologytehnologie.
199
452201
1615
este minaturizarea tehnologiei.
07:45
They'llEle vor go into our braincreier
200
453816
2370
Nanoroboții vor intra în creier
prin vasele capilare
07:48
throughprin the capillariescapilare
201
456186
1703
07:49
and basicallype scurt connectconectați our neocortexneocortex
202
457889
2477
și vor conecta neocortexul
07:52
to a syntheticsintetic neocortexneocortex in the cloudnor
203
460366
3185
la un neocortex artificial în cloud,
07:55
providingfurnizarea an extensionextensie of our neocortexneocortex.
204
463551
3591
ca o extensie a neocortexului uman.
07:59
Now todayastăzi, I mean,
205
467142
1578
Chiar și azi,
avem un calculator în telefon,
08:00
you have a computercomputer in your phonetelefon,
206
468720
1530
08:02
but if you need 10,000 computerscalculatoare for a fewpuțini secondssecunde
207
470250
2754
dar dacă ne trebuie 10.000 de calculatoare
timp de cîteva secunde,
pentru o căutare complexă,
08:05
to do a complexcomplex searchcăutare,
208
473004
1495
08:06
you can accessacces that for a secondal doilea or two in the cloudnor.
209
474499
3396
avem acces pentru o secundă sau două
la cloud computing.
08:09
In the 2030s, if you need some extrasuplimentar neocortexneocortex,
210
477895
3095
În anii 2030, dacă vom dori
niște neocortex în plus,
08:12
you'llveți be ablecapabil to connectconectați to that in the cloudnor
211
480990
2273
ne vom putea conecta la cel din cloud,
08:15
directlydirect from your braincreier.
212
483263
1648
direct din creier.
08:16
So I'm walkingmers alongde-a lungul and I say,
213
484911
1543
Să zicem că merg pe drum și zic
08:18
"Oh, there's ChrisChris AndersonAnderson.
214
486454
1363
„Uite-l pe Chris Anderson.
08:19
He's comingvenire my way.
215
487817
1525
Vine spre mine.
Trebuie să găsesc ceva inteligent de spus.
08:21
I'd better think of something cleverinteligent to say.
216
489342
2335
08:23
I've got threeTrei secondssecunde.
217
491677
1524
Am trei secunde.
08:25
My 300 millionmilion modulesmodule in my neocortexneocortex
218
493201
3097
Cele 300 de milioane de module
din neocortexul meu
08:28
isn't going to cuta taia it.
219
496298
1240
nu sînt de ajuns.
08:29
I need a billionmiliard more."
220
497538
1246
Am nevoie de încă 1 miliard.”
08:30
I'll be ablecapabil to accessacces that in the cloudnor.
221
498784
3323
Voi putea să-l accesez în cloud.
08:34
And our thinkinggândire, then, will be a hybridhibrid
222
502107
2812
Gîndirea noastră va fi atunci un hibrid
08:36
of biologicalbiologic and non-biologicalnon-biologice thinkinggândire,
223
504919
3522
de gîndire biologică și nebiologică.
08:40
but the non-biologicalnon-biologice portionporţiune
224
508441
1898
Dar partea nebiologică
08:42
is subjectsubiect to my lawlege of acceleratingaccelerarea returnsse intoarce.
225
510339
2682
respectă legea cîștigurilor accelerate.
08:45
It will growcrește exponentiallyexponențial.
226
513021
2239
Va crește exponențial.
08:47
And remembertine minte what happensse întâmplă
227
515260
2016
Și țineți minte ce s-a întîmplat
08:49
the last time we expandedextins our neocortexneocortex?
228
517276
2645
cînd ne-am extins neocortexul
data trecută?
08:51
That was two millionmilion yearsani agoîn urmă
229
519921
1426
Era acum 2 milioane de ani;
08:53
when we becamea devenit humanoidshumanoids
230
521347
1236
am devenit umanoizi
08:54
and developeddezvoltat these largemare foreheadsfrunte.
231
522583
1594
și am căpătat această frunte lată.
08:56
Other primatesprimate have a slantedinclinat browfruntea.
232
524177
2583
Alte primate au fruntea teșită.
08:58
They don't have the frontalfrontal cortexcortex.
233
526760
1745
Ele nu au lobul frontal.
09:00
But the frontalfrontal cortexcortex is not
really qualitativelycalitativ differentdiferit.
234
528505
3685
Dar lobul frontal nu diferă calitativ.
09:04
It's a quantitativecantitativ expansionexpansiune of neocortexneocortex,
235
532190
2743
E o extindere cantitativă a neocortexului,
09:06
but that additionalsuplimentare quantitycantitatea of thinkinggândire
236
534933
2703
dar cantitatea suplimentară de gîndire
09:09
was the enablingpermițând factorfactor for us to take
237
537636
1779
a fost factorul care ne-a permis să facem
09:11
a qualitativecalitative leapsalt and inventinventa languagelimba
238
539415
3346
un salt calitativ și să inventăm limbajul
09:14
and artartă and scienceştiinţă and technologytehnologie
239
542761
1967
și arta și știința și tehnologia
09:16
and TEDTED conferencesconferințe.
240
544728
1454
și conferințele TED.
09:18
No other speciesspecie has doneTerminat that.
241
546182
2131
Nici o altă specie nu a realizat asta.
09:20
And so, over the nextUrmător → fewpuțini decadesdecenii,
242
548313
2075
În următoarele decenii
vom face un nou salt.
09:22
we're going to do it again.
243
550388
1760
09:24
We're going to again expandextinde our neocortexneocortex,
244
552148
2274
Urmează să ne extindem din nou
neocortexul,
09:26
only this time we won'tnu va be limitedlimitat
245
554422
1756
doar că de data asta nu vom mai fi limitați
09:28
by a fixedfix architecturearhitectură of enclosureîmprejmuire.
246
556178
4280
de arhitectura fixă a recipientului.
09:32
It'llAcesta va be expandedextins withoutfără limitlimită.
247
560458
3304
Se va extinde fără limite.
09:35
That additionalsuplimentare quantitycantitatea will again
248
563762
2243
Cantitatea suplimentară va fi din nou
09:38
be the enablingpermițând factorfactor for anothero alta qualitativecalitative leapsalt
249
566005
3005
factorul care ne va permite încă un salt calitativ
09:41
in culturecultură and technologytehnologie.
250
569010
1635
în cultură și tehnologie.
09:42
Thank you very much.
251
570645
2054
Vă mulțumesc foarte mult!
09:44
(ApplauseAplauze)
252
572699
3086
(Aplauze)
Translated by Adrian Dobroiu
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com