ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com
TED2014

Ray Kurzweil: Get ready for hybrid thinking

Ray Kurzweil: Prepárate para el pensamiento híbrido

Filmed:
3,548,296 views

Hace dos mil millones de años nuestros ancestros mamíferos desarrollaron una nueva característica cerebral: el neocórtex. Este tejido del tamaño de una estampilla (envuelta alrededor de un cerebro del tamaño de una nuez) es la clave para el desarrollo de la humanidad. Ahora, el futurista Ray Kurweil sugiere que debemos prepararnos para el siguiente gran salto en el poder cerebral al acercarnos al poder de cómputo de la nube.
- Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species. Full bio

Double-click the English transcript below to play the video.

00:12
Let me tell you a storyhistoria.
0
988
2316
Permítanme contarles una historia.
00:15
It goesva back 200 millionmillón yearsaños.
1
3304
1799
Se remonta a hace 200 millones de años.
00:17
It's a storyhistoria of the neocortexneocorteza,
2
5103
1984
Es la historia del neocórtex,
00:19
whichcual meansmedio "newnuevo rindcorteza."
3
7087
1974
que significa "nueva cáscara".
00:21
So in these earlytemprano mammalsmamíferos,
4
9061
2431
Es en estos mamíferos primitivos,
00:23
because only mammalsmamíferos have a neocortexneocorteza,
5
11492
2055
porque solo los mamíferos
tienen neocórtex,
00:25
rodent-likesimilar a un roedor creaturescriaturas.
6
13547
1664
parecidos a los roedores.
00:27
It was the sizetamaño of a postagefranqueo stampsello and just as thinDelgado,
7
15211
3579
Era del tamaño y tan delgado
como una estampilla,
y era una cobertura fina alrededor
00:30
and was a thinDelgado coveringcubierta around
8
18790
1439
00:32
theirsu walnut-sizedtamaño de nogal braincerebro,
9
20229
2264
de su cerebro del tamaño de una nuez,
00:34
but it was capablecapaz of a newnuevo typetipo of thinkingpensando.
10
22493
3701
pero era capaz de un
nuevo tipo de pensamiento.
00:38
RatherMás bien than the fixedfijo behaviorscomportamientos
11
26194
1567
En vez de los comportamientos fijos
00:39
that non-mammalianno mamífero animalsanimales have,
12
27761
1992
que los animales no-mamíferos tienen,
00:41
it could inventinventar newnuevo behaviorscomportamientos.
13
29753
2692
podía inventar nuevas conductas.
00:44
So a mouseratón is escapingescapando a predatordepredador,
14
32445
2553
Entonces, si un ratón está
escapando de un depredador,
00:46
its pathcamino is blockedobstruido,
15
34998
1540
y su camino está bloqueado,
00:48
it'llva a try to inventinventar a newnuevo solutionsolución.
16
36538
2129
tratará de inventar una nueva solución.
00:50
That maymayo work, it maymayo not,
17
38667
1266
Puede funcionar o no,
00:51
but if it does, it will rememberrecuerda that
18
39933
1910
pero si funciona, lo recordará,
00:53
and have a newnuevo behaviorcomportamiento,
19
41843
1292
tendrá una nueva conducta,
00:55
and that can actuallyactualmente spreaduntado virallyviralmente
20
43135
1457
y se puede esparcir viralmente
00:56
throughmediante the restdescanso of the communitycomunidad.
21
44592
2195
en el resto de su comunidad.
00:58
AnotherOtro mouseratón watchingacecho this could say,
22
46787
1609
Otro ratón que vea esto dirá,
01:00
"Hey, that was prettybonita cleverinteligente, going around that rockrock,"
23
48396
2704
"Hey, fue muy inteligente
rodear esa roca",
01:03
and it could adoptadoptar a newnuevo behaviorcomportamiento as well.
24
51100
3725
y puede adoptar esta
nueva conducta también.
01:06
Non-mammalianNo mamífero animalsanimales
25
54825
1717
Los animales no-mamíferos
01:08
couldn'tno pudo do any of those things.
26
56542
1713
no podían hacer esas cosas.
01:10
They had fixedfijo behaviorscomportamientos.
27
58255
1215
Tenían conductas fijas.
01:11
Now they could learnaprender a newnuevo behaviorcomportamiento
28
59470
1331
Aprendían nuevas conductas,
01:12
but not in the coursecurso of one lifetimetoda la vida.
29
60801
2576
pero no en el transcurso de una vida.
01:15
In the coursecurso of maybe a thousandmil lifetimesvidas,
30
63377
1767
En el transcurso de miles de vidas,
01:17
it could evolveevolucionar a newnuevo fixedfijo behaviorcomportamiento.
31
65144
3330
podía evolucionar una
nueva conducta fija.
01:20
That was perfectlyperfectamente okay 200 millionmillón yearsaños agohace.
32
68474
3377
Eso estaba muy bien
200 millones de años atrás.
01:23
The environmentambiente changedcambiado very slowlydespacio.
33
71851
1981
Los cambios eran lentos.
Podía tomar 10 mil años que hubiera
01:25
It could take 10,000 yearsaños for there to be
34
73832
1554
01:27
a significantsignificativo environmentalambiental changecambio,
35
75386
2092
un cambio ambiental significativo,
01:29
and duringdurante that periodperíodo of time
36
77478
1382
y durante ese tiempo
01:30
it would evolveevolucionar a newnuevo behaviorcomportamiento.
37
78860
2929
evolucionaría una nueva conducta.
01:33
Now that wentfuimos alonga lo largo fine,
38
81789
1521
Eso funcionó bastante bien,
01:35
but then something happenedsucedió.
39
83310
1704
pero luego algo ocurrió.
01:37
Sixty-fiveSesenta y cinco millionmillón yearsaños agohace,
40
85014
2246
65 millones de años atrás,
01:39
there was a suddenrepentino, violentviolento
changecambio to the environmentambiente.
41
87260
2615
hubo un cambio ambiental
repentino y violento.
01:41
We call it the CretaceousCretáceo extinctionextinción eventevento.
42
89875
3505
llamado la extinción masiva del Cretácico.
01:45
That's when the dinosaursdinosaurios wentfuimos extinctextinto,
43
93380
2293
Fue cuando los dinosaurios
se extinguieron,
01:47
that's when 75 percentpor ciento of the
44
95673
3449
cuando el 75 % de
01:51
animalanimal and plantplanta speciesespecies wentfuimos extinctextinto,
45
99122
2746
los animales y plantas se extinguieron,
01:53
and that's when mammalsmamíferos
46
101868
1745
y fue cuando los mamíferos
01:55
overtookadelantó theirsu ecologicalecológico nichenicho,
47
103613
2152
dominaron su nicho ecológico,
01:57
and to anthropomorphizeantropomorfizar, biologicalbiológico evolutionevolución said,
48
105765
3654
y para antropomorfizarlo,
la evolución dijo,
02:01
"HmmHmm, this neocortexneocorteza is prettybonita good stuffcosas,"
49
109419
2025
"Mmm, este neocórtex es algo muy bueno",
02:03
and it beganempezó to growcrecer it.
50
111444
1793
y comenzó a hacerlo crecer.
02:05
And mammalsmamíferos got biggermás grande,
51
113237
1342
Y los mamíferos crecieron,
02:06
theirsu brainssesos got biggermás grande at an even fasterMás rápido pacepaso,
52
114579
2915
sus cerebros crecieron aún más rápido,
02:09
and the neocortexneocorteza got biggermás grande even fasterMás rápido than that
53
117494
3807
y el neocórtex creció
aún más rápido que eso
02:13
and developeddesarrollado these distinctivedistintivo ridgescrestas and foldspliegues
54
121301
2929
y desarrolló sus arrugas
y pliegues característicos
02:16
basicallybásicamente to increaseincrementar its surfacesuperficie areazona.
55
124230
2881
básicamente para aumentar
su área superficial.
02:19
If you tooktomó the humanhumano neocortexneocorteza
56
127111
1819
Si tomaran el neocórtex humano
02:20
and stretchedestirado it out,
57
128930
1301
y lo estiraran,
es como del tamaño de una servilleta,
02:22
it's about the sizetamaño of a tablemesa napkinservilleta,
58
130231
1713
02:23
and it's still a thinDelgado structureestructura.
59
131944
1306
es una estructura delgada.
02:25
It's about the thicknessespesor of a tablemesa napkinservilleta.
60
133250
1980
Es como del grosor de una servilleta.
02:27
But it has so manymuchos convolutionsconvoluciones and ridgescrestas
61
135230
2497
Pero tiene tantas arrugas
02:29
it's now 80 percentpor ciento of our braincerebro,
62
137727
3075
que ahora es el 80 %
de nuestro cerebro,
02:32
and that's where we do our thinkingpensando,
63
140802
2461
y ahí es donde pensamos,
02:35
and it's the great sublimatorsublimador.
64
143263
1761
y es el gran sublimador.
Aún tenemos el viejo cerebro,
02:37
We still have that oldantiguo braincerebro
65
145024
1114
02:38
that providesproporciona our basicBASIC drivesunidades and motivationsmotivaciones,
66
146138
2764
que provee nuestras
motivaciones e impulsos básicos,
02:40
but I maymayo have a drivemanejar for conquestconquista,
67
148902
2716
pero puedo tener un impulso de conquista
02:43
and that'lleso va be sublimatedsublimado by the neocortexneocorteza
68
151618
2715
y será sublimado por el neocórtex
02:46
into writingescritura a poempoema or inventinginventar an appaplicación
69
154333
2909
en escribir un poema o inventar una app
02:49
or givingdando a TEDTED Talk,
70
157242
1509
o dar una charla TED,
02:50
and it's really the neocortexneocorteza that's where
71
158751
3622
y es realmente en el neocórtex
02:54
the actionacción is.
72
162373
1968
donde está esa acción.
02:56
FiftyCincuenta yearsaños agohace, I wroteescribió a paperpapel
73
164341
1717
50 años atrás, escribí un artículo
02:58
describingdescribiendo how I thought the braincerebro workedtrabajó,
74
166058
1918
describiendo cómo creía
que funcionaba el cerebro,
02:59
and I describeddescrito it as a seriesserie of modulesmódulos.
75
167976
3199
y lo describí como
una serie de módulos.
03:03
EachCada modulemódulo could do things with a patternpatrón.
76
171175
2128
Cada módulo podía hacer cosas
según un patrón.
03:05
It could learnaprender a patternpatrón. It could rememberrecuerda a patternpatrón.
77
173303
2746
Podía aprender un patrón.
Podía recordar un patrón.
03:08
It could implementimplementar a patternpatrón.
78
176049
1407
Podía implementar un patrón.
03:09
And these modulesmódulos were organizedorganizado in hierarchiesjerarquías,
79
177456
2679
Y estos módulos estaban
organizados en jerarquías,
03:12
and we createdcreado that hierarchyjerarquía with our ownpropio thinkingpensando.
80
180135
2954
y creábamos la jerarquía con
nuestro propio pensamiento.
03:15
And there was actuallyactualmente very little to go on
81
183089
3333
Y realmente había muy poco
con lo que seguir
03:18
50 yearsaños agohace.
82
186422
1562
50 años atrás.
03:19
It led me to meetreunirse Presidentpresidente JohnsonJohnson.
83
187984
2115
Me llevó a conocer al presidente Johnson.
03:22
I've been thinkingpensando about this for 50 yearsaños,
84
190099
2173
He estado pensando en esto por 50 años,
03:24
and a yearaño and a halfmitad agohace I camevino out with the booklibro
85
192272
2828
y hace un año y medio escribí un libro
03:27
"How To CreateCrear A MindMente,"
86
195100
1265
"Cómo crear una mente",
03:28
whichcual has the samemismo thesistesis,
87
196365
1613
que tiene la misma tesis,
03:29
but now there's a plethoraplétora of evidenceevidencia.
88
197978
2812
pero ahora hay una plétora de evidencia.
03:32
The amountcantidad of datadatos we're gettingconsiguiendo about the braincerebro
89
200790
1814
La información que
obtenemos sobre el cerebro
03:34
from neuroscienceneurociencia is doublingduplicación everycada yearaño.
90
202604
2203
en neurociencia se duplica cada año.
03:36
SpatialEspacial resolutionresolución of brainscanningexploración del cerebro of all typestipos
91
204807
2654
La resolución espacial de los escáneres
cerebrales de todo tipo
03:39
is doublingduplicación everycada yearaño.
92
207461
2285
se duplica cada año.
03:41
We can now see insidedentro a livingvivo braincerebro
93
209746
1717
Ahora podemos ver
dentro de un cerebro vivo
03:43
and see individualindividual interneuralinterneural connectionsconexiones
94
211463
2870
y ver conexiones
interneurales individuales
conectándose en tiempo real,
disparando en tiempo real.
03:46
connectingconectando in realreal time, firingdisparo in realreal time.
95
214333
2703
03:49
We can see your braincerebro createcrear your thoughtspensamientos.
96
217036
2419
Podemos ver su cerebro
crear sus pensamientos.
Podemos ver sus pensamientos
crear su cerebro,
03:51
We can see your thoughtspensamientos createcrear your braincerebro,
97
219455
1575
03:53
whichcual is really keyllave to how it workstrabajos.
98
221030
1999
que es clave para cómo funciona.
03:55
So let me describedescribir brieflybrevemente how it workstrabajos.
99
223029
2219
Así que déjenme describir
cómo funciona brevemente.
03:57
I've actuallyactualmente countedcontado these modulesmódulos.
100
225248
2275
He contado estos módulos.
03:59
We have about 300 millionmillón of them,
101
227523
2046
Tenemos cerca de 300 millones de ellos,
04:01
and we createcrear them in these hierarchiesjerarquías.
102
229569
2229
y los creamos en estas jerarquías.
04:03
I'll give you a simplesencillo exampleejemplo.
103
231798
2082
Les daré un ejemplo simple.
04:05
I've got a bunchmanojo of modulesmódulos
104
233880
2805
Tengo un montón de módulos
04:08
that can recognizereconocer the crossbartravesaño to a capitalcapital A,
105
236685
3403
que pueden reconocer
la barra cruzada de la letra A,
04:12
and that's all they carecuidado about.
106
240088
1914
y eso es todo lo que les interesa.
04:14
A beautifulhermosa songcanción can playjugar,
107
242002
1578
Puede sonar una linda canción,
04:15
a prettybonita girlniña could walkcaminar by,
108
243580
1434
puede pasar una linda chica,
04:17
they don't carecuidado, but they see
a crossbartravesaño to a capitalcapital A,
109
245014
2846
no les importa,
pero ven la barra de la letra A,
04:19
they get very excitedemocionado and they say "crossbartravesaño,"
110
247860
3021
se entusiasman mucho
y dicen "barra cruzada",
04:22
and they put out a highalto probabilityprobabilidad
111
250881
2112
y ponen una alta probabilidad
04:24
on theirsu outputsalida axonaxón.
112
252993
1634
en su axón de salida.
04:26
That goesva to the nextsiguiente levelnivel,
113
254627
1333
Eso va al siguiente nivel,
y estas capas están organizadas
en niveles conceptuales.
04:27
and these layerscapas are organizedorganizado in conceptualconceptual levelsniveles.
114
255960
2750
04:30
EachCada is more abstractabstracto than the nextsiguiente one,
115
258710
1856
Cada una es más
abstracta que la anterior,
04:32
so the nextsiguiente one mightpodría say "capitalcapital A."
116
260566
2418
así, la siguiente puede
decir "A mayúscula".
04:34
That goesva up to a highermayor
levelnivel that mightpodría say "Applemanzana."
117
262984
2891
Eso sube a un nivel más alto
que puede decir "Alce".
04:37
InformationInformación flowsflujos down alsoademás.
118
265875
2167
La información fluye hacia abajo también.
04:40
If the applemanzana recognizerreconocedor has seenvisto A-P-P-LAPPL,
119
268042
2936
Si el reconocedor de alce ha visto A-L-C,
04:42
it'llva a think to itselfsí mismo, "HmmHmm, I
think an E is probablyprobablemente likelyprobable,"
120
270978
3219
pensará, "Mmm, creo que
una E es probable",
04:46
and it'llva a sendenviar a signalseñal down to all the E recognizersreconocedores
121
274197
2564
y enviará una señal a los
reconocedores de E
04:48
sayingdiciendo, "Be on the lookoutEstar atento for an E,
122
276761
1619
diciendo, "Estén atentos a una E,
04:50
I think one mightpodría be comingviniendo."
123
278380
1556
creo que puede venir una".
04:51
The E recognizersreconocedores will lowerinferior theirsu thresholdlímite
124
279936
2843
Los reconocedores de E bajarán su umbral
04:54
and they see some sloppypoco riguroso
thing, could be an E.
125
282779
1945
y ven algo borroso,
que podría ser una E.
04:56
OrdinarilyOrdinariamente you wouldn'tno lo haría think so,
126
284724
1490
Normalmente no pensarían eso,
04:58
but we're expectingesperando an E, it's good enoughsuficiente,
127
286214
2009
pero esperamos una E,
es bastante buena,
05:00
and yeah, I've seenvisto an E, and then applemanzana saysdice,
128
288223
1817
y sí, vi una E, y luego alce dice,
05:02
"Yeah, I've seenvisto an Applemanzana."
129
290040
1728
"Sí, vi un alce".
05:03
Go up anotherotro fivecinco levelsniveles,
130
291768
1746
Sube otros cinco niveles,
05:05
and you're now at a prettybonita highalto levelnivel
131
293514
1353
ya estás a un nivel bastante alto
05:06
of this hierarchyjerarquía,
132
294867
1569
de jerarquía,
05:08
and stretchtramo down into the differentdiferente sensessentido,
133
296436
2353
y acércate hacia los distintos sentidos,
05:10
and you maymayo have a modulemódulo
that seesve a certaincierto fabrictela,
134
298789
2655
y puedes encontrar un módulo
que ve una cierta tela,
05:13
hearsescucha a certaincierto voicevoz qualitycalidad,
smellsolores a certaincierto perfumeperfume,
135
301444
2844
escucha un cierto tipo de voz,
huele cierto perfume,
05:16
and will say, "My wifeesposa has enteredingresó the roomhabitación."
136
304288
2513
y dirá,
"Mi esposa ha entrado en la habitación".
05:18
Go up anotherotro 10 levelsniveles, and now you're at
137
306801
1895
Sube otros 10 niveles, y estás ahora a
05:20
a very highalto levelnivel.
138
308696
1160
un nivel muy alto.
05:21
You're probablyprobablemente in the frontalfrontal cortexcorteza,
139
309856
1937
Probablemente estás
en la corteza frontal,
05:23
and you'lltu vas a have modulesmódulos that say, "That was ironicirónico.
140
311793
3767
y tendrás los módulos que dicen,
"Eso fue irónico.
05:27
That's funnygracioso. She's prettybonita."
141
315560
2370
Eso es divertido. Ella es linda".
05:29
You mightpodría think that those are more sophisticatedsofisticado,
142
317930
2105
Podrías pensar que ésos
son más sofisticados,
05:32
but actuallyactualmente what's more complicatedComplicado
143
320035
1506
pero lo que es más complicado
05:33
is the hierarchyjerarquía beneathdebajo them.
144
321541
2669
es la jerarquía bajo ellos.
05:36
There was a 16-year-old-edad girlniña, she had braincerebro surgerycirugía,
145
324210
2620
Había una niña de 16 años,
tuvo una cirugía en el cerebro,
05:38
and she was consciousconsciente because the surgeonscirujanos
146
326830
2051
y estuvo consciente porque los cirujanos
05:40
wanted to talk to her.
147
328881
1537
querían hablar con ella.
05:42
You can do that because there's no paindolor receptorsreceptores
148
330418
1822
Se puede hacer
porque no hay receptores de dolor
05:44
in the braincerebro.
149
332240
1038
en el cerebro.
05:45
And whenevercuando they stimulatedestimulado particularespecial,
150
333278
1800
Y cada vez que estimulaban
05:47
very smallpequeña pointspuntos on her neocortexneocorteza,
151
335078
2463
pequeños puntos particulares
en su neocórtex,
05:49
shownmostrado here in redrojo, she would laughrisa.
152
337541
2665
los que se ven aquí en rojo, ella se reía.
05:52
So at first they thought they were triggeringdesencadenante
153
340206
1440
Así creyeron que disparaban
05:53
some kindtipo of laughrisa reflexreflejo,
154
341646
1720
algún tipo de reflejo de risa,
05:55
but no, they quicklycon rapidez realizeddio cuenta they had foundencontró
155
343366
2519
pero no, se dieron cuenta de que
habían encontrado
05:57
the pointspuntos in her neocortexneocorteza that detectdetectar humorhumor,
156
345885
3044
los puntos en su neocórtex
que detectan humor,
06:00
and she just foundencontró everything hilariousdivertidísimo
157
348929
1969
y ella pensaba que todo era divertidísimo
06:02
whenevercuando they stimulatedestimulado these pointspuntos.
158
350898
2437
cada vez que estimulaban esos puntos.
06:05
"You guys are so funnygracioso just standingen pie around,"
159
353335
1925
"Uds. son tan divertidos parados ahí",
06:07
was the typicaltípico commentcomentario,
160
355260
1738
era el comentario típico,
06:08
and they weren'tno fueron funnygracioso,
161
356998
2302
y ellos no eran divertidos,
06:11
not while doing surgerycirugía.
162
359300
3247
no mientras hacían la cirugía.
06:14
So how are we doing todayhoy?
163
362547
4830
Entonces, ¿cómo vamos hoy?
06:19
Well, computersordenadores are actuallyactualmente beginningcomenzando to masterdominar
164
367377
3054
Los computadores están
comenzando a dominar
06:22
humanhumano languageidioma with techniquestécnicas
165
370431
2001
el lenguaje humano con técnicas
06:24
that are similarsimilar to the neocortexneocorteza.
166
372432
2867
similares a las del neocórtex.
06:27
I actuallyactualmente describeddescrito the algorithmalgoritmo,
167
375299
1514
Yo describí el algoritmo,
06:28
whichcual is similarsimilar to something calledllamado
168
376813
2054
que es similar a algo llamado
06:30
a hierarchicaljerárquico hiddenoculto MarkovMarkov modelmodelo,
169
378867
2233
un modelo jerárquico
oculto de Markov,
06:33
something I've workedtrabajó on sinceya que the '90s.
170
381100
3241
algo en lo que he
trabajado desde los 90.
06:36
"JeopardyPeligro" is a very broadancho naturalnatural languageidioma gamejuego,
171
384341
3238
"Jeopardy" es un juego
de lenguaje natural muy extenso,
06:39
and WatsonWatson got a highermayor scorePuntuación
172
387579
1892
y Watson alcanzó un puntaje más alto
06:41
than the bestmejor two playersjugadores combinedconjunto.
173
389471
2000
que los dos mejores jugadores combinados.
06:43
It got this queryconsulta correctcorrecto:
174
391471
2499
Logró acertar a esta pregunta:
06:45
"A long, tiresomecansado speechhabla
175
393970
2085
"Un largo, aburrido discurso
06:48
deliveredentregado by a frothyespumoso pietarta toppingCubierta,"
176
396055
2152
dicho por una espumosa cobertura de pastel",
06:50
and it quicklycon rapidez respondedrespondido,
"What is a meringuemerengue haranguearenga?"
177
398207
2796
y rápidamente respondió,
"Qué es una arenga de merengue?"
06:53
And JenningsJennings and the other guy didn't get that.
178
401003
2635
Y Jennings y el otro tipo no acertaron ésa.
06:55
It's a prettybonita sophisticatedsofisticado exampleejemplo of
179
403638
1926
Es un ejemplo bastante sofisticado de
06:57
computersordenadores actuallyactualmente understandingcomprensión humanhumano languageidioma,
180
405564
1914
computadores entendiendo lenguaje humano,
06:59
and it actuallyactualmente got its knowledgeconocimiento by readingleyendo
181
407478
1652
y obtuvo su conocimiento leyendo
07:01
WikipediaWikipedia and severalvarios other encyclopediasenciclopedias.
182
409130
3785
Wikipedia y muchas otras enciclopedias.
07:04
FiveCinco to 10 yearsaños from now,
183
412915
2133
En 5 a 10 años,
07:07
searchbuscar enginesmotores will actuallyactualmente be basedbasado on
184
415048
2184
los motores de búsqueda
estarán basados en
07:09
not just looking for combinationscombinaciones of wordspalabras and linkscampo de golf
185
417232
2794
no solo buscar combinaciones
de palabras y links
07:12
but actuallyactualmente understandingcomprensión,
186
420026
1914
sino en realmente entender,
07:13
readingleyendo for understandingcomprensión the billionsmiles de millones of pagespáginas
187
421940
2411
leer para entender miles
de millones de páginas
07:16
on the webweb and in bookslibros.
188
424351
2733
en la red y los libros.
07:19
So you'lltu vas a be walkingpara caminar alonga lo largo, and GoogleGoogle will poppopular up
189
427084
2616
Así que estarás caminando, y Google aparecerá
07:21
and say, "You know, MaryMaría, you expressedexpresado concernpreocupación
190
429700
3081
y dirá, "Sabes, Mary, estabas preocupada
07:24
to me a monthmes agohace that your glutathioneglutatión supplementsuplemento
191
432781
3019
hace un mes de que
tu suplemento de glutatión
07:27
wasn'tno fue gettingconsiguiendo pastpasado the blood-braincerebro de sangre barrierbarrera.
192
435800
2231
no traspasaba
la barrera hematoencefálica.
07:30
Well, newnuevo researchinvestigación just camevino out 13 secondssegundos agohace
193
438031
2593
Bien, una investigación
apareció hace 13 segundos
07:32
that showsmuestra a wholetodo newnuevo approachenfoque to that
194
440624
1711
que muestra un nuevo enfoque
07:34
and a newnuevo way to take glutathioneglutatión.
195
442335
1993
y una nueva forma de tomar glutatión.
07:36
Let me summarizeresumir it for you."
196
444328
2562
Permíteme resumirla para ti".
07:38
TwentyVeinte yearsaños from now, we'llbien have nanobotsnanobots,
197
446890
3684
En 20 años, tendremos nanobots,
07:42
because anotherotro exponentialexponencial trendtendencia
198
450574
1627
porque otra tendencia exponencial
07:44
is the shrinkingcontracción of technologytecnología.
199
452201
1615
es el encogimiento de la tecnología.
07:45
They'llEllos van a go into our braincerebro
200
453816
2370
Irán a nuestro cerebro
07:48
throughmediante the capillariescapilares
201
456186
1703
a través de los capilares
07:49
and basicallybásicamente connectconectar our neocortexneocorteza
202
457889
2477
y básicamente conectarán nuestro neocórtex
07:52
to a syntheticsintético neocortexneocorteza in the cloudnube
203
460366
3185
a un neocórtex sintético en la nube
07:55
providingsiempre que an extensionextensión of our neocortexneocorteza.
204
463551
3591
dando una extensión a nuestro neocórtex.
07:59
Now todayhoy, I mean,
205
467142
1578
Hoy, quiero decir,
08:00
you have a computercomputadora in your phoneteléfono,
206
468720
1530
tienen un computador en su teléfono,
08:02
but if you need 10,000 computersordenadores for a fewpocos secondssegundos
207
470250
2754
pero si necesitan 10 000 computadores
por unos segundos
08:05
to do a complexcomplejo searchbuscar,
208
473004
1495
para hacer una búsqueda compleja,
08:06
you can accessacceso that for a secondsegundo or two in the cloudnube.
209
474499
3396
pueden acceder a ellos
por 1 o 2 segundos en la nube
08:09
In the 2030s, if you need some extraextra neocortexneocorteza,
210
477895
3095
En los 2030, si necesitan
un poco de neocórtex extra,
08:12
you'lltu vas a be ablepoder to connectconectar to that in the cloudnube
211
480990
2273
podrán conectarse a él en la nube
08:15
directlydirectamente from your braincerebro.
212
483263
1648
directamente desde su cerebro.
08:16
So I'm walkingpara caminar alonga lo largo and I say,
213
484911
1543
Así que estoy caminando y digo,
08:18
"Oh, there's ChrisChris AndersonAnderson.
214
486454
1363
"Ahí está Chris Anderson.
08:19
He's comingviniendo my way.
215
487817
1525
Viene hacia mí.
08:21
I'd better think of something cleverinteligente to say.
216
489342
2335
Mejor pienso algo inteligente que decir.
08:23
I've got threeTres secondssegundos.
217
491677
1524
Tengo 3 segundos.
08:25
My 300 millionmillón modulesmódulos in my neocortexneocorteza
218
493201
3097
Mis 300 millones de
módulos en mi neocórtex
08:28
isn't going to cutcortar it.
219
496298
1240
no serán suficientes.
08:29
I need a billionmil millones more."
220
497538
1246
Necesito mil millones más".
08:30
I'll be ablepoder to accessacceso that in the cloudnube.
221
498784
3323
Podré acceder a ellos en la nube.
08:34
And our thinkingpensando, then, will be a hybridhíbrido
222
502107
2812
Y nuestro pensamiento,
entonces, será un híbrido
08:36
of biologicalbiológico and non-biologicalno biológico thinkingpensando,
223
504919
3522
de pensamiento biológico y no-biológico,
08:40
but the non-biologicalno biológico portionparte
224
508441
1898
pero la porción no-biológica
08:42
is subjecttema to my lawley of acceleratingacelerador returnsdevoluciones.
225
510339
2682
está sujeta a mi ley
de retornos acelerados.
08:45
It will growcrecer exponentiallyexponencialmente.
226
513021
2239
Crecerá exponencialmente.
08:47
And rememberrecuerda what happenssucede
227
515260
2016
¿Y recuerdan qué paso
08:49
the last time we expandedexpandido our neocortexneocorteza?
228
517276
2645
la última vez que expandimos
nuestro neocórtex?
08:51
That was two millionmillón yearsaños agohace
229
519921
1426
Eso fue hace 2 millones de años
08:53
when we becameconvirtió humanoidshumanoides
230
521347
1236
cuando nos volvimos humanoides
08:54
and developeddesarrollado these largegrande foreheadsfrentes.
231
522583
1594
y desarrollamos estas grandes frentes.
08:56
Other primatesprimates have a slantedinclinado browfrente.
232
524177
2583
Otros primates tienen una frente inclinada.
08:58
They don't have the frontalfrontal cortexcorteza.
233
526760
1745
No tienen la corteza frontal.
09:00
But the frontalfrontal cortexcorteza is not
really qualitativelycualitativamente differentdiferente.
234
528505
3685
Pero la corteza frontal no es
realmente cuantitativamente diferente.
09:04
It's a quantitativecuantitativo expansionexpansión of neocortexneocorteza,
235
532190
2743
Es una expansión cuantitativa
de nuestro neocórtex,
09:06
but that additionaladicional quantitycantidad of thinkingpensando
236
534933
2703
pero esa cantidad adicional de pensamiento
09:09
was the enablinghabilitar factorfactor for us to take
237
537636
1779
permitió que diéramos
09:11
a qualitativecualitativo leapsalto and inventinventar languageidioma
238
539415
3346
un salto cualitativo
e inventáramos el lenguaje
09:14
and artart and scienceciencia and technologytecnología
239
542761
1967
y el arte y la ciencia y la tecnología
09:16
and TEDTED conferencesconferencias.
240
544728
1454
y las conferencias TED.
09:18
No other speciesespecies has donehecho that.
241
546182
2131
Ninguna otra especie ha hecho esto.
09:20
And so, over the nextsiguiente fewpocos decadesdécadas,
242
548313
2075
Y así, durante las próximas décadas,
09:22
we're going to do it again.
243
550388
1760
lo haremos de nuevo.
09:24
We're going to again expandexpandir our neocortexneocorteza,
244
552148
2274
Expandiremos nuevamente
nuestro neocórtex,
09:26
only this time we won'tcostumbre be limitedlimitado
245
554422
1756
solo que esta vez no estaremos limitados
09:28
by a fixedfijo architecturearquitectura of enclosurerecinto.
246
556178
4280
por una arquitectura o envoltorio fijos.
09:32
It'llVa a be expandedexpandido withoutsin limitlímite.
247
560458
3304
Se expandirá sin límites.
09:35
That additionaladicional quantitycantidad will again
248
563762
2243
La cantidad adicional será nuevamente
09:38
be the enablinghabilitar factorfactor for anotherotro qualitativecualitativo leapsalto
249
566005
3005
el factor habilitante para
otro salto cualitativo
09:41
in culturecultura and technologytecnología.
250
569010
1635
en cultura y tecnología.
09:42
Thank you very much.
251
570645
2054
Muchas gracias.
09:44
(ApplauseAplausos)
252
572699
3086
(Aplausos)

▲Back to top

ABOUT THE SPEAKER
Ray Kurzweil - Inventor, futurist
Ray Kurzweil is an engineer who has radically advanced the fields of speech, text and audio technology. He's revered for his dizzying -- yet convincing -- writing on the advance of technology, the limits of biology and the future of the human species.

Why you should listen

Inventor, entrepreneur, visionary, Ray Kurzweil's accomplishments read as a startling series of firsts -- a litany of technological breakthroughs we've come to take for granted. Kurzweil invented the first optical character recognition (OCR) software for transforming the written word into data, the first print-to-speech software for the blind, the first text-to-speech synthesizer, and the first music synthesizer capable of recreating the grand piano and other orchestral instruments, and the first commercially marketed large-vocabulary speech recognition.

Yet his impact as a futurist and philosopher is no less significant. In his best-selling books, which include How to Create a Mind, The Age of Spiritual Machines, The Singularity Is Near: When Humans Transcend Biology, Kurzweil depicts in detail a portrait of the human condition over the next few decades, as accelerating technologies forever blur the line between human and machine.

In 2009, he unveiled Singularity University, an institution that aims to "assemble, educate and inspire leaders who strive to understand and facilitate the development of exponentially advancing technologies." He is a Director of Engineering at Google, where he heads up a team developing machine intelligence and natural language comprehension.

More profile about the speaker
Ray Kurzweil | Speaker | TED.com