ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins en "Cómo la ciencia del cerebro cambiará la computación."

Filmed:
1,674,773 views

Creador del Treo, Jeff Hawkins, nos anima a ver el cerebro de una manera distinta -- no verla como un procesador veloz, si no como un sistema de memoria que almacena y reproduce experiencias para ayudarnos a predecir, de manera inteligente, que sucederá.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designdiseño mobilemóvil computersordenadores and I studyestudiar brainssesos.
0
0
3000
Yo hago dos cosas, diseño computadora móviles y estudio cerebros.
00:29
And today'shoy talk is about brainssesos and,
1
4000
2000
Y la charla de hoy se trata de cerebros y,
00:31
yayHurra, somewherealgun lado I have a braincerebro fanventilador out there.
2
6000
2000
¡Si! En algún lugar tengo un fan de cerebros.
00:33
(LaughterRisa)
3
8000
2000
(Risas)
00:35
I'm going to, if I can have my first slidediapositiva up here,
4
10000
2000
Voy a, si me pueden poner la primera diapositiva,
00:37
and you'lltu vas a see the titletítulo of my talk and my two affiliationsafiliaciones.
5
12000
4000
y verán el titulo de mi platica y mis dos afiliaciones.
00:41
So what I'm going to talk about is why we don't have a good braincerebro theoryteoría,
6
16000
4000
Así que de lo que voy a hablar, es el porqué no tenemos una buena teoría acerca del cerebro,
00:45
why it is importantimportante that we should developdesarrollar one and what we can do about it.
7
20000
3000
porque es importante que desarrollemos una y qué podemos hacer al respecto.
00:48
And I'll try to do all that in 20 minutesminutos. I have two affiliationsafiliaciones.
8
23000
3000
Intentaré hacer eso en 20 minutos. Tengo dos afiliaciones.
00:51
MostMás of you know me from my PalmPalma and HandspringHandspring daysdías,
9
26000
3000
La mayoría de ustedes me conocen por mis días de Palm y Handspring
00:54
but I alsoademás runcorrer a nonprofitsin ánimo de lucro scientificcientífico researchinvestigación instituteinstituto
10
29000
3000
pero también administro un instituto de investigación científica sin fines de lucro.
00:57
calledllamado the RedwoodSecoya NeuroscienceNeurociencia InstituteInstituto in MenloMenlo ParkParque,
11
32000
2000
llamado el Instituto Redwood de Neurociencia en Menlo Park,
00:59
and we studyestudiar theoreticalteórico neuroscienceneurociencia,
12
34000
2000
y estudiamos neurociencia teórica,
01:01
and we studyestudiar how the neocortexneocorteza workstrabajos.
13
36000
2000
y estudiamos como funciona la neo-corteza.
01:03
I'm going to talk all about that.
14
38000
2000
Voy a hablar acerca de todo eso.
01:05
I have one slidediapositiva on my other life, the computercomputadora life, and that's the slidediapositiva here.
15
40000
3000
Tengo sólo una diapositiva sobre mi otra vida, las computadoras, y es ésta.
01:08
These are some of the productsproductos I've workedtrabajó on over the last 20 yearsaños,
16
43000
3000
Estos son algunos de los productos que desarrollé en los últimos 20 años,
01:11
startingcomenzando back from the very originaloriginal laptopordenador portátil to some of the first tablettableta computersordenadores
17
46000
4000
empezando desde la muy original laptop hasta algunas de las primeras computadoras de panel.
01:15
and so on, and endingfinalizando up mostmás recentlyrecientemente with the TreoTreo,
18
50000
2000
y así sucesivamente, hasta llegar recientemente al Treo.
01:17
and we're continuingcontinuo to do this.
19
52000
2000
y continuamos haciendo ésto.
01:19
And I've donehecho this because I really believe that mobilemóvil computinginformática
20
54000
2000
Y he hecho ésto porque realmente creo que la computación móvil
01:21
is the futurefuturo of personalpersonal computinginformática, and I'm tryingmolesto to make the worldmundo
21
56000
3000
es el futuro de la computación personal, y estoy intentando hacer un mundo
01:24
a little bitpoco better by workingtrabajando on these things.
22
59000
3000
un poco mejor, trabajando sobre estas cosas.
01:27
But this was, I have to admitadmitir, all an accidentaccidente.
23
62000
2000
Pero esto fue, tengo que admitir, un accidente.
01:29
I really didn't want to do any of these productsproductos
24
64000
2000
Realmente no quise crear ninguno de estos productos
01:31
and very earlytemprano in my careercarrera I decideddecidido
25
66000
2000
y muy temprano en mi carrera decidí
01:33
I was not going to be in the computercomputadora industryindustria.
26
68000
3000
que no iba a estar en la industria de la computación.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
Y antes de comentarles de todo eso, tengo que decirles
01:38
this one little pictureimagen of graffitipintada there I pickedescogido off the webweb the other day.
28
73000
2000
que esta pequeña imagen de graffiti que saqué de la red el otro día.
01:40
I was looking for a pictureimagen of graffitipintada, little texttexto inputentrada languageidioma,
29
75000
3000
Estaba buscando una imagen de graffiti, un pequeño lenguaje de entrada de texto,
01:43
and I foundencontró the websitesitio web dedicateddedicado to teachersprofesores who want to make these,
30
78000
3000
y encontré el sitio web dedicado a maestros que quieren hacer estos,
01:46
you know, the scriptguión writingescritura things acrossa través de the topparte superior of theirsu blackboardpizarra,
31
81000
3000
texto escrito en la parte superior de sus pizarrones,
01:49
and they had addedadicional graffitipintada to it, and I'm sorry about that.
32
84000
3000
y le habían agregado graffiti, y lo lamento.
01:52
(LaughterRisa)
33
87000
2000
(Risas)
01:54
So what happenedsucedió was, when I was youngjoven and got out of engineeringIngenieria schoolcolegio
34
89000
5000
Así que lo que pasó fue, que cuando era joven y terminé la escuela de ingeniería,
01:59
at CornellCornell in '79, I decideddecidido -- I wentfuimos to work for IntelIntel and
35
94000
4000
Cornell en el 79, decidí, que trabajaría para Intel.
02:03
I was in the computercomputadora industryindustria -- and threeTres monthsmeses into that,
36
98000
3000
Yo estaba en la industria de las computadoras y a los tres meses de eso,
02:06
I fellcayó in love with something elsemás, and I said, "I madehecho the wrongincorrecto careercarrera choiceelección here,"
37
101000
4000
me enamoré de otra cosa y dije, "Me equivoque de carrera aquí,"
02:10
and I fellcayó in love with brainssesos.
38
105000
3000
y me enamoré de los cerebros.
02:13
This is not a realreal braincerebro. This is a pictureimagen of one, a linelínea drawingdibujo.
39
108000
3000
Esto no es un cerebro de verdad. Esto es una imagen de uno en arte lineal.
02:16
But I don't rememberrecuerda exactlyexactamente how it happenedsucedió,
40
111000
3000
Pero no recuerdo exactamente como sucedió,
02:19
but I have one recollectionrecuerdo, whichcual was prettybonita strongfuerte in my mindmente.
41
114000
3000
pero tengo un recuerdo, que es bastante fuerte en mi mente.
02:22
In Septemberseptiembre 1979, ScientificCientífico Americanamericano camevino out
42
117000
3000
En septiembre 1979, Scientific American (Revista) publicó
02:25
with a singlesoltero topictema issueproblema about the braincerebro. And it was quitebastante good.
43
120000
3000
un número de un sólo tema acerca del cerebro. Y fue bastante bueno.
02:28
It was one of the bestmejor issuescuestiones ever. And they talkedhabló about the neuronneurona
44
123000
3000
Fue uno de los mejores números publicados. Y escribieron sobre la neurona,
02:31
and developmentdesarrollo and diseaseenfermedad and visionvisión and all the things
45
126000
2000
el desarrollo, enfermedad, la visión y todas las cosas
02:33
you mightpodría want to know about brainssesos. It was really quitebastante impressiveimpresionante.
46
128000
3000
que quisieras saber acerca de los cerebros. Esto fue bastante impresionante.
02:36
And one mightpodría have the impressionimpresión that we really knewsabía a lot about brainssesos.
47
131000
3000
Podemos tener la impresión de que sabemos mucho acerca del cerebro.
02:39
But the last articleartículo in that issueproblema was writtenescrito by FrancisFrancisco CrickTortícolis of DNAADN famefama.
48
134000
4000
Pero el último articulo de ese numero fue escrito por Francis Crick de la fama ADN.
02:43
TodayHoy is, I think, the 50thth anniversaryaniversario of the discoverydescubrimiento of DNAADN.
49
138000
3000
Hoy es, creo, el 50vo aniversario del descubrimiento del ADN.
02:46
And he wroteescribió a storyhistoria basicallybásicamente sayingdiciendo,
50
141000
2000
El escribió una nota que básicamente decía,
02:48
well, this is all well and good, but you know what,
51
143000
3000
bueno, que esto esta todo muy bien, pero saben que,
02:51
we don't know diddleydiddley squatagacharse about brainssesos
52
146000
2000
no sabemos nada del cerebro£
02:53
and no one has a cluepista how these things work,
53
148000
2000
y nadie tiene idea de como funcionan estas cosas,
02:55
so don't believe what anyonenadie tellsdice you.
54
150000
2000
así que no crean nada de lo que les digan.
02:57
This is a quotecitar from that articleartículo. He said, "What is conspicuouslyvisiblemente lackingcarente,"
55
152000
3000
Este es una cita de lo que decía el articulo. Dijo, "Lo que se carece evidentemente"
03:00
he's a very properapropiado Britishbritánico gentlemanhidalgo so, "What is conspicuouslyvisiblemente lackingcarente
56
155000
4000
es un educado caballero Ingles asi que, "Lo que se carece evidentemente
03:04
is a broadancho frameworkmarco de referencia of ideasideas in whichcual to interpretinterpretar these differentdiferente approachesenfoques."
57
159000
3000
es un extenso marco de refrencia sobre el cual interpretar los diferentes enfoques."
03:07
I thought the wordpalabra frameworkmarco de referencia was great.
58
162000
2000
Yo pensé que "marco de referencia" era excelente.
03:09
He didn't say we didn't even have a theoryteoría. He saysdice,
59
164000
2000
No dijo que no tenemos siquiera una teoría. Dice,
03:11
we don't even know how to beginempezar to think about it --
60
166000
2000
ni siquiera sabemos como empezar a pensar en ello --
03:13
we don't even have a frameworkmarco de referencia.
61
168000
2000
ni siquiera tenemos un marco de referencia.
03:15
We are in the pre-paradigmpre-paradigma daysdías, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Estamos en los días del pre-paradigma si quieres usar a Thomas Kuhn.
03:18
And so I fellcayó in love with this, and said look,
63
173000
3000
Así que me enamoré de esto y dije mira,
03:21
we have all this knowledgeconocimiento about brainssesos. How harddifícil can it be?
64
176000
3000
Tenemos todo este conocimiento acerca de cerebros. ¿Qué tan difícil puede ser?
03:24
And this is something we can work on my lifetimetoda la vida. I feltsintió I could make a differencediferencia,
65
179000
3000
Y esto es algo con lo que podemos trabajar durante mi vida. Sentí que podía hacer una diferencia,
03:27
and so I triedintentó to get out of the computercomputadora businessnegocio, into the braincerebro businessnegocio.
66
182000
4000
a si que intenté salirme del negocio del computo, y entrar al del cerebro.
03:31
First, I wentfuimos to MITMIT, the AIAI lablaboratorio was there,
67
186000
2000
Primero, fuí a MIT, el laboratorio de inteligencia artificial estaba ahí,
03:33
and I said, well, I want to buildconstruir intelligentinteligente machinesmáquinas, too,
68
188000
2000
y dije, bueno, también quiero crear máquinas inteligentes.
03:35
but the way I want to do it is to studyestudiar how brainssesos work first.
69
190000
3000
pero la manera que quiero hacerlo es estudiando cómo funciona el cerebro.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
Ellos dijeron, no tienes que hacer eso.
03:41
We're just going to programprograma computersordenadores; that's all we need to do.
71
196000
2000
Sólo vamos a programar computadoras, es todo lo que necesitamos hacer.
03:43
And I said, no, you really oughtdebería to studyestudiar brainssesos. They said, oh, you know,
72
198000
3000
Y yo dije, no, realmente deberían estudiar cerebros. ellos dijeron, sabes que,
03:46
you're wrongincorrecto. And I said, no, you're wrongincorrecto, and I didn't get in.
73
201000
2000
estas mal. Y le dije no, ustedes están mal, y no me dejaron entrar.
03:48
(LaughterRisa)
74
203000
1000
(Risas)
03:50
But I was a little disappointeddecepcionado -- prettybonita youngjoven -- but I wentfuimos back again
75
205000
2000
Pero estaba un poco decepcionado -- bastante joven, pero regrese
03:52
a fewpocos yearsaños laterluego and this time was in CaliforniaCalifornia, and I wentfuimos to BerkeleyBerkeley.
76
207000
3000
unos años después en California y fui a Berkeley.
03:55
And I said, I'll go in from the biologicalbiológico sidelado.
77
210000
4000
Y dije, llegaré por el lado biológico.
03:59
So I got in -- in the PhPh.D. programprograma in biophysicsbiofísica, and I was, all right,
78
214000
3000
Así que entré - al doctorado en Biofísica, y pensé, bien,
04:02
I'm studyingestudiando brainssesos now, and I said, well, I want to studyestudiar theoryteoría.
79
217000
3000
Ya estoy estudiando cerebros, y dije, bien, quiero estudiar teoría.
04:05
And they said, oh no, you can't studyestudiar theoryteoría about brainssesos.
80
220000
2000
Y ellos dijeron, oh no, no se puede estudiar teoría de cerebros.
04:07
That's not something you do. You can't get fundedfundado for that.
81
222000
2000
Eso no es algo que se hace. No te dan fondos para hacer eso.
04:09
And as a graduategraduado studentestudiante, you can't do that. So I said, oh my goshDios mío.
82
224000
4000
Y como graduado, no puedes hacer eso. Así que dije, rayos.
04:13
I was very depressedDeprimido. I said, but I can make a differencediferencia in this fieldcampo.
83
228000
2000
Estaba muy deprimido. Dije, pero puedo hacer una diferencia en este campo.
04:15
So what I did is I wentfuimos back in the computercomputadora industryindustria
84
230000
3000
Así que lo que hice fue regresar a la industria de las computadoras
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
y dije, bueno, tendré que trabajar aquí un tiempo, hacer algo.
04:20
That's when I designeddiseñado all those computercomputadora productsproductos.
86
235000
3000
Eso es cuando diseñe todos esos productos de computadora.
04:23
(LaughterRisa)
87
238000
1000
(Risas)
04:24
And I said, I want to do this for fourlas cuatro yearsaños, make some moneydinero,
88
239000
3000
Y dije, quiero hacer esto cuatro años, ganar dinero,
04:27
like I was havingteniendo a familyfamilia, and I would maturemaduro a bitpoco,
89
242000
4000
estaba formando una familia y maduraría un poco,
04:31
and maybe the businessnegocio of neuroscienceneurociencia would maturemaduro a bitpoco.
90
246000
3000
y quizá el negocio de la neurociencia también maduraría un poco.
04:34
Well, it tooktomó longermás than fourlas cuatro yearsaños. It's been about 16 yearsaños.
91
249000
3000
Bueno, tomó mas de cuatro años. Van como 16 años.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Pero ya lo estoy haciendo, y les voy a platicar al respecto.
04:39
So why should we have a good braincerebro theoryteoría?
93
254000
3000
Así que ¿Por qué debemos tener una buena teoría cerebral?
04:42
Well, there's lots of reasonsrazones people do scienceciencia.
94
257000
3000
Pues hay muchas razones por las que las personas hacen ciencia.
04:45
One is -- the mostmás basicBASIC one is -- people like to know things.
95
260000
3000
Una es -- la más básica -- es que nos gusta saber las cosas.
04:48
We're curiouscurioso, and we just go out and get knowledgeconocimiento, you know?
96
263000
2000
Somos curiosos, y salimos a buscar conocimiento, ¿cierto?
04:50
Why do we studyestudiar antshormigas? Well, it's interestinginteresante.
97
265000
2000
¿Por qué estudiamos las hormigas? Pues, porque es interesante.
04:52
Maybe we'llbien learnaprender something really usefulútil about it, but it's interestinginteresante and fascinatingfascinante.
98
267000
3000
Quizá aprendamos algo realmente útil al respecto, pero es interesante y fascinante.
04:55
But sometimesa veces, a scienceciencia has some other attributesatributos
99
270000
2000
Pero a veces, una ciencia tiene otros atributos
04:57
whichcual makeshace it really, really interestinginteresante.
100
272000
2000
que lo hacer verdaderamente interesante.
04:59
SometimesA veces a scienceciencia will tell something about ourselvesNosotros mismos,
101
274000
3000
A veces la ciencia nos dice algo al respecto de nosotros mismos,
05:02
it'llva a tell us who we are.
102
277000
1000
nos dice quienes somos.
05:03
RarelyRaramente, you know: evolutionevolución did this and CopernicusCopérnico did this,
103
278000
3000
Rara vez, tu sabes, la evolución hizo esto y Copernico hizo esto,
05:06
where we have a newnuevo understandingcomprensión of who we are.
104
281000
2000
donde tenemos un nuevo entendimiento de que quienes somos.
05:08
And after all, we are our brainssesos. My braincerebro is talkinghablando to your braincerebro.
105
283000
4000
Y finalmente, somos nuestros cerebros. Mi cerebro habla a tu cerebro.
05:12
Our bodiescuerpos are hangingcolgando alonga lo largo for the ridepaseo, but my braincerebro is talkinghablando to your braincerebro.
106
287000
3000
Nuestros cuerpos están como pasajeros, pero mi cerebro habla con tu cerebro.
05:15
And if we want to understandentender who we are and how we feel and perceivepercibir,
107
290000
3000
Y si queremos entender quienes somos y como nos sentimos y percibimos,
05:18
we really understandentender what brainssesos are.
108
293000
2000
realmente entenderemos que son los cerebros.
05:20
AnotherOtro thing is sometimesa veces scienceciencia
109
295000
2000
Otra cosa es que a veces la ciencia
05:22
leadsconduce to really biggrande societalsocietal benefitsbeneficios and technologiestecnologías,
110
297000
2000
lleva a grandes beneficios para la sociedad y tecnología,
05:24
or businessesnegocios, or whateverlo que sea, that come out of it. And this is one, too,
111
299000
2000
o negocios, o lo que sea que salga de ello. Y esta es una de ella también,
05:26
because when we understandentender how brainssesos work, we're going to be ablepoder
112
301000
3000
porque cuando entendemos como funcionan los cerebros, vamos a poder
05:29
to buildconstruir intelligentinteligente machinesmáquinas, and I think that's actuallyactualmente a good thing on the wholetodo,
113
304000
3000
construir máquinas inteligentes, y creo que en general eso es algo bueno,
05:32
and it's going to have tremendoustremendo benefitsbeneficios to societysociedad,
114
307000
2000
y va a tener beneficios tremendos para la sociedad
05:34
just like a fundamentalfundamental technologytecnología.
115
309000
2000
como una tecnología fundamental
05:36
So why don't we have a good theoryteoría of brainssesos?
116
311000
2000
Entonces ¿Por qué no tenemos una buena teoría de cerebros?
05:38
And people have been workingtrabajando on it for 100 yearsaños.
117
313000
3000
Y las personas llevan 100 años trabajando en ello.
05:41
Well, let's first take a look at what normalnormal scienceciencia looksmiradas like.
118
316000
2000
Bueno, primero observemos como es la ciencia normal.
05:43
This is normalnormal scienceciencia.
119
318000
2000
Esto es ciencia normal.
05:45
NormalNormal scienceciencia is a nicebonito balanceequilibrar betweenEntre theoryteoría and experimentalistsexperimentalistas.
120
320000
4000
La ciencia normal tiene un buen balance entre la teoría y la experimentación.
05:49
And so the theoristteórico guys say, well, I think this is what's going on,
121
324000
2000
Así que los teóricos dicen, buen, yo creo que esto es lo que está sucediendo,
05:51
and the experimentalistexperimentador saysdice, no, you're wrongincorrecto.
122
326000
2000
y los experimentales dicen, no, estas mal.
05:53
And it goesva back and forthadelante, you know?
123
328000
2000
Luego va y viene, sabes?
05:55
This workstrabajos in physicsfísica. This workstrabajos in geologygeología. But if this is normalnormal scienceciencia,
124
330000
2000
Esto funciona en la física, en la geología. Pero esto es ciencia normal,
05:57
what does neuroscienceneurociencia look like? This is what neuroscienceneurociencia looksmiradas like.
125
332000
3000
¿Cómo se ve la neurociencia? Así es como se ve la neurociencia.
06:00
We have this mountainmontaña of datadatos, whichcual is anatomyanatomía, physiologyfisiología and behaviorcomportamiento.
126
335000
5000
Tenemos esta montaña de datos, que son anatomía, fisiología y comportamiento.
06:05
You can't imagineimagina how much detaildetalle we know about brainssesos.
127
340000
3000
No puedes imaginarte cuanto detalle tenemos sobre los cerebros.
06:08
There were 28,000 people who wentfuimos to the neuroscienceneurociencia conferenceconferencia this yearaño,
128
343000
4000
Hubieron 28,000 personas que atendieron a la conferencia de neurociencia este año,
06:12
and everycada one of them is doing researchinvestigación in brainssesos.
129
347000
2000
y cada uno de ellos esta haciendo investigaciones sobre el cerebro.
06:14
A lot of datadatos. But there's no theoryteoría. There's a little, wimpydébil boxcaja on topparte superior there.
130
349000
4000
Son muchos datos. Pero no hay teoría. Hay este cuadro pequeña y débil encima.
06:18
And theoryteoría has not playedjugó a rolepapel in any sortordenar of grandgrandioso way in the neurosciencesneurociencias.
131
353000
5000
Y la teoría no ha jugado un rol significativo en la neurociencia.
06:23
And it's a realreal shamevergüenza. Now why has this come about?
132
358000
3000
Y esto es una lastima. ¿Por qué a sucedido esto?
06:26
If you askpedir neuroscientistsneurocientíficos, why is this the stateestado of affairasunto,
133
361000
2000
Si le preguntas a un neurocientífico, ¿Por qué es este estado?
06:28
they'llellos van a first of all admitadmitir it. But if you askpedir them, they'llellos van a say,
134
363000
3000
En primera instancia lo admitirán. Pero si les preguntas, dirán,
06:31
well, there's variousvarios reasonsrazones we don't have a good braincerebro theoryteoría.
135
366000
3000
bueno, hay varias razones por las que no tenemos una buena teoría del cerebro.
06:34
Some people say, well, we don't still have enoughsuficiente datadatos,
136
369000
2000
Algunas personas dicen, bueno, aun no tenemos suficientes datos,
06:36
we need to get more informationinformación, there's all these things we don't know.
137
371000
3000
necesitamos obtener más información, hay todas estas cosas que sabemos.
06:39
Well, I just told you there's so much datadatos comingviniendo out your earsorejas.
138
374000
3000
Bueno, acabo de decirte que hay datos saliendo hasta por las orejas.
06:42
We have so much informationinformación, we don't even know how to beginempezar to organizeorganizar it.
139
377000
3000
Tenemos tanta información que no sabemos ni como empezar a organizarla.
06:45
What good is more going to do?
140
380000
2000
¿De qué nos va a servir mas información?
06:47
Maybe we'llbien be luckysuerte and discoverdescubrir some magicmagia thing, but I don't think so.
141
382000
3000
Quizá tengamos suerte y descubramos alguna solución mágica, pero lo dudo.
06:50
This is actuallyactualmente a symptomsíntoma of the facthecho that we just don't have a theoryteoría.
142
385000
3000
Esto es realmente un síntoma del hecho de que no tenemos una teoría.
06:53
We don't need more datadatos -- we need a good theoryteoría about it.
143
388000
3000
No necesitamos mas datos -- necesitamos una buena teoría al respecto.
06:56
AnotherOtro one is sometimesa veces people say, well, brainssesos are so complexcomplejo,
144
391000
3000
Otra es que a veces las personas dicen, es que, los cerebros son tan complejos,
06:59
it'llva a take anotherotro 50 yearsaños.
145
394000
2000
que tomaría otros 50 años.
07:01
I even think ChrisChris said something like this yesterdayayer.
146
396000
2000
Incluso creo que Chris, dijo algo así ayer.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
No estoy seguro de lo que dijiste, Chris, pero fue algo como,
07:05
well, it's one of the mostmás complicatedComplicado things in the universeuniverso. That's not truecierto.
148
400000
3000
bueno, es una de las cosas mas complicadas en el universo. Eso no es verdad.
07:08
You're more complicatedComplicado than your braincerebro. You've got a braincerebro.
149
403000
2000
Tu eres mas complicado que tu cerebro. Tienes un cerebro.
07:10
And it's alsoademás, althougha pesar de que the braincerebro looksmiradas very complicatedComplicado,
150
405000
2000
También, aunque el cerbero se ve muy complicado,
07:12
things look complicatedComplicado untilhasta you understandentender them.
151
407000
3000
las cosas se ven complicadas hasta que las entiendes.
07:15
That's always been the casecaso. And so all we can say, well,
152
410000
3000
Ese siempre es el caso. Así que todos podemos decir, bueno,
07:18
my neocortexneocorteza, whichcual is the partparte of the braincerebro I'm interestedinteresado in, has 30 billionmil millones cellsCélulas.
153
413000
4000
mi neo-corteza, que es la parte del cerebro en la que estoy interesada tiene 30 mil millones de células.
07:22
But, you know what? It's very, very regularregular.
154
417000
2000
Pero, ¿Sabes qué? Es muy, muy regular.
07:24
In facthecho, it looksmiradas like it's the samemismo thing repeatedrepetido over and over and over again.
155
419000
3000
Es más, parece ser lo mismo repetido una y otra vez.
07:27
It's not as complexcomplejo as it looksmiradas. That's not the issueproblema.
156
422000
3000
No es tan complejo como parece. Ese no es el tema.
07:30
Some people say, brainssesos can't understandentender brainssesos.
157
425000
2000
Algunas personas dicen, los cerebros no pueden entender cerebros.
07:32
Very Zen-likeZen-like. WhooWhoo. (LaughterRisa)
158
427000
3000
Se escucha muy Zen. Wow. Tu sabes --
07:35
You know,
159
430000
1000
(Risas)
07:36
it soundssonidos good, but why? I mean, what's the pointpunto?
160
431000
3000
Se escucha bien, pero ¿Por qué? Es decir, ¿Cuál es el caso?
07:39
It's just a bunchmanojo of cellsCélulas. You understandentender your liverhígado.
161
434000
3000
Son sólo un montón de células. Entiendes tu hígado.
07:42
It's got a lot of cellsCélulas in it too, right?
162
437000
2000
También tiene muchas células, ¿Verdad?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Así que, tu sabes, no creo que tenga mucha validez eso.
07:46
And finallyfinalmente, some people say, well, you know,
164
441000
2000
Finalmente, algunas personas dicen, bueno,
07:48
I don't feel like a bunchmanojo of cellsCélulas, you know. I'm consciousconsciente.
165
443000
4000
No me siento como un montón de células. Estoy conciente.
07:52
I've got this experienceexperiencia, I'm in the worldmundo, you know.
166
447000
2000
Tengo esta experiencia, estoy en el mundo.
07:54
I can't be just a bunchmanojo of cellsCélulas. Well, you know,
167
449000
2000
No puedo ser sólo un montón de células. Bueno,
07:56
people used to believe there was a life forcefuerza to be livingvivo,
168
451000
3000
las personas antes creían que había una fuerza vital para pode vivir,
07:59
and we now know that's really not truecierto at all.
169
454000
2000
y sabemos que eso no es realmente cierto para nada.
08:01
And there's really no evidenceevidencia that saysdice -- well, other than people
170
456000
3000
Y no hay evidencia que diga, bueno, a demás de que las personas
08:04
just have disbeliefincredulidad that cellsCélulas can do what they do.
171
459000
2000
simplemente no creen que las células hacen lo que hacen.
08:06
And so, if some people have fallencaído into the pitpozo of metaphysicalmetafísico dualismdualismo,
172
461000
3000
Así que, si las personas han caído en el pozo del dualismo metafísico,
08:09
some really smartinteligente people, too, but we can rejectrechazar all that.
173
464000
3000
algunas personas muy inteligentes, pero podemos rechazar todo eso.
08:12
(LaughterRisa)
174
467000
2000
(Risas)
08:14
No, I'm going to tell you there's something elsemás,
175
469000
3000
No, no te voy a decir que hay algo mas,
08:17
and it's really fundamentalfundamental, and this is what it is:
176
472000
2000
y realmente es fundamental y esto es lo que es:
08:19
there's anotherotro reasonrazón why we don't have a good braincerebro theoryteoría,
177
474000
2000
hay otra razón por la que no tenemos una buena teoría del cerebro,
08:21
and it's because we have an intuitiveintuitivo, strongly-heldfuertemente sostenido,
178
476000
3000
y es porque tenemos una intuitiva, y fuerte,
08:24
but incorrectincorrecto assumptionsuposición that has preventedimpedido us from seeingviendo the answerresponder.
179
479000
5000
pero incorrecta suposición que nos ha prevenido de ver la respuesta.
08:29
There's something we believe that just, it's obviousobvio, but it's wrongincorrecto.
180
484000
3000
Hay algo que creemos que simplemente, es obvio, pero esta mal.
08:32
Now, there's a historyhistoria of this in scienceciencia and before I tell you what it is,
181
487000
4000
Hay una historia al respecto en la ciencia y antes que te diga cual es,
08:36
I'm going to tell you a bitpoco about the historyhistoria of it in scienceciencia.
182
491000
2000
Te voy a contar un poco al respecto de la historia de ello en la ciencia.
08:38
You look at some other scientificcientífico revolutionsrevoluciones,
183
493000
2000
Si observas otras revoluciones científicas,
08:40
and this casecaso, I'm talkinghablando about the solarsolar systemsistema, that's CopernicusCopérnico,
184
495000
2000
y en este caso, estoy hablando del sistema solar, ése es Copernico,
08:42
Darwin'sDarwin evolutionevolución, and tectonictectónico platesplatos, that's WegenerWegener.
185
497000
3000
La evolución de Darwin, las placas tectónicas, ése es Wegner.
08:45
They all have a lot in commoncomún with braincerebro scienceciencia.
186
500000
3000
Y todos tienen mucho en común con la ciencia cerebral.
08:48
First of all, they had a lot of unexplainedinexplicado datadatos. A lot of it.
187
503000
3000
Antes que nada, tenían muchos datos inexplicables. Muchos.
08:51
But it got more manageablemanejable onceuna vez they had a theoryteoría.
188
506000
3000
Pero se volvió mucho más manejable una vez que tuvieron una teoría.
08:54
The bestmejor mindsmentes were stumpedperplejo -- really, really smartinteligente people.
189
509000
3000
Las mejores mentes estaban atoradas, personas muy, muy inteligentes.
08:57
We're not smartermás inteligente now than they were then.
190
512000
2000
No somos mas inteligentes hoy de lo que ellos eran en ese entonces.
08:59
It just turnsvueltas out it's really harddifícil to think of things,
191
514000
2000
Simplemente resulta que es muy difícil pensar en las cosas,
09:01
but onceuna vez you've thought of them, it's kindtipo of easyfácil to understandentender it.
192
516000
2000
pero una vez que las has razonado, es fácil de entender.
09:03
My daughtershijas understoodentendido these threeTres theoriesteorías
193
518000
2000
Mis hijas entendieron estas tres teorías
09:05
in theirsu basicBASIC frameworkmarco de referencia by the time they were in kindergartenjardín de infancia.
194
520000
3000
en su marco de referencia básica para cuando estaban en el Jardín de Niños.
09:08
And now it's not that harddifícil, you know, here'saquí está the applemanzana, here'saquí está the orangenaranja,
195
523000
3000
Y ahora no es tan difícil, aquí hay una manzana, aquí una naranja,
09:11
you know, the EarthTierra goesva around, that kindtipo of stuffcosas.
196
526000
3000
la tierra gira, y ese tipo de cosas.
09:14
FinallyFinalmente, anotherotro thing is the answerresponder was there all alonga lo largo,
197
529000
2000
Finalmente, otra cosa es que la respuesta siempre estuvo allí,
09:16
but we kindtipo of ignoredignorado it because of this obviousobvio thing, and that's the thing.
198
531000
3000
pero la ignoramos por ser obvia, y ese es el punto.
09:19
It was an intuitiveintuitivo, strong-heldfuerte sostenido beliefcreencia that was wrongincorrecto.
199
534000
3000
Era una creencia intuitiva que estaba incorrecta.
09:22
In the casecaso of the solarsolar systemsistema, the ideaidea that the EarthTierra is spinninghilado
200
537000
3000
En el caso del Sistema Solar, la idea de que la tierra esta girando
09:25
and the surfacesuperficie of the EarthTierra is going like a thousandmil milesmillas an hourhora,
201
540000
3000
y la superficie de la Tierra va como a mil kilómetros por hora,
09:28
and the EarthTierra is going throughmediante the solarsolar systemsistema about a millionmillón milesmillas an hourhora.
202
543000
3000
y que la Tierra va por el Sistema Solar a un millón de kilómetros por hora.
09:31
This is lunacylocura. We all know the EarthTierra isn't movingemocionante.
203
546000
2000
Es una locura. Todos sabemos que la Tierra no se esta moviendo.
09:33
Do you feel like you're movingemocionante a thousandmil milesmillas an hourhora?
204
548000
2000
¿Tu sientes que te estas moviendo a miles de kilómetros por hora?
09:35
Of coursecurso not. You know, and someonealguien who said,
205
550000
2000
Por supuesto que no. Hubo alguien que dijo,
09:37
well, it was spinninghilado around in spaceespacio and it's so hugeenorme,
206
552000
2000
que estaba girando en el espacio y que es inmenso,
09:39
they would lockbloquear you up, and that's what they did back then.
207
554000
2000
te encerrarían, y eso es lo que hacían en ese entonces.
09:41
(LaughterRisa)
208
556000
1000
(Risas)
09:42
So it was intuitiveintuitivo and obviousobvio. Now what about evolutionevolución?
209
557000
3000
Así que fue intuitivo y obvio. ¿Y que tal la evolución?
09:45
Evolution'sEvolución the samemismo thing. We taughtenseñó our kidsniños, well, the BibleBiblia saysdice,
210
560000
3000
La evolución es lo mimo. Le enseñamos a nuestros hijos, pues, a Biblia dice,
09:48
you know, God createdcreado all these speciesespecies, catsgatos are catsgatos, dogsperros are dogsperros,
211
563000
2000
que Dios creo a todas las especies, gatos son gatos, perros son perros,
09:50
people are people, plantsplantas are plantsplantas, they don't changecambio.
212
565000
3000
personas son personas, plantas son plantas, no cambian.
09:53
NoahNoah put them on the ArkArca in that orderorden, blahpaja, blahpaja, blahpaja. And, you know,
213
568000
4000
Noé los puso en el Arca en ese orden, blah, blah, blah. Y tu sabes,
09:57
the facthecho is, if you believe in evolutionevolución, we all have a commoncomún ancestorantepasado,
214
572000
4000
el hecho es que, si crees en la evolución, todos tenemos un ancestro en común,
10:01
and we all have a commoncomún ancestryascendencia with the plantplanta in the lobbyvestíbulo.
215
576000
3000
y todo tenemos tenemos como ancestro común con la planta en la recepción.
10:04
This is what evolutionevolución tellsdice us. And, it's truecierto. It's kindtipo of unbelievableincreíble.
216
579000
3000
Esto es lo que nos dice la evolución. Y es verdad. Es un poco increíble.
10:07
And the samemismo thing about tectonictectónico platesplatos, you know?
217
582000
3000
Y es lo mismo con las placas tectónicas
10:10
All the mountainsmontañas and the continentscontinentes are kindtipo of floatingflotante around
218
585000
2000
Todas las montañas y los continentes están como que flotando
10:12
on topparte superior of the EarthTierra, you know? It's like, it doesn't make any sensesentido.
219
587000
4000
encima de la Tierra. Esto como que no tiene sentido.
10:16
So what is the intuitiveintuitivo, but incorrectincorrecto assumptionsuposición,
220
591000
4000
Así que ¿Cuál es la intuitiva pero incorrecta suposición,
10:20
that's keptmantenido us from understandingcomprensión brainssesos?
221
595000
2000
que ha evitado que entendamos el cerebro?
10:22
Now I'm going to tell it to you, and it's going to seemparecer obviousobvio that that is correctcorrecto,
222
597000
2000
Ahora te lo voy a decir, y va a parecer tan obvio que es correcto,
10:24
and that's the pointpunto, right? Then I'm going to have to make an argumentargumento
223
599000
2000
y ese el el punto, ¿No? Entonces voy a tener que hacer un argumento
10:26
why you're incorrectincorrecto about the other assumptionsuposición.
224
601000
2000
de porque es incorrecta la otra suposición.
10:28
The intuitiveintuitivo but obviousobvio thing is that somehowde algun modo intelligenceinteligencia
225
603000
3000
La cosa intuitiva pero obvia es que de alguna manera la inteligencia
10:31
is defineddefinido by behaviorcomportamiento,
226
606000
2000
es definida por el comportamiento,
10:33
that we are intelligentinteligente because of the way that we do things
227
608000
2000
que somos inteligentes por la manera en que hacemos las cosas
10:35
and the way we behavecomportarse intelligentlyinteligentemente, and I'm going to tell you that's wrongincorrecto.
228
610000
3000
y la manera en que actuamos con inteligencia, y te voy a decir que eso esta mal.
10:38
What it is is intelligenceinteligencia is defineddefinido by predictionpredicción.
229
613000
2000
Lo que es inteligencia esta definido por la predicción.
10:40
And I'm going to work you throughmediante this in a fewpocos slidesdiapositivas here,
230
615000
3000
Y voy a llevarte a esto en unas pocas diapositivas,
10:43
give you an exampleejemplo of what this meansmedio. Here'sAquí está a systemsistema.
231
618000
4000
darte un ejemplo de lo que esto significa. Aquí hay un sistema.
10:47
EngineersIngenieros like to look at systemssistemas like this. ScientistsCientíficos like to look at systemssistemas like this.
232
622000
3000
A los ingenieros les gusta ver a los sistemas de esta manera.
10:50
They say, well, we have a thing in a boxcaja, and we have its inputsentradas and its outputssalidas.
233
625000
3000
Dicen, bueno, tenemos esto en una caja y tenemos sus entradas y salidas.
10:53
The AIAI people said, well, the thing in the boxcaja is a programmableprogramable computercomputadora
234
628000
3000
Los de IA dicen, bueno la caja es una computadora programable
10:56
because that's equivalentequivalente to a braincerebro, and we'llbien feedalimentar it some inputsentradas
235
631000
2000
porque es el equivalente a un cerebro, le daremos entradas
10:58
and we'llbien get it to do something, have some behaviorcomportamiento.
236
633000
2000
y haremos que haga algo, tenga un comportamiento.
11:00
And AlanAlan TuringTuring defineddefinido the TuringTuring testprueba, whichcual is essentiallyesencialmente sayingdiciendo,
237
635000
3000
Y Alan Turing definió la prueba de Turing, que esencialmente dice,
11:03
we'llbien know if something'salgunas cosas intelligentinteligente if it behavesse comporta identicalidéntico to a humanhumano.
238
638000
3000
sabremos que algo es inteligente si actúa idéntico a un humano,
11:06
A behavioralcomportamiento metricmétrico of what intelligenceinteligencia is,
239
641000
3000
Una métrica de comportamiento de lo que es la inteligencia es,
11:09
and this has stuckatascado in our mindsmentes for a long periodperíodo of time.
240
644000
3000
y esto se a pegado en nuestra mente por mucho tiempo.
11:12
RealityRealidad thoughaunque, I call it realreal intelligenceinteligencia.
241
647000
2000
Pero la realidad, yo le llamo inteligencia real.
11:14
RealReal intelligenceinteligencia is builtconstruido on something elsemás.
242
649000
2000
La inteligencia real esta construida con algo mas.
11:16
We experienceexperiencia the worldmundo throughmediante a sequencesecuencia of patternspatrones, and we storealmacenar them,
243
651000
4000
Experimentamos el mundo por una secuencia de los patrones, y los almacenamos,
11:20
and we recallrecordar them. And when we recallrecordar them, we matchpartido them up
244
655000
3000
y los recordamos. Cuando los recordamos, los comparamos
11:23
againsten contra realityrealidad, and we're makingfabricación predictionspredicciones all the time.
245
658000
4000
contra la realidad, y estamos haciendo predicciones todo el tiempo.
11:27
It's an eternaleterno metricmétrico. There's an eternaleterno metricmétrico about us sortordenar of sayingdiciendo,
246
662000
3000
Es una métrica eterna. Hay una métrica eterna cuando decimos,
11:30
do we understandentender the worldmundo? Am I makingfabricación predictionspredicciones? And so on.
247
665000
3000
¿Entendemos el mundo? ¿Estoy haciendo predicciones? Etc...
11:33
You're all beingsiendo intelligentinteligente right now, but you're not doing anything.
248
668000
2000
Todos están siendo inteligentes en este momento y no están haciendo nada.
11:35
Maybe you're scratchingrascarse yourselftú mismo, or pickingcosecha your nosenariz,
249
670000
2000
Quizá te estés rascando, o escarbandote la nariz,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
No lo se, pero no estas haciendo nada en este momento,
11:39
but you're beingsiendo intelligentinteligente; you're understandingcomprensión what I'm sayingdiciendo.
251
674000
3000
pero estas siendo inteligente, entiendes lo que estoy diciendo.
11:42
Because you're intelligentinteligente and you speakhablar EnglishInglés,
252
677000
2000
Porque eres inteligente y puedes hablar Español,
11:44
you know what wordpalabra is at the endfin of this -- (SilenceSilencio)
253
679000
1000
sabes cuál es la palabra al final de este -- (silencio)
11:45
sentencefrase.
254
680000
2000
enunciado.
11:47
The wordpalabra camevino into you, and you're makingfabricación these predictionspredicciones all the time.
255
682000
3000
La palabra te llego, y estas haciendo estas predicciones todo el tiempo.
11:50
And then, what I'm sayingdiciendo is,
256
685000
2000
Y luego, lo que esto diciendo es,
11:52
is that the eternaleterno predictionpredicción is the outputsalida in the neocortexneocorteza.
257
687000
2000
que esa eterna predicción es el resultado de la neo-corteza.
11:54
And that somehowde algun modo, predictionpredicción leadsconduce to intelligentinteligente behaviorcomportamiento.
258
689000
3000
Y de alguna manera, la predicción nos lleva a comportamiento inteligente.
11:57
And here'saquí está how that happenssucede. Let's startcomienzo with a non-intelligentno inteligente braincerebro.
259
692000
3000
y así es que sucede. Empecemos con un cerebro sin inteligencia.
12:00
Well I'll arguediscutir a non-intelligentno inteligente braincerebro, we got holdsostener of an oldantiguo braincerebro,
260
695000
4000
Bueno yo discuto un cerebro no inteligente, obtenemos un cerebro viejo,
12:04
and we're going to say it's like a non-mammalno mamífero, like a reptilereptil,
261
699000
3000
y vamos a decir que no es de un mamífero, como un reptil,
12:07
so I'll say, an alligatorcaimán; we have an alligatorcaimán.
262
702000
2000
así que diré, un lagarto, tenemos un lagarto.
12:09
And the alligatorcaimán has some very sophisticatedsofisticado sensessentido.
263
704000
3000
Y el lagarto tiene unos sentidos muy sofisticados.
12:12
It's got good eyesojos and earsorejas and touchtoque sensessentido and so on,
264
707000
3000
Tiene buenos ojos y oídos y sentido del tacto y así sucesivamente
12:15
a mouthboca and a nosenariz. It has very complexcomplejo behaviorcomportamiento.
265
710000
4000
una boca y una nariz. Y tiene un comportamiento muy complejo.
12:19
It can runcorrer and hideesconder. It has fearsmiedos and emotionsemociones. It can eatcomer you, you know.
266
714000
4000
Puede correr y ocultarse. Tiene temores y emociones. Te puede comer, sabes.
12:23
It can attackataque. It can do all kindsclases of stuffcosas.
267
718000
4000
Puede atacar. Puede hacer muchas cosas.
12:27
But we don't considerconsiderar the alligatorcaimán very intelligentinteligente, not like in a humanhumano sortordenar of way.
268
722000
5000
Pero no consideramos al lagarto muy inteligente, no como un humano al menos.
12:32
But it has all this complexcomplejo behaviorcomportamiento alreadyya.
269
727000
2000
Pero ya tiene todo este comportamiento complejo.
12:34
Now, in evolutionevolución, what happenedsucedió?
270
729000
2000
Ahora, en la evolución, ¿Qué sucedió?
12:36
First thing that happenedsucedió in evolutionevolución with mammalsmamíferos,
271
731000
3000
Lo primero que paso en la evolución con los mamiferos
12:39
we startedempezado to developdesarrollar a thing calledllamado the neocortexneocorteza.
272
734000
2000
es que empezamos a desarrollar la neo-corteza.
12:41
And I'm going to representrepresentar the neocortexneocorteza here,
273
736000
2000
Y voy a representar a la neo-corteza aquí,
12:43
by this boxcaja that's stickingpega on topparte superior of the oldantiguo braincerebro.
274
738000
2000
por esta caja que se encuentra encima del cerebro viejo.
12:45
NeocortexNeocorteza meansmedio newnuevo layercapa. It is a newnuevo layercapa on topparte superior of your braincerebro.
275
740000
3000
Neo-corteza significa nueva capa. Es una nueva capa sobre tu cerebro.
12:48
If you don't know it, it's the wrinklyarrugado thing on the topparte superior of your headcabeza that,
276
743000
3000
Si no lo sabes es esa cosa arrugada en la parte superior de tu cabeza que,
12:51
it's got wrinklyarrugado because it got shovedempujado in there and doesn't fitajuste.
277
746000
3000
se arrugo porque fue retacada ahí y no cabe.
12:54
(LaughterRisa)
278
749000
1000
(Risas)
12:55
No, really, that's what it is. It's about the sizetamaño of a tablemesa napkinservilleta.
279
750000
2000
No, en serio, es lo que es. Tiene el tamaño de una servilleta de mesa.
12:57
And it doesn't fitajuste, so it getsse pone all wrinklyarrugado. Now look at how I've drawndibujado this here.
280
752000
3000
Y no cabe, asi que se arruga. Ahora ve lo que he dibujado, esto aquí.
13:00
The oldantiguo braincerebro is still there. You still have that alligatorcaimán braincerebro.
281
755000
4000
El cerebro viejo sigue ahi. Aún tienes ese cerebro de lagarto.
13:04
You do. It's your emotionalemocional braincerebro.
282
759000
2000
Ahí esta. Es tu cerebro emocional.
13:06
It's all those things, and all those gutintestino reactionsreacciones you have.
283
761000
3000
Es todas esas cosas, y reacciones espontaneas que tienes.
13:09
And on topparte superior of it, we have this memorymemoria systemsistema calledllamado the neocortexneocorteza.
284
764000
3000
Encima de ello, tenemos este sistema de memoria llamado la neo-corteza.
13:12
And the memorymemoria systemsistema is sittingsentado over the sensorysensorial partparte of the braincerebro.
285
767000
4000
Y el sistema de memoria esta sobre la parte sensorial del cerebro.
13:16
And so as the sensorysensorial inputentrada comesproviene in and feedsalimenta from the oldantiguo braincerebro,
286
771000
3000
Así que conforme entra la parte sensorial y alimenta desde el viejo cerebro,
13:19
it alsoademás goesva up into the neocortexneocorteza. And the neocortexneocorteza is just memorizingmemorizando.
287
774000
4000
También sube a la neo-corteza. Y la neo-corteza es simplemente memorización.
13:23
It's sittingsentado there sayingdiciendo, ahah, I'm going to memorizememorizar all the things that are going on:
288
778000
4000
Esta ahí diciendo, ah, voy a memorizar todas las cosas que suceden,
13:27
where I've been, people I've seenvisto, things I've heardoído, and so on.
289
782000
2000
dónde he estado, personas que he visto, cosas que he escuchado, así sucesivamente.
13:29
And in the futurefuturo, when it seesve something similarsimilar to that again,
290
784000
4000
Y en el futuro, cuando ve algo similar a eso de nuevo,
13:33
so in a similarsimilar environmentambiente, or the exactexacto samemismo environmentambiente,
291
788000
3000
en un ambiente similar, o el mismo ambiente,
13:36
it'llva a playjugar it back. It'llVa a startcomienzo playingjugando it back.
292
791000
2000
lo reproduce. Empieza a reproducirlo.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
Oh, ya he estado aquí antes. Y cuando he estado aquí antes,
13:40
this happenedsucedió nextsiguiente. It allowspermite you to predictpredecir the futurefuturo.
294
795000
3000
esto sucedió después. Te permite predecir el futuro.
13:43
It allowspermite you to, literallyliteralmente it feedsalimenta back the signalsseñales into your braincerebro;
295
798000
4000
Te permite; literalmente retroalimenta las señales a tu cerebro,
13:47
they'llellos van a let you see what's going to happenocurrir nextsiguiente,
296
802000
2000
te permiten ver qué es lo que sucederá después,
13:49
will let you hearoír the wordpalabra "sentencefrase" before I said it.
297
804000
3000
te permitirá escuchar la palabra enunciado aun antes que lo dijera.
13:52
And it's this feedingalimentación back into the oldantiguo braincerebro
298
807000
3000
Y es esta retroalimentación al cerebro viejo
13:55
that'lleso va allowpermitir you to make very more intelligentinteligente decisionsdecisiones.
299
810000
3000
que te permite tomar decisiones más inteligentes.
13:58
This is the mostmás importantimportante slidediapositiva of my talk, so I'll dwellhabitar on it a little bitpoco.
300
813000
3000
Ésta es la mas importante diapositiva de mi platica, así que haré hincapié en ella.
14:01
And so, all the time you say, oh, I can predictpredecir the things.
301
816000
4000
Así que, todo el tiempo dices, oh, puedo predecir cosas.
14:05
And if you're a ratrata and you go throughmediante a mazelaberinto, and then you learnaprender the mazelaberinto,
302
820000
3000
Y si eres una rata puedes recorrer un laberinto, y luego te lo puedes aprender,
14:08
the nextsiguiente time you're in a mazelaberinto, you have the samemismo behaviorcomportamiento,
303
823000
2000
la próxima vez que estés en el laberinto, tendrás el mismo comportamiento,
14:10
but all of a suddenrepentino, you're smartermás inteligente
304
825000
2000
pero repentinamente, eres mas inteligente
14:12
because you say, oh, I recognizereconocer this mazelaberinto, I know whichcual way to go,
305
827000
3000
porque dices, oh, reconozco este laberinto, y sé en que dirección ir,
14:15
I've been here before, I can envisionguardar the futurefuturo. And that's what it's doing.
306
830000
3000
He estado aquí antes, y puedo visualizar el futuro. Y eso es lo que está haciendo.
14:18
In humanshumanos -- by the way, this is truecierto for all mammalsmamíferos;
307
833000
3000
En humanos, por cierto, esto es verdad en todos los mamíferos,
14:21
it's truecierto for other mammalsmamíferos -- and in humanshumanos, it got a lot worsepeor.
308
836000
2000
esto es verdad para otros mamíferos, y en humanos, se puso peor.
14:23
In humanshumanos, we actuallyactualmente developeddesarrollado the frontfrente partparte of the neocortexneocorteza
309
838000
3000
En humanos, desarrollamos la parte frontal de la neo-corteza.
14:26
calledllamado the anterioranterior partparte of the neocortexneocorteza. And naturenaturaleza did a little tricktruco.
310
841000
4000
llamada la parte anterior de la neocorteza. Y la naturaleza hizo un pequeño truco.
14:30
It copiedcopiado the posteriorposterior partparte, the back partparte, whichcual is sensorysensorial,
311
845000
2000
Copió la parte posterior, la de atrás, que es sensorial,
14:32
and put it in the frontfrente partparte.
312
847000
2000
y la puso en el frente
14:34
And humanshumanos uniquelysingularmente have the samemismo mechanismmecanismo on the frontfrente,
313
849000
2000
Los humanos tenemos de manera única el mismo mecanismo al frente,
14:36
but we use it for motormotor controlcontrolar.
314
851000
2000
pero o usamos para control motriz.
14:38
So we are now ablepoder to make very sophisticatedsofisticado motormotor planningplanificación, things like that.
315
853000
3000
Así que ahora podemos hacer planeación motriz muy sofisticada, y cosas así.
14:41
I don't have time to get into all this, but if you want to understandentender how a braincerebro workstrabajos,
316
856000
3000
No tengo tiempo de entrar en detalle, pero si quieres entender como funciona el cerebro,
14:44
you have to understandentender how the first partparte of the mammalianmamífero neocortexneocorteza workstrabajos,
317
859000
3000
tienes que entender cómo funciona la primera parte de la neo-corteza del mamífero,
14:47
how it is we storealmacenar patternspatrones and make predictionspredicciones.
318
862000
2000
cómo es que almacenamos patrones y hacemos predicciones.
14:49
So let me give you a fewpocos examplesejemplos of predictionspredicciones.
319
864000
3000
Así que permítem dar algunos ejemplos de predicciones.
14:52
I alreadyya said the wordpalabra "sentencefrase." In musicmúsica,
320
867000
2000
Ya dije la palabra enunciados. En música,
14:54
if you've heardoído a songcanción before, if you heardoído JillJill singcanta those songscanciones before,
321
869000
3000
si has escuchado una canción antes, si escuchaste a Jill cantar esas canciones antes,
14:57
when she singscanta them, the nextsiguiente noteNota popsestalla into your headcabeza alreadyya --
322
872000
3000
cuando las cante, la siguiente nota salta a nuestra cabeza de antemano --
15:00
you anticipateprever it as you're going. If it was an albumálbum of musicmúsica,
323
875000
2000
lo anticipas conforme sigues adelante. Si fuese un álbum musical.
15:02
the endfin of one albumálbum, the nextsiguiente songcanción popsestalla into your headcabeza.
324
877000
3000
al final de una canción, la siguiente canción te llega a la mente.
15:05
And these things happenocurrir all the time. You're makingfabricación these predictionspredicciones.
325
880000
2000
Y estas cosas suceden todo el tiempo. Estás haciendo predicciones.
15:07
I have this thing calledllamado the alteredalterado doorpuerta thought experimentexperimentar.
326
882000
3000
Yo tengo esta cosa llamada el experimento de la puerta alterada.
15:10
And the alteredalterado doorpuerta thought experimentexperimentar saysdice, you have a doorpuerta at home,
327
885000
3000
Y el experimento de la puerta alterada dice, tienes una puerta en casa,
15:13
and when you're here, I'm changingcambiando it, I've got a guy
328
888000
3000
y cuando estas aqui, yo estoy cambiándolo, tengo un señor
15:16
back at your housecasa right now, movingemocionante the doorpuerta around,
329
891000
2000
en tu casa en este momento moviendo la puerta,
15:18
and they're going to take your doorknobPerilla de la puerta and movemovimiento it over two inchespulgadas.
330
893000
2000
y va a tomar la perilla y la moverá dos pulgadas.
15:20
And when you go home tonightesta noche, you're going to put your handmano out there,
331
895000
2000
Y cuando llegues a casa esta noche vas a extender tu mano,
15:22
and you're going to reachalcanzar for the doorknobPerilla de la puerta and you're going to noticedarse cuenta
332
897000
2000
y vas a extender tu mano hacia la perilla y vas a notar
15:24
it's in the wrongincorrecto spotlugar, and you'lltu vas a go, whoaWhoa, something happenedsucedió.
333
899000
3000
que esta en el lugar equivocado, y dirás, oye, algo paso.
15:27
It maymayo take a secondsegundo to figurefigura out what it was, but something happenedsucedió.
334
902000
2000
Puede que te tome un segundo averiguar que fue, pero algo paso.
15:29
Now I could changecambio your doorknobPerilla de la puerta in other waysformas.
335
904000
2000
Ahora podira cambiar tu puerta en otras maneras.
15:31
I can make it largermás grande or smallermenor, I can changecambio its brasslatón to silverplata,
336
906000
2000
Puedo hacerla más grande o chica, puedo cambiarla de bronce a plata,
15:33
I could make it a leverpalanca. I can changecambio your doorpuerta, put colorscolores on;
337
908000
2000
Puedo poner una palanca. Puedo cambiar tu puerta, ponerle colores,
15:35
I can put windowsventanas in. I can changecambio a thousandmil things about your doorpuerta,
338
910000
3000
Puedo ponerle ventanas. Puedo cambiar miles de cosas de tu puerta,
15:38
and in the two secondssegundos you take to openabierto your doorpuerta,
339
913000
2000
y en los dos segundos que te toma abrir tu puerta,
15:40
you're going to noticedarse cuenta that something has changedcambiado.
340
915000
3000
vas a notar que algo ha cambiado
15:43
Now, the engineeringIngenieria approachenfoque to this, the AIAI approachenfoque to this,
341
918000
2000
Ahora, la manera ingenieril de aproximar esto, la manera IA de aproximarlo,
15:45
is to buildconstruir a doorpuerta databasebase de datos. It has all the doorpuerta attributesatributos.
342
920000
3000
es construir una base de datos de puertas. Tiene todos los atributos de puertas.
15:48
And as you go up to the doorpuerta, you know, let's checkcomprobar them off one at time.
343
923000
3000
Y conforme te acercas a la puerta,recorremos lista una por una.
15:51
DoorPuerta, doorpuerta, doorpuerta, you know, colorcolor, you know what I'm sayingdiciendo.
344
926000
2000
Puerta, puerta, puerta, tu sabes, color, tu sabes lo que digo.
15:53
We don't do that. Your braincerebro doesn't do that.
345
928000
2000
No hacemos eso. Tu cerebro no hace eso.
15:55
What your braincerebro is doing is makingfabricación constantconstante predictionspredicciones all the time
346
930000
2000
Lo que tu cerebro esta haciendo es predicciones constantes todo el tiempo
15:57
about what is going to happenocurrir in your environmentambiente.
347
932000
2000
acerca de lo que va a pasar en tu ambiente.
15:59
As I put my handmano on this tablemesa, I expectesperar to feel it stop.
348
934000
3000
Conforme pongo mi mano en esta mesa, espero sentir que se detenga.
16:02
When I walkcaminar, everycada steppaso, if I missedperdido it by an eighthoctavo of an inchpulgada,
349
937000
3000
Cuando camino, cada paso, si fallo por 5 milímetros,
16:05
I'll know something has changedcambiado.
350
940000
2000
Yo sabre que algo ha cambiado.
16:07
You're constantlyconstantemente makingfabricación predictionspredicciones about your environmentambiente.
351
942000
2000
Estas constantemente haciendo predicciones acerca de tu entorno.
16:09
I'll talk about visionvisión here brieflybrevemente. This is a pictureimagen of a womanmujer.
352
944000
3000
Hablaré brevemente acerca de la visión. Esta es la imagen de una mujer.
16:12
And when you look at people, your eyesojos are caughtatrapado
353
947000
2000
Y cuando ves a las personas, tus ojos están analizando
16:14
over at two to threeTres timesveces a secondsegundo.
354
949000
1000
puntos de dos a 3 veces por segundo.
16:15
You're not awareconsciente of this, but your eyesojos are always movingemocionante.
355
950000
2000
No estas consciente de eso, pero tus ojos siempre están en movimiento.
16:17
And so when you look at someone'sde alguien facecara,
356
952000
2000
Así que cuando ves la cara de alguien,
16:19
you'dtu hubieras typicallytípicamente go from eyeojo to eyeojo to eyeojo to nosenariz to mouthboca.
357
954000
2000
comúnmente recorres de ojo a ojo a ojo a nariz a boca.
16:21
Now, when your eyeojo movesmovimientos from eyeojo to eyeojo,
358
956000
2000
Ahora, cuando tus ojos se mueven de ojo a ojo,
16:23
if there was something elsemás there like, a nosenariz,
359
958000
2000
si hubiera algo diferente ahí como una nariz,
16:25
you'dtu hubieras see a nosenariz where an eyeojo is supposedsupuesto to be,
360
960000
2000
verías una nariz donde se supone debe haber un ojo,
16:27
and you'dtu hubieras go, oh shitmierda, you know --
361
962000
3000
y dirías, mierda, tu sabes --
16:30
(LaughterRisa)
362
965000
1000
(Risas)
16:31
There's something wrongincorrecto about this personpersona.
363
966000
2000
Hay algo mal con esta persona.
16:33
And that's because you're makingfabricación a predictionpredicción.
364
968000
2000
Y es porque estas haciendo una predicción.
16:35
It's not like you just look over there and say, what am I seeingviendo now?
365
970000
2000
No es como si vieras y dijeras, ¿Qué estoy viendo?
16:37
A nosenariz, that's okay. No, you have an expectationexpectativa of what you're going to see.
366
972000
3000
Una nariz, esta bien. No, tienes una expectativa de lo que vas a ver.
16:40
(LaughterRisa)
367
975000
1000
(Risas)
16:41
EveryCada singlesoltero momentmomento. And finallyfinalmente, let's think about how we testprueba intelligenceinteligencia.
368
976000
4000
En cada momento. Y finalmente, pensemos acerca de cómo probamos la inteligencia.
16:45
We testprueba it by predictionpredicción. What is the nextsiguiente wordpalabra in this, you know?
369
980000
3000
La probamos por medio de la predicción. ¿Cuál es la siguiente palabra en este, tu sabes?
16:48
This is to this as this is to this. What is the nextsiguiente numbernúmero in this sentencefrase?
370
983000
3000
Esto es a esto como esto es a esto. ¿Cuál es el siguiente número en este enunciado?
16:51
Here'sAquí está threeTres visionsvisiones of an objectobjeto.
371
986000
2000
Aquí hay tres vistas de un objeto.
16:53
What's the fourthcuarto one? That's how we testprueba it. It's all about predictionpredicción.
372
988000
4000
¿Cuál es la cuarta? Así es como lo probamos. Se trata de predicciones.
16:57
So what is the recipereceta for braincerebro theoryteoría?
373
992000
3000
Así que ¿Cuál es la receta para una teoría del cerebro?
17:00
First of all, we have to have the right frameworkmarco de referencia.
374
995000
3000
Antes que nada, tenemos que tener el marco de referencia correcto.
17:03
And the frameworkmarco de referencia is a memorymemoria frameworkmarco de referencia,
375
998000
2000
Y el marco es un marco de memoria,
17:05
not a computationcálculo or behaviorcomportamiento frameworkmarco de referencia. It's a memorymemoria frameworkmarco de referencia.
376
1000000
2000
no un marco de comportamiento o cómputo. Es un marco de memoria.
17:07
How do you storealmacenar and recallrecordar these sequencessecuencias or patternspatrones? It's spatio-temporalespaciotemporal patternspatrones.
377
1002000
4000
¿Cómo almacenas y recuerdas estas secuencias o patrones? Son patrones espacio-temporales.
17:11
Then, if in that frameworkmarco de referencia, you take a bunchmanojo of theoreticiansteóricos.
378
1006000
3000
Entonces, si en ese marco, tomas un montón de teóricos.
17:14
Now biologistsbiólogos generallyen general are not good theoreticiansteóricos.
379
1009000
2000
Los biólogos por lo general no son buenos teóricos.
17:16
It's not always truecierto, but in generalgeneral, there's not a good historyhistoria of theoryteoría in biologybiología.
380
1011000
4000
No siempre es verdad, pero en general, no hay buena historia de teoría en la biología.
17:20
So I foundencontró the bestmejor people to work with are physicistsfísicos,
381
1015000
3000
Así que encontré que es mejor trabajar con físicos,
17:23
engineersingenieros and mathematiciansmatemáticos, who tendtender to think algorithmicallyalgorítmicamente.
382
1018000
3000
ingenieros y matemáticos, que tienden a pensar de manera algorítmica,
17:26
Then they have to learnaprender the anatomyanatomía, and they'veellos tienen got to learnaprender the physiologyfisiología.
383
1021000
3000
Entonces ellos tiene que aprender la anatomía y luego aprender la fisiología.
17:29
You have to make these theoriesteorías very realisticrealista in anatomicalanatómico termscondiciones.
384
1024000
4000
Tienes que hacer que estas teorías sean muy realistas en términos anatómicos.
17:33
AnyoneNadie who getsse pone up and tellsdice you theirsu theoryteoría about how the braincerebro workstrabajos
385
1028000
4000
Cualquiera que se pone de pie y te cuenta su teoría de como funciona el cerebro
17:37
and doesn't tell you exactlyexactamente how it's workingtrabajando in the braincerebro
386
1032000
2000
y no te dice exactamente como funciona dentro del cerebro
17:39
and how the wiringalambrado workstrabajos in the braincerebro, it is not a theoryteoría.
387
1034000
2000
y como funciona el cableado dentro del cerebro, no es una teoría.
17:41
And that's what we're doing at the RedwoodSecoya NeuroscienceNeurociencia InstituteInstituto.
388
1036000
3000
Y eso es lo que estamos haciendo en el Instituto Redwood Neuroscience.
17:44
I would love to have more time to tell you we're makingfabricación fantasticfantástico progressProgreso in this thing,
389
1039000
4000
Me encantaría tener mas tiempo para contarte del avance fantástico que tenemos en ello,
17:48
and I expectesperar to be back up on this stageescenario,
390
1043000
2000
y espero estar de regreso en este estrado,
17:50
maybe this will be some other time in the not too distantdistante futurefuturo and tell you about it.
391
1045000
2000
quizá esto será en un futuro no muy lejano para que te cuente al respecto.
17:52
I'm really, really excitedemocionado. This is not going to take 50 yearsaños at all.
392
1047000
3000
Estoy muy, muy emocionado. Esto no va a tomar 50 años.
17:55
So what will braincerebro theoryteoría look like?
393
1050000
2000
Así que ¿Cómo será la teoría cerebral?
17:57
First of all, it's going to be a theoryteoría about memorymemoria.
394
1052000
2000
Antes que nada, tiene que ser una teoría respecto a la memoria.
17:59
Not like computercomputadora memorymemoria. It's not at all like computercomputadora memorymemoria.
395
1054000
3000
No como la memoria de computadora. No es nada como la memoria de computadora.
18:02
It's very, very differentdiferente. And it's a memorymemoria of these very
396
1057000
2000
Es muy distinta. Y es una memoria de estos
18:04
high-dimensionalalta dimensional patternspatrones, like the things that come from your eyesojos.
397
1059000
3000
patrones dimensionales, como las cosas que vienen de tus ojos.
18:07
It's alsoademás memorymemoria of sequencessecuencias.
398
1062000
2000
Es también memoria de secuencias.
18:09
You cannotno poder learnaprender or recallrecordar anything outsidefuera de of a sequencesecuencia.
399
1064000
2000
No puedes aprender o recordar algo fuera de secuencia.
18:11
A songcanción mustdebe be heardoído in sequencesecuencia over time,
400
1066000
3000
Una canción debe ser escuchada en secuencia en el tiempo,
18:14
and you mustdebe playjugar it back in sequencesecuencia over time.
401
1069000
3000
y debes reproducirla en secuencia en el tiempo.
18:17
And these sequencessecuencias are auto-associativelyauto-asociativamente recalledrecordado, so if I see something,
402
1072000
3000
Y estas secuencias son recordadas auto-asociadas, así que si veo algo,
18:20
I hearoír something, it remindsrecuerda me of it, and then it playsobras de teatro back automaticallyautomáticamente.
403
1075000
3000
Escucho algo, me recuerda a ello, y se reproduce automáticamente.
18:23
It's an automaticautomático playbackreproducción. And predictionpredicción of futurefuturo inputsentradas is the desireddeseado outputsalida.
404
1078000
4000
Es una reproducción automática. La predicción del futuro gestiona el resultado deseado.
18:27
And as I said, the theoryteoría mustdebe be biologicallybiológicamente accuratepreciso,
405
1082000
3000
Y como dije, la teoría debe ser biológicamente acertada,
18:30
it mustdebe be testablecomprobable, and you mustdebe be ablepoder to buildconstruir it.
406
1085000
2000
debe ser comprobable, y debes poderlo reconstruir.
18:32
If you don't buildconstruir it, you don't understandentender it. So, one more slidediapositiva here.
407
1087000
4000
Si no lo construyes, no lo entiendes. Así que una diapositiva mas aquí.
18:36
What is this going to resultresultado in? Are we going to really buildconstruir intelligentinteligente machinesmáquinas?
408
1091000
4000
¿En qué va a resultar esto? ¿Realmente vamos a construir maquinas inteligentes?
18:40
AbsolutelyAbsolutamente. And it's going to be differentdiferente than people think.
409
1095000
4000
Por supuesto. Y va a ser diferente de como creen las personas.
18:44
No doubtduda that it's going to happenocurrir, in my mindmente.
410
1099000
3000
No hay duda alguna en mi mente de que va a suceder.
18:47
First of all, it's going to be builtconstruido up, we're going to buildconstruir the stuffcosas out of siliconsilicio.
411
1102000
4000
Antes que nada, va a escalarse, vamos a construirlo de silicio.
18:51
The samemismo techniquestécnicas we use for buildingedificio siliconsilicio computercomputadora memoriesrecuerdos,
412
1106000
3000
Las mismas técnicas que usamos para construir memorias de computadora de silicio,
18:54
we can use for here.
413
1109000
1000
las podemos usar para esto.
18:55
But they're very differentdiferente typestipos of memoriesrecuerdos.
414
1110000
2000
Pero son memorias muy distintas.
18:57
And we're going to attachadjuntar these memoriesrecuerdos to sensorssensores,
415
1112000
2000
Y vamos a conectar esas memorias a sensores,
18:59
and the sensorssensores will experienceexperiencia real-livereal-vivo, real-worldmundo real datadatos,
416
1114000
3000
y a los sensores los expondremos a datos de la vida real,
19:02
and these things are going to learnaprender about theirsu environmentambiente.
417
1117000
2000
y estas cosas van a aprender de su entorno.
19:04
Now it's very unlikelyimprobable the first things you're going to see are like robotsrobots.
418
1119000
3000
Ahora es muy poco probable que las primeras cosas que veas sean como robots.
19:07
Not that robotsrobots aren'tno son usefulútil and people can buildconstruir robotsrobots.
419
1122000
3000
No que los robots no sean útiles y las personas pueden construir robots.
19:10
But the roboticsrobótica partparte is the hardestmás duro partparte. That's the oldantiguo braincerebro. That's really harddifícil.
420
1125000
4000
Pero la parte robótica es la parte más difícil. Es el cerebro antiguo. Eso es realmente difícil.
19:14
The newnuevo braincerebro is actuallyactualmente kindtipo of easiermás fácil than the oldantiguo braincerebro.
421
1129000
2000
El nuevo cerebro es realmente más fácil que el cerebro viejo.
19:16
So the first thing we're going to do are the things that don't requireexigir a lot of roboticsrobótica.
422
1131000
3000
Así que lo primero que vamos a hacer son aquellas que no requieren mucha robótica.
19:19
So you're not going to see C-DO-3POcorreos.
423
1134000
2000
Asi que no veras a C-3PO.
19:21
You're going to more see things like, you know, intelligentinteligente carscarros
424
1136000
2000
Verás cosas como autos inteligentes
19:23
that really understandentender what traffictráfico is and what drivingconducción is
425
1138000
3000
que realmente entienden lo que es el tráfico y lo que es manejar
19:26
and have learnedaprendido that certaincierto typestipos of carscarros with the blinkersluces intermitentes on for halfmitad a minuteminuto
426
1141000
3000
y han aprendido que cierto tipo de auto con la direccional encendida por medio minuto
19:29
probablyprobablemente aren'tno son going to turngiro, things like that.
427
1144000
2000
probablemente no van a dar vuelta, cosas así.
19:31
(LaughterRisa)
428
1146000
1000
(Risas)
19:32
We can alsoademás do intelligentinteligente securityseguridad systemssistemas.
429
1147000
2000
También podemos hacer sistemas de seguridad inteligentes.
19:34
AnywhereEn cualquier sitio where we're basicallybásicamente usingutilizando our braincerebro, but not doing a lot of mechanicsmecánica.
430
1149000
4000
Donde sea que estemos usando nuestro cerebro, pero no haya mucha mecánica.
19:38
Those are the things that are going to happenocurrir first.
431
1153000
2000
Éstas son las cosas que van a suceder primero.
19:40
But ultimatelypor último, the world'smundo the limitlímite here.
432
1155000
2000
Pero en última instancia, el mundo es nuestro limite.
19:42
I don't know how this is going to turngiro out.
433
1157000
2000
No se como vaya a salir esto.
19:44
I know a lot of people who inventedinventado the microprocessormicroprocesador
434
1159000
2000
Conozco muchas personas que inventaron el microprocesador
19:46
and if you talk to them, they knewsabía what they were doing was really significantsignificativo,
435
1161000
5000
y si hablas con ellos, sabían que lo que hacían era muy significativo,
19:51
but they didn't really know what was going to happenocurrir.
436
1166000
3000
pero ellos no sabían realmente lo que iba a pasar.
19:54
They couldn'tno pudo anticipateprever cellcelda phonesteléfonos and the InternetInternet and all this kindtipo of stuffcosas.
437
1169000
5000
No podían anticipar celulares y el Internet y ese tipo de cosas.
19:59
They just knewsabía like, hey, they were going to buildconstruir calculatorscalculadoras
438
1174000
2000
Simplemente sabían que, oye, vamos a construir calculadoras
20:01
and traffictráfico lightligero controllerscontroladores. But it's going to be biggrande.
439
1176000
2000
y controladores de semáforos. Pero va a ser grande.
20:03
In the samemismo way, this is like braincerebro scienceciencia and these memoriesrecuerdos
440
1178000
3000
De la misma manera, es como la ciencia del cerebro y estas memorias
20:06
are going to be a very fundamentalfundamental technologytecnología, and it's going to leaddirigir
441
1181000
3000
van a ser una tecnologia fundamental, y nos va a llevar
20:09
to very unbelievableincreíble changescambios in the nextsiguiente 100 yearsaños.
442
1184000
3000
a cambios increíbles en los próximos 100 años.
20:12
And I'm mostmás excitedemocionado about how we're going to use them in scienceciencia.
443
1187000
4000
Y estoy muy emocionado de como vamos a usarlos en la ciencia.
20:16
So I think that's all my time, I'm over it, and I'm going to endfin my talk
444
1191000
3000
Así que creo que es todo mi tiempo, ya me pase, voy a terminar mi platica
20:19
right there.
445
1194000
1000
ahí mismo.
Translated by John Walker
Reviewed by Lourdes Cahuich

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com