ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins em como a neurociência mudará a computação

Filmed:
1,674,773 views

O criador do Treo Jeff Hawkins recomenda que olhemos o cérebro de uma nova maneira -- para vê-lo não como um processador rápido, mas como um sistema de memória que armazena e recupera experiências para nos ajudar a predizer, inteligentemente, o que acontecerá em breve.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I design mobile computers and I study brains.
0
0
3000
Eu faço duas coisas. Eu projeto computadores portáteis e estudo cérebros
00:29
And today's talk is about brains and,
1
4000
2000
E a palestra de hoje é sobre cérebros e,
00:31
yay, somewhere I have a brain fan out there.
2
6000
2000
ei! temos um fã de cérebros ali.
00:33
(Laughter)
3
8000
2000
(risos)
00:35
I'm going to, if I can have my first slide up here,
4
10000
2000
Eu vou, se eu puder ter meu primeiro slide ali,
00:37
and you'll see the title of my talk and my two affiliations.
5
12000
4000
e vocês verão o título da minha palestra e minhas duas afiliações
00:41
So what I'm going to talk about is why we don't have a good brain theory,
6
16000
4000
Vou falar sobre porque não temos uma boa teoria sobre o cérebro,
00:45
why it is important that we should develop one and what we can do about it.
7
20000
3000
Qual é a importância de desenvolvermos uma e o que podemos fazer a respeito
00:48
And I'll try to do all that in 20 minutes. I have two affiliations.
8
23000
3000
Tentarei fazer isso tudo em 20 minutos. Tenho duas afiliações
00:51
Most of you know me from my Palm and Handspring days,
9
26000
3000
A maioria de vocês me conhece dos tempos de Palm e Handspring,
00:54
but I also run a nonprofit scientific research institute
10
29000
3000
mas eu também dirijo um instituto de pesquisa científica sem fins lucrativos
00:57
called the Redwood Neuroscience Institute in Menlo Park,
11
32000
2000
chamado Redwood Neuroscience Institute, em Menlo Park
00:59
and we study theoretical neuroscience,
12
34000
2000
e nós estudamos neurociência teórica
01:01
and we study how the neocortex works.
13
36000
2000
e estudamos como o neocórtex funciona
01:03
I'm going to talk all about that.
14
38000
2000
Falarei sobre isso
01:05
I have one slide on my other life, the computer life, and that's the slide here.
15
40000
3000
Eu tenho um slide sobre minha outra vida, a vida com os computadores, e aqui está ele
01:08
These are some of the products I've worked on over the last 20 years,
16
43000
3000
Estes são alguns dos produtos com que trabalhei nos últimos 20 anos,
01:11
starting back from the very original laptop to some of the first tablet computers
17
46000
4000
começando no próprio laptop original até os primeiros computadores tablet
01:15
and so on, and ending up most recently with the Treo,
18
50000
2000
e assim foi, terminando recentemente no Treo,
01:17
and we're continuing to do this.
19
52000
2000
e continuamos a fazer isso
01:19
And I've done this because I really believe that mobile computing
20
54000
2000
Fiz isso porque realmente acredito que computação móvel®
01:21
is the future of personal computing, and I'm trying to make the world
21
56000
3000
é o futuro da computação pessoal, e estou tentando fazer o mundo
01:24
a little bit better by working on these things.
22
59000
3000
um pouquinho melhor trabalhando nessas coisas
01:27
But this was, I have to admit, all an accident.
23
62000
2000
Mas isso foi, tenho que admitir, um acidente
01:29
I really didn't want to do any of these products
24
64000
2000
Eu realmente não queria fazer nenhum desses produtos
01:31
and very early in my career I decided
25
66000
2000
e muito cedo na minha carreira eu decidi
01:33
I was not going to be in the computer industry.
26
68000
3000
que eu não iria trabalhar na indústria da computação
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
E antes de falar sobre isso, eu tenho que dizer que
01:38
this one little picture of graffiti there I picked off the web the other day.
28
73000
2000
esta pequena figura de graffiti ali, eu peguei na internet outro dia
01:40
I was looking for a picture of graffiti, little text input language,
29
75000
3000
quando estava procurando uma figura de grafitti, linguagem de entrada de texto,
01:43
and I found the website dedicated to teachers who want to make these,
30
78000
3000
e achei este site dedicado a professores que querem fazer estas coisas,
01:46
you know, the script writing things across the top of their blackboard,
31
81000
3000
você sabe, estes scripts de escrever coisas em seus quadros negros,
01:49
and they had added graffiti to it, and I'm sorry about that.
32
84000
3000
e eles adicionaram graffiti nisso, e eu estou chateado com isso½
01:52
(Laughter)
33
87000
2000
(risos)
01:54
So what happened was, when I was young and got out of engineering school
34
89000
5000
Então o que aconteceu foi que quando eu era jovem e saí da escola de engenharia,
01:59
at Cornell in '79, I decided -- I went to work for Intel and
35
94000
4000
Cornell em 79, eu decidi, e fui trabalhar para a Intel
02:03
I was in the computer industry -- and three months into that,
36
98000
3000
eu estava na indústria da computação, e três meses trabalhando nisso,
02:06
I fell in love with something else, and I said, "I made the wrong career choice here,"
37
101000
4000
eu me apaixonei por outra coisa, e eu pensei, "Fiz a escolha de carreira errada"
02:10
and I fell in love with brains.
38
105000
3000
eu me apaixonei por cérebros
02:13
This is not a real brain. This is a picture of one, a line drawing.
39
108000
3000
isto não é um cérebro real. É uma figura de um, um desenho
02:16
But I don't remember exactly how it happened,
40
111000
3000
Mas eu não me lembro exatamente como isso aconteceu,
02:19
but I have one recollection, which was pretty strong in my mind.
41
114000
3000
mas eu tenho uma lembrança, que era mutio forte na minha mente,
02:22
In September 1979, Scientific American came out
42
117000
3000
Em setembro de 1979, Scientific American publicou
02:25
with a single topic issue about the brain. And it was quite good.
43
120000
3000
uma edição inteira somente sobre este tópico. E era boa
02:28
It was one of the best issues ever. And they talked about the neuron
44
123000
3000
Foi uma das melhores edições da história. E eles falavam sobre o neurônio
02:31
and development and disease and vision and all the things
45
126000
2000
e desenvolvimento e doenças e visão e todas as coisas
02:33
you might want to know about brains. It was really quite impressive.
46
128000
3000
que você poderia querer saber sobre cérebros. Era realemente bem impressionante
02:36
And one might have the impression that we really knew a lot about brains.
47
131000
3000
E você pode ficar com a impressão que a gente realmente sabia muito sobre cérebros
02:39
But the last article in that issue was written by Francis Crick of DNA fame.
48
134000
4000
Mas o último artigo daquela edição foi escrito por Francis Crick, famoso pela descoberta do DNA
02:43
Today is, I think, the 50th anniversary of the discovery of DNA.
49
138000
3000
Hoje é, eu acho, o quinquagésimo aniversário da descoberta do DNA
02:46
And he wrote a story basically saying,
50
141000
2000
E ele escreveu dizendo basicamente que,
02:48
well, this is all well and good, but you know what,
51
143000
3000
bem, isto está tudo certo e bom, mas sabe de uma coisa,
02:51
we don't know diddley squat about brains
52
146000
2000
nós não sabemos quase nada sobre cérebros
02:53
and no one has a clue how these things work,
53
148000
2000
e ninguém tem a mínima idéia de como estas coisas funcionam,
02:55
so don't believe what anyone tells you.
54
150000
2000
então não acredite em algo que disserem pra você
02:57
This is a quote from that article. He said, "What is conspicuously lacking,"
55
152000
3000
Esta é uma citação daquele artigo. Ele disse, "O que está evidentemente faltando,"
03:00
he's a very proper British gentleman so, "What is conspicuously lacking
56
155000
4000
ele é um verdadei cavalheiro britânico então, "O que está evidentemente faltando
03:04
is a broad framework of ideas in which to interpret these different approaches."
57
159000
3000
é um conjunto de idéias abrangente que permita interpretar estas diferentes abordagens."
03:07
I thought the word framework was great.
58
162000
2000
Eu adorei a expressão "conjunto de idéias"
03:09
He didn't say we didn't even have a theory. He says,
59
164000
2000
Ele não disse que não tínhamos uma teoria. Ele disse que
03:11
we don't even know how to begin to think about it --
60
166000
2000
nós não sabemos sequer como começar a pensar a respeito --
03:13
we don't even have a framework.
61
168000
2000
nós sequer temos uma estrutura
03:15
We are in the pre-paradigm days, if you want to use Thomas Kuhn.
62
170000
3000
Nós estamos nos dias pré-paradigma, se você quiser usar Thomas Kuhn
03:18
And so I fell in love with this, and said look,
63
173000
3000
E então eu me apaixonei por isso, e disse veja,
03:21
we have all this knowledge about brains. How hard can it be?
64
176000
3000
nós temos todo este conhecimento sobre cérebros. Que dificuldade pode ser essa?
03:24
And this is something we can work on my lifetime. I felt I could make a difference,
65
179000
3000
E isso é algo que podemos trabalhar no meu tempo de vida. Senti que poderia fazer uma diferença,
03:27
and so I tried to get out of the computer business, into the brain business.
66
182000
4000
e então tentei sair do ramo da computação, entrar no ramo do cérebro
03:31
First, I went to MIT, the AI lab was there,
67
186000
2000
Primeiro, fui ao MIT, o laboratório de AI (Inteligência Artificial) era lá
03:33
and I said, well, I want to build intelligent machines, too,
68
188000
2000
e eu disse, bem, eu também quero construir máquinas que sejam inteligentes
03:35
but the way I want to do it is to study how brains work first.
69
190000
3000
mas a maneira que quero fazer isso é estudar primeiro como os cérebros funcionam
03:38
And they said, oh, you don't need to do that.
70
193000
3000
E eles disseram, ah, você não precisa fazer isso
03:41
We're just going to program computers; that's all we need to do.
71
196000
2000
Nós iremos apenas programar computadores, é tudo que precisamos fazer
03:43
And I said, no, you really ought to study brains. They said, oh, you know,
72
198000
3000
E eu disse, não, você realmente tem que estudar cérebros. Ele disseram, ah, você sabe
03:46
you're wrong. And I said, no, you're wrong, and I didn't get in.
73
201000
2000
você está errado. E eu disse não, vocês estão errados, e então eu não entrei.
03:48
(Laughter)
74
203000
1000
(risos)
03:50
But I was a little disappointed -- pretty young -- but I went back again
75
205000
2000
Mas eu estava um pouco decepcionado -- muito jovem, mas eu fui mais uma vez
03:52
a few years later and this time was in California, and I went to Berkeley.
76
207000
3000
alguns anos depois e desta vez na California, e fui a Berkeley
03:55
And I said, I'll go in from the biological side.
77
210000
4000
E disse, eu vou entrar pelo lado biológico
03:59
So I got in -- in the Ph.D. program in biophysics, and I was, all right,
78
214000
3000
Então entrei -- no programa de Doutorado em biofísica, e eu estava bem,
04:02
I'm studying brains now, and I said, well, I want to study theory.
79
217000
3000
Estou estudando cérebros agora, e pensei, bem, eu quero estudar teoria
04:05
And they said, oh no, you can't study theory about brains.
80
220000
2000
e eles disseram, ah não, você não pode estudar teoria sobre cérebros
04:07
That's not something you do. You can't get funded for that.
81
222000
2000
ninguém faz isso. Não existe financiamento para fazer isso
04:09
And as a graduate student, you can't do that. So I said, oh my gosh.
82
224000
4000
E como estudante de pós-graduação, você não pode fazer isso. Então eu disse meu deus
04:13
I was very depressed. I said, but I can make a difference in this field.
83
228000
2000
Eu estava muito deprimido. Eu disse, mas eu posso fazer uma diferença nesse ramo
04:15
So what I did is I went back in the computer industry
84
230000
3000
Então o que fiz foi voltar para a indústria da computação
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
e disse, bem, eu terei que trabalhar aqui por um tempo, fazer alguma coisa
04:20
That's when I designed all those computer products.
86
235000
3000
Foi aí que inventei todos aqueles produtos de computação
04:23
(Laughter)
87
238000
1000
(risos)
04:24
And I said, I want to do this for four years, make some money,
88
239000
3000
Pensei, quero fazer isso por quatro anos, ganhar um pouco de dinheiro,
04:27
like I was having a family, and I would mature a bit,
89
242000
4000
eu estava começando uma família, e eu amadureceria um pouco,
04:31
and maybe the business of neuroscience would mature a bit.
90
246000
3000
e talvez os negócios da neurociência amadurecessem um pouco
04:34
Well, it took longer than four years. It's been about 16 years.
91
249000
3000
Bem, demorou mais de quatro anos, foi por volta de dezesseis anos
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Mas estou fazendo agora, e vou contar a vocês como.
04:39
So why should we have a good brain theory?
93
254000
3000
Então porque devemos ter uma boa teoria sobre o cérebro?
04:42
Well, there's lots of reasons people do science.
94
257000
3000
Bem, ha muitas razões pelas quais as pessoas fazem ciência
04:45
One is -- the most basic one is -- people like to know things.
95
260000
3000
Uma é -- a mais básica de todas-- que as pessoas gostam conhecer coisas
04:48
We're curious, and we just go out and get knowledge, you know?
96
263000
2000
Somos curiosos, então saimos por aí juntando conhecimento.
04:50
Why do we study ants? Well, it's interesting.
97
265000
2000
porque estudamos formigas? Bem, é interessante
04:52
Maybe we'll learn something really useful about it, but it's interesting and fascinating.
98
267000
3000
Talvez aprendamos algo realmente útil com isso, mas é interessante e fascinante
04:55
But sometimes, a science has some other attributes
99
270000
2000
Mas as vezes, a ciência tem outros atributos
04:57
which makes it really, really interesting.
100
272000
2000
que a fazem realmente muito interessante
04:59
Sometimes a science will tell something about ourselves,
101
274000
3000
As vezes uma ciência nos dirá coisas sobre nós mesmos
05:02
it'll tell us who we are.
102
277000
1000
ela nos diz quem somos
05:03
Rarely, you know: evolution did this and Copernicus did this,
103
278000
3000
Raramente, você sabe, a evolução fez isso e Copérnico fez isso,
05:06
where we have a new understanding of who we are.
104
281000
2000
onde temos um novo entendimento de quem somos
05:08
And after all, we are our brains. My brain is talking to your brain.
105
283000
4000
E afinal de contas, nós somos nosso cérebro. Meu cérebro está falando com o seu cérebro
05:12
Our bodies are hanging along for the ride, but my brain is talking to your brain.
106
287000
3000
Nossos corpos estão juntos para o passeio, mas meu cérebro está falando com o seu cérebro
05:15
And if we want to understand who we are and how we feel and perceive,
107
290000
3000
E se queremos entender quem somos e como nos sentimos e percebemos o mundo,
05:18
we really understand what brains are.
108
293000
2000
nós realmente temos que entender o que nossos cérebros são
05:20
Another thing is sometimes science
109
295000
2000
Outra coisa, as vezes a ciência
05:22
leads to really big societal benefits and technologies,
110
297000
2000
leva a verdadeiras melhoras sociais e tecnológicas,
05:24
or businesses, or whatever, that come out of it. And this is one, too,
111
299000
2000
ou negócios, ou outras coisas quaisquer que surgem dela. E isto é uma também,™
05:26
because when we understand how brains work, we're going to be able
112
301000
3000
porque quando entendermos como nossos cérebros funcionam, seremos capazes
05:29
to build intelligent machines, and I think that's actually a good thing on the whole,
113
304000
3000
de construir máquinas inteligentes, e acho que isto é verdadeiramente bom como um todo
05:32
and it's going to have tremendous benefits to society,
114
307000
2000
e trará tremendos benefícios para a sociedade
05:34
just like a fundamental technology.
115
309000
2000
como uma tecnologia fundamental
05:36
So why don't we have a good theory of brains?
116
311000
2000
Então porque não temos uma boa teoria sobre cérebros?
05:38
And people have been working on it for 100 years.
117
313000
3000
E há pessoas trabalhando sobre isso há mais de 100 anos
05:41
Well, let's first take a look at what normal science looks like.
118
316000
2000
Bem, vamos primeiro observar como se parece a ciência normal
05:43
This is normal science.
119
318000
2000
Esta é a ciência normal
05:45
Normal science is a nice balance between theory and experimentalists.
120
320000
4000
A ciência normal é um bom equilíbrio entre teoria e experimentalistas
05:49
And so the theorist guys say, well, I think this is what's going on,
121
324000
2000
Os teóricos dizem, bem, acho que é isto que está acontecendo,
05:51
and the experimentalist says, no, you're wrong.
122
326000
2000
e o experimentalista diz, não, você está errado
05:53
And it goes back and forth, you know?
123
328000
2000
E isto vai e volta.
05:55
This works in physics. This works in geology. But if this is normal science,
124
330000
2000
Isto funciona na física. Funciona na geologia. Mas se isto é ciência normal,
05:57
what does neuroscience look like? This is what neuroscience looks like.
125
332000
3000
como se parece a neurociência? A neurociência parece com isso
06:00
We have this mountain of data, which is anatomy, physiology and behavior.
126
335000
5000
Nós temos esta enorme montanha de dados, que é anatomia, fisiologia e comportamento
06:05
You can't imagine how much detail we know about brains.
127
340000
3000
Você não pode imaginar quantos detalhes sabemos sobre cérebros
06:08
There were 28,000 people who went to the neuroscience conference this year,
128
343000
4000
Havia 28.000 pessoas na conferência de neurociências este ano
06:12
and every one of them is doing research in brains.
129
347000
2000
e todas estão fazendo pesquisas sobre cérebros
06:14
A lot of data. But there's no theory. There's a little, wimpy box on top there.
130
349000
4000
Muitos dados. Mas não há nenhuma teoria. Há uma caixinha pequena e frágil ali em cima
06:18
And theory has not played a role in any sort of grand way in the neurosciences.
131
353000
5000
E a teoria não desempenhou nenhum papel importante na neurociência.
06:23
And it's a real shame. Now why has this come about?
132
358000
3000
E é realmente uma vergonha. Agora, como isso aconteceu?
06:26
If you ask neuroscientists, why is this the state of affair,
133
361000
2000
Se você perguntar a neurocientistas, porque as coisas estão assim?
06:28
they'll first of all admit it. But if you ask them, they'll say,
134
363000
3000
Eles irão primeiramente admitir. Mas se você perguntar a eles, eles dirão,
06:31
well, there's various reasons we don't have a good brain theory.
135
366000
3000
bem, há várias razões para não termos uma boa teoria sobre cérebros.
06:34
Some people say, well, we don't still have enough data,
136
369000
2000
Algumas pessoas dizem, bem, nós ainda não temos dados suficientes,
06:36
we need to get more information, there's all these things we don't know.
137
371000
3000
precisamos de mais informação, há muitas coisas que não sabemos
06:39
Well, I just told you there's so much data coming out your ears.
138
374000
3000
Bem, eu acabei de contar a vocês quantos dados são descobertos todos os anos
06:42
We have so much information, we don't even know how to begin to organize it.
139
377000
3000
Temos tanta informação; não sabemos como começar a organizá-la
06:45
What good is more going to do?
140
380000
2000
Qual o benefício de mais informações?
06:47
Maybe we'll be lucky and discover some magic thing, but I don't think so.
141
382000
3000
Talvez sejamos sortudos e podemos descobrir algo mágico, mas não acredito nisso
06:50
This is actually a symptom of the fact that we just don't have a theory.
142
385000
3000
É na verdade um sintoma do fato de que não temos uma boa teoria
06:53
We don't need more data -- we need a good theory about it.
143
388000
3000
Não precisamos de mais dados -- precisamos de uma boa teoria sobre isso
06:56
Another one is sometimes people say, well, brains are so complex,
144
391000
3000
Outra razão é, as vezes as pessoas dizem, bem, cérebros são tão complexos,
06:59
it'll take another 50 years.
145
394000
2000
demorará mais 50 anos
07:01
I even think Chris said something like this yesterday.
146
396000
2000
Eu inclusive acho que Chris disse algo assim ontem
07:03
I'm not sure what you said, Chris, but something like,
147
398000
2000
Não tenho certeza do que você disse Chris, mas algo parecido,
07:05
well, it's one of the most complicated things in the universe. That's not true.
148
400000
3000
bem, é uma das coisas mais complexas do universo. Isto não é verdade.
07:08
You're more complicated than your brain. You've got a brain.
149
403000
2000
Você é mais complicado que seu cérebro. Você tem um cérebro
07:10
And it's also, although the brain looks very complicated,
150
405000
2000
E também, embora o cérebro pareça muito complicado,
07:12
things look complicated until you understand them.
151
407000
3000
as coisas parecem complicadas até você as entender
07:15
That's always been the case. And so all we can say, well,
152
410000
3000
Sempre foi assim. E então tudo que podemos dizer, bem,
07:18
my neocortex, which is the part of the brain I'm interested in, has 30 billion cells.
153
413000
4000
meu neocórtex, a parte do cérebro que me interessa, tem 30 bilhões de células
07:22
But, you know what? It's very, very regular.
154
417000
2000
Mas, sabe de uma coisa? Ele é muito, muito regular
07:24
In fact, it looks like it's the same thing repeated over and over and over again.
155
419000
3000
Na verdade, ele parece a mesma coisa repetida muitas e muitas vezes
07:27
It's not as complex as it looks. That's not the issue.
156
422000
3000
Não é tão complexo quanto parece. Esta não é a questão
07:30
Some people say, brains can't understand brains.
157
425000
2000
Algumas pessoas dizem, cérebros não podem entender cérebros
07:32
Very Zen-like. Whoo. (Laughter)
158
427000
3000
Muito zen. Uau, você sabe --
07:35
You know,
159
430000
1000
(risos)
07:36
it sounds good, but why? I mean, what's the point?
160
431000
3000
Soa bem, mas porque? Qual é o sentido?
07:39
It's just a bunch of cells. You understand your liver.
161
434000
3000
è apenas um monte de células. Você entende seu fígado
07:42
It's got a lot of cells in it too, right?
162
437000
2000
E também há um monte de células, certo?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Então, não acho que seja por aí
07:46
And finally, some people say, well, you know,
164
441000
2000
E por último, algumas pessoas dizem, sabe,
07:48
I don't feel like a bunch of cells, you know. I'm conscious.
165
443000
4000
Eu não me sinto um monte de células. Eu sou consciente
07:52
I've got this experience, I'm in the world, you know.
166
447000
2000
Eu tenho esta experiência, estou no mundo, sabe.
07:54
I can't be just a bunch of cells. Well, you know,
167
449000
2000
Eu não posso ser apenas um monte de células. Bem, você sabe,
07:56
people used to believe there was a life force to be living,
168
451000
3000
pessoas costumavam crer que havia uma força da vida,
07:59
and we now know that's really not true at all.
169
454000
2000
e nós sabemos agora que isto não é verdade
08:01
And there's really no evidence that says -- well, other than people
170
456000
3000
E realmente não há evidência que diga, bem, outras pessoas
08:04
just have disbelief that cells can do what they do.
171
459000
2000
apenas creram que células não podem fazer o que fazem
08:06
And so, if some people have fallen into the pit of metaphysical dualism,
172
461000
3000
E então, se algumas pessoas caíram no abismo do dualismo metafísico,
08:09
some really smart people, too, but we can reject all that.
173
464000
3000
algumas pessoas muito espertas, também, mas podemos rejeitar tudo isso.
08:12
(Laughter)
174
467000
2000
(risos)
08:14
No, I'm going to tell you there's something else,
175
469000
3000
Não, eu irei mostrar a vocês que há algo mais,
08:17
and it's really fundamental, and this is what it is:
176
472000
2000
e que é realmente fundamental, e é isto:
08:19
there's another reason why we don't have a good brain theory,
177
474000
2000
Há outra razão porque não temos uma boa teoria do cérebro,
08:21
and it's because we have an intuitive, strongly-held,
178
476000
3000
e é porque nós temos uma intuição muito forte e arraigada,
08:24
but incorrect assumption that has prevented us from seeing the answer.
179
479000
5000
mas uma suposição incorreta que nos impediu de ver a resposta.
08:29
There's something we believe that just, it's obvious, but it's wrong.
180
484000
3000
Há algo em que acreditamos que é óbvio, mas está errado
08:32
Now, there's a history of this in science and before I tell you what it is,
181
487000
4000
Há um caso destes na ciência e antes de contá-lo
08:36
I'm going to tell you a bit about the history of it in science.
182
491000
2000
Vou falar um pouco sobre a história da ciência
08:38
You look at some other scientific revolutions,
183
493000
2000
Consider algumas outras revoluções científicas,
08:40
and this case, I'm talking about the solar system, that's Copernicus,
184
495000
2000
e neste caso, estou falando do sistema solar, isto é Copérnico,
08:42
Darwin's evolution, and tectonic plates, that's Wegener.
185
497000
3000
A revolução de Darwin, e as placas tectônicas, isto é Wegener
08:45
They all have a lot in common with brain science.
186
500000
3000
Elas todas têm muito em comum com a neurociência
08:48
First of all, they had a lot of unexplained data. A lot of it.
187
503000
3000
Em primeiro lugar, eles tinham um monte de dados não explicados. Um monte.
08:51
But it got more manageable once they had a theory.
188
506000
3000
Mas se tornou mais manejável quando desenvolveram uma teoria
08:54
The best minds were stumped -- really, really smart people.
189
509000
3000
As melhores mentes estavam travadas, pessoas realmente espertas
08:57
We're not smarter now than they were then.
190
512000
2000
Não somos mais espertos do que eram antes
08:59
It just turns out it's really hard to think of things,
191
514000
2000
apenas ocorre que é realmente muito difícil pensar sobre as coisas,
09:01
but once you've thought of them, it's kind of easy to understand it.
192
516000
2000
mas uma vez que você pensou sobre elas, é mais fácil entender
09:03
My daughters understood these three theories
193
518000
2000
Minhas filhas entenderam todas estas três teorias
09:05
in their basic framework by the time they were in kindergarten.
194
520000
3000
em seus aspectos gerais, na época do jardim da infância
09:08
And now it's not that hard, you know, here's the apple, here's the orange,
195
523000
3000
E agora não é tão difícil, você sabe, aqui está a maçã, aqui está a laranja,
09:11
you know, the Earth goes around, that kind of stuff.
196
526000
3000
sabe, a Terra gira por aí, este tipo de coisa.
09:14
Finally, another thing is the answer was there all along,
197
529000
2000
Finalmente, outro ponto é que a resposta esteve aí o tempo todo,
09:16
but we kind of ignored it because of this obvious thing, and that's the thing.
198
531000
3000
mas nós meio que a ignorávamos por causa destas coisas óbvias, e este é o ponto
09:19
It was an intuitive, strong-held belief that was wrong.
199
534000
3000
Era uma intuição, uma crença muito forte e arraigada, que estava errada
09:22
In the case of the solar system, the idea that the Earth is spinning
200
537000
3000
No caso do sistema solar, a idéia que a Terra está girando
09:25
and the surface of the Earth is going like a thousand miles an hour,
201
540000
3000
e que a superfície está viajando a 1000 milhas por hora,
09:28
and the Earth is going through the solar system about a million miles an hour.
202
543000
3000
e de que a Terra esta passeando pelo sistema solar mais ou menos a um milhão de milhas por hora
09:31
This is lunacy. We all know the Earth isn't moving.
203
546000
2000
Isto é coisa de lunático. Todos sabemos que a Terra não está se movendo
09:33
Do you feel like you're moving a thousand miles an hour?
204
548000
2000
Você sente que está se movendo a 1000 milhas por hora?
09:35
Of course not. You know, and someone who said,
205
550000
2000
Claro que não. E se alguém dissesse,
09:37
well, it was spinning around in space and it's so huge,
206
552000
2000
bem, ela está viajando no espaço e é tão gigante,
09:39
they would lock you up, and that's what they did back then.
207
554000
2000
eles te prenderiam, e foi o que fizeram no passado
09:41
(Laughter)
208
556000
1000
(risos)
09:42
So it was intuitive and obvious. Now what about evolution?
209
557000
3000
Então era intuitivo e óbvio. Agora, e quanto à evolução?
09:45
Evolution's the same thing. We taught our kids, well, the Bible says,
210
560000
3000
A Evolução é a mesma coisa. Ensinamos nossos filhos, bem, a Bíblia diz,
09:48
you know, God created all these species, cats are cats, dogs are dogs,
211
563000
2000
você sabe, Deus criou todas as espécies, gatos são gatos, cachorros são cachorros,
09:50
people are people, plants are plants, they don't change.
212
565000
3000
pessoas são pessoas, plantas são plantas, eles não mudam.
09:53
Noah put them on the Ark in that order, blah, blah, blah. And, you know,
213
568000
4000
Noé os colocou na arca naquela ordem, blablabla. E, você sabe,
09:57
the fact is, if you believe in evolution, we all have a common ancestor,
214
572000
4000
o fato é que, se você acredita na evolução, nós todos temos um ancestral comum,
10:01
and we all have a common ancestry with the plant in the lobby.
215
576000
3000
e todos temos um ancestral comum com a planta que está na recepção
10:04
This is what evolution tells us. And, it's true. It's kind of unbelievable.
216
579000
3000
É isto que a evolução nos diz. E isto é verdade. É quase impossível acreditar
10:07
And the same thing about tectonic plates, you know?
217
582000
3000
E a mesma coisa sobre placas tectônicas, sabe?
10:10
All the mountains and the continents are kind of floating around
218
585000
2000
Todas as montanhas e continentes estão meio que flutuando por aí
10:12
on top of the Earth, you know? It's like, it doesn't make any sense.
219
587000
4000
no topo da terra, sabe? Não faz nenhum sentido
10:16
So what is the intuitive, but incorrect assumption,
220
591000
4000
Então qual é a suposição intuitiva incorreta
10:20
that's kept us from understanding brains?
221
595000
2000
que nos impede de entendermos os cérebros?
10:22
Now I'm going to tell it to you, and it's going to seem obvious that that is correct,
222
597000
2000
Agora vou falar sobre isso, e irá parecer óbvio que está correto,
10:24
and that's the point, right? Then I'm going to have to make an argument
223
599000
2000
e este é o ponto, certo? Então terei que argumentar
10:26
why you're incorrect about the other assumption.
224
601000
2000
porque você está errado sobre a outra suposição
10:28
The intuitive but obvious thing is that somehow intelligence
225
603000
3000
A coisa intuitiva e óbvia é que de alguma maneira a inteligência
10:31
is defined by behavior,
226
606000
2000
é definida pelo comportamento,
10:33
that we are intelligent because of the way that we do things
227
608000
2000
que nós somos inteligentes por causa da maneira como fazemos as coisas
10:35
and the way we behave intelligently, and I'm going to tell you that's wrong.
228
610000
3000
e a maneira que nos comportamos inteligentemente, mas eu direi a vocês que isso está errado
10:38
What it is is intelligence is defined by prediction.
229
613000
2000
O que ocorre é que inteligência é definida por predição
10:40
And I'm going to work you through this in a few slides here,
230
615000
3000
E irei mostrar isso através de alguns slides aqui,
10:43
give you an example of what this means. Here's a system.
231
618000
4000
Darei um exemplo do que isso significa. Aqui temos um sistema
10:47
Engineers like to look at systems like this. Scientists like to look at systems like this.
232
622000
3000
Engenheiros olham para sistemas assim. Cientistas gostam de olhar sistemas dessa maneira
10:50
They say, well, we have a thing in a box, and we have its inputs and its outputs.
233
625000
3000
Eles dizem, bem, nós temos uma coisa na caixa, e temos as entradas e saídas da caixa
10:53
The AI people said, well, the thing in the box is a programmable computer
234
628000
3000
As pessoas da IA diziam, bem, a coisa na caixa é um computador programável
10:56
because that's equivalent to a brain, and we'll feed it some inputs
235
631000
2000
porque isso é equivalente a um cérebro, e nós daremos algumas informações de entrada
10:58
and we'll get it to do something, have some behavior.
236
633000
2000
e nós faremos com que faça alguma coisa, que tenha algum comportamento
11:00
And Alan Turing defined the Turing test, which is essentially saying,
237
635000
3000
E Alan Turing definiu o teste de Turing, que diz, em sua essência,
11:03
we'll know if something's intelligent if it behaves identical to a human.
238
638000
3000
que saberemos que alguma coisa é inteligente se ela se comportar de maneira idêntica a um ser humano
11:06
A behavioral metric of what intelligence is,
239
641000
3000
Uma medida métrica do que é inteligência
11:09
and this has stuck in our minds for a long period of time.
240
644000
3000
e isto está enraizado em nossas mentes por muito tempo
11:12
Reality though, I call it real intelligence.
241
647000
2000
Entretanto a realidade, eu a chamo de inteligência real
11:14
Real intelligence is built on something else.
242
649000
2000
Inteligencia real é feita de outra coisa
11:16
We experience the world through a sequence of patterns, and we store them,
243
651000
4000
Nós experimentamos o mundo através de uma sequência de padrões, e nós os armazenamos
11:20
and we recall them. And when we recall them, we match them up
244
655000
3000
e nós os evocamos. E quando os evocamos, nós os comparamos
11:23
against reality, and we're making predictions all the time.
245
658000
4000
com a realidade, e nós estamos fazendo predições todo o tempo
11:27
It's an eternal metric. There's an eternal metric about us sort of saying,
246
662000
3000
É uma métrica eterna. Tem uma métrica eterna sobre nós, como que dizendo,
11:30
do we understand the world? Am I making predictions? And so on.
247
665000
3000
entendemos o mundo? Estou fazendo predições? E por aí vai
11:33
You're all being intelligent right now, but you're not doing anything.
248
668000
2000
Você está sendo inteligente neste exato momento, mas você não está fazendo nada
11:35
Maybe you're scratching yourself, or picking your nose,
249
670000
2000
Talvez você esteja se coçando, ou cutucando o nariz,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
Eu não sei, mas você não esta fazendo alguma coisa neste exato momento,
11:39
but you're being intelligent; you're understanding what I'm saying.
251
674000
3000
mas você esta sendo inteligente, você está compreendendo o que estou dizendo
11:42
Because you're intelligent and you speak English,
252
677000
2000
Porque você é inteligente e fala Inglês
11:44
you know what word is at the end of this -- (Silence)
253
679000
1000
você sabe qual palavra está no fim desta -- (silêncio)
11:45
sentence.
254
680000
2000
frase
11:47
The word came into you, and you're making these predictions all the time.
255
682000
3000
A palavra veio a você, e você está fazendo estas predições o tempo todo
11:50
And then, what I'm saying is,
256
685000
2000
E então, o que estou dizendo é que,
11:52
is that the eternal prediction is the output in the neocortex.
257
687000
2000
esta eterna predição é a saída do neocórtex
11:54
And that somehow, prediction leads to intelligent behavior.
258
689000
3000
E que de alguma maneira, predição leva a comportamento inteligente
11:57
And here's how that happens. Let's start with a non-intelligent brain.
259
692000
3000
E é assim que ocorre. Vamos começar com um cérebro não inteligente
12:00
Well I'll argue a non-intelligent brain, we got hold of an old brain,
260
695000
4000
Bem, vou argumentar que um cérebro não-inteligente, nós temos um cérebro antigo,
12:04
and we're going to say it's like a non-mammal, like a reptile,
261
699000
3000
e nós diremos que é tipo um não mamífero, como um réptil,
12:07
so I'll say, an alligator; we have an alligator.
262
702000
2000
então vou dizer, temos um crocodilo
12:09
And the alligator has some very sophisticated senses.
263
704000
3000
E o crocodilo tem alguns sentidos muito sofisticados
12:12
It's got good eyes and ears and touch senses and so on,
264
707000
3000
Tem bons olhos e ouvidos e sensação de tato etc
12:15
a mouth and a nose. It has very complex behavior.
265
710000
4000
uma boca e um nariz. Tem comportamentos bem complexos
12:19
It can run and hide. It has fears and emotions. It can eat you, you know.
266
714000
4000
Pode correr e se esconder. Tem medos e emoções. Ele pode te comer, você sabe.
12:23
It can attack. It can do all kinds of stuff.
267
718000
4000
Pode te atacar. Pode fazer todos os tipos de coisas
12:27
But we don't consider the alligator very intelligent, not like in a human sort of way.
268
722000
5000
Mas nós não consideramos o crocodilo muito inteligente
12:32
But it has all this complex behavior already.
269
727000
2000
Mas ele já tem todos estes comportamentos complexos
12:34
Now, in evolution, what happened?
270
729000
2000
Agora, na evolução, o que ocorreu?
12:36
First thing that happened in evolution with mammals,
271
731000
3000
A primeira coisa que ocorreu na evolução com os mamíferos,
12:39
we started to develop a thing called the neocortex.
272
734000
2000
nós começamos a desenvolver uma coisa chamada neocórtex
12:41
And I'm going to represent the neocortex here,
273
736000
2000
e vou representar o neocórtex aqui
12:43
by this box that's sticking on top of the old brain.
274
738000
2000
por este quadrado em cima do cérebro antigo
12:45
Neocortex means new layer. It is a new layer on top of your brain.
275
740000
3000
Neocórtex significa nova camada. é uma nova camada no topo do seu cérebro
12:48
If you don't know it, it's the wrinkly thing on the top of your head that,
276
743000
3000
Se você não o conhece, ele é a coisa enrugada no topo da sua cabeça, que
12:51
it's got wrinkly because it got shoved in there and doesn't fit.
277
746000
3000
se tornou enrugado porque foi apertado e não cabe ali
12:54
(Laughter)
278
749000
1000
(risos)
12:55
No, really, that's what it is. It's about the size of a table napkin.
279
750000
2000
Não, sério, é isso mesmo. Tem o tamanho de um guardanapo de mesa
12:57
And it doesn't fit, so it gets all wrinkly. Now look at how I've drawn this here.
280
752000
3000
E não cabe, então fica todo enrugado. Agora vejam como desenhei isso aqui
13:00
The old brain is still there. You still have that alligator brain.
281
755000
4000
O cérebro antigo ainda está lá. Você ainda tem um cérebro de crocodilo
13:04
You do. It's your emotional brain.
282
759000
2000
Você tem mesmo. É o seu cérebro emocional
13:06
It's all those things, and all those gut reactions you have.
283
761000
3000
É todas essas coisas, e todas aqueles instintos viscerais que você tem
13:09
And on top of it, we have this memory system called the neocortex.
284
764000
3000
E no topo dele, nós temos este sistema de memória chamado neocórtex
13:12
And the memory system is sitting over the sensory part of the brain.
285
767000
4000
E o sistema de memória esta sentado em cima da parte sensorial do cérebro
13:16
And so as the sensory input comes in and feeds from the old brain,
286
771000
3000
E então conforme as entradas sensoriais chegam do cérebro antigo
13:19
it also goes up into the neocortex. And the neocortex is just memorizing.
287
774000
4000
elas também sobem até o neocórtex. E o neocórtex está apenas memorizando
13:23
It's sitting there saying, ah, I'm going to memorize all the things that are going on:
288
778000
4000
Ele está lá dizendo, ah, vou memorizar todas esta coisas que estão acontecendo,
13:27
where I've been, people I've seen, things I've heard, and so on.
289
782000
2000
onde estive, pessoas que vi, coisas que ouvi, etc
13:29
And in the future, when it sees something similar to that again,
290
784000
4000
E no futuro, quando ele vê algo similar àquilo de novo,
13:33
so in a similar environment, or the exact same environment,
291
788000
3000
ou seja, em um ambiente semelhante, ou no mesmo exato ambiente,
13:36
it'll play it back. It'll start playing it back.
292
791000
2000
ele irá recordar. Ele irá tocar aquilo de novo
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
Oh, estive aqui antes. E quando você já esteve aqui antes,
13:40
this happened next. It allows you to predict the future.
294
795000
3000
aquilo aconteceu em seguida. Ele te permite predizer o futuro
13:43
It allows you to, literally it feeds back the signals into your brain;
295
798000
4000
Ele te permite, literalmente, realimentar os sinais para seu cérebro,
13:47
they'll let you see what's going to happen next,
296
802000
2000
ele te permite ver o que irá acontecer em seguida,
13:49
will let you hear the word "sentence" before I said it.
297
804000
3000
te permitirá ouvir a palavra "frase" antes que eu a diga
13:52
And it's this feeding back into the old brain
298
807000
3000
E ele está enviando isso de volta ao cérebro antigo
13:55
that'll allow you to make very more intelligent decisions.
299
810000
3000
te permitindo fazer decisões mais inteligentes
13:58
This is the most important slide of my talk, so I'll dwell on it a little bit.
300
813000
3000
este é o slide mais importante da minha palestra, então vou demorar um pouco aqui
14:01
And so, all the time you say, oh, I can predict the things.
301
816000
4000
E então, toda vez que você diz, oh, posso prever coisas
14:05
And if you're a rat and you go through a maze, and then you learn the maze,
302
820000
3000
E se você é um rato e você vai por um labirinto, e então você aprende o labirinto,
14:08
the next time you're in a maze, you have the same behavior,
303
823000
2000
a próxima vez que você estiver no labirinto, você tem o mesmo comportamento,
14:10
but all of a sudden, you're smarter
304
825000
2000
mas de repente, você está mais esperto
14:12
because you say, oh, I recognize this maze, I know which way to go,
305
827000
3000
porque você diz, oh, reconheço este labirinto, eu sei que caminho tomar,
14:15
I've been here before, I can envision the future. And that's what it's doing.
306
830000
3000
estive aqui antes, posso predizer o futuro. E é isso que está acontecendo
14:18
In humans -- by the way, this is true for all mammals;
307
833000
3000
Em humanos, aliás, isto também é verdade para todos os mamíferos,
14:21
it's true for other mammals -- and in humans, it got a lot worse.
308
836000
2000
é verdade para outros mamíferos, e em humanos, se tornou bem pior
14:23
In humans, we actually developed the front part of the neocortex
309
838000
3000
Em humanos, nós desenvolvemos a parte frontal do neocórtex
14:26
called the anterior part of the neocortex. And nature did a little trick.
310
841000
4000
chamada parte anterior do neocórtex. E a natureza fez um pequeno truque
14:30
It copied the posterior part, the back part, which is sensory,
311
845000
2000
Ela copiou a parte posterior, a parte de trás, que é sensorial,
14:32
and put it in the front part.
312
847000
2000
e colocou na parte da frente
14:34
And humans uniquely have the same mechanism on the front,
313
849000
2000
E humanos são únicos por ter o mesmo mecanismo na frente,
14:36
but we use it for motor control.
314
851000
2000
mas nós o usamos para controle motor
14:38
So we are now able to make very sophisticated motor planning, things like that.
315
853000
3000
Então agora somos capazes de fazer planejamento motor muito sofisticado, coisas assim
14:41
I don't have time to get into all this, but if you want to understand how a brain works,
316
856000
3000
Não tenho tempo para me aprofundar em tudo isso, mas se você quer entender como um cérebro funciona,
14:44
you have to understand how the first part of the mammalian neocortex works,
317
859000
3000
você tem que entender como a primeira parte do neocórtex dos mamíferos funciona
14:47
how it is we store patterns and make predictions.
318
862000
2000
como ele armazena padrões e faz predições
14:49
So let me give you a few examples of predictions.
319
864000
3000
Então deixe-me dar uns exemplos de predições
14:52
I already said the word "sentence." In music,
320
867000
2000
Eu já disse a palavra "frase". Em múscia,
14:54
if you've heard a song before, if you heard Jill sing those songs before,
321
869000
3000
se você já ouviu uma música antes, se você ouviu Jill cantar aquelas músicas antes,
14:57
when she sings them, the next note pops into your head already --
322
872000
3000
quando ela canta essas músicas, a próxima nota aparece de repente na sua cabeça
15:00
you anticipate it as you're going. If it was an album of music,
323
875000
2000
você antecipa enquanto ouve. Se fosse um álbum de música,
15:02
the end of one album, the next song pops into your head.
324
877000
3000
o fim de um álbum, a próxima música aparece de repente na sua cabeça.
15:05
And these things happen all the time. You're making these predictions.
325
880000
2000
E estas coisas acontecem o tempo todo. Você está fazendo estas predições
15:07
I have this thing called the altered door thought experiment.
326
882000
3000
Eu tenho esta coisa chamada o experimento mental da porta alterada
15:10
And the altered door thought experiment says, you have a door at home,
327
885000
3000
E este experimento mental da porta alterada diz, você tem uma porta em casa,
15:13
and when you're here, I'm changing it, I've got a guy
328
888000
3000
e enquanto você está aqui, eu estou modificando sua porta, tenho um cara
15:16
back at your house right now, moving the door around,
329
891000
2000
lá na sua casa, neste exato momento, mexendo na porta,
15:18
and they're going to take your doorknob and move it over two inches.
330
893000
2000
e ele irá pegar a maçaneta e mover algumas polegadas
15:20
And when you go home tonight, you're going to put your hand out there,
331
895000
2000
E quando você for para casa hoje a noite, você irá colocar a mão na porta,
15:22
and you're going to reach for the doorknob and you're going to notice
332
897000
2000
e irá esticá-la para pegar na maçaneta e você irá notar
15:24
it's in the wrong spot, and you'll go, whoa, something happened.
333
899000
3000
que está no lugar errado, e você dirá, uau, algo aconteceu
15:27
It may take a second to figure out what it was, but something happened.
334
902000
2000
Pode demorar um segundo para perceber o que foi, mas algo aconteceu
15:29
Now I could change your doorknob in other ways.
335
904000
2000
Eu poderia mudar sua maçaneta de outras maneiras
15:31
I can make it larger or smaller, I can change its brass to silver,
336
906000
2000
Posso fazê-la maior ou menor, posso trocar de latão para prata
15:33
I could make it a lever. I can change your door, put colors on;
337
908000
2000
Posso fazer um alavanca. Posso mudar sua porta, colocar cores
15:35
I can put windows in. I can change a thousand things about your door,
338
910000
3000
Posso colocar janelas nela. Posso mudar milhares de coisas sobre sua porta,
15:38
and in the two seconds you take to open your door,
339
913000
2000
e em dois segundos que você leva para abrir sua porta,
15:40
you're going to notice that something has changed.
340
915000
3000
você irá notar que algo aconteceu
15:43
Now, the engineering approach to this, the AI approach to this,
341
918000
2000
Agora, a abordagem do engenheiro para isso, IA aborda isso,
15:45
is to build a door database. It has all the door attributes.
342
920000
3000
construindo uma base de dados sobre a porta. Tem todos os atributos da porta
15:48
And as you go up to the door, you know, let's check them off one at time.
343
923000
3000
E quando você vai até a porta, você sabe, vamos conferir item por item
15:51
Door, door, door, you know, color, you know what I'm saying.
344
926000
2000
Porta, porta, porta, você sabe, sabe o que estou dizendo
15:53
We don't do that. Your brain doesn't do that.
345
928000
2000
Nós não fazemos isso. seu cérebro não faz isso
15:55
What your brain is doing is making constant predictions all the time
346
930000
2000
O que seu cérebro esta fazendo são constantes predições, todo o tempo
15:57
about what is going to happen in your environment.
347
932000
2000
sobre o que está prestes a acontecer no ambiente
15:59
As I put my hand on this table, I expect to feel it stop.
348
934000
3000
Quando coloco minha mão nesta mesa, espero senti-la parar
16:02
When I walk, every step, if I missed it by an eighth of an inch,
349
937000
3000
Quando ando, a cada passo, se erro por um oitavo de polegada,
16:05
I'll know something has changed.
350
940000
2000
Saberei que algo mudou
16:07
You're constantly making predictions about your environment.
351
942000
2000
Você está constantemente prevendo coisas sobre seu ambiente
16:09
I'll talk about vision here briefly. This is a picture of a woman.
352
944000
3000
Vou falar rapidamente sobre visão. Esta é uma imagem de uma mulher
16:12
And when you look at people, your eyes are caught
353
947000
2000
E quando você olha para uma pessoa, seus olhos param
16:14
over at two to three times a second.
354
949000
1000
por duas ou três vezes por segundo
16:15
You're not aware of this, but your eyes are always moving.
355
950000
2000
Você não tem consciência disso, mas seus olhos estão sempre se movendo
16:17
And so when you look at someone's face,
356
952000
2000
E então quando você olha para o rosto de alguém,
16:19
you'd typically go from eye to eye to eye to nose to mouth.
357
954000
2000
você iria tipicamente de olho para olho para olho para nariz para boca
16:21
Now, when your eye moves from eye to eye,
358
956000
2000
Agora, quando você vai de olho para olho,
16:23
if there was something else there like, a nose,
359
958000
2000
se houver algo diferente como um nariz,
16:25
you'd see a nose where an eye is supposed to be,
360
960000
2000
você veria um nariz onde esperava ver um olho,
16:27
and you'd go, oh shit, you know --
361
962000
3000
e você dirá, que merda, você sabe --
16:30
(Laughter)
362
965000
1000
(risos)
16:31
There's something wrong about this person.
363
966000
2000
Há algo errado com esta pessoa
16:33
And that's because you're making a prediction.
364
968000
2000
E isto é porque você está fazendo predições
16:35
It's not like you just look over there and say, what am I seeing now?
365
970000
2000
Não é que você olha ali e diz, o que estou vendo agora?
16:37
A nose, that's okay. No, you have an expectation of what you're going to see.
366
972000
3000
Um nariz, isto está certo. Não, você tem uma expectativa do que você irá ver
16:40
(Laughter)
367
975000
1000
(risos)
16:41
Every single moment. And finally, let's think about how we test intelligence.
368
976000
4000
A cada momento. E finalmente, vamos pensar como testamos inteligência
16:45
We test it by prediction. What is the next word in this, you know?
369
980000
3000
Nós testamos por predição. Qual a próxima palavra nesta, você sabe?
16:48
This is to this as this is to this. What is the next number in this sentence?
370
983000
3000
Isto é para isto, é isto. Qual o próximo número nesta sentença?
16:51
Here's three visions of an object.
371
986000
2000
Aqui há três visões de um objeto
16:53
What's the fourth one? That's how we test it. It's all about prediction.
372
988000
4000
Qual é a quarta visão? É assim que testamos. É tudo sobre predições
16:57
So what is the recipe for brain theory?
373
992000
3000
então qual a receita para uma teoria do cérebro?
17:00
First of all, we have to have the right framework.
374
995000
3000
Em primeiro lugar, temos de ter um quadro de referência correto
17:03
And the framework is a memory framework,
375
998000
2000
E a estrutura é uma estrutura de memória
17:05
not a computation or behavior framework. It's a memory framework.
376
1000000
2000
Não é de computação ou de comportamento, é uma estrutura de memória
17:07
How do you store and recall these sequences or patterns? It's spatio-temporal patterns.
377
1002000
4000
Como se armazena e recupera estas sequências de padrões. São padrões espaço-temporais
17:11
Then, if in that framework, you take a bunch of theoreticians.
378
1006000
3000
Então, se nesta estrutura, você pega um bando de teóricos,
17:14
Now biologists generally are not good theoreticians.
379
1009000
2000
Bem, biólogos geralmente não são bons teóricos
17:16
It's not always true, but in general, there's not a good history of theory in biology.
380
1011000
4000
Não é sempre verdade, mas em geral, não há uma boa história teórica na biologia
17:20
So I found the best people to work with are physicists,
381
1015000
3000
Então descobri que as melhores pessoas para trabalhar são os físicos
17:23
engineers and mathematicians, who tend to think algorithmically.
382
1018000
3000
enegenheiros e matemáticos, que tendem a pensar de modo algorítmico.
17:26
Then they have to learn the anatomy, and they've got to learn the physiology.
383
1021000
3000
Então eles devem aprender a anatomia, e devem aprender a fisiologia
17:29
You have to make these theories very realistic in anatomical terms.
384
1024000
4000
É necessário criar estas teorias de modo realista em relação à anatomia
17:33
Anyone who gets up and tells you their theory about how the brain works
385
1028000
4000
Qualquer um que te diz uma teoria de como o cérebro funciona
17:37
and doesn't tell you exactly how it's working in the brain
386
1032000
2000
e não te diz exatamente como ela está funcionando no cérebro
17:39
and how the wiring works in the brain, it is not a theory.
387
1034000
2000
e como as conexões funcionam no cérebro, não é uma teoria
17:41
And that's what we're doing at the Redwood Neuroscience Institute.
388
1036000
3000
E é isto que estamos fazendo no Redwood Neuroscience Institute™
17:44
I would love to have more time to tell you we're making fantastic progress in this thing,
389
1039000
4000
Eu adoraria ter mais tempo para lhes contar o grande progresso que estamos conseguindo
17:48
and I expect to be back up on this stage,
390
1043000
2000
e espero voltar a este palco,
17:50
maybe this will be some other time in the not too distant future and tell you about it.
391
1045000
2000
talvez isto seja em outro momento num futuro não muito distante e falarei sobre isso
17:52
I'm really, really excited. This is not going to take 50 years at all.
392
1047000
3000
Estou muito, muito empolgado. Isto não demorará mais 50 anos
17:55
So what will brain theory look like?
393
1050000
2000
E como será a teoria do cérebro?
17:57
First of all, it's going to be a theory about memory.
394
1052000
2000
Em primeiro lugar, será uma teoria sobre memória
17:59
Not like computer memory. It's not at all like computer memory.
395
1054000
3000
Não como memória de computador
18:02
It's very, very different. And it's a memory of these very
396
1057000
2000
É muito, muito diferente. E é uma memória destes padrões com muitas
18:04
high-dimensional patterns, like the things that come from your eyes.
397
1059000
3000
dimensões, como as coisas que vêm de seus olhos
18:07
It's also memory of sequences.
398
1062000
2000
É também uma sequência de memórias
18:09
You cannot learn or recall anything outside of a sequence.
399
1064000
2000
Você não pode lembrar nada fora de uma sequência
18:11
A song must be heard in sequence over time,
400
1066000
3000
Uma música tem de ser ouvida como uma sequência no tempo
18:14
and you must play it back in sequence over time.
401
1069000
3000
e você tem de repeti-la de novo ao longo do tempo
18:17
And these sequences are auto-associatively recalled, so if I see something,
402
1072000
3000
E estas sequências são evocadas de maneira auto-associativa, então se vejo algo
18:20
I hear something, it reminds me of it, and then it plays back automatically.
403
1075000
3000
Eu escuto algo, me lembra disso, e então isso se repete automaticamente
18:23
It's an automatic playback. And prediction of future inputs is the desired output.
404
1078000
4000
É uma repetição automática. E a predição dos futuros sinais de entrada é a saída desejada½
18:27
And as I said, the theory must be biologically accurate,
405
1082000
3000
E como disse, a teoria deve ser biologicamente correta
18:30
it must be testable, and you must be able to build it.
406
1085000
2000
Tem de ser testável, e você deve ser capaz de contruir isso
18:32
If you don't build it, you don't understand it. So, one more slide here.
407
1087000
4000
Se você não construir, você não entendeu. Então, em mais um slide,
18:36
What is this going to result in? Are we going to really build intelligent machines?
408
1091000
4000
Qual será o resultado disso? Iremos construir máquinas inteligentes?
18:40
Absolutely. And it's going to be different than people think.
409
1095000
4000
Absolutamente. E será diferente de como as pessoas pensam
18:44
No doubt that it's going to happen, in my mind.
410
1099000
3000
Não ha dúvidas de que irá ocorrer, na minha cabeça.
18:47
First of all, it's going to be built up, we're going to build the stuff out of silicon.
411
1102000
4000
Em primeiro lugar, será construído em silício
18:51
The same techniques we use for building silicon computer memories,
412
1106000
3000
A mesma técnica que usamos para construir memórias de computador,
18:54
we can use for here.
413
1109000
1000
podemos usar aqui
18:55
But they're very different types of memories.
414
1110000
2000
Mas serão tipos muito diferentes de memória
18:57
And we're going to attach these memories to sensors,
415
1112000
2000
E iremos ligar estas memórias a sensores
18:59
and the sensors will experience real-live, real-world data,
416
1114000
3000
e os sensores vão experimentar dados do mundo real, em tempo real,
19:02
and these things are going to learn about their environment.
417
1117000
2000
e estas coisas irão aprender sobre o ambiente
19:04
Now it's very unlikely the first things you're going to see are like robots.
418
1119000
3000
Mas é muito improvável que as primeiras coisas que você verá sejam robôs
19:07
Not that robots aren't useful and people can build robots.
419
1122000
3000
Não que robôs não sejam úteis e que pessoas não possam construí-los
19:10
But the robotics part is the hardest part. That's the old brain. That's really hard.
420
1125000
4000
Mas a parte da robótica é a mais difícil. É o cérebro antigo. Isto é realmente difícil
19:14
The new brain is actually kind of easier than the old brain.
421
1129000
2000
O cérebro novo é na verdade mais fácil que o antigo
19:16
So the first thing we're going to do are the things that don't require a lot of robotics.
422
1131000
3000
Então as primeiras coisas que faremos são as que não precisam de muita robótica
19:19
So you're not going to see C-3PO.
423
1134000
2000
Então você não verá o C-3PO
19:21
You're going to more see things like, you know, intelligent cars
424
1136000
2000
Você verá mais coisas como, sabe, carros inteligentes½
19:23
that really understand what traffic is and what driving is
425
1138000
3000
que realmente entendem o trânsito e o que é dirigir
19:26
and have learned that certain types of cars with the blinkers on for half a minute
426
1141000
3000
e que aprenderam que certos carros com pisca-pisca ligado por um minuto
19:29
probably aren't going to turn, things like that.
427
1144000
2000
provavelmente não irá virar, coisas assim
19:31
(Laughter)
428
1146000
1000
(risos)
19:32
We can also do intelligent security systems.
429
1147000
2000
Também podemos fazer sistemas de segurança inteligentes
19:34
Anywhere where we're basically using our brain, but not doing a lot of mechanics.
430
1149000
4000
Qualquer lugar que nós estejamos basicamente usando nosso cérebro, mas não muita mecânica
19:38
Those are the things that are going to happen first.
431
1153000
2000
Estas são as coisas que vão acontecer antes
19:40
But ultimately, the world's the limit here.
432
1155000
2000
Mas enfim, o mundo é o limite aqui
19:42
I don't know how this is going to turn out.
433
1157000
2000
Eu não sei como isso irá terminar
19:44
I know a lot of people who invented the microprocessor
434
1159000
2000
Eu conheço muita gente que inventou o microprocessador
19:46
and if you talk to them, they knew what they were doing was really significant,
435
1161000
5000
e se você falar com eles, eles sabiam que o que estavam fazendo era realmente significante
19:51
but they didn't really know what was going to happen.
436
1166000
3000
mas não sabiam exatamente o que iria acontecer
19:54
They couldn't anticipate cell phones and the Internet and all this kind of stuff.
437
1169000
5000
Não podiam antecipar telefones celulares e a internet e este tipo de coisa
19:59
They just knew like, hey, they were going to build calculators
438
1174000
2000
eles apenas sabiam, ei, que eles iriam construir calculadoras
20:01
and traffic light controllers. But it's going to be big.
439
1176000
2000
e controladores de semáforos. Mas será grande
20:03
In the same way, this is like brain science and these memories
440
1178000
3000
Com a ciência do cérebro e estas memórias, será da mesma maneira,
20:06
are going to be a very fundamental technology, and it's going to lead
441
1181000
3000
Haverá tecnologias fundamentais, que levarão
20:09
to very unbelievable changes in the next 100 years.
442
1184000
3000
a mudanças inimagináveis nos próximos 100 anos
20:12
And I'm most excited about how we're going to use them in science.
443
1187000
4000
E estou muito empolgado sobre como iremos usar isso na ciência
20:16
So I think that's all my time, I'm over it, and I'm going to end my talk
444
1191000
3000
Então acho meu tempo já acabou, eu acabei, vou encerrar minha palestra
20:19
right there.
445
1194000
1000
aqui.
Translated by Eduardo Schenberg
Reviewed by Hans Machado

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com