ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com
TED2003

Jeff Hawkins: How brain science will change computing

Jeff Hawkins em como a ciência do cérebro irá mudar a ciência da computação

Filmed:
1,674,773 views

O criador do Treo, Jeff Hawkins, incita-nos a uma nova perspectiva do cérebro -- vê-lo não como um processador rápido, mas como um sistema de memória que grava e reproduz experiências que nos ajudam a predizer, de forma inteligente, o que irá acontecer a seguir.
- Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools. Full bio

Double-click the English transcript below to play the video.

00:25
I do two things: I designdesenhar mobileMóvel computerscomputadores and I studyestude brainscérebro.
0
0
3000
Eu faço duas coisas. Desenho computadores portáteis e estudo cérebros.
00:29
And today'shoje talk is about brainscérebro and,
1
4000
2000
E a apresentação de hoje é sobre cérebros e,
00:31
yayyay, somewherealgum lugar I have a braincérebro fanventilador out there.
2
6000
2000
hei, algures eu tenho um admirador de cérebros por ai.
00:33
(LaughterRiso)
3
8000
2000
(Risos)
00:35
I'm going to, if I can have my first slidedeslizar up here,
4
10000
2000
Vou, se conseguir ter o meu primeiro slide aqui em cima,
00:37
and you'llvocê vai see the titletítulo of my talk and my two affiliationsafiliações.
5
12000
4000
e vão ver o título da minha apresentação e as minhas duas afiliações.
00:41
So what I'm going to talk about is why we don't have a good braincérebro theoryteoria,
6
16000
4000
Portanto vou falar-vos de porque é que não temos uma boa teoria do cérebro,
00:45
why it is importantimportante that we should developdesenvolve one and what we can do about it.
7
20000
3000
porque é importante desenvolver uma e o que podemos fazer para isso.
00:48
And I'll try to do all that in 20 minutesminutos. I have two affiliationsafiliações.
8
23000
3000
E vou tentar fazer isso tudo em 20 minutos. Tenho duas afiliações.
00:51
MostMaioria of you know me from my PalmPalm and HandspringSalto daysdias,
9
26000
3000
A maior parte de vocês conhece-me pelo meu Palm e os meus dias da Handspring,
00:54
but I alsoAlém disso runcorre a nonprofitsem fins lucrativos scientificcientífico researchpesquisa instituteinstituto
10
29000
3000
mas eu também dirijo um instituto cientifico sem fins lucrativos
00:57
calledchamado the RedwoodPau-Brasil NeuroscienceNeurociência InstituteInstituto in MenloMenlo ParkParque,
11
32000
2000
chamado 'Redwood Neuroscience Institute' em 'Menlo Park',
00:59
and we studyestude theoreticalteórico neuroscienceneurociência,
12
34000
2000
e estudamos neuro ciência teórica,
01:01
and we studyestude how the neocortexneocórtex workstrabalho.
13
36000
2000
e estudamos como o neocórtex funciona.
01:03
I'm going to talk all about that.
14
38000
2000
E eu vou falar sobre isso tudo.
01:05
I have one slidedeslizar on my other life, the computercomputador life, and that's the slidedeslizar here.
15
40000
3000
Tenho um slide da minha outra vida, a vida dos computadores, que é este slide aqui.
01:08
These are some of the productsprodutos I've workedtrabalhou on over the last 20 yearsanos,
16
43000
3000
São alguns dos produtos em que trabalhei nos últimos 20 anos,
01:11
startinginiciando back from the very originaloriginal laptopcomputador portátil to some of the first tabletTablet computerscomputadores
17
46000
4000
começando no primeiro laptop original até alguns dos primeiros computadores tablet
01:15
and so on, and endingfinal up mosta maioria recentlyrecentemente with the TreoTreo,
18
50000
2000
e por ai fora, acabando no Treo recentemente,
01:17
and we're continuingcontinuando to do this.
19
52000
2000
e continuamos a fazer isto.
01:19
And I've donefeito this because I really believe that mobileMóvel computingInformática
20
54000
2000
E fiz isto porque acredito realmente que os computadores móveis
01:21
is the futurefuturo of personalpessoal computingInformática, and I'm tryingtentando to make the worldmundo
21
56000
3000
são o futuro dos computadores pessoais, e estou a tentar fazer o mundo
01:24
a little bitpouco better by workingtrabalhando on these things.
22
59000
3000
um pouco melhor trabalhando nestas coisas.
01:27
But this was, I have to admitAdmitem, all an accidentacidente.
23
62000
2000
Mas isto foi, tenho de admiti-lo, um acidente.
01:29
I really didn't want to do any of these productsprodutos
24
64000
2000
Eu nunca quis fazer nenhum destes produtos
01:31
and very earlycedo in my careercarreira I decideddecidiu
25
66000
2000
e muito cedo na minha carreira decidi
01:33
I was not going to be in the computercomputador industryindústria.
26
68000
3000
que não iria para a industria dos computadores.
01:36
And before I tell you about that, I just have to tell you
27
71000
2000
E antes de vos contar sobre isso, apenas tenho a dizer-vos
01:38
this one little picturecenário of graffitigrafite there I pickedescolhido off the webrede the other day.
28
73000
2000
esta pequena imagem de graffiti que eu copiei da internet no outro dia.
01:40
I was looking for a picturecenário of graffitigrafite, little texttexto inputentrada languagelíngua,
29
75000
3000
Estava a procura de uma imagem de graffiti, linguagem de entrada de texto simples,
01:43
and I foundencontrado the websitelocal na rede Internet dedicateddedicada to teachersprofessores who want to make these,
30
78000
3000
e encontrei um sitio Internet dedicado a professores que querem fazer estes,
01:46
you know, the scriptroteiro writingescrevendo things acrossatravés the toptopo of theirdeles blackboardquadro-negro,
31
81000
3000
sabem, escrever coisas por cima do quadro negro,
01:49
and they had addedadicionado graffitigrafite to it, and I'm sorry about that.
32
84000
3000
e eles também usaram graffiti, e peço desculpa por isso.
01:52
(LaughterRiso)
33
87000
2000
(Risos)
01:54
So what happenedaconteceu was, when I was youngjovem and got out of engineeringEngenharia schoolescola
34
89000
5000
Então o que aconteceu foi, quando era novo e sai da escola de engenharia,
01:59
at CornellCornell in '79, I decideddecidiu -- I wentfoi to work for IntelIntel and
35
94000
4000
Cornell em 79, decici, quero ir trabalhar para a Intel.
02:03
I was in the computercomputador industryindústria -- and threetrês monthsmeses into that,
36
98000
3000
Estava na indústria dos computadores, e depois de três meses nisso,
02:06
I fellcaiu in love with something elseoutro, and I said, "I madefeito the wrongerrado careercarreira choiceescolha here,"
37
101000
4000
apaixonei-me por outra coisa, e disse, "fiz uma escolha de carreira errada,"
02:10
and I fellcaiu in love with brainscérebro.
38
105000
3000
e apaixonei-me por cérebros.
02:13
This is not a realreal braincérebro. This is a picturecenário of one, a linelinha drawingdesenhando.
39
108000
3000
Isto não é um cérebro verdadeiro. É um desenho de um cérebro.
02:16
But I don't rememberlembrar exactlyexatamente how it happenedaconteceu,
40
111000
3000
Mas não me lembro exactamente como começou,
02:19
but I have one recollectionlembrança, whichqual was prettybonita strongForte in my mindmente.
41
114000
3000
mas tenho uma recordação, que é bastante forte na minha mente.
02:22
In SeptemberSetembro de 1979, ScientificCientífica AmericanAmericana cameveio out
42
117000
3000
Em setembro de 1979, o 'Scientific American' saiu
02:25
with a singlesolteiro topictema issuequestão about the braincérebro. And it was quitebastante good.
43
120000
3000
com apenas um tópico sobre o cérebro. E era bastante bom.
02:28
It was one of the bestmelhor issuesproblemas ever. And they talkedfalou about the neuronneurônio
44
123000
3000
Foi um dos melhores números de sempre. E falaram sobre o neurónio
02:31
and developmentdesenvolvimento and diseasedoença and visionvisão and all the things
45
126000
2000
e desenvolvimento e doença e visão e de tudo o
02:33
you mightpoderia want to know about brainscérebro. It was really quitebastante impressiveimpressionante.
46
128000
3000
que pode querer saber sobre cérebros. Foi realmente impressionante.
02:36
And one mightpoderia have the impressionimpressão that we really knewsabia a lot about brainscérebro.
47
131000
3000
E podíamos ficar com a impressão de que conhecíamos muito sobre cérebros.
02:39
But the last articleartigo in that issuequestão was writtenescrito by FrancisFrancis CrickCrick of DNADNA famefama.
48
134000
4000
Mas o último artigo desse número foi escrito por Francis Crick famoso pelo ADN.
02:43
TodayHoje is, I think, the 50thº anniversaryaniversário of the discoverydescoberta of DNADNA.
49
138000
3000
Hoje é, penso eu, o aniversário dos 50 anos da descoberta do ADN.
02:46
And he wroteescrevi a storyhistória basicallybasicamente sayingdizendo,
50
141000
2000
E ele escreveu uma história dizendo basicamente,
02:48
well, this is all well and good, but you know what,
51
143000
3000
bem, isto é tudo bem e bom, mas sabem que mais,
02:51
we don't know diddleyDiddley squatagachamento about brainscérebro
52
146000
2000
não sabemos patavina sobre cérebros
02:53
and no one has a cluepista how these things work,
53
148000
2000
e ninguém tem uma pista de como essas coisas funcionam,
02:55
so don't believe what anyonealguém tellsconta you.
54
150000
2000
por isso não acreditem em tudo o que vos dizem.
02:57
This is a quotecitar from that articleartigo. He said, "What is conspicuouslyconspicuamente lackingem falta,"
55
152000
3000
Isto é uma citação desse artigo. Ele disse, "O que manifestamente nos falta,"
03:00
he's a very properadequada BritishBritânico gentlemancavalheiro so, "What is conspicuouslyconspicuamente lackingem falta
56
155000
4000
ele é um verdadeiro "gentleman" britânico portanto, "O que manifestamente nos falta
03:04
is a broadamplo frameworkestrutura of ideasidéias in whichqual to interpretinterpretar these differentdiferente approachesse aproxima."
57
159000
3000
é um bom conjunto de ideias para podermos interpretar essas diferentes aproximações."
03:07
I thought the wordpalavra frameworkestrutura was great.
58
162000
2000
Pensei que a palavra "framework" era óptima.
03:09
He didn't say we didn't even have a theoryteoria. He saysdiz,
59
164000
2000
Ela não disse que nem sequer tínhamos uma teoria. Ele disse,
03:11
we don't even know how to begininício to think about it --
60
166000
2000
nem sequer sabemos como começar a pensar nisso --
03:13
we don't even have a frameworkestrutura.
61
168000
2000
nem sequer temos uma "framework".
03:15
We are in the pre-paradigmpré-paradigma daysdias, if you want to use ThomasThomas KuhnKuhn.
62
170000
3000
Estamos nos dias de pré-paradigma se parafrasearmos Thomas Kuhn.
03:18
And so I fellcaiu in love with this, and said look,
63
173000
3000
E eu apaixonei-me por isto, e disse olhem,
03:21
we have all this knowledgeconhecimento about brainscérebro. How hardDifícil can it be?
64
176000
3000
temos todo este conhecimento sobre cérebros. Será assim tão difícil?
03:24
And this is something we can work on my lifetimetempo de vida. I feltsentiu I could make a differencediferença,
65
179000
3000
E é uma coisa que pode funcionar no meu tempo de vida. Achei que podia fazer uma diferença,
03:27
and so I triedtentou to get out of the computercomputador businesso negócio, into the braincérebro businesso negócio.
66
182000
4000
e por isso tentei sair do negócio dos computadores, para o negócio dos cérebros.
03:31
First, I wentfoi to MITMIT, the AIAI lablaboratório was there,
67
186000
2000
Primeiro, fui ao MIT, ao laboratório de IA,
03:33
and I said, well, I want to buildconstruir intelligentinteligente machinesmáquinas, too,
68
188000
2000
e disse-lhes, bem, também quero construir máquinas inteligentes,
03:35
but the way I want to do it is to studyestude how brainscérebro work first.
69
190000
3000
mas quero fazê-lo começando por estudar primeiro como funciona o cérebro.
03:38
And they said, oh, you don't need to do that.
70
193000
3000
E eles responderam, ah, não é necessário fazer isso.
03:41
We're just going to programprograma computerscomputadores; that's all we need to do.
71
196000
2000
Nós aqui apenas programamos computadores, e é tudo o que é necessário.
03:43
And I said, no, you really oughtdeveria to studyestude brainscérebro. They said, oh, you know,
72
198000
3000
E eu disse, não, vocês deviam mesmo estudar o cérebro. E eles disseram, ah, sabes,
03:46
you're wrongerrado. And I said, no, you're wrongerrado, and I didn't get in.
73
201000
2000
estás errado. E eu disse, não, vocês estão errados, e não entrei no laboratório.
03:48
(LaughterRiso)
74
203000
1000
(Risos)
03:50
But I was a little disappointeddesapontado -- prettybonita youngjovem -- but I wentfoi back again
75
205000
2000
Mas fiquei um pouco desapontado -- bastante novo, mas voltei
03:52
a fewpoucos yearsanos latermais tarde and this time was in CaliforniaCalifórnia, and I wentfoi to BerkeleyBerkeley.
76
207000
3000
uns anos depois e desta vez na Califórnia, e fui a Berkeley.
03:55
And I said, I'll go in from the biologicalbiológico sidelado.
77
210000
4000
E disse, vou para a secção de biologia.
03:59
So I got in -- in the PhPH.D. programprograma in biophysicsbiofísica, and I was, all right,
78
214000
3000
Por isso entrei -- no programa PhD de Biofísica, e estava, tudo bem,
04:02
I'm studyingestudando brainscérebro now, and I said, well, I want to studyestude theoryteoria.
79
217000
3000
estou a estudar cérebros agora, e disse, bem, quero estudar a teoria.
04:05
And they said, oh no, you can't studyestude theoryteoria about brainscérebro.
80
220000
2000
E eles disseram, ah não, não podes estudar teoria sobre cérebros.
04:07
That's not something you do. You can't get fundedfinanciado for that.
81
222000
2000
Não é uma coisa que se faça. Não é possível arranjar financiamento para isso.
04:09
And as a graduategraduado studentaluna, you can't do that. So I said, oh my goshPoxa.
82
224000
4000
E como aluno universitário, não podes fazer isso. Por isso disse, oh meu deus.
04:13
I was very depresseddepressivo. I said, but I can make a differencediferença in this fieldcampo.
83
228000
2000
Estava muito deprimido. Disse, mas eu posso marcar uma diferença neste ramo.
04:15
So what I did is I wentfoi back in the computercomputador industryindústria
84
230000
3000
Por isso voltei para a industria dos computadores
04:18
and said, well, I'll have to work here for a while, do something.
85
233000
2000
e disse, bem, vou ter de trabalhar nisto por uns tempos, fazer qualquer coisa.
04:20
That's when I designedprojetado all those computercomputador productsprodutos.
86
235000
3000
Foi quando desenhei todos aqueles produtos.
04:23
(LaughterRiso)
87
238000
1000
(Risos)
04:24
And I said, I want to do this for fourquatro yearsanos, make some moneydinheiro,
88
239000
3000
E disse, quero fazer isto por 4 anos, ganhar algum dinheiro,
04:27
like I was havingtendo a familyfamília, and I would maturemaduras a bitpouco,
89
242000
4000
como estava a formar uma família, e ganhar alguma maturidade,
04:31
and maybe the businesso negócio of neuroscienceneurociência would maturemaduras a bitpouco.
90
246000
3000
e talvez o negócio da neuro-ciência também amadurecesse um pouco.
04:34
Well, it tooktomou longermais longo than fourquatro yearsanos. It's been about 16 yearsanos.
91
249000
3000
Bem, demorou mais do que quatro anos. Foram cerca de 16 anos.
04:37
But I'm doing it now, and I'm going to tell you about it.
92
252000
2000
Mas estou a fazê-lo agora, e vou falar-vos sobre isso.
04:39
So why should we have a good braincérebro theoryteoria?
93
254000
3000
Portanto porque é que deveríamos ter uma boa teoria do cérebro?
04:42
Well, there's lots of reasonsrazões people do scienceCiência.
94
257000
3000
Bem, há muitas razões pelas quais as pessoas fazem ciência.
04:45
One is -- the mosta maioria basicbásico one is -- people like to know things.
95
260000
3000
Uma é -- a mais básica -- é que as pessoas gostam de saber coisas.
04:48
We're curiouscurioso, and we just go out and get knowledgeconhecimento, you know?
96
263000
2000
Somos curiosos, e por isso vamos por aí à procura de conhecimento, sabem?
04:50
Why do we studyestude antsformigas? Well, it's interestinginteressante.
97
265000
2000
Porque estudamos formigas? Bem, é interessante.
04:52
Maybe we'llbem learnaprender something really usefulútil about it, but it's interestinginteressante and fascinatingfascinante.
98
267000
3000
Talvez aprenda-mos algo realmente útil sobre isso, mas é interessante e fascinante.
04:55
But sometimesas vezes, a scienceCiência has some other attributesatributos
99
270000
2000
Mas por vezes, uma ciência tem outros atributos
04:57
whichqual makesfaz com que it really, really interestinginteressante.
100
272000
2000
que a fazem muito, muito interessante.
04:59
SometimesÀs vezes a scienceCiência will tell something about ourselvesnós mesmos,
101
274000
3000
Por vezes uma ciência diz-nos algo sobre nós próprios,
05:02
it'llvai tell us who we are.
102
277000
1000
diz-nos quem nós somos.
05:03
RarelyRaramente, you know: evolutionevolução did this and CopernicusCopérnico did this,
103
278000
3000
Raramente, sabem, a evolução fez isso e Copérnico fez isso,
05:06
where we have a newNovo understandingcompreensão of who we are.
104
281000
2000
onde temos uma nova compreensão de quem somos.
05:08
And after all, we are our brainscérebro. My braincérebro is talkingfalando to your braincérebro.
105
283000
4000
E apesar de tudo, nós somos os nossos cérebros. O meu cérebro está a falar ao vosso cérebro.
05:12
Our bodiescorpos are hangingsuspensão alongao longo for the ridepasseio, but my braincérebro is talkingfalando to your braincérebro.
106
287000
3000
Os nossos corpos seguem junto para as curvas, mas o meu cérebro está a falar com o vosso cérebro.
05:15
And if we want to understandCompreendo who we are and how we feel and perceiveperceber,
107
290000
3000
E se queremos entender quem somos e como sentimos e entendemos,
05:18
we really understandCompreendo what brainscérebro are.
108
293000
2000
nós realmente entendemos o que é o cérebro.
05:20
AnotherOutro thing is sometimesas vezes scienceCiência
109
295000
2000
Por vezes a ciência
05:22
leadsconduz to really biggrande societalsocietal benefitsbenefícios and technologiestecnologias,
110
297000
2000
leva-nos a realmente grandes benefícios sociais e tecnológicos,
05:24
or businessesnegócios, or whatevertanto faz, that come out of it. And this is one, too,
111
299000
2000
ou negócios, ou qualquer coisa, que vem dela. E essa é outra, também,
05:26
because when we understandCompreendo how brainscérebro work, we're going to be ablecapaz
112
301000
3000
porque quando entendermos como o cérebro funciona, vamos ser capazes
05:29
to buildconstruir intelligentinteligente machinesmáquinas, and I think that's actuallyna realidade a good thing on the wholetodo,
113
304000
3000
de construir máquinas inteligentes, e penso que é uma coisa boa na globalidade,
05:32
and it's going to have tremendoustremendo benefitsbenefícios to societysociedade,
114
307000
2000
e vai trazer benefícios enormes para a sociedade
05:34
just like a fundamentalfundamental technologytecnologia.
115
309000
2000
tal como uma tecnologia fundamental.
05:36
So why don't we have a good theoryteoria of brainscérebro?
116
311000
2000
Por isso porque é que não temos uma teoria do cérebro?
05:38
And people have been workingtrabalhando on it for 100 yearsanos.
117
313000
3000
E pessoas trabalham nisso há já 100 anos.
05:41
Well, let's first take a look at what normalnormal scienceCiência looksparece like.
118
316000
2000
Bem, vamos primeiro ver o que é a ciência normal.
05:43
This is normalnormal scienceCiência.
119
318000
2000
Isto é ciência normal.
05:45
NormalNormal scienceCiência is a nicebom balanceequilibrar betweenentre theoryteoria and experimentalistsexperimentalistas.
120
320000
4000
Ciência normal é um bom equilíbrio entre teoria e experimentalismo.
05:49
And so the theoristteórico guys say, well, I think this is what's going on,
121
324000
2000
E o teórico diz, bem, eu acho que isto é o que se passa,
05:51
and the experimentalistexperimentalista saysdiz, no, you're wrongerrado.
122
326000
2000
e o experimentalista diz, não, estás errado.
05:53
And it goesvai back and forthadiante, you know?
123
328000
2000
E vai e volta, sabem?
05:55
This workstrabalho in physicsfísica. This workstrabalho in geologyGeologia. But if this is normalnormal scienceCiência,
124
330000
2000
Isto funciona na física. Funciona em geologia. Mas se isto é ciência normal,
05:57
what does neuroscienceneurociência look like? This is what neuroscienceneurociência looksparece like.
125
332000
3000
como é que se parece a neuro-ciência? Isto é o que parece a neuro-ciência.
06:00
We have this mountainmontanha of datadados, whichqual is anatomyanatomia, physiologyfisiologia and behaviorcomportamento.
126
335000
5000
Temos esta montanha de dados, que é a anatomia, fisiologia e comportamento.
06:05
You can't imagineImagine how much detaildetalhe we know about brainscérebro.
127
340000
3000
Nem imaginam o detalhe do que sabemos sobre cérebros..
06:08
There were 28,000 people who wentfoi to the neuroscienceneurociência conferenceconferência this yearano,
128
343000
4000
Havia 28,000 pessoas na conferencia de neuro-ciência este ano.
06:12
and everycada one of them is doing researchpesquisa in brainscérebro.
129
347000
2000
e cada um deles está a fazer investigação em cérebros.
06:14
A lot of datadados. But there's no theoryteoria. There's a little, wimpyWimpy boxcaixa on toptopo there.
130
349000
4000
Muitos dados. Mas não há teoria. Há uma pequena, minúscula caixa ali em cima.
06:18
And theoryteoria has not playedreproduziu a roleFunção in any sortordenar of grandgrande way in the neurosciencesNeurociências.
131
353000
5000
E a teoria ainda não teve um papel importante em neuro-ciência.
06:23
And it's a realreal shamevergonha. Now why has this come about?
132
358000
3000
E é realmente pena. Ora porque é que isto acontece?
06:26
If you askpergunte neuroscientistsneurocientistas, why is this the stateEstado of affaircaso,
133
361000
2000
Se perguntarem aos neuro-cientistas, porque é que assim é?
06:28
they'lleles vão first of all admitAdmitem it. But if you askpergunte them, they'lleles vão say,
134
363000
3000
Eles começam por admiti-lo. Mas se perguntarem, eles dizem,
06:31
well, there's variousvários reasonsrazões we don't have a good braincérebro theoryteoria.
135
366000
3000
bem, há varias razoes por não haver uma boa teoria do cérebro.
06:34
Some people say, well, we don't still have enoughsuficiente datadados,
136
369000
2000
Algumas pessoas dizem, bem, ainda não temos dados suficientes,
06:36
we need to get more informationem formação, there's all these things we don't know.
137
371000
3000
precisamos de mais informação, há muita coisa que não sabemos.
06:39
Well, I just told you there's so much datadados comingchegando out your earsorelhas.
138
374000
3000
Bem, acabei de vos contar que já temos dados até à ponta dos cabelos.
06:42
We have so much informationem formação, we don't even know how to begininício to organizeorganizar it.
139
377000
3000
Temos tanta informação que nem sabemos por onde começar.
06:45
What good is more going to do?
140
380000
2000
O que ganhamos em ter mais informação?
06:47
Maybe we'llbem be luckypor sorte and discoverdescobrir some magicMagia thing, but I don't think so.
141
382000
3000
Talvez tenhamos sorte e descobrimos alguma coisa mágica, mas não acho.
06:50
This is actuallyna realidade a symptomsintoma of the factfacto that we just don't have a theoryteoria.
142
385000
3000
Isto e' efectivamente o sintoma de que não temos nenhuma teoria.
06:53
We don't need more datadados -- we need a good theoryteoria about it.
143
388000
3000
Não necessitamos de mais dados -- precisamos de uma teoria sobre eles.
06:56
AnotherOutro one is sometimesas vezes people say, well, brainscérebro are so complexcomplexo,
144
391000
3000
Por vezes alguém diz, bem, o cérebro e tão complexo,
06:59
it'llvai take anotheroutro 50 yearsanos.
145
394000
2000
que vai levar outros 50 anos.
07:01
I even think ChrisChris said something like this yesterdayontem.
146
396000
2000
Ate acho que o Chris disse algo semelhante ontem.
07:03
I'm not sure what you said, ChrisChris, but something like,
147
398000
2000
Não tenho a certeza do que disseste, Chris, mas foi algo como,
07:05
well, it's one of the mosta maioria complicatedcomplicado things in the universeuniverso. That's not trueverdade.
148
400000
3000
bem, é uma das coisas mais complicadas do universo. Não é verdade.
07:08
You're more complicatedcomplicado than your braincérebro. You've got a braincérebro.
149
403000
2000
Vocês são mais complicados que o vosso cérebro. Vocês têm um cérebro.
07:10
And it's alsoAlém disso, althoughApesar the braincérebro looksparece very complicatedcomplicado,
150
405000
2000
E também, mesmo que o cérebro pareça muito complicado,
07:12
things look complicatedcomplicado untilaté you understandCompreendo them.
151
407000
3000
as coisas parecem complicadas até conseguirmos percebê-las.
07:15
That's always been the casecaso. And so all we can say, well,
152
410000
3000
Foi sempre assim. E portanto tudo o que podemos dizer, bem,
07:18
my neocortexneocórtex, whichqual is the partparte of the braincérebro I'm interestedinteressado in, has 30 billionbilhão cellscélulas.
153
413000
4000
o meu neocortex, que é a parte do cérebro em que estou interessado, tem 30 biliões de células.
07:22
But, you know what? It's very, very regularregular.
154
417000
2000
Mas, sabem uma coisa? É muito, muito regular.
07:24
In factfacto, it looksparece like it's the samemesmo thing repeatedrepetido over and over and over again.
155
419000
3000
De facto, parece a mesma coisa repetida vezes sem conta.
07:27
It's not as complexcomplexo as it looksparece. That's not the issuequestão.
156
422000
3000
Não e' tão complexo como parece. Não e' essa a questão.
07:30
Some people say, brainscérebro can't understandCompreendo brainscérebro.
157
425000
2000
Alguns dizem, o cérebro não pode entender o cérebro.
07:32
Very Zen-likeZen-como. WhooWhoo. (LaughterRiso)
158
427000
3000
Muito Zen. Uau. Sabem --
07:35
You know,
159
430000
1000
(Risos)
07:36
it soundssoa good, but why? I mean, what's the pointponto?
160
431000
3000
Soa bem, mas porque? Quero dizer, qual e' o objectivo?
07:39
It's just a bunchgrupo of cellscélulas. You understandCompreendo your liverfígado.
161
434000
3000
E' apenas um conjunto de células. Entendemos o fígado.
07:42
It's got a lot of cellscélulas in it too, right?
162
437000
2000
E tem muitas células, certo?
07:44
So, you know, I don't think there's anything to that.
163
439000
2000
Portanto, sabem, não acho que seja esse o problema.
07:46
And finallyfinalmente, some people say, well, you know,
164
441000
2000
E finalmente, alguns dizem, bem, sabem,
07:48
I don't feel like a bunchgrupo of cellscélulas, you know. I'm consciousconsciente.
165
443000
4000
Não me sinto um conjunto de células, sabem. Estou consciente.
07:52
I've got this experienceexperiência, I'm in the worldmundo, you know.
166
447000
2000
Tenho esta experiência, estou no mundo, sabem.
07:54
I can't be just a bunchgrupo of cellscélulas. Well, you know,
167
449000
2000
Não posso ser apenas um conjunto de células. Bem, sabem,
07:56
people used to believe there was a life forceforça to be livingvivo,
168
451000
3000
as pessoas pensavam que existia uma força viva para se estar vivo,
07:59
and we now know that's really not trueverdade at all.
169
454000
2000
e agora sabemos que isso não é nada verdade.
08:01
And there's really no evidenceevidência that saysdiz -- well, other than people
170
456000
3000
E não há nenhuma prova que diga, bem, aparte das pessoas
08:04
just have disbeliefdescrença that cellscélulas can do what they do.
171
459000
2000
que não acreditam que as células possam fazer o que fazem.
08:06
And so, if some people have fallencaído into the pitpoço of metaphysicalmetafísico dualismdualismo,
172
461000
3000
E portanto, se alguém caiu no abismo do dualismo metafisico,
08:09
some really smartinteligente people, too, but we can rejectrejeitar all that.
173
464000
3000
algumas pessoas mesmo muito espertas, também, mas podemos rejeitar tudo isso.
08:12
(LaughterRiso)
174
467000
2000
(Risos)
08:14
No, I'm going to tell you there's something elseoutro,
175
469000
3000
Não, vou dizer-vos que há outra coisa,
08:17
and it's really fundamentalfundamental, and this is what it is:
176
472000
2000
que é realmente fundamental, e é isto:
08:19
there's anotheroutro reasonrazão why we don't have a good braincérebro theoryteoria,
177
474000
2000
há outra razão pela qual não temos uma boa teoria do cérebro,
08:21
and it's because we have an intuitiveintuitivo, strongly-heldfortemente-realizada,
178
476000
3000
e é porque temos um assumpção intuitiva e forte mas incorrecta,
08:24
but incorrectincorreta assumptionsuposição that has preventedimpediu us from seeingvendo the answerresponda.
179
479000
5000
que nos impede de ver mais além.
08:29
There's something we believe that just, it's obviousóbvio, but it's wrongerrado.
180
484000
3000
Há coisas em que acreditamos estarem obviamente certas, mas estão erradas.
08:32
Now, there's a historyhistória of this in scienceCiência and before I tell you what it is,
181
487000
4000
Ora, há uma historia semelhante na ciência que eu vos vou contar,
08:36
I'm going to tell you a bitpouco about the historyhistória of it in scienceCiência.
182
491000
2000
vou contar-vos a sua historia na ciência.
08:38
You look at some other scientificcientífico revolutionsrevoluções,
183
493000
2000
Se olharmos para outras revoluções cientificas,
08:40
and this casecaso, I'm talkingfalando about the solarsolar systemsistema, that's CopernicusCopérnico,
184
495000
2000
e neste caso falo do sistema solar, e de Copérnico,
08:42
Darwin'sDarwin evolutionevolução, and tectonictectônicas platesplacas, that's WegenerWegener.
185
497000
3000
evolução de Darwin e placas tectónicas, de Wegener.
08:45
They all have a lot in commoncomum with braincérebro scienceCiência.
186
500000
3000
Elas tem muito em comum com a ciência do cérebro.
08:48
First of all, they had a lot of unexplainedinexplicável datadados. A lot of it.
187
503000
3000
Em primeiro lugar, tinham muitos dados sem explicação. Muitos.
08:51
But it got more manageablegerenciáveis onceuma vez they had a theoryteoria.
188
506000
3000
Mas ficaram mais compreensíveis a partir do momento em que eles elaboraram uma teoria.
08:54
The bestmelhor mindsmentes were stumpedperplexo -- really, really smartinteligente people.
189
509000
3000
As melhores cabeças estavam bloqueadas, pessoas muito, mesmo muito inteligentes.
08:57
We're not smartermais esperto now than they were then.
190
512000
2000
Não somos mais espertos do que eles eram.
08:59
It just turnsgira out it's really hardDifícil to think of things,
191
514000
2000
Apenas acontece que é muito difícil pensar sobre alguma coisa,
09:01
but onceuma vez you've thought of them, it's kindtipo of easyfácil to understandCompreendo it.
192
516000
2000
mas uma vez bem pensado, é bastante mais fácil entende-la.
09:03
My daughtersfilhas understoodEntendido these threetrês theoriesteorias
193
518000
2000
As minhas filhas entenderam estas três teorias
09:05
in theirdeles basicbásico frameworkestrutura by the time they were in kindergartenjardim de infância.
194
520000
3000
nas suas linhas gerais enquanto andavam no infantário.
09:08
And now it's not that hardDifícil, you know, here'saqui está the applemaçã, here'saqui está the orangelaranja,
195
523000
3000
E agora não é muito difícil, sabem, aqui está a maça, aqui está a laranja,
09:11
you know, the EarthTerra goesvai around, that kindtipo of stuffcoisa.
196
526000
3000
sabem, a terra roda, e isso tudo.
09:14
FinallyFinalmente, anotheroutro thing is the answerresponda was there all alongao longo,
197
529000
2000
Finalmente, outra coisa é que a resposta esteve lá o tempo todo,
09:16
but we kindtipo of ignoredignorado it because of this obviousóbvio thing, and that's the thing.
198
531000
3000
mas foi ignorada por razoes óbvias, e essa é a realidade.
09:19
It was an intuitiveintuitivo, strong-heldforte-realizada beliefcrença that was wrongerrado.
199
534000
3000
Por uma forte convicção intuitiva de que estava errada.
09:22
In the casecaso of the solarsolar systemsistema, the ideaidéia that the EarthTerra is spinningfiação
200
537000
3000
No caso do sistema solar, a ideia de que a terra está a rodar
09:25
and the surfacesuperfície of the EarthTerra is going like a thousandmil milesmilhas an hourhora,
201
540000
3000
e a superfície da terra desloca-se a vários milhares de quilómetros por hora,
09:28
and the EarthTerra is going throughatravés the solarsolar systemsistema about a millionmilhão milesmilhas an hourhora.
202
543000
3000
e a terra desloca-se pelo sistema solar a um milhão de quilómetros por hora.
09:31
This is lunacyloucura. We all know the EarthTerra isn't movingmovendo-se.
203
546000
2000
Isto é de lunático. Todos sabemos que a terra não se move.
09:33
Do you feel like you're movingmovendo-se a thousandmil milesmilhas an hourhora?
204
548000
2000
Sentem como se estivessem a viajar a milhares de quilómetros por hora?
09:35
Of coursecurso not. You know, and someonealguém who said,
205
550000
2000
Claro que não. Sabem, e se alguém dissesse,
09:37
well, it was spinningfiação around in spaceespaço and it's so hugeenorme,
206
552000
2000
bem, que estava a rodar no espaço e que é enorme,
09:39
they would lockbloqueio you up, and that's what they did back then.
207
554000
2000
eles trancavam-a, e foi o que fizeram naquele tempo.
09:41
(LaughterRiso)
208
556000
1000
(Risos)
09:42
So it was intuitiveintuitivo and obviousóbvio. Now what about evolutionevolução?
209
557000
3000
Portanto era intuitivo e óbvio. E quanto à evolução?
09:45
Evolution'sEvolução the samemesmo thing. We taughtensinado our kidsfilhos, well, the BibleBíblia saysdiz,
210
560000
3000
A evolução é a mesma coisa. Ensinamos aos nossos filhos, bem, a bíblia diz,
09:48
you know, God createdcriada all these speciesespécies, catsgatos are catsgatos, dogscães are dogscães,
211
563000
2000
como sabem, Deus criou todas as espécies, gatos são gatos, cães são cães,
09:50
people are people, plantsplantas are plantsplantas, they don't changemudança.
212
565000
3000
pessoas são pessoas, plantas são plantas, eles não mudam.
09:53
NoahNoah put them on the ArkArca in that orderordem, blahbla, blahbla, blahbla. And, you know,
213
568000
4000
Noé pôs-los na Arca por aquela ordem, blá, blá, blá. E, sabem,
09:57
the factfacto is, if you believe in evolutionevolução, we all have a commoncomum ancestorancestral,
214
572000
4000
o facto é que, se acreditam na evolução, que todos temos um antecessor comum,
10:01
and we all have a commoncomum ancestryascendência with the plantplantar in the lobbylobby.
215
576000
3000
e todos temos um ancestral comum com a planta da entrada.
10:04
This is what evolutionevolução tellsconta us. And, it's trueverdade. It's kindtipo of unbelievableinacreditável.
216
579000
3000
Isto é o que a evolução nos diz. E, é verdade. É mais ou menos inacreditável.
10:07
And the samemesmo thing about tectonictectônicas platesplacas, you know?
217
582000
3000
E é o mesmo sobre as placas tectónicas, percebem?
10:10
All the mountainsmontanhas and the continentscontinentes are kindtipo of floatingflutuando around
218
585000
2000
Todas as montanhas e continentes estão mais ou menos a flutuar
10:12
on toptopo of the EarthTerra, you know? It's like, it doesn't make any sensesentido.
219
587000
4000
por cima da terra, certo? É como: isso não faz sentido nenhum.
10:16
So what is the intuitiveintuitivo, but incorrectincorreta assumptionsuposição,
220
591000
4000
Portanto qual é a intuição, mas assumpção incorrecta,
10:20
that's keptmanteve us from understandingcompreensão brainscérebro?
221
595000
2000
que nos impediu de entender o cérebro?
10:22
Now I'm going to tell it to you, and it's going to seemparecem obviousóbvio that that is correctum lugar para outro,
222
597000
2000
Agora vou dizer-vos, e vai parecer óbvio que está correcto,
10:24
and that's the pointponto, right? Then I'm going to have to make an argumentargumento
223
599000
2000
e é esse o objectivo, certo? Então tenho de argumentar
10:26
why you're incorrectincorreta about the other assumptionsuposição.
224
601000
2000
do porquê de estarem errados sobre a outra assumpção.
10:28
The intuitiveintuitivo but obviousóbvio thing is that somehowde alguma forma intelligenceinteligência
225
603000
3000
A coisa intuitiva mas óbvia é de que de certa forma a inteligência
10:31
is defineddefiniram by behaviorcomportamento,
226
606000
2000
é definida por comportamento,
10:33
that we are intelligentinteligente because of the way that we do things
227
608000
2000
de que somos inteligentes por causa de como fazemos coisas
10:35
and the way we behavecomporte-se intelligentlyinteligentemente, and I'm going to tell you that's wrongerrado.
228
610000
3000
e de como nos comportamos inteligentemente, e vou-vos provar que está errado.
10:38
What it is is intelligenceinteligência is defineddefiniram by predictionpredição.
229
613000
2000
O que se passa é que a inteligência é definida pela predição.
10:40
And I'm going to work you throughatravés this in a fewpoucos slidesslides here,
230
615000
3000
E vou levar-vos através de alguns slides,
10:43
give you an exampleexemplo of what this meanssignifica. Here'sAqui é a systemsistema.
231
618000
4000
dar-vos um exemplo do que isto significa. Aqui esta um sistema.
10:47
EngineersEngenheiros like to look at systemssistemas like this. ScientistsCientistas like to look at systemssistemas like this.
232
622000
3000
Os engenheiros gostam de desenhar os sistemas assim. Os cientistas gostam de desenhar os sistemas assim.
10:50
They say, well, we have a thing in a boxcaixa, and we have its inputsinsumos and its outputssaídas.
233
625000
3000
Eles dizem, bem, temos uma coisa numa caixa, e temos as suas entradas e saídas.
10:53
The AIAI people said, well, the thing in the boxcaixa is a programmableprogramável computercomputador
234
628000
3000
As pessoas da IA dizem, bem, a coisa na caixa é um computador programável
10:56
because that's equivalentequivalente to a braincérebro, and we'llbem feedalimentação it some inputsinsumos
235
631000
2000
porque é equivalente a um cérebro, e fornecemos-lhe algumas entradas
10:58
and we'llbem get it to do something, have some behaviorcomportamento.
236
633000
2000
e conseguimos pôr-lo a fazer algo, a ter algum tipo de comportamento.
11:00
And AlanAlan TuringTuring defineddefiniram the TuringTuring testteste, whichqual is essentiallyessencialmente sayingdizendo,
237
635000
3000
E Alan Turing definiu o teste Turing, que defende essencialmente,
11:03
we'llbem know if something'salgumas coisas intelligentinteligente if it behavescomporta-se identicalidêntico to a humanhumano.
238
638000
3000
que podemos saber se algo é inteligente se o seu comportamento for idêntico ao comportamento humano.
11:06
A behavioralcomportamentais metricmétrica of what intelligenceinteligência is,
239
641000
3000
Uma medida comportamental do que é a inteligência,
11:09
and this has stuckpreso in our mindsmentes for a long periodperíodo of time.
240
644000
3000
e isto ficou entalado nas nossas mentes por muito tempo.
11:12
RealityRealidade thoughApesar, I call it realreal intelligenceinteligência.
241
647000
2000
À realidade, eu chamo-lhe inteligência real.
11:14
RealReal intelligenceinteligência is builtconstruído on something elseoutro.
242
649000
2000
Inteligência real é feita de outra coisa.
11:16
We experienceexperiência the worldmundo throughatravés a sequenceseqüência of patternspadrões, and we storeloja them,
243
651000
4000
Experimentamos o mundo através de uma sequência de padrões, que guardamos,
11:20
and we recallrecordar them. And when we recallrecordar them, we matchpartida them up
244
655000
3000
e voltamos a chamar. E quando as chamamos, compara-mo-las
11:23
againstcontra realityrealidade, and we're makingfazer predictionsPrevisões all the time.
245
658000
4000
com a realidade, e estamos a fazer previsões o tempo todo.
11:27
It's an eternaleterna metricmétrica. There's an eternaleterna metricmétrica about us sortordenar of sayingdizendo,
246
662000
3000
É uma medida eterna. Existe uma medida eterna em nós podemos dizer,
11:30
do we understandCompreendo the worldmundo? Am I makingfazer predictionsPrevisões? And so on.
247
665000
3000
entendemos o mundo? Estarei a fazer predições? E por ai fora.
11:33
You're all beingser intelligentinteligente right now, but you're not doing anything.
248
668000
2000
Vocês estão todos a ser inteligentes neste momento, mas não estão a fazer nada.
11:35
Maybe you're scratchingcoçar yourselfvocê mesmo, or pickingescolhendo your nosenariz,
249
670000
2000
Talvez estejam a coçar-se, ou a meter o dedo no nariz,
11:37
I don't know, but you're not doing anything right now,
250
672000
2000
não sei, mas não estão a fazer nada neste momento,
11:39
but you're beingser intelligentinteligente; you're understandingcompreensão what I'm sayingdizendo.
251
674000
3000
mas estão a ser inteligentes, estão a entender o que eu digo.
11:42
Because you're intelligentinteligente and you speakfalar EnglishInglês,
252
677000
2000
Porque são inteligentes e falam inglês,
11:44
you know what wordpalavra is at the endfim of this -- (SilenceSilêncio)
253
679000
1000
e sabem que palavra existe no fim desta -- (Silencio)
11:45
sentencesentença.
254
680000
2000
frase.
11:47
The wordpalavra cameveio into you, and you're makingfazer these predictionsPrevisões all the time.
255
682000
3000
A palavra surgiu-vos, e vocês estão a fazer estas previsões o tempo todo.
11:50
And then, what I'm sayingdizendo is,
256
685000
2000
E então, o que quero dizer é,
11:52
is that the eternaleterna predictionpredição is the outputsaída in the neocortexneocórtex.
257
687000
2000
é que a predição eterna é a saída do neocortex.
11:54
And that somehowde alguma forma, predictionpredição leadsconduz to intelligentinteligente behaviorcomportamento.
258
689000
3000
E que de alguma forma, a predição leva ao comportamento inteligente.
11:57
And here'saqui está how that happensacontece. Let's startcomeçar with a non-intelligentNão-inteligente braincérebro.
259
692000
3000
E aqui está como isso acontece. Comecemos com um cérebro não inteligente.
12:00
Well I'll argueargumentar a non-intelligentNão-inteligente braincérebro, we got holdaguarde of an oldvelho braincérebro,
260
695000
4000
Bem, eu afirmo que um cérebro não inteligente, arranjamos um velho cérebro,
12:04
and we're going to say it's like a non-mammalNão-mamífero, like a reptileréptil,
261
699000
3000
e vamos dizer que não é de mamífero, mas de um réptil,
12:07
so I'll say, an alligatorjacaré; we have an alligatorjacaré.
262
702000
2000
portanto digamos, de crocodilo, temos um crocodilo.
12:09
And the alligatorjacaré has some very sophisticatedsofisticado sensessentidos.
263
704000
3000
E o crocodilo tem sentidos muito sofisticados.
12:12
It's got good eyesolhos and earsorelhas and touchtocar sensessentidos and so on,
264
707000
3000
Tem bons olhos e ouvidos e tacto e outros
12:15
a mouthboca and a nosenariz. It has very complexcomplexo behaviorcomportamento.
265
710000
4000
uma boca e um nariz. Tem um comportamento muito complexo.
12:19
It can runcorre and hideocultar. It has fearsmedos and emotionsemoções. It can eatcomer you, you know.
266
714000
4000
Pode correr e esconder-se. Tem medos e emoções. Pode comer-vos, vocês percebem.
12:23
It can attackataque. It can do all kindstipos of stuffcoisa.
267
718000
4000
Pode atacar. Pode fazer muitos tipos de coisas.
12:27
But we don't considerconsiderar the alligatorjacaré very intelligentinteligente, not like in a humanhumano sortordenar of way.
268
722000
5000
Mas não consideramos o crocodilo muito inteligente, não de uma forma humana.
12:32
But it has all this complexcomplexo behaviorcomportamento already.
269
727000
2000
Mas já tem este comportamento complexo.
12:34
Now, in evolutionevolução, what happenedaconteceu?
270
729000
2000
Ora, durante a evolução, o que aconteceu?
12:36
First thing that happenedaconteceu in evolutionevolução with mammalsmamíferos,
271
731000
3000
A primeira coisa que aconteceu na evolução dos mamíferos,
12:39
we startedcomeçado to developdesenvolve a thing calledchamado the neocortexneocórtex.
272
734000
2000
começá-mos a desenvolver uma coisa chamada neocortex.
12:41
And I'm going to representrepresentar the neocortexneocórtex here,
273
736000
2000
E vou apresentar o neocortex aqui,
12:43
by this boxcaixa that's stickingaderindo on toptopo of the oldvelho braincérebro.
274
738000
2000
por esta caixa que esta posta por cima do velho cérebro.
12:45
NeocortexNeocórtex meanssignifica newNovo layercamada. It is a newNovo layercamada on toptopo of your braincérebro.
275
740000
3000
Neocortex significa nova camada. É uma nova camada por cima do vosso cérebro.
12:48
If you don't know it, it's the wrinklyenrugado thing on the toptopo of your headcabeça that,
276
743000
3000
Se não o sabem, é a coisa enrugada no cimo da cabeça que,
12:51
it's got wrinklyenrugado because it got shovedempurrado in there and doesn't fitem forma.
277
746000
3000
ficou enrugada porque foi enfiada ali dentro mas não cabe.
12:54
(LaughterRiso)
278
749000
1000
(Risos)
12:55
No, really, that's what it is. It's about the sizeTamanho of a tablemesa napkinguardanapo.
279
750000
2000
Não, realmente, é mesmo isso. Tem o tamanho de uma toalha de mesa.
12:57
And it doesn't fitem forma, so it getsobtém all wrinklyenrugado. Now look at how I've drawndesenhado this here.
280
752000
3000
E não cabe, por isso fica toda enrugada. Agora olhem como desenhei isto aqui.
13:00
The oldvelho braincérebro is still there. You still have that alligatorjacaré braincérebro.
281
755000
4000
O velho cérebro ainda ali está. Ainda temos o cérebro de crocodilo.
13:04
You do. It's your emotionalemocional braincérebro.
282
759000
2000
Temos. É o cérebro emocional.
13:06
It's all those things, and all those gutintestino reactionsreações you have.
283
761000
3000
É todas aquelas coisas, e todas as reacções viscerais que temos.
13:09
And on toptopo of it, we have this memorymemória systemsistema calledchamado the neocortexneocórtex.
284
764000
3000
E por cima dele, temos este sistema de memória chamado neocortex.
13:12
And the memorymemória systemsistema is sittingsentado over the sensorysensorial partparte of the braincérebro.
285
767000
4000
E o sistema de memória assenta sobre a parte sensorial do cérebro.
13:16
And so as the sensorysensorial inputentrada comesvem in and feedsfeeds from the oldvelho braincérebro,
286
771000
3000
E portanto assim como as entradas sensoriais alimentam o velho cérebro,
13:19
it alsoAlém disso goesvai up into the neocortexneocórtex. And the neocortexneocórtex is just memorizingmemorizando.
287
774000
4000
também vão para cima para o neocortex. E o neocortex está apenas a memorizar.
13:23
It's sittingsentado there sayingdizendo, ahah, I'm going to memorizememorizar all the things that are going on:
288
778000
4000
Está ali apenas a dizer, ah, vou memorizar todas as coisas que se passam,
13:27
where I've been, people I've seenvisto, things I've heardouviu, and so on.
289
782000
2000
onde estive, pessoas que vi, coisas que ouvi, e assim.
13:29
And in the futurefuturo, when it sees something similarsemelhante to that again,
290
784000
4000
E no futuro, quando vê qualquer coisa semelhante outra vez,
13:33
so in a similarsemelhante environmentmeio Ambiente, or the exactexato samemesmo environmentmeio Ambiente,
291
788000
3000
num contexto semelhante, ou exactamente no mesmo contexto,
13:36
it'llvai playToque it back. It'llEle vai startcomeçar playingjogando it back.
292
791000
2000
volta a passá-lo de novo. Começa a passá-lo outra vez.
13:38
Oh, I've been here before. And when you've been here before,
293
793000
2000
Oh, já aqui estive antes. E quando já lá estive antes,
13:40
this happenedaconteceu nextPróximo. It allowspermite you to predictprever the futurefuturo.
294
795000
3000
isto aconteceu a seguir. Permite-nos prever o futuro.
13:43
It allowspermite you to, literallyliteralmente it feedsfeeds back the signalssinais into your braincérebro;
295
798000
4000
Permite-nos, literalmente re-injectar os sinais no cérebro,
13:47
they'lleles vão let you see what's going to happenacontecer nextPróximo,
296
802000
2000
para permitem ver o que vai acontecer a seguir,
13:49
will let you hearouvir the wordpalavra "sentencesentença" before I said it.
297
804000
3000
permitem ouvir a palavra antes de eu a dizer.
13:52
And it's this feedingalimentação back into the oldvelho braincérebro
298
807000
3000
E é esta realimentação no velho cérebro
13:55
that'llisso vai allowpermitir you to make very more intelligentinteligente decisionsdecisões.
299
810000
3000
que nos permite fazer decisões muito mais inteligentes.
13:58
This is the mosta maioria importantimportante slidedeslizar of my talk, so I'll dwellHabitai on it a little bitpouco.
300
813000
3000
Este é o slide mais importante da minha apresentação, por isso vou insistir nele mais um pouco.
14:01
And so, all the time you say, oh, I can predictprever the things.
301
816000
4000
E por isso, todo o tempo que dizemos, oh, eu consigo prever as coisas.
14:05
And if you're a ratrato and you go throughatravés a mazeLabirinto, and then you learnaprender the mazeLabirinto,
302
820000
3000
E se somos um rato e atravessamos um labirinto, e aprendemos o caminho,
14:08
the nextPróximo time you're in a mazeLabirinto, you have the samemesmo behaviorcomportamento,
303
823000
2000
a próxima vez que estivermos no labirinto, temos o mesmo comportamento,
14:10
but all of a suddende repente, you're smartermais esperto
304
825000
2000
mas de repente, somos mais espertos
14:12
because you say, oh, I recognizereconhecer this mazeLabirinto, I know whichqual way to go,
305
827000
3000
porque dizemos, oh, reconheço este labirinto, sei qual o caminho a seguir,
14:15
I've been here before, I can envisionenVision the futurefuturo. And that's what it's doing.
306
830000
3000
já aqui estive antes, posso prever o futuro. E é o que está a fazer.
14:18
In humanshumanos -- by the way, this is trueverdade for all mammalsmamíferos;
307
833000
3000
Nos humanos, já agora, isto é verdade para todos os mamíferos,
14:21
it's trueverdade for other mammalsmamíferos -- and in humanshumanos, it got a lot worsepior.
308
836000
2000
é verdade para outros mamíferos, e nos humanos, tornou-se muito pior.
14:23
In humanshumanos, we actuallyna realidade developeddesenvolvido the frontfrente partparte of the neocortexneocórtex
309
838000
3000
Nos humanos, efectivamente desenvolvemos a parte frontal do neocortex
14:26
calledchamado the anterioranterior partparte of the neocortexneocórtex. And naturenatureza did a little tricktruque.
310
841000
4000
chamada a parte anterior do noecortex. E a natureza fez um pequeno truque.
14:30
It copiedcopiado the posteriorposterior partparte, the back partparte, whichqual is sensorysensorial,
311
845000
2000
Copiou a parte posterior, a parte de trás, que é sensorial,
14:32
and put it in the frontfrente partparte.
312
847000
2000
e pô-la na parte frontal.
14:34
And humanshumanos uniquelyunicamente have the samemesmo mechanismmecanismo on the frontfrente,
313
849000
2000
E unicamente os humanos têm o mesmo mecanismo na frente,
14:36
but we use it for motormotor controlao controle.
314
851000
2000
mas utiliza-mo-lo para a parte motora.
14:38
So we are now ablecapaz to make very sophisticatedsofisticado motormotor planningplanejamento, things like that.
315
853000
3000
Portanto somos agora capazes de planear movimentos muito sofisticados, coisas assim.
14:41
I don't have time to get into all this, but if you want to understandCompreendo how a braincérebro workstrabalho,
316
856000
3000
Não tenho tempo para entrar em detalhe, mas se querem entender como funciona o cérebro,
14:44
you have to understandCompreendo how the first partparte of the mammaliandos mamíferos neocortexneocórtex workstrabalho,
317
859000
3000
têm de entender como funciona a primeira parte do neocortex de um mamífero,
14:47
how it is we storeloja patternspadrões and make predictionsPrevisões.
318
862000
2000
como guardamos sequências e fazemos previsões.
14:49
So let me give you a fewpoucos examplesexemplos of predictionsPrevisões.
319
864000
3000
Portanto deixem-me dar-vos alguns exemplos de previsões.
14:52
I already said the wordpalavra "sentencesentença." In musicmúsica,
320
867000
2000
Já disse a palavra frase. Em musica,
14:54
if you've heardouviu a songcanção before, if you heardouviu JillJill singcantar those songsmúsicas before,
321
869000
3000
se ouviram a canção antes, se ouviram Jill cantar aquelas canções antes,
14:57
when she singscanta them, the nextPróximo noteNota popsaparece into your headcabeça already --
322
872000
3000
quando ela as canta, a próxima nota aparece na vossa cabeça --
15:00
you anticipateantecipar it as you're going. If it was an albumálbum of musicmúsica,
323
875000
2000
vocês antecipam-na à medida. Se fosse um álbum de música,
15:02
the endfim of one albumálbum, the nextPróximo songcanção popsaparece into your headcabeça.
324
877000
3000
no fim de uma canção, a próxima canção aparece na vossa cabeça.
15:05
And these things happenacontecer all the time. You're makingfazer these predictionsPrevisões.
325
880000
2000
E estas coisas acontecem todo o tempo. Vocês fazem estas previsões.
15:07
I have this thing calledchamado the alteredalterado doorporta thought experimentexperimentar.
326
882000
3000
Eu tenho esta coisa chamada experiência do pensamento da porta alterada.
15:10
And the alteredalterado doorporta thought experimentexperimentar saysdiz, you have a doorporta at home,
327
885000
3000
E a experiência do pensamento da porta alterada é, têm uma porta em casa,
15:13
and when you're here, I'm changingmudando it, I've got a guy
328
888000
3000
e enquanto estão aqui eu mudo-a, tenho alguém
15:16
back at your housecasa right now, movingmovendo-se the doorporta around,
329
891000
2000
na vossa casa neste momento, mudando a porta,
15:18
and they're going to take your doorknobmaçaneta and movemover it over two inchespolegadas.
330
893000
2000
e ele vai mudar o puxador da porta dois centímetros.
15:20
And when you go home tonightesta noite, you're going to put your handmão out there,
331
895000
2000
E quando forem para casa hoje, vão pôr a vossa mão ali,
15:22
and you're going to reachalcance for the doorknobmaçaneta and you're going to noticeaviso prévio
332
897000
2000
e vão alcançar o puxador da porta e vão notar
15:24
it's in the wrongerrado spotlocal, and you'llvocê vai go, whoaUau, something happenedaconteceu.
333
899000
3000
que está no local errado, e vocês dizem, uah, algo aconteceu.
15:27
It maypode take a secondsegundo to figurefigura out what it was, but something happenedaconteceu.
334
902000
2000
Pode levar um segundo a perceber o que foi, mas algo aconteceu.
15:29
Now I could changemudança your doorknobmaçaneta in other waysmaneiras.
335
904000
2000
Agora eu podia mudar o puxador da porta de outras formas.
15:31
I can make it largermaior or smallermenor, I can changemudança its brasslatão to silverprata,
336
906000
2000
Posso fazê-lo maior ou menor, posso mudar o material para prata,
15:33
I could make it a leveralavanca de. I can changemudança your doorporta, put colorscores on;
337
908000
2000
posso fazer uma alavanca. Posso mudar a vossa porta, por cores nela,
15:35
I can put windowsjanelas in. I can changemudança a thousandmil things about your doorporta,
338
910000
3000
posso por janelas nela. Posso mudar centenas de coisas na vossa porta,
15:38
and in the two secondssegundos you take to openaberto your doorporta,
339
913000
2000
e nos dois segundos que levam a abrir a porta,
15:40
you're going to noticeaviso prévio that something has changedmudou.
340
915000
3000
irão notar que algo mudou.
15:43
Now, the engineeringEngenharia approachabordagem to this, the AIAI approachabordagem to this,
341
918000
2000
Ora, a abordagem de engenharia a isto, a abordagem IA a isto,
15:45
is to buildconstruir a doorporta databasebase de dados. It has all the doorporta attributesatributos.
342
920000
3000
é construir uma base de dados de portas. Tem todos os atributos de portas.
15:48
And as you go up to the doorporta, you know, let's checkVerifica them off one at time.
343
923000
3000
E quando chegam à porta, sabem, vamos verificá-las todas uma de cada vez.
15:51
DoorPorta, doorporta, doorporta, you know, colorcor, you know what I'm sayingdizendo.
344
926000
2000
Porta, porta, porta, sabem, cor, sabem o que quero dizer.
15:53
We don't do that. Your braincérebro doesn't do that.
345
928000
2000
Nós não fazemos isso. O vosso cérebro não faz isso.
15:55
What your braincérebro is doing is makingfazer constantconstante predictionsPrevisões all the time
346
930000
2000
O que o vosso cérebro faz é previsões constantes o tempo todo
15:57
about what is going to happenacontecer in your environmentmeio Ambiente.
347
932000
2000
sobre o que vai acontecer no vosso contexto.
15:59
As I put my handmão on this tablemesa, I expectEspero to feel it stop.
348
934000
3000
Quando ponho a minha mão nesta mesa, espero senti-la parar.
16:02
When I walkandar, everycada stepdegrau, if I missedperdido it by an eighthoitavo of an inchpolegada,
349
937000
3000
Quando ando, por cada passo, se falho apenas um oitavo de centímetro,
16:05
I'll know something has changedmudou.
350
940000
2000
notarei que alguma coisa mudou.
16:07
You're constantlyconstantemente makingfazer predictionsPrevisões about your environmentmeio Ambiente.
351
942000
2000
Vocês estão constantemente a fazer previsões sobre o vosso contexto.
16:09
I'll talk about visionvisão here brieflybrevemente. This is a picturecenário of a womanmulher.
352
944000
3000
Vou falar brevemente de visão. Isto é uma imagem de uma mulher.
16:12
And when you look at people, your eyesolhos are caughtapanhado
353
947000
2000
E quando vocês olham para uma pessoa, os vossos olhos são apanhados
16:14
over at two to threetrês timesvezes a secondsegundo.
354
949000
1000
duas a três vezes por segundo.
16:15
You're not awareconsciente of this, but your eyesolhos are always movingmovendo-se.
355
950000
2000
Vocês não se apercebem disto, mas os vossos olhos estão sempre a mexer.
16:17
And so when you look at someone'sde alguém facecara,
356
952000
2000
E portanto quando olham para a cara de alguém,
16:19
you'dvocê gostaria typicallytipicamente go from eyeolho to eyeolho to eyeolho to nosenariz to mouthboca.
357
954000
2000
vocês tipicamente vão de olho para olho para olho para nariz para a boca.
16:21
Now, when your eyeolho movesse move from eyeolho to eyeolho,
358
956000
2000
Ora, quando os vossos olhos vão de olho para olho,
16:23
if there was something elseoutro there like, a nosenariz,
359
958000
2000
se estivesse ali alguma outra coisa como um nariz,
16:25
you'dvocê gostaria see a nosenariz where an eyeolho is supposedsuposto to be,
360
960000
2000
se vissem um nariz onde um olho deveria estar,
16:27
and you'dvocê gostaria go, oh shitmerda, you know --
361
962000
3000
e vocês diriam, oh merda, sabem --
16:30
(LaughterRiso)
362
965000
1000
(Risos)
16:31
There's something wrongerrado about this personpessoa.
363
966000
2000
Há algo de errado com esta pessoa.
16:33
And that's because you're makingfazer a predictionpredição.
364
968000
2000
E isto porque estão a fazer uma previsão.
16:35
It's not like you just look over there and say, what am I seeingvendo now?
365
970000
2000
Não é como se tivessem olhado e dito, o que estou a ver agora?
16:37
A nosenariz, that's okay. No, you have an expectationexpectativa of what you're going to see.
366
972000
3000
Um nariz, está certo. Não, vocês têm uma expectativa do que vão ver.
16:40
(LaughterRiso)
367
975000
1000
(Risos)
16:41
EveryCada singlesolteiro momentmomento. And finallyfinalmente, let's think about how we testteste intelligenceinteligência.
368
976000
4000
A todo o momento. E finalmente, pensemos como testamos a inteligência.
16:45
We testteste it by predictionpredição. What is the nextPróximo wordpalavra in this, you know?
369
980000
3000
Testa-mo-la por previsão. Qual é a palavra seguinte aqui, sabem?
16:48
This is to this as this is to this. What is the nextPróximo numbernúmero in this sentencesentença?
370
983000
3000
Isto é para isto como isto é para isto. Qual é o próximo número nesta frase?
16:51
Here'sAqui é threetrês visionsvisões of an objectobjeto.
371
986000
2000
Aqui estão três perspectivas de um objecto.
16:53
What's the fourthquarto one? That's how we testteste it. It's all about predictionpredição.
372
988000
4000
Qual é a quarta? É assim que a testamos. É tudo sobre previsão.
16:57
So what is the recipereceita for braincérebro theoryteoria?
373
992000
3000
Portanto qual é a receita para uma teoria do cérebro?
17:00
First of all, we have to have the right frameworkestrutura.
374
995000
3000
Em primeiro lugar, temos de ter o 'framework' certo.
17:03
And the frameworkestrutura is a memorymemória frameworkestrutura,
375
998000
2000
E o 'framework' é um 'framework' de memória,
17:05
not a computationcomputação or behaviorcomportamento frameworkestrutura. It's a memorymemória frameworkestrutura.
376
1000000
2000
não um 'framework' de computação ou comportamento. É um 'framework' de memória.
17:07
How do you storeloja and recallrecordar these sequencessequências de or patternspadrões? It's spatio-temporalespaço-temporal patternspadrões.
377
1002000
4000
Como guardam e chamam todas estas sequências? São sequências espacio-temporais.
17:11
Then, if in that frameworkestrutura, you take a bunchgrupo of theoreticiansteóricos.
378
1006000
3000
Depois, se nessa 'framework', tiverem um grupo de teóricos.
17:14
Now biologistsbiólogos generallygeralmente are not good theoreticiansteóricos.
379
1009000
2000
Ora os biólogos geralmente não são bons teóricos.
17:16
It's not always trueverdade, but in generalgeral, there's not a good historyhistória of theoryteoria in biologybiologia.
380
1011000
4000
Nem sempre é verdade, mas em geral, não há grande história de teoria em biologia.
17:20
So I foundencontrado the bestmelhor people to work with are physicistsfísicos,
381
1015000
3000
Eu acho que as melhores pessoas com quem trabalhar são os físicos,
17:23
engineersengenheiros and mathematiciansmatemáticos, who tendtende to think algorithmicallyatravés de algoritmos.
382
1018000
3000
engenheiros e matemáticos, que têm tendência a pensar algoritmicamente.
17:26
Then they have to learnaprender the anatomyanatomia, and they'veeles têm got to learnaprender the physiologyfisiologia.
383
1021000
3000
Depois têm de aprender a anatomia, e têm de aprender a fisiologia.
17:29
You have to make these theoriesteorias very realisticrealista in anatomicalanatômico termstermos.
384
1024000
4000
Têm de fazer essas teorias muito realistas em termos anatómicos.
17:33
AnyoneQualquer um who getsobtém up and tellsconta you theirdeles theoryteoria about how the braincérebro workstrabalho
385
1028000
4000
Alguém que se ergue e vos fala da sua teoria de como o cérebro funciona
17:37
and doesn't tell you exactlyexatamente how it's workingtrabalhando in the braincérebro
386
1032000
2000
e não vos diz exactamente o que se passo dentro do cérebro
17:39
and how the wiringfiação workstrabalho in the braincérebro, it is not a theoryteoria.
387
1034000
2000
e como as ligações funcionam dentro do cérebro, não é uma teoria.
17:41
And that's what we're doing at the RedwoodPau-Brasil NeuroscienceNeurociência InstituteInstituto.
388
1036000
3000
E é o que estamos a fazer no 'Redwood Neuroscience Institute'.
17:44
I would love to have more time to tell you we're makingfazer fantasticfantástico progressprogresso in this thing,
389
1039000
4000
Eu adorava ter mais tempo para vos contar que estamos a fazer progressos fantásticos nisto,
17:48
and I expectEspero to be back up on this stageetapa,
390
1043000
2000
e espero estar de volta neste palco,
17:50
maybe this will be some other time in the not too distantdistante futurefuturo and tell you about it.
391
1045000
2000
talvez seja uma outra vez num futuro próximo e falar-vos sobre isso.
17:52
I'm really, really excitedanimado. This is not going to take 50 yearsanos at all.
392
1047000
3000
Estou muito, muito excitado. Isto não vai levar 50 anos.
17:55
So what will braincérebro theoryteoria look like?
393
1050000
2000
Portanto como é que se vai parecer uma teoria do cérebro?
17:57
First of all, it's going to be a theoryteoria about memorymemória.
394
1052000
2000
Em primeiro lugar, vai ser uma teoria sobre memória.
17:59
Not like computercomputador memorymemória. It's not at all like computercomputador memorymemória.
395
1054000
3000
Não como memória de computador. Não tem nada a ver com memória de computador.
18:02
It's very, very differentdiferente. And it's a memorymemória of these very
396
1057000
2000
é muito, muito diferente. E é uma memória dessas
18:04
high-dimensionalde alta dimensão patternspadrões, like the things that come from your eyesolhos.
397
1059000
3000
sequências multi-dimensão, como o que nos chega dos nossos olhos.
18:07
It's alsoAlém disso memorymemória of sequencessequências de.
398
1062000
2000
É também memória de sequências.
18:09
You cannotnão podes learnaprender or recallrecordar anything outsidelado de fora of a sequenceseqüência.
399
1064000
2000
Vocês não podem aprender ou lembrar nada fora de uma sequência.
18:11
A songcanção mustdevo be heardouviu in sequenceseqüência over time,
400
1066000
3000
Uma canção tem de ser ouvida numa sequência através do tempo,
18:14
and you mustdevo playToque it back in sequenceseqüência over time.
401
1069000
3000
e vocês têm de a relembrar numa sequência através do tempo.
18:17
And these sequencessequências de are auto-associativelyautoassociativamente recalledrecordou, so if I see something,
402
1072000
3000
E essas sequências são chamadas por auto-associatividade, se eu vir algo,
18:20
I hearouvir something, it remindslembra me of it, and then it playstocam back automaticallyautomaticamente.
403
1075000
3000
ouvir algo, lembra-me algo, e volta a ser reproduzido automaticamente.
18:23
It's an automaticAutomático playbackreprodução. And predictionpredição of futurefuturo inputsinsumos is the desireddesejado outputsaída.
404
1078000
4000
É uma reprodução automática. E a predição da entrada futura é a saída desejada.
18:27
And as I said, the theoryteoria mustdevo be biologicallybiologicamente accuratepreciso,
405
1082000
3000
E como eu disse, a teoria tem de ser biologicamente exacta,
18:30
it mustdevo be testabletestável, and you mustdevo be ablecapaz to buildconstruir it.
406
1085000
2000
tem de ser testável, e vocês têm de ser capazes de a construir.
18:32
If you don't buildconstruir it, you don't understandCompreendo it. So, one more slidedeslizar here.
407
1087000
4000
Se não a construírem, não a compreendem. Por isso, mais um slide aqui.
18:36
What is this going to resultresultado in? Are we going to really buildconstruir intelligentinteligente machinesmáquinas?
408
1091000
4000
O que é que isto vai resultar? Vamos mesmo construir máquinas inteligentes?
18:40
AbsolutelyAbsolutamente. And it's going to be differentdiferente than people think.
409
1095000
4000
Absolutamente. E vai ser diferente do que as pessoas pensam.
18:44
No doubtdúvida that it's going to happenacontecer, in my mindmente.
410
1099000
3000
Não há duvida de que vai acontecer, na minha mente.
18:47
First of all, it's going to be builtconstruído up, we're going to buildconstruir the stuffcoisa out of siliconsilício.
411
1102000
4000
Em primeiro lugar, vai ser construído, vamos construí-lo de silício.
18:51
The samemesmo techniquestécnicas we use for buildingconstrução siliconsilício computercomputador memoriesrecordações,
412
1106000
3000
As mesmas técnicas que usamos para construir memórias de computador,
18:54
we can use for here.
413
1109000
1000
podemos usar aqui.
18:55
But they're very differentdiferente typestipos of memoriesrecordações.
414
1110000
2000
Mas são tipos de memória muito diferentes.
18:57
And we're going to attachanexar these memoriesrecordações to sensorssensores,
415
1112000
2000
E vamos ligar essas memórias a sensores,
18:59
and the sensorssensores will experienceexperiência real-livereal-live, real-worldmundo real datadados,
416
1114000
3000
e os sensores vão receber dados reais em tempo real,
19:02
and these things are going to learnaprender about theirdeles environmentmeio Ambiente.
417
1117000
2000
e estas coisas vão aprender sobre o seu meio ambiente.
19:04
Now it's very unlikelyimprovável the first things you're going to see are like robotsrobôs.
418
1119000
3000
Ora é muito pouco provável que as primeiras coisas que vamos ver sejam como robôs.
19:07
Not that robotsrobôs aren'tnão são usefulútil and people can buildconstruir robotsrobôs.
419
1122000
3000
Não que os robôs não sejam úteis e que as pessoas não possam construir robôs.
19:10
But the roboticsrobótica partparte is the hardestmais difícil partparte. That's the oldvelho braincérebro. That's really hardDifícil.
420
1125000
4000
Mas a parte robótica é a parte mais difícil. É o cérebro antigo. É realmente difícil.
19:14
The newNovo braincérebro is actuallyna realidade kindtipo of easierMais fácil than the oldvelho braincérebro.
421
1129000
2000
O novo cérebro é de certa forma mais fácil que o antigo.
19:16
So the first thing we're going to do are the things that don't requireexigem a lot of roboticsrobótica.
422
1131000
3000
Portanto a primeira coisa que vamos fazer é aquilo que não necessita de robótica.
19:19
So you're not going to see C-C-3POPO.
423
1134000
2000
Por isso não vão ver o C-3PO.
19:21
You're going to more see things like, you know, intelligentinteligente carscarros
424
1136000
2000
Vão ver coisas como, vocês sabem, carros inteligentes
19:23
that really understandCompreendo what traffictráfego is and what drivingdirigindo is
425
1138000
3000
que realmente percebem o que é o tráfego e o que é conduzir
19:26
and have learnedaprendido that certaincerto typestipos of carscarros with the blinkerspisca-pisca on for halfmetade a minuteminuto
426
1141000
3000
e que aprenderam que certos tipos de carros que têm o pisca ligado há mais de 30 segundos
19:29
probablyprovavelmente aren'tnão são going to turnvirar, things like that.
427
1144000
2000
provavelmente não vão virar, coisas assim.
19:31
(LaughterRiso)
428
1146000
1000
(Risos)
19:32
We can alsoAlém disso do intelligentinteligente securitysegurança systemssistemas.
429
1147000
2000
Podemos também fazer sistemas de segurança inteligentes.
19:34
AnywhereEm qualquer lugar where we're basicallybasicamente usingusando our braincérebro, but not doing a lot of mechanicsmecânica.
430
1149000
4000
Em tudo onde basicamente utilizamos o nosso cérebro, mas sem fazer muita mecânica.
19:38
Those are the things that are going to happenacontecer first.
431
1153000
2000
Essas são as coisas que vão acontecer primeiro.
19:40
But ultimatelyem última análise, the world'sos mundos the limitlimite here.
432
1155000
2000
Mas finalmente, o mundo é o limite aqui.
19:42
I don't know how this is going to turnvirar out.
433
1157000
2000
Não sei o que é que isto vai dar.
19:44
I know a lot of people who inventedinventado the microprocessormicroprocessador
434
1159000
2000
Conheço muitas pessoas que inventaram o microprocessador
19:46
and if you talk to them, they knewsabia what they were doing was really significantsignificativo,
435
1161000
5000
e se falarem com eles, eles sabiam que o que estavam a fazer era realmente significativo,
19:51
but they didn't really know what was going to happenacontecer.
436
1166000
3000
mas não sabiam realmente o que iria acontecer.
19:54
They couldn'tnão podia anticipateantecipar cellcélula phonestelefones and the InternetInternet and all this kindtipo of stuffcoisa.
437
1169000
5000
Não podiam antecipar telefones portáteis e a Internet e todo este tipo de coisas.
19:59
They just knewsabia like, hey, they were going to buildconstruir calculatorscalculadoras
438
1174000
2000
Eles apenas sabiam algo como, hei, eles vão construir calculadoras
20:01
and traffictráfego lightluz controllerscontroladores. But it's going to be biggrande.
439
1176000
2000
e controladores de semáforos. Mas vai ser enorme.
20:03
In the samemesmo way, this is like braincérebro scienceCiência and these memoriesrecordações
440
1178000
3000
Da mesma forma, isto é como a ciência do cérebro e estas memórias
20:06
are going to be a very fundamentalfundamental technologytecnologia, and it's going to leadconduzir
441
1181000
3000
vão ser uma tecnologia fundamental, e vai levar-nos
20:09
to very unbelievableinacreditável changesalterar in the nextPróximo 100 yearsanos.
442
1184000
3000
a mudanças inacreditáveis nos próximos 100 anos.
20:12
And I'm mosta maioria excitedanimado about how we're going to use them in scienceCiência.
443
1187000
4000
E estou mais excitado sobre como vamos utilizá-las em ciência.
20:16
So I think that's all my time, I'm over it, and I'm going to endfim my talk
444
1191000
3000
E acho que acabei o meu tempo, já acabou, e vou acabar a minha apresentação
20:19
right there.
445
1194000
1000
aqui mesmo.
Translated by Pedro Ferreira
Reviewed by Bruno Gomes

▲Back to top

ABOUT THE SPEAKER
Jeff Hawkins - Computer designer, brain researcher
Jeff Hawkins pioneered the development of PDAs such as the Palm and Treo. Now he's trying to understand how the human brain really works, and adapt its method -- which he describes as a deep system for storing memory -- to create new kinds of computers and tools.

Why you should listen

Jeff Hawkins' Palm PDA became such a widely used productivity tool during the 1990s that some fanatical users claimed it replaced their brains. But Hawkins' deepest interest was in the brain itself. So after the success of the Palm and Treo, which he brought to market at Handspring, Hawkins delved into brain research at the Redwood Center for Theoretical Neuroscience in Berkeley, Calif., and a new company called Numenta.

Hawkins' dual goal is to achieve an understanding of how the human brain actually works -- and then develop software to mimic its functionality, delivering true artificial intelligence. In his book On Intelligence (2004) he lays out his compelling, controversial theory: Contrary to popular AI wisdom, the human neocortex doesn't work like a processor; rather, it relies on a memory system that stores and plays back experiences to help us predict, intelligently, what will happen next. He thinks that "hierarchical temporal memory" computer platforms, which mimic this functionality (and which Numenta might pioneer), could enable groundbreaking new applications that could powerfully extend human intelligence.

More profile about the speaker
Jeff Hawkins | Speaker | TED.com