ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky sobre a saúde e a mente humana

Filmed:
606,909 views

Oiçam com atenção -- esta palestra astuta, ecléctica e encantadoramente espontânea, em que Marvin Minsky nos fala de saúde, sobrepopulação e da mente humana, está repleta de subtileza: engenho, sabedoria e conselhos bem temperados de humor e malícia.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askpergunte people about what partparte of psychologyPsicologia do they think is hardDifícil,
0
0
6000
Se perguntarmos às pessoas que área da psicologia pensam ser a mais difícil
00:24
and you say, "Well, what about thinkingpensando and emotionsemoções?"
1
6000
3000
e lhes dermos a escolher entre pensamento e emoções,
00:27
MostMaioria people will say, "EmotionsEmoções are terriblyterrivelmente hardDifícil.
2
9000
3000
a maioria dirá: "As emoções são extremamente difíceis.
00:30
They're incrediblyincrivelmente complexcomplexo. They can't -- I have no ideaidéia of how they work.
3
12000
6000
São incrivelmente complexas, não podem... não tenho nenhuma ideia de como funcionam.
00:36
But thinkingpensando is really very straightforwarddireto:
4
18000
2000
Já o pensamento é realmente muito simples:
00:38
it's just sortordenar of some kindtipo of logicallógico reasoningraciocínio, or something.
5
20000
4000
é apenas mais ou menos uma espécie de raciocínio lógico.
00:42
But that's not the hardDifícil partparte."
6
24000
3000
Mas essa não é a parte difícil."
00:45
So here'saqui está a listLista of problemsproblemas that come up.
7
27000
2000
Portanto aqui está uma lista de problemas por resolver.
00:47
One nicebom problemproblema is, what do we do about healthsaúde?
8
29000
3000
Um problema interessante é: o que fazer em relação à saúde?
00:50
The other day, I was readingleitura something, and the personpessoa said
9
32000
4000
Ainda há dias estava a ler algo que dizia que,
00:54
probablyprovavelmente the largestmaiores singlesolteiro causecausa of diseasedoença is handshakingaperto de mão in the WestOeste.
10
36000
6000
provavelmente, a maior causa de doença no mundo ocidental é o aperto de mão.
01:00
And there was a little studyestude about people who don't handshakeaperto de mão,
11
42000
4000
Havia um pequeno estudo que comparava pessoas que não dão apertos de mão
01:04
and comparingcomparando them with onesuns who do handshakeaperto de mão.
12
46000
3000
com pessoas que dão apertos de mão.
01:07
And I haven'tnão tem the foggiestmenor ideaidéia of where you find the onesuns that don't handshakeaperto de mão,
13
49000
5000
E não faço a menor ideia onde terão encontrado as que não dão apertos de mão,
01:12
because they mustdevo be hidingse escondendo.
14
54000
3000
porque devem estar escondidas.
01:15
And the people who avoidevitar that
15
57000
4000
E as pessoas que evitam este gesto
01:19
have 30 percentpor cento lessMenos infectiousinfecciosas diseasedoença or something.
16
61000
4000
têm um risco cerca de 30% menor de contrair doenças infecciosas.
01:23
Or maybe it was 31 and a quartertrimestre percentpor cento.
17
65000
3000
Ou talvez fosse 31,25%.
01:26
So if you really want to solveresolver the problemproblema of epidemicsepidemias and so forthadiante,
18
68000
4000
Portanto, se quisermos acabar com as epidemias,
01:30
let's startcomeçar with that. And sinceDesde a I got that ideaidéia,
19
72000
4000
comecemos por aí. E desde que tive esta ideia
01:34
I've had to shakemexe hundredscentenas of handsmãos.
20
76000
4000
tive que apertar centenas de mãos.
01:38
And I think the only way to avoidevitar it
21
80000
5000
E penso que a única maneira de evitá-lo
01:43
is to have some horriblehorrível visiblevisível diseasedoença,
22
85000
2000
é ter alguma doença horrível bem visível,
01:45
and then you don't have to explainexplicar.
23
87000
3000
e aí não temos de explicar-nos.
01:48
EducationEducação: how do we improvemelhorar educationEducação?
24
90000
4000
Educação: como melhorar a educação?
01:52
Well, the singlesolteiro bestmelhor way is to get them to understandCompreendo
25
94000
4000
Bem, a melhor maneira é fazê-los compreender
01:56
that what they're beingser told is a wholetodo lot of nonsenseAbsurdo.
26
98000
3000
que o que lhes têm dito são completos disparates.
01:59
And then, of coursecurso, you have to do something
27
101000
2000
E depois, claro, há que moderar um pouco
02:01
about how to moderatemoderado that, so that anybodyqualquer pessoa can -- so they'lleles vão listen to you.
28
103000
5000
esta atitude, para que alguém de facto nos ouça.
02:06
PollutionPoluição, energyenergia shortageescassez, environmentalde Meio Ambiente diversitydiversidade, povertypobreza.
29
108000
4000
Poluição, escassez de energia, diversidade ambiental, pobreza --
02:10
How do we make stableestável societiessociedades? LongevityLongevidade.
30
112000
4000
como construir sociedades estáveis? Longevidade...
02:14
Okay, there're lots of problemsproblemas to worrypreocupação about.
31
116000
3000
Ok, há muitos problemas preocupantes.
02:17
AnywayDe qualquer forma, the questionquestão I think people should talk about --
32
119000
2000
De qualquer forma, a questão que penso que deveríamos discutir --
02:19
and it's absolutelyabsolutamente tabootabu -- is, how manymuitos people should there be?
33
121000
5000
e que é um tabu absoluto -- é, quantas pessoas deveriam existir?
02:24
And I think it should be about 100 millionmilhão or maybe 500 millionmilhão.
34
126000
7000
E penso que deveriam existir cerca de 100 ou talvez 500 milhões.
02:31
And then noticeaviso prévio that a great manymuitos of these problemsproblemas disappeardesaparecer.
35
133000
5000
E então reparem que muitos destes problemas desaparecem.
02:36
If you had 100 millionmilhão people
36
138000
2000
Havendo 100 milhões de pessoas
02:38
properlydevidamente spreadespalhar out, then if there's some garbagelixo,
37
140000
6000
convenientemente distribuídas, então, se houvesse algum lixo,
02:44
you throwlançar it away, preferablypreferencialmente where you can't see it, and it will rotpodridão.
38
146000
7000
poderíamos deitá-lo fora, de preferência longe da vista, e apodreceria.
02:51
Or you throwlançar it into the oceanoceano and some fishpeixe will benefitbeneficiar from it.
39
153000
5000
Ou poderíamos deitá-lo ao mar e alguns peixes poderiam beneficiar dele.
02:56
The problemproblema is, how manymuitos people should there be?
40
158000
2000
O problema é: quantas pessoas deveriam existir?
02:58
And it's a sortordenar of choiceescolha we have to make.
41
160000
3000
E é uma espécie de escolha que temos de fazer.
03:01
MostMaioria people are about 60 inchespolegadas highAlto or more,
42
163000
3000
A maioria das pessoas mede 1,5 metros ou mais,
03:04
and there's these cubecubo lawsleis. So if you make them this biggrande,
43
166000
4000
e há esta perda cúbica. Portanto, se conseguíssemos ter pessoas deste tamanho --
03:08
by usingusando nanotechnologynanotecnologia, I supposesuponha --
44
170000
3000
recorrendo à nanotecnologia, suponho
03:11
(LaughterRiso)
45
173000
1000
(Risos)
03:12
-- then you could have a thousandmil timesvezes as manymuitos.
46
174000
2000
-- então poderiam existir mil vezes mais pessoas.
03:14
That would solveresolver the problemproblema, but I don't see anybodyqualquer pessoa
47
176000
2000
Isso resolveria o problema, mas não vejo ninguém
03:16
doing any researchpesquisa on makingfazer people smallermenor.
48
178000
3000
a fazer investigação em como tornar as pessoas mais pequenas.
03:19
Now, it's nicebom to reducereduzir the populationpopulação, but a lot of people want to have childrencrianças.
49
181000
5000
Ora, é boa ideia reduzir a população, mas muitas pessoas querem ter filhos.
03:24
And there's one solutionsolução that's probablyprovavelmente only a fewpoucos yearsanos off.
50
186000
3000
E provavelmente teremos uma solução daqui a poucos anos.
03:27
You know you have 46 chromosomescromossomos. If you're luckypor sorte, you've got 23
51
189000
5000
Sabem que temos 46 cromossomas. Com alguma sorte, temos 23
03:32
from eachcada parentpai. SometimesÀs vezes you get an extraextra one or dropsolta one out,
52
194000
6000
de cada progenitor -- por vezes ficamos com um a mais ou a menos,
03:38
but -- so you can skippular the grandparentdos avós and great-grandparentbisavô stageetapa
53
200000
4000
mas... -- podemos saltar as etapas de avô e bisavô
03:42
and go right to the great-great-grandparentgrande-grande-grandparent. And you have 46 people
54
204000
5000
e ir directamente para a de trisavô. Reunimos 46 pessoas
03:47
and you give them a scannerscanner, or whatevertanto faz you need,
55
209000
3000
e damos-lhes alguma espécie de analisador
03:50
and they look at theirdeles chromosomescromossomos and eachcada of them saysdiz
56
212000
4000
e eles olham para os seus cromossomas e cada um diz
03:54
whichqual one he likesgosta bestmelhor, or she -- no reasonrazão to have just two sexessexos
57
216000
5000
de qual gosta mais -- não há razão para haverem só dois sexos...
03:59
any more, even. So eachcada childcriança has 46 parentsparentes,
58
221000
5000
Portanto, cada criança tem 46 pais,
04:04
and I supposesuponha you could let eachcada groupgrupo of 46 parentsparentes have 15 childrencrianças.
59
226000
6000
e suponho que poderíamos deixar cada grupo de 46 pais ter 15 filhos.
04:10
Wouldn'tNão that be enoughsuficiente? And then the childrencrianças
60
232000
2000
Não seria suficiente? E depois os filhos
04:12
would get plentyabundância of supportApoio, suporte, and nurturingnutrindo, and mentoringtutoria,
61
234000
4000
teriam muito apoio e sustento e educação
04:16
and the worldmundo populationpopulação would declinedeclínio very rapidlyrapidamente
62
238000
2000
e a população do mundo entraria em declínio rapidamente
04:18
and everybodytodo mundo would be totallytotalmente happyfeliz.
63
240000
3000
e toda a gente seria totalmente feliz.
04:21
TimesharingTimesharing is a little furthermais distante off in the futurefuturo.
64
243000
3000
"Timesharing" estará num futuro mais distante.
04:24
And there's this great novelromance that ArthurArthur ClarkeClarke wroteescrevi twiceduas vezes,
65
246000
3000
E há um belo romance, que Arthur Clarke escreveu duas vezes,
04:27
calledchamado "AgainstContra the FallOutono of Night" and "The CityCidade and the StarsEstrelas."
66
249000
4000
chamado "Against the Fall of Night" e "The City and the Stars".
04:31
They're bothambos wonderfulMaravilhoso and largelylargamente the samemesmo,
67
253000
3000
São ambos maravilhosos e em grande medida iguais, excepto
04:34
exceptexceto that computerscomputadores happenedaconteceu in betweenentre.
68
256000
2000
que os computadores foram inventados entre os dois.
04:36
And ArthurArthur was looking at this oldvelho booklivro, and he said, "Well, that was wrongerrado.
69
258000
5000
E Arthur olhou para o primeiro livro e disse: "Bem, isto está errado.
04:41
The futurefuturo mustdevo have some computerscomputadores."
70
263000
2000
O futuro tem que ter alguns computadores."
04:43
So in the secondsegundo versionversão of it, there are 100 billionbilhão
71
265000
5000
E assim, na segunda versão do livro, existem 100 biliões --
04:48
or 1,000 billionbilhão people on EarthTerra, but they're all storedarmazenados on hardDifícil disksdiscos or floppiesdisquetes de,
72
270000
8000
ou 1000 biliões -- de pessoas na Terra, mas estão todas armazenadas em discos rígidos ou disquetes,
04:56
or whatevertanto faz they have in the futurefuturo.
73
278000
2000
ou o que quer que exista no futuro.
04:58
And you let a fewpoucos millionmilhão of them out at a time.
74
280000
4000
E deixam-se sair uns poucos milhões de cada vez.
05:02
A personpessoa comesvem out, they liveviver for a thousandmil yearsanos
75
284000
4000
Um pessoa sai, vive durante mil anos,
05:06
doing whatevertanto faz they do, and then, when it's time to go back
76
288000
6000
faz a sua vida, até ser altura de regressar
05:12
for a billionbilhão yearsanos -- or a millionmilhão, I forgetesqueço, the numbersnúmeros don't matterimportam --
77
294000
4000
por um bilião de anos -- ou um milhão, esqueci-me, os números não importam --,
05:16
but there really aren'tnão são very manymuitos people on EarthTerra at a time.
78
298000
4000
mas não existem muitas pessoas na Terra num dado período de tempo.
05:20
And you get to think about yourselfvocê mesmo and your memoriesrecordações,
79
302000
2000
E podemos reflectir sobre nós próprios
05:22
and before you go back into suspensionsuspensão, you editeditar your memoriesrecordações
80
304000
5000
e as nossas memórias, e antes de sermos suspendidos de novo podemos editá-las
05:27
and you changemudança your personalitypersonalidade and so forthadiante.
81
309000
3000
e mudar a nossa personalidade, por exemplo.
05:30
The plotenredo of the booklivro is that there's not enoughsuficiente diversitydiversidade,
82
312000
6000
O enredo do livro é que não há suficiente diversidade e,
05:36
so that the people who designedprojetado the citycidade
83
318000
3000
assim, as pessoas que construíram a cidade
05:39
make sure that everycada now and then an entirelyinteiramente newNovo personpessoa is createdcriada.
84
321000
4000
certificam-se de que uma vez por outra é criada uma pessoa completamente nova.
05:43
And in the novelromance, a particularespecial one namednomeado AlvinAlvin is createdcriada. And he saysdiz,
85
325000
6000
Em particular, o romance fala de uma destas novas pessoas, Alvin. Alvin pensa:
05:49
maybe this isn't the bestmelhor way, and wrecksnaufrágios the wholetodo systemsistema.
86
331000
4000
"Talvez esta não seja a melhor maneira", e destrói todo o sistema.
05:53
I don't think the solutionssoluções that I proposedproposto
87
335000
2000
Não penso que as soluções que propus aqui
05:55
are good enoughsuficiente or smartinteligente enoughsuficiente.
88
337000
3000
sejam suficientemente boas ou suficientemente inteligentes.
05:58
I think the biggrande problemproblema is that we're not smartinteligente enoughsuficiente
89
340000
4000
Penso que o grande problema é que não somos suficientemente inteligentes
06:02
to understandCompreendo whichqual of the problemsproblemas we're facingvoltado para are good enoughsuficiente.
90
344000
4000
para compreender quais os problemas que importa resolver.
06:06
ThereforePor conseguinte, we have to buildconstruir supersuper intelligentinteligente machinesmáquinas like HALHAL.
91
348000
4000
Consequentemente, temos que construir máquinas super-inteligentes como o HAL.
06:10
As you rememberlembrar, at some pointponto in the booklivro for "2001,"
92
352000
5000
Como devem estar lembrados, a dada altura no livro do "2001, Odisseia no Espaço",
06:15
HALHAL realizespercebe that the universeuniverso is too biggrande, and grandgrande, and profoundprofundo
93
357000
5000
o HAL apercebe-se de que o Universo é demasiado grande e profundo
06:20
for those really stupidestúpido astronautsastronautas. If you contrastcontraste HAL'sDo HAL behaviorcomportamento
94
362000
4000
para aqueles astronautas estúpidos. Se compararmos o comportamento do HAL
06:24
with the trivialitytrivialidade of the people on the spaceshipnave espacial,
95
366000
4000
com a trivialidade das pessoas a bordo da nave espacial,
06:28
you can see what's writtenescrito betweenentre the lineslinhas.
96
370000
3000
então conseguiremos ler nas entrelinhas.
06:31
Well, what are we going to do about that? We could get smartermais esperto.
97
373000
3000
O que fazer então em relação a isso? Podíamos tornar-nos mais inteligentes.
06:34
I think that we're prettybonita smartinteligente, as comparedcomparado to chimpanzeeschimpanzés,
98
376000
5000
Acho que somos bastante inteligentes, em comparação com os chimpanzés,
06:39
but we're not smartinteligente enoughsuficiente to dealacordo with the colossalcolossal problemsproblemas that we facecara,
99
381000
6000
mas não o suficiente para lidar com os problemas colossais que enfrentamos,
06:45
eitherou in abstractabstrato mathematicsmatemática
100
387000
2000
tanto em matemática abstracta
06:47
or in figuringfigurando out economieseconomias, or balancingbalanceamento de the worldmundo around.
101
389000
5000
como na compreensão da economia ou na luta por um mundo equilibrado.
06:52
So one thing we can do is liveviver longermais longo.
102
394000
3000
Uma coisa que podemos fazer é viver mais tempo.
06:55
And nobodyninguém knowssabe how hardDifícil that is,
103
397000
2000
E ninguém sabe quão difícil será isso,
06:57
but we'llbem probablyprovavelmente find out in a fewpoucos yearsanos.
104
399000
3000
mas provavelmente descobriremos nos próximos anos.
07:00
You see, there's two forksgarfos in the roadestrada. We know that people liveviver
105
402000
3000
Estão a ver, há uma bifurcação no caminho. Sabemos que as pessoas
07:03
twiceduas vezes as long as chimpanzeeschimpanzés almostquase,
106
405000
4000
vivem quase o dobro dos chimpanzés,
07:07
and nobodyninguém livesvidas more than 120 yearsanos,
107
409000
4000
e ninguém vive mais de 120 anos,
07:11
for reasonsrazões that aren'tnão são very well understoodEntendido.
108
413000
3000
por razões que não compreendemos bem.
07:14
But lots of people now liveviver to 90 or 100,
109
416000
3000
Mas muitas pessoas vivem agora 90 ou 100 anos,
07:17
unlessa menos que they shakemexe handsmãos too much or something like that.
110
419000
4000
a não ser que dêem muitos apertos de mão ou coisa do género.
07:21
And so maybe if we livedvivia 200 yearsanos, we could accumulateacumular enoughsuficiente skillsHabilidades
111
423000
5000
Portanto, se vivêssemos 200 anos, talvez conseguíssemos acumular a capacidade
07:26
and knowledgeconhecimento to solveresolver some problemsproblemas.
112
428000
5000
e conhecimento necessários para resolver alguns problemas.
07:31
So that's one way of going about it.
113
433000
2000
Isto é uma forma de ver a coisa.
07:33
And as I said, we don't know how hardDifícil that is. It mightpoderia be --
114
435000
3000
E, como disse, não sabemos quão difícil será de concretizar.
07:36
after all, mosta maioria other mammalsmamíferos liveviver halfmetade as long as the chimpanzeechimpanzé,
115
438000
6000
Afinal, a maioria dos outros mamíferos vive metade do tempo dos chimpanzés,
07:42
so we're sortordenar of threetrês and a halfmetade or fourquatro timesvezes, have fourquatro timesvezes
116
444000
3000
portanto nós temos cerca de 3,5 vezes ou 4 vezes
07:45
the longevitylongevidade of mosta maioria mammalsmamíferos. And in the casecaso of the primatesprimatas,
117
447000
6000
a longevidade da maioria dos mamíferos. E no caso dos primatas,
07:51
we have almostquase the samemesmo genesgenes. We only differdiferem from chimpanzeeschimpanzés,
118
453000
4000
temos praticamente os mesmos genes. Apenas diferimos dos chimpanzés,
07:55
in the presentpresente stateEstado of knowledgeconhecimento, whichqual is absoluteabsoluto hogwashlavagem de porco,
119
457000
6000
no estado actual de conhecimento -- que é absurdamente primitivo --,
08:01
maybe by just a fewpoucos hundredcem genesgenes.
120
463000
2000
talvez por umas poucas centenas de genes.
08:03
What I think is that the genegene counterscontadores de don't know what they're doing yetainda.
121
465000
3000
O que acho é que os "contadores de genes" ainda não sabem o que estão a fazer.
08:06
And whatevertanto faz you do, don't readler anything about geneticsgenética
122
468000
3000
E o que quer que façam, não leiam nada sobre genética
08:09
that's publishedPublicados withindentro your lifetimetempo de vida, or something.
123
471000
3000
que seja publicado durante a vossa vida.
08:12
(LaughterRiso)
124
474000
3000
(Risos)
08:15
The stuffcoisa has a very shortcurto half-lifeHalf-Life, samemesmo with braincérebro scienceCiência.
125
477000
4000
Porque tem um tempo de semi-vida muito curto. O mesmo para a ciência do cérebro.
08:19
And so it mightpoderia be that if we just fixconsertar fourquatro or fivecinco genesgenes,
126
481000
6000
Assim, pode ser que, manipulando apenas 4 ou 5 genes,
08:25
we can liveviver 200 yearsanos.
127
487000
2000
possamos passar a viver 200 anos.
08:27
Or it mightpoderia be that it's just 30 or 40,
128
489000
3000
Ou pode ser que sejam 30 ou 40,
08:30
and I doubtdúvida that it's severalde várias hundredcem.
129
492000
2000
e duvido que sejam várias centenas.
08:32
So this is something that people will be discussingdiscutindo
130
494000
4000
Isto é algo que as pessoas estarão a discutir
08:36
and lots of ethicistsestudiosos -- you know, an ethicisteticista is somebodyalguém
131
498000
3000
e muitos especialistas em Ética... Sabem, um especialista em Ética é alguém
08:39
who sees something wrongerrado with whatevertanto faz you have in mindmente.
132
501000
3000
que vê sempre algo errado com o que uma pessoa tem em mente.
08:42
(LaughterRiso)
133
504000
3000
(Risos)
08:45
And it's very hardDifícil to find an ethicisteticista who considersconsidera any changemudança
134
507000
4000
E é muito difícil encontrar um especialista em Ética que considere que dada
08:49
worthque vale a pena makingfazer, because he saysdiz, what about the consequencesconsequências?
135
511000
4000
mudança valha a pena, porque ele dirá: "Então e as consequências?"
08:53
And, of coursecurso, we're not responsibleresponsável for the consequencesconsequências
136
515000
3000
E claro, não somos responsáveis pelas consequências futuras
08:56
of what we're doing now, are we? Like all this complaintdenúncia about clonesclones.
137
518000
6000
do que estamos a fazer agora, pois não? É como todos estes protestos em relação aos clones.
09:02
And yetainda two randomaleatória people will matecompanheiro de and have this childcriança,
138
524000
3000
E no entanto duas quaisquer pessoas acasalam e têm um filho,
09:05
and bothambos of them have some prettybonita rottenpodre genesgenes,
139
527000
4000
e ambas terão genes bastante defeituosos,
09:09
and the childcriança is likelyprovável to come out to be averagemédia.
140
531000
4000
e a criança será provavelmente mediana.
09:13
WhichQue, by chimpanzeechimpanzé standardspadrões, is very good indeedde fato.
141
535000
6000
O que, pelo padrão de um chimpanzé, é de facto muito bom.
09:19
If we do have longevitylongevidade, then we'llbem have to facecara the populationpopulação growthcrescimento
142
541000
3000
Se tivermos longevidade, teremos de enfrentar o problema do crescimento populacional
09:22
problemproblema anywayde qualquer forma. Because if people liveviver 200 or 1,000 yearsanos,
143
544000
4000
de qualquer forma. Porque se as pessoas vivem 200 ou 1000 anos,
09:26
then we can't let them have a childcriança more than about onceuma vez everycada 200 or 1,000 yearsanos.
144
548000
6000
então não podemos deixá-las ter um filho mais do que uma vez em cada 200 ou 1000 anos.
09:32
And so there won'tnão vai be any workforcetrabalhadores.
145
554000
3000
E assim não haverá força de trabalho disponível.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedapontado out, and othersoutras have,
146
557000
4000
E uma das coisas que Laurie Garrett e outros têm apontado
09:39
is that a societysociedade that doesn't have people
147
561000
5000
é que uma sociedade que não tem pessoas
09:44
of workingtrabalhando ageera is in realreal troubleproblema. And things are going to get worsepior,
148
566000
3000
em idade de trabalhar se vê em apuros. E as coisas vão piorar
09:47
because there's nobodyninguém to educateeducar the childrencrianças or to feedalimentação the oldvelho.
149
569000
6000
porque não há ninguém para educar as crianças ou alimentar os idosos.
09:53
And when I'm talkingfalando about a long lifetimetempo de vida, of coursecurso,
150
575000
2000
E quando falo de longevidade, claro,
09:55
I don't want somebodyalguém who'squem é 200 yearsanos oldvelho to be like our imageimagem
151
577000
6000
não quero que alguém com 200 anos se pareça com a nossa imagem
10:01
of what a 200-year-old-ano de idade is -- whichqual is deadmorto, actuallyna realidade.
152
583000
4000
de alguém com essa idade -- que, aliás, é a de alguém morto.
10:05
You know, there's about 400 differentdiferente partspartes of the braincérebro
153
587000
2000
Sabem, existem cerca de 400 regiões distintas no cérebro
10:07
whichqual seemparecem to have differentdiferente functionsfunções.
154
589000
2000
que parecem ter funções diferentes.
10:09
NobodyNinguém knowssabe how mosta maioria of them work in detaildetalhe,
155
591000
3000
Ninguém sabe como a maioria funciona em detalhe,
10:12
but we do know that there're lots of differentdiferente things in there.
156
594000
4000
mas sabemos que lá existem coisas muito diferentes.
10:16
And they don't always work togetherjuntos. I like Freud'sFreud theoryteoria
157
598000
2000
E nem sempre funcionam em conjunto. Gosto da teoria de Freud
10:18
that mosta maioria of them are cancellingcancelamento de eachcada other out.
158
600000
4000
de que a maioria delas se cancela mutuamente.
10:22
And so if you think of yourselfvocê mesmo as a sortordenar of citycidade
159
604000
4000
Se pensarmos que somos uma espécie de cidade,
10:26
with a hundredcem resourcesRecursos, then, when you're afraidreceoso, for exampleexemplo,
160
608000
6000
com uma centena de recursos, então, quando temos medo, por exemplo,
10:32
you maypode discarddescartar your long-rangelongo alcance goalsmetas, but you maypode think deeplyprofundamente
161
614000
4000
podemos ignorar os nossos objectivos de longo prazo e
10:36
and focusfoco on exactlyexatamente how to achievealcançar that particularespecial goalobjetivo.
162
618000
4000
concentrar-nos naquele objectivo muito particular.
10:40
You throwlançar everything elseoutro away. You becometornar-se a monomaniacmonomaníaco --
163
622000
3000
Esquecemos tudo o resto, tornamo-nos monomaníacos --
10:43
all you careCuidado about is not steppingpisando out on that platformplataforma.
164
625000
4000
só nos preocupamos em não cair da plataforma abaixo.
10:47
And when you're hungrycom fome, foodComida becomestorna-se more attractiveatraente, and so forthadiante.
165
629000
4000
E quando temos fome, a comida torna-se mais atractiva, e assim por diante.
10:51
So I see emotionsemoções as highlyaltamente evolvedevoluiu subsetssubconjuntos of your capabilitycapacidade.
166
633000
6000
Eu vejo as emoções como subconjuntos altamente evoluídos das nossas capacidades.
10:57
EmotionEmoção is not something addedadicionado to thought. An emotionalemocional stateEstado
167
639000
4000
A emoção não é "algo adicionado ao pensamento". Um estado emocional
11:01
is what you get when you removeremover 100 or 200
168
643000
4000
é o que resulta da remoção de 100 ou 200
11:05
of your normallynormalmente availableacessível resourcesRecursos.
169
647000
3000
dos nossos recursos normalmente disponíveis.
11:08
So thinkingpensando of emotionsemoções as the oppositeoposto of -- as something
170
650000
3000
Portanto, pensar nas emoções, ao invés, como
11:11
lessMenos than thinkingpensando is immenselyimensamente productiveprodutivo. And I hopeesperança,
171
653000
4000
"algo menos que o pensamento" é imensamente produtivo. E espero
11:15
in the nextPróximo fewpoucos yearsanos, to showexposição that this will leadconduzir to smartinteligente machinesmáquinas.
172
657000
4000
nos próximos anos mostrar que isto nos levará a máquinas inteligentes.
11:19
And I guessacho I better skippular all the restdescansar of this, whichqual are some detailsdetalhes
173
661000
3000
E acho que é melhor passar à frente disto, que são detalhes
11:22
on how we mightpoderia make those smartinteligente machinesmáquinas and --
174
664000
5000
sobre como poderemos construir estas máquinas e...
11:27
(LaughterRiso)
175
669000
5000
(Risos)
11:32
-- and the maina Principal ideaidéia is in factfacto that the coretestemunho of a really smartinteligente machinemáquina
176
674000
5000
A ideia principal é que, de facto, o núcleo de uma máquina realmente inteligente
11:37
is one that recognizesreconhece that a certaincerto kindtipo of problemproblema is facingvoltado para you.
177
679000
5000
é ela ser capaz de reconhecer o tipo de problema que está a enfrentar.
11:42
This is a problemproblema of suchtal and suchtal a typetipo,
178
684000
3000
Este é um problema de tal e tal tipo
11:45
and thereforeassim sendo there's a certaincerto way or waysmaneiras of thinkingpensando
179
687000
5000
e portanto há uma ou várias maneiras de pensar
11:50
that are good for that problemproblema.
180
692000
2000
que são boas para esse problema.
11:52
So I think the futurefuturo, maina Principal problemproblema of psychologyPsicologia is to classifyclassificar
181
694000
4000
Portanto, penso que no futuro, o principal problema da Psicologia será classificar
11:56
typestipos of predicamentssituações difíceis, typestipos of situationssituações, typestipos of obstaclesobstáculos
182
698000
4000
tipos de dilemas, tipos de situações, tipos de obstáculos,
12:00
and alsoAlém disso to classifyclassificar availableacessível and possiblepossível waysmaneiras to think and pairpar them up.
183
702000
6000
classificar também as formas de pensamento disponíveis e, depois, associá-los da melhor forma.
12:06
So you see, it's almostquase like a PavlovianPavloviano --
184
708000
3000
Portanto vêem, é quase Pavloviano...
12:09
we lostperdido the first hundredcem yearsanos of psychologyPsicologia
185
711000
2000
Perdemos os primeiros cem anos da Psicologia
12:11
by really trivialtrivial theoriesteorias, where you say,
186
713000
3000
com teorias realmente triviais acerca da forma
12:14
how do people learnaprender how to reactreagir to a situationsituação? What I'm sayingdizendo is,
187
716000
6000
como as pessoas aprendem a reagir a uma dada situação. O que eu defendo é que,
12:20
after we go throughatravés a lot of levelsníveis, includingIncluindo designingprojetando
188
722000
5000
depois de passarmos muitos níveis, incluindo a construção
12:25
a hugeenorme, messybagunçado systemsistema with thousandsmilhares of portsportas,
189
727000
3000
de um sistema enorme e confuso com milhares de peças,
12:28
we'llbem endfim up again with the centralcentral problemproblema of psychologyPsicologia.
190
730000
4000
acabaremos ainda com o problema central da Psicologia.
12:32
SayingDizendo, not what are the situationssituações,
191
734000
3000
Investigando não quais as situações,
12:35
but what are the kindstipos of problemsproblemas
192
737000
2000
mas quais os tipos de problemas
12:37
and what are the kindstipos of strategiesestratégias, how do you learnaprender them,
193
739000
3000
e os tipos de estratégias que existem -- como aprendê-las,
12:40
how do you connectconectar them up, how does a really creativecriativo personpessoa
194
742000
3000
como associá-los entre si -- e como é que uma pessoa realmente criativa
12:43
inventinventar a newNovo way of thinkingpensando out of the availableacessível resourcesRecursos and so forthadiante.
195
745000
5000
inventa uma nova forma de pensar a partir dos recursos disponíveis e assim.
12:48
So, I think in the nextPróximo 20 yearsanos,
196
750000
2000
Portanto, penso que nos próximos 20 anos,
12:50
if we can get ridlivrar of all of the traditionaltradicional approachesse aproxima to artificialartificial intelligenceinteligência,
197
752000
5000
se nos conseguirmos livrar de todas as abordagens tradicionais à inteligência artificial,
12:55
like neuralneural netsredes and geneticgenético algorithmsalgoritmos
198
757000
2000
como redes neuronais, algoritmos genéticos
12:57
and rule-basedbaseado em regras systemssistemas, and just turnvirar our sightsvistas a little bitpouco highersuperior to say,
199
759000
6000
e sistemas baseados em regras, e olharmos um pouco mais longe,
13:03
can we make a systemsistema that can use all those things
200
765000
2000
será que conseguimos construir um sistema que seja capaz de usar tudo isso
13:05
for the right kindtipo of problemproblema? Some problemsproblemas are good for neuralneural netsredes;
201
767000
4000
para o tipo certo de problema? Alguns problemas são bons para redes neuronais;
13:09
we know that othersoutras, neuralneural netsredes are hopelesssem esperança on them.
202
771000
3000
sabemos que noutros problemas, as redes neuronais não funcionam.
13:12
GeneticGenética algorithmsalgoritmos are great for certaincerto things;
203
774000
3000
Os algoritmos genéticos são óptimos para certas coisas;
13:15
I suspectsuspeito I know what they're badmau at, and I won'tnão vai tell you.
204
777000
4000
suspeito que sei aquilo em que são maus mas não vos vou dizer.
13:19
(LaughterRiso)
205
781000
1000
(Risos)
13:20
Thank you.
206
782000
2000
Obrigado.
13:22
(ApplauseAplausos)
207
784000
6000
(Aplausos)
Translated by Dulce Calçada
Reviewed by Rafael Eufrasio

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com