ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky parle de santé et de l'esprit humain

Filmed:
606,909 views

Ecoutez bien - la présentation très ecclectique et délicieusement désinvolte de Marvin Minsky sur la santé, la surpopulation et l'esprit humain est pleine de subtilité, d'esprit, de sagesse avec juste un soupçon de roublardise et de conseils pince-sans-rire.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askdemander people about what partpartie of psychologypsychologie do they think is harddifficile,
0
0
6000
Si vous demandez aux gens ce qu'ils trouvent difficile dans la psychologie,
00:24
and you say, "Well, what about thinkingen pensant and emotionsémotions?"
1
6000
3000
et vous dites, eh bien, par exemple la pensée et les émotions,
00:27
MostPlupart people will say, "EmotionsÉmotions are terriblyterriblement harddifficile.
2
9000
3000
la plupart des gens diront: «Les émotions c'est très dur.
00:30
They're incrediblyincroyablement complexcomplexe. They can't -- I have no ideaidée of how they work.
3
12000
6000
Elles sont incroyablement complexes, elles ne peuvent pas - je n'ai aucune idée de comment elles fonctionnent.
00:36
But thinkingen pensant is really very straightforwardsimple:
4
18000
2000
Mais la pensée c'est vraiment très simple:
00:38
it's just sortTrier of some kindgentil of logicallogique reasoningraisonnement, or something.
5
20000
4000
c'est juste une sorte de raisonnement logique ou quelque chose comme ça.
00:42
But that's not the harddifficile partpartie."
6
24000
3000
Mais ce n'est pas la partie difficile. "
00:45
So here'svoici a listliste of problemsproblèmes that come up.
7
27000
2000
Donc, voici une liste des problèmes qui ressortent.
00:47
One niceagréable problemproblème is, what do we do about healthsanté?
8
29000
3000
Un bon problème est: que faisons-nous sur la santé?
00:50
The other day, I was readingen train de lire something, and the personla personne said
9
32000
4000
L'autre jour, je lisais quelque chose, et l'auteur disait
00:54
probablyProbablement the largestplus grand singleunique causecause of diseasemaladie is handshakingpoignée de main in the WestOuest.
10
36000
6000
que probablement la plus importante cause de maladie est la poignée de main en occident.
01:00
And there was a little studyétude about people who don't handshakepoignée de main,
11
42000
4000
Et il y avait une petite d'étude sur les personnes qui ne se serrent pas la main,
01:04
and comparingcomparant them with onesceux who do handshakepoignée de main.
12
46000
3000
et qui les comparait avec ceux qui se serraient la main,
01:07
And I haven'tn'a pas the foggiestmoindre ideaidée of where you find the onesceux that don't handshakepoignée de main,
13
49000
5000
et je n'ai pas la moindre idée d'où vous trouvez celles qui ne le font pas
01:12
because they mustdoit be hidingse cacher.
14
54000
3000
parce qu'ils doivent se cacher.
01:15
And the people who avoidéviter that
15
57000
4000
Et les gens qui évitent ça
01:19
have 30 percentpour cent lessMoins infectiousinfectieuses diseasemaladie or something.
16
61000
4000
ont quelque chose comme 30 % en moins de maladies infectieuses.
01:23
Or maybe it was 31 and a quartertrimestre percentpour cent.
17
65000
3000
Ou peut-être était-ce 31 % et un quart.
01:26
So if you really want to solverésoudre the problemproblème of epidemicsépidémies and so forthavant,
18
68000
4000
Donc, si vous voulez vraiment résoudre le problème des épidémies et ainsi de suite,
01:30
let's startdébut with that. And sincedepuis I got that ideaidée,
19
72000
4000
commençons par cela. Et depuis que j'ai eu cette idée,
01:34
I've had to shakesecouer hundredsdes centaines of handsmains.
20
76000
4000
j'ai dû serrer des centaines de mains.
01:38
And I think the only way to avoidéviter it
21
80000
5000
Et je pense que la seule façon de l'éviter
01:43
is to have some horriblehorrible visiblevisible diseasemaladie,
22
85000
2000
est d'avoir une horrible maladie visible,
01:45
and then you don't have to explainExplique.
23
87000
3000
et ensuite vous n'avez pas à expliquer.
01:48
EducationÉducation: how do we improveaméliorer educationéducation?
24
90000
4000
L'éducation: comment pouvons-nous améliorer l'éducation?
01:52
Well, the singleunique bestmeilleur way is to get them to understandcomprendre
25
94000
4000
Eh bien, la meilleure façon simple est de leur faire comprendre
01:56
that what they're beingétant told is a wholeentier lot of nonsenseabsurdité.
26
98000
3000
que ce qu'on leur dit, c'est un tas de bêtises.
01:59
And then, of coursecours, you have to do something
27
101000
2000
Et puis, bien sûr, vous devez faire quelque chose
02:01
about how to moderatemodérer that, so that anybodyn'importe qui can -- so they'llils vont listen to you.
28
103000
5000
pour modérerça, pour que n'importe qui puisse vous écouter.
02:06
PollutionPollution, energyénergie shortagepénurie de, environmentalenvironnement diversityla diversité, povertyla pauvreté.
29
108000
4000
La pollution, la pénurie d'énergie, la diversité de l'environnement, la pauvreté -
02:10
How do we make stablestable societiessociétés? LongevityLongévité.
30
112000
4000
comment faire une société stable? La longévité.
02:14
Okay, there'reil y a lots of problemsproblèmes to worryinquiéter about.
31
116000
3000
Bon, il y a beaucoup de problèmes à craindre.
02:17
AnywayEn tout cas, the questionquestion I think people should talk about --
32
119000
2000
Quoi qu'il en soit, la question dont je pense que les gens devraient parler -
02:19
and it's absolutelyabsolument tabootabou -- is, how manybeaucoup people should there be?
33
121000
5000
et c'est absolument tabou - c'est, combien de personnes devrait-il y avoir?
02:24
And I think it should be about 100 millionmillion or maybe 500 millionmillion.
34
126000
7000
Et je pense que ça devrait être environ 100 millions ou peut-être 500 millions.
02:31
And then noticeremarquer that a great manybeaucoup of these problemsproblèmes disappeardisparaître.
35
133000
5000
Et alors notez qu'un grand nombre de ces problèmes disparaissent.
02:36
If you had 100 millionmillion people
36
138000
2000
Si vous aviez 100 millions de personnes
02:38
properlycorrectement spreadpropager out, then if there's some garbagedes ordures,
37
140000
6000
bien réparties, ensuite, s'il y a des ordures,
02:44
you throwjeter it away, preferablyde préférence where you can't see it, and it will rotpourriture.
38
146000
7000
vous les jetez, de préférence là où vous ne pouvez pas les voir, et où elles vont pourrir.
02:51
Or you throwjeter it into the oceanocéan and some fishpoisson will benefitavantage from it.
39
153000
5000
Ou alors vous les jetez dans l'océan et des poissons en bénéficieront.
02:56
The problemproblème is, how manybeaucoup people should there be?
40
158000
2000
Le problème est, combien de personnes faut-il être?
02:58
And it's a sortTrier of choicechoix we have to make.
41
160000
3000
Et c'est une sorte de choix que nous avons à faire.
03:01
MostPlupart people are about 60 inchespouces highhaute or more,
42
163000
3000
La plupart des gens font environ 1,55 mètre de haut ou plus,
03:04
and there's these cubecube lawslois. So if you make them this biggros,
43
166000
4000
et il y a une perte cube. Donc, si vous les faites grands comme ça -
03:08
by usingen utilisant nanotechnologynanotechnologie, I supposesupposer --
44
170000
3000
en utilisant la nanotechnologie, je suppose -
03:11
(LaughterRires)
45
173000
1000
(Rires)
03:12
-- then you could have a thousandmille timesfois as manybeaucoup.
46
174000
2000
- Alors vous pourriez enavoir mille fois plus.
03:14
That would solverésoudre the problemproblème, but I don't see anybodyn'importe qui
47
176000
2000
Cela réglerait le problème, mais je ne vois personne
03:16
doing any researchrecherche on makingfabrication people smallerplus petit.
48
178000
3000
faire des recherches sur comment rendre les personnes plus petites.
03:19
Now, it's niceagréable to reduceréduire the populationpopulation, but a lot of people want to have childrenles enfants.
49
181000
5000
Maintenant, il est bon de réduire la population, mais beaucoup de gens veulent avoir des enfants.
03:24
And there's one solutionSolution that's probablyProbablement only a fewpeu yearsannées off.
50
186000
3000
Et il y a une solution qui apparaitra probablement dans quelques années.
03:27
You know you have 46 chromosomeschromosomes. If you're luckychanceux, you've got 23
51
189000
5000
Vous savez que vous avez 46 chromosomes. Si vous êtes chanceux, vous en avez obtenu 23
03:32
from eachchaque parentparent. SometimesParfois you get an extrasupplémentaire one or droplaissez tomber one out,
52
194000
6000
de chaque parent, parfois vous obtenez un de plus ou un de moins,
03:38
but -- so you can skipsauter the grandparentgrand-parent and great-grandparentarrière grand-parent stageétape
53
200000
4000
mais - donc vous pouvez sauter l'étape des grands-parents et arrière grands-parents
03:42
and go right to the great-great-grandparent-arrière-grand-grand-parent. And you have 46 people
54
204000
5000
et aller droit aux arrière-arrière-grands-parents. Et vous avez 46 personnes
03:47
and you give them a scannerscanner, or whateverpeu importe you need,
55
209000
3000
et vous leur faites passer un scanner, ou ce dont vous avez besoin,
03:50
and they look at theirleur chromosomeschromosomes and eachchaque of them saysdit
56
212000
4000
et ils regardent leurs chromosomes et chacun d'eux dit
03:54
whichlequel one he likesaime bestmeilleur, or she -- no reasonraison to have just two sexessexes
57
216000
5000
celui qu'il aime le mieux, ou elle - plus aucune raison d'avoir seulement deux sexes
03:59
any more, even. So eachchaque childenfant has 46 parentsParents,
58
221000
5000
en fait. Donc, chaque enfant dispose de 46 parents,
04:04
and I supposesupposer you could let eachchaque groupgroupe of 46 parentsParents have 15 childrenles enfants.
59
226000
6000
et je suppose que vous pourriez laisser chaque groupe de 46 parents avoir 15 enfants -
04:10
Wouldn'tNe serait pas that be enoughassez? And then the childrenles enfants
60
232000
2000
ne serait-ce pas suffisant? Et puis les enfants
04:12
would get plentybeaucoup of supportsoutien, and nurturingnourrir, and mentoringmentorat,
61
234000
4000
recevraient beaucoup de soutien et de soin et de tutorat
04:16
and the worldmonde populationpopulation would declinedéclin very rapidlyrapidement
62
238000
2000
et la population mondiale déclinerait très rapidement
04:18
and everybodyTout le monde would be totallytotalement happycontent.
63
240000
3000
et tout le monde serait tout à fait heureux.
04:21
TimesharingTimesharing is a little furtherplus loin off in the futureavenir.
64
243000
3000
La multipropriété est un peu plus loin dans l'avenir.
04:24
And there's this great novelroman that ArthurArthur ClarkeClarke wrotea écrit twicedeux fois,
65
246000
3000
Et il y a ce grand roman qu'Arthur Clarke a écrit deux fois,
04:27
calledappelé "AgainstContre the FallAutomne of Night" and "The CityVille and the StarsÉtoiles."
66
249000
4000
appelé Contre la Tombée de la Nuit et La Ville et les Etoiles.
04:31
They're bothtous les deux wonderfulformidable and largelyen grande partie the sameMême,
67
253000
3000
Les deux sont merveilleux et largement identiques
04:34
exceptsauf that computersdes ordinateurs happenedarrivé in betweenentre.
68
256000
2000
sauf que les ordinateurs sont apparus entre les deux.
04:36
And ArthurArthur was looking at this oldvieux booklivre, and he said, "Well, that was wrongfaux.
69
258000
5000
Et Arthur regardait ce vieux livre, et il a dit ce qui n'allait pas.
04:41
The futureavenir mustdoit have some computersdes ordinateurs."
70
263000
2000
L'avenir doit avoir des ordinateurs.
04:43
So in the secondseconde versionversion of it, there are 100 billionmilliard
71
265000
5000
Donc, dans la deuxième version du livre, il y a 100 milliards
04:48
or 1,000 billionmilliard people on EarthTerre, but they're all storedstockés on harddifficile disksdisques or floppiesdisquettes,
72
270000
8000
ou 1.000 milliards de personnes sur Terre, mais ils sont tous stockés sur des disques durs ou des disquettes,
04:56
or whateverpeu importe they have in the futureavenir.
73
278000
2000
ou ce qu'ils ont dans l'avenir.
04:58
And you let a fewpeu millionmillion of them out at a time.
74
280000
4000
Et vous laissez quelques millions d'entre eux sortir à la fois.
05:02
A personla personne comesvient out, they livevivre for a thousandmille yearsannées
75
284000
4000
Une personne sort, elle vit un millier d'années
05:06
doing whateverpeu importe they do, and then, when it's time to go back
76
288000
6000
fait ce qu'elle fait, et puis, quand il est temps de revenir
05:12
for a billionmilliard yearsannées -- or a millionmillion, I forgetoublier, the numbersNombres don't mattermatière --
77
294000
4000
pour un milliard d'années - ou un million, je ne sais plus, les chiffres n'ont pas d'importance -
05:16
but there really aren'tne sont pas very manybeaucoup people on EarthTerre at a time.
78
298000
4000
mais il y a vraiment très peu de gens sur la terre à la fois.
05:20
And you get to think about yourselftoi même and your memoriessouvenirs,
79
302000
2000
Et vous vous mettez à réfléchir sur vous-même et vos souvenirs,
05:22
and before you go back into suspensionsuspension, you editmodifier your memoriessouvenirs
80
304000
5000
et avant de retourner en suspension, vous modifier vos souvenirs
05:27
and you changechangement your personalitypersonnalité and so forthavant.
81
309000
3000
et vous modifiez votre personnalité et ainsi de suite.
05:30
The plotterrain of the booklivre is that there's not enoughassez diversityla diversité,
82
312000
6000
L'intrigue du livre est qu'il n'y a pas assez de diversité,
05:36
so that the people who designedconçu the cityville
83
318000
3000
et donc les gens qui ont conçu la ville
05:39
make sure that everychaque now and then an entirelyentièrement newNouveau personla personne is createdcréé.
84
321000
4000
se sont assurés que de temps à autre une personne entièrement nouvelle est créée.
05:43
And in the novelroman, a particularparticulier one namednommé AlvinAlvin is createdcréé. And he saysdit,
85
325000
6000
Et dans le roman, un individu nommé Alvin est créé. Et il dit:
05:49
maybe this isn't the bestmeilleur way, and wrecksépaves the wholeentier systemsystème.
86
331000
4000
c'est peut-être pas la meilleure façon, et des épaves de l'ensemble du système.
05:53
I don't think the solutionssolutions that I proposedproposé
87
335000
2000
Je ne pense pas que les solutions que j'ai proposées
05:55
are good enoughassez or smartintelligent enoughassez.
88
337000
3000
soient assez bonnes ou assez intelligentes.
05:58
I think the biggros problemproblème is that we're not smartintelligent enoughassez
89
340000
4000
Je pense que le gros problème est que nous ne sommes pas assez intelligents
06:02
to understandcomprendre whichlequel of the problemsproblèmes we're facingorienté vers are good enoughassez.
90
344000
4000
pour comprendre quels sont les problèmes assez bons parmis ceux auxquels nous sommes confrontés.
06:06
ThereforeC’est pourquoi, we have to buildconstruire supersuper intelligentintelligent machinesmachines like HALHAL.
91
348000
4000
Par conséquent, nous devons construire des machines super intelligentes comme HAL.
06:10
As you rememberrappelles toi, at some pointpoint in the booklivre for "2001,"
92
352000
5000
Comme vous le savez, à un moment donné dans le livre pour l'année 2001,
06:15
HALHAL realizesréalise that the universeunivers is too biggros, and grandgrandiose, and profoundprofond
93
357000
5000
HAL se rend compte que l'univers est trop grand et grandiose et profond
06:20
for those really stupidstupide astronautsastronautes. If you contrastcontraste HAL'sDe HAL behaviorcomportement
94
362000
4000
pour ces astronautes vraiment stupide. Si vous comparez le comportement de HAL
06:24
with the trivialitytrivialité of the people on the spaceshipvaisseau spatial,
95
366000
4000
avec la trivialité de la population sur le vaisseau spatial,
06:28
you can see what's writtenécrit betweenentre the lineslignes.
96
370000
3000
vous pouvez voir ce qui est écrit entre les lignes.
06:31
Well, what are we going to do about that? We could get smarterplus intelligent.
97
373000
3000
Eh bien, qu'allons-nous faire à ce sujet? Nous pourrions devenir plus intelligent.
06:34
I think that we're prettyjoli smartintelligent, as comparedpar rapport to chimpanzeeschimpanzés,
98
376000
5000
Je pense que nous sommes assez intelligents, comparativement à des chimpanzés,
06:39
but we're not smartintelligent enoughassez to dealtraiter with the colossalcolossale problemsproblèmes that we facevisage,
99
381000
6000
mais nous ne sommes pas assez intelligents pour faire face aux énormes problèmes auxquels nous sommes confrontés,
06:45
eithernon plus in abstractabstrait mathematicsmathématiques
100
387000
2000
que ce soit en mathématiques abstraites
06:47
or in figuringfigurer out economieséconomies, or balancingéquilibrage the worldmonde around.
101
389000
5000
ou pour comprendre les économies ou l'équilibre du monde qui nous entoure.
06:52
So one thing we can do is livevivre longerplus long.
102
394000
3000
Donc, une chose que nous pouvons faire, c'est vivre plus longtemps.
06:55
And nobodypersonne knowssait how harddifficile that is,
103
397000
2000
Et personne ne sait combien c'est difficile,
06:57
but we'llbien probablyProbablement find out in a fewpeu yearsannées.
104
399000
3000
mais nous allons probablement le découvrir dans quelques années.
07:00
You see, there's two forksfourches in the roadroute. We know that people livevivre
105
402000
3000
Vous voyez, il y a deux embranchements de la route. Nous savons que les gens vivent
07:03
twicedeux fois as long as chimpanzeeschimpanzés almostpresque,
106
405000
4000
deux fois plus longtemps que les chimpanzés, ou presque,
07:07
and nobodypersonne livesvies more than 120 yearsannées,
107
409000
4000
et personne ne vit plus de 120 ans,
07:11
for reasonsles raisons that aren'tne sont pas very well understoodcompris.
108
413000
3000
pour des raisons qu'on ne comprend pas très bien.
07:14
But lots of people now livevivre to 90 or 100,
109
416000
3000
Mais beaucoup de gens vivent maintenant à 90 ou 100,
07:17
unlesssauf si they shakesecouer handsmains too much or something like that.
110
419000
4000
à moins qu'ils ne se serrent la main trop souvent ou quelque chose comme ça.
07:21
And so maybe if we livedvivait 200 yearsannées, we could accumulateaccumuler enoughassez skillscompétences
111
423000
5000
Et alors peut-être si nous vivions 200 ans, nous pourrions accumuler suffisamment de compétences
07:26
and knowledgeconnaissance to solverésoudre some problemsproblèmes.
112
428000
5000
et de connaissances pour résoudre certains problèmes.
07:31
So that's one way of going about it.
113
433000
2000
Donc, c'est une façon de s'y prendre.
07:33
And as I said, we don't know how harddifficile that is. It mightpourrait be --
114
435000
3000
Et comme je l'ai dit, nous ne savons pas combien c'est difficile. Ce serait peut-être -
07:36
after all, mostles plus other mammalsmammifères livevivre halfmoitié as long as the chimpanzeechimpanzé,
115
438000
6000
Après tout, la plupart des autres mammifères vivent moitié moins long que le chimpanzé,
07:42
so we're sortTrier of threeTrois and a halfmoitié or fourquatre timesfois, have fourquatre timesfois
116
444000
3000
Nous avons donc trois fois et demi ou quatre fois - disont quatre fois
07:45
the longevitylongévité of mostles plus mammalsmammifères. And in the caseCas of the primatesprimates,
117
447000
6000
la longévité de la plupart des mammifères. Et dans le cas des primates,
07:51
we have almostpresque the sameMême genesgènes. We only differdifférer from chimpanzeeschimpanzés,
118
453000
4000
nous avons presque les mêmes gènes. Nous ne différons des chimpanzés
07:55
in the presentprésent stateEtat of knowledgeconnaissance, whichlequel is absoluteabsolu hogwashfoutaise,
119
457000
6000
dans l'état actuel des connaissances - ce qui est une foutaise absolue -
08:01
maybe by just a fewpeu hundredcent genesgènes.
120
463000
2000
peut-être par quelques centaines de gènes.
08:03
What I think is that the genegène counterscompteurs don't know what they're doing yetencore.
121
465000
3000
Ce que je pense, c'est que les compteurs de gène ne savent pas ce qu'ils font pour le moment.
08:06
And whateverpeu importe you do, don't readlis anything about geneticsla génétique
122
468000
3000
Et quoi que vous fassiez, ne lisez rien sur la génétique
08:09
that's publishedpublié withindans your lifetimedurée de vie, or something.
123
471000
3000
qu'on publiera de votre vivant.
08:12
(LaughterRires)
124
474000
3000
(Rires)
08:15
The stuffdes trucs has a very shortcourt half-lifeHalf-Life, sameMême with braincerveau sciencescience.
125
477000
4000
C'est un sujet qui a une demi-vie très courte, pareil pour la science du cerveau.
08:19
And so it mightpourrait be that if we just fixréparer fourquatre or fivecinq genesgènes,
126
481000
6000
Et donc peut-être que si nous réparons quatre ou cinq gènes,
08:25
we can livevivre 200 yearsannées.
127
487000
2000
nous pouvons vivre 200 ans.
08:27
Or it mightpourrait be that it's just 30 or 40,
128
489000
3000
Ou il se pourrait que ce soit juste 30 ou 40,
08:30
and I doubtdoute that it's severalnombreuses hundredcent.
129
492000
2000
et je doute que ce soit plusieurs centaines.
08:32
So this is something that people will be discussingdiscuter
130
494000
4000
Donc, c'est quelque chose dont les gens vont débattre
08:36
and lots of ethicistsspécialistes de l’éthique -- you know, an ethicistéthicien is somebodyquelqu'un
131
498000
3000
et beaucoup de spécialistes de l'éthique - vous savez, un éthicien est quelqu'un
08:39
who seesvoit something wrongfaux with whateverpeu importe you have in mindesprit.
132
501000
3000
qui voit quelque chose de mal avec ce que vous avez à l'esprit.
08:42
(LaughterRires)
133
504000
3000
(Rires)
08:45
And it's very harddifficile to find an ethicistéthicien who considersestime any changechangement
134
507000
4000
Et il est très difficile de trouver un éthicien qui considère qu'un changement quelconque
08:49
worthvaut makingfabrication, because he saysdit, what about the consequencesconséquences?
135
511000
4000
vaille la peine, parce que, dit-il, qu'en est-il des conséquences?
08:53
And, of coursecours, we're not responsibleresponsable for the consequencesconséquences
136
515000
3000
Et bien sûr, nous ne sommes pas responsables des conséquences
08:56
of what we're doing now, are we? Like all this complaintplainte about clonesclones.
137
518000
6000
de ce que nous faisons maintenant, n'est-ce pas? Comme toutes ces plaintes au sujet des clones.
09:02
And yetencore two randomau hasard people will matematé and have this childenfant,
138
524000
3000
Et pourtant, deux personnes au hasard s'accoupleront et feront cet enfant,
09:05
and bothtous les deux of them have some prettyjoli rottenpourri genesgènes,
139
527000
4000
et tous les deux ont des gènes assez pourris,
09:09
and the childenfant is likelyprobable to come out to be averagemoyenne.
140
531000
4000
et l'enfant est susceptible de n'être que moyen.
09:13
WhichQui, by chimpanzeechimpanzé standardsnormes, is very good indeedeffectivement.
141
535000
6000
Et selon les normes chimpanzé, c'est vraiment très bien.
09:19
If we do have longevitylongévité, then we'llbien have to facevisage the populationpopulation growthcroissance
142
541000
3000
Si nous avons la longévité, alors nous aurons à faire face à la croissance de la population
09:22
problemproblème anywayen tous cas. Because if people livevivre 200 or 1,000 yearsannées,
143
544000
4000
de toute façon. Parce que si les gens vivent 200 ou 1000 ans,
09:26
then we can't let them have a childenfant more than about onceune fois que everychaque 200 or 1,000 yearsannées.
144
548000
6000
nous ne pouvons leur laisser faire un enfant q'environ une fois tous les 200 ou 1.000 ans.
09:32
And so there won'thabitude be any workforcela main d'oeuvre.
145
554000
3000
Et il n'y aura pas de main-d'œuvre.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedpointu out, and othersautres have,
146
557000
4000
Et une des choses que Laurie Garrett et d'autres ont souligné,
09:39
is that a societysociété that doesn't have people
147
561000
5000
est qu'une société qui ne possède pas de gens
09:44
of workingtravail ageâge is in realréal troubledifficulté. And things are going to get worsepire,
148
566000
3000
en âge de travailler est en réelle difficulté. Et les choses vont s'aggraver,
09:47
because there's nobodypersonne to educateéduquer the childrenles enfants or to feedalimentation the oldvieux.
149
569000
6000
car il n'y a personne pour éduquer les enfants ou pour nourrir les personnes âgées.
09:53
And when I'm talkingparlant about a long lifetimedurée de vie, of coursecours,
150
575000
2000
Et quand je parle d'une longue durée de vie, bien sûr,
09:55
I don't want somebodyquelqu'un who'squi est 200 yearsannées oldvieux to be like our imageimage
151
577000
6000
je ne veux pas que quelqu'un qui a 200 ans ressemble à l'image
10:01
of what a 200-year-old-Age is -- whichlequel is deadmort, actuallyréellement.
152
583000
4000
de quelqu'un de 200 ans - c'est-à-dire mort, en fait.
10:05
You know, there's about 400 differentdifférent partsles pièces of the braincerveau
153
587000
2000
Vous savez, il y a environ 400 différentes parties du cerveau
10:07
whichlequel seemsembler to have differentdifférent functionsles fonctions.
154
589000
2000
qui semblent avoir des fonctions différentes.
10:09
NobodyPersonne ne knowssait how mostles plus of them work in detaildétail,
155
591000
3000
Personne ne sait comment la plupart d'entre elles travaillent dans le détail,
10:12
but we do know that there'reil y a lots of differentdifférent things in there.
156
594000
4000
mais nous savons qu'il y a beaucoup de différentes choses là-dedans.
10:16
And they don't always work togetherensemble. I like Freud'sFreud theorythéorie
157
598000
2000
Et elles ne travaillent pas toujours ensemble. J'aime la théorie de Freud
10:18
that mostles plus of them are cancellingannulation eachchaque other out.
158
600000
4000
que la plupart d'entre elles s'annulent mutuellement.
10:22
And so if you think of yourselftoi même as a sortTrier of cityville
159
604000
4000
Et si vous pensez que vous-même êtes comme une sorte de ville
10:26
with a hundredcent resourcesRessources, then, when you're afraidpeur, for exampleExemple,
160
608000
6000
avec une centaine de ressources, puis, quand vous avez peur, par exemple,
10:32
you maymai discardJeter your long-rangelongue portée goalsbuts, but you maymai think deeplyprofondément
161
614000
4000
vous pouvez laisser tomber vos objectifs à long terme, mais vous pouvez penser profondément
10:36
and focusconcentrer on exactlyexactement how to achieveatteindre that particularparticulier goalobjectif.
162
618000
4000
et vous concentrer sur comment atteindre cet objectif particulier exactement .
10:40
You throwjeter everything elseautre away. You becomedevenir a monomaniacmonomaniaque --
163
622000
3000
Vous laissez tomber tout le reste de suite. Vous devenez monomaniaque -
10:43
all you carese soucier about is not steppingpas à pas out on that platformPlate-forme.
164
625000
4000
Tout ce qui vous intéresse est de ne pas descendre de ce quai.
10:47
And when you're hungryaffamé, foodaliments becomesdevient more attractiveattrayant, and so forthavant.
165
629000
4000
Et quand vous avez faim, la nourriture devient plus attrayante, et ainsi de suite.
10:51
So I see emotionsémotions as highlytrès evolvedévolué subsetssous-ensembles of your capabilityaptitude.
166
633000
6000
Je vois donc les émotions comme des sous-ensembles très évolués de vos capacités.
10:57
EmotionÉmotion is not something addedajoutée to thought. An emotionalémotif stateEtat
167
639000
4000
L'émotion n'est pas quelque chose en plus de la pensée. Un état émotionnel
11:01
is what you get when you removeretirer 100 or 200
168
643000
4000
est ce que vous obtenez lorsque vous supprimez 100 ou 200
11:05
of your normallynormalement availabledisponible resourcesRessources.
169
647000
3000
de vos ressources normalement disponibles.
11:08
So thinkingen pensant of emotionsémotions as the oppositecontraire of -- as something
170
650000
3000
Ainsi penser que les émotions sont le contraire de quelque chose
11:11
lessMoins than thinkingen pensant is immenselyimmensément productiveproductif. And I hopeespérer,
171
653000
4000
inférieur à la pensée est extrêmement productive. Et j'espère,
11:15
in the nextprochain fewpeu yearsannées, to showmontrer that this will leadconduire to smartintelligent machinesmachines.
172
657000
4000
dans les années qui viennent, montrer que cela conduira à des machines intelligentes.
11:19
And I guessdeviner I better skipsauter all the restdu repos of this, whichlequel are some detailsdétails
173
661000
3000
Et je suppose que je ferais mieux de sauter tout le reste, ce sont des détails
11:22
on how we mightpourrait make those smartintelligent machinesmachines and --
174
664000
5000
sur la façon dont nous pourrions rendre ces machines «intelligentes» et -
11:27
(LaughterRires)
175
669000
5000
(Rires)
11:32
-- and the mainprincipale ideaidée is in factfait that the corecoeur of a really smartintelligent machinemachine
176
674000
5000
- et l'idée principale est en fait que le noyau d'une machine vraiment intelligente
11:37
is one that recognizesreconnaît that a certaincertain kindgentil of problemproblème is facingorienté vers you.
177
679000
5000
est celle qui reconnaît qu'un certain type de problème se pose à vous.
11:42
This is a problemproblème of suchtel and suchtel a typetype,
178
684000
3000
Il s'agit d'un problème de tel ou tel type,
11:45
and thereforedonc there's a certaincertain way or waysfaçons of thinkingen pensant
179
687000
5000
et donc il y a une certaine façon ou plusieurs certaines façons de penser
11:50
that are good for that problemproblème.
180
692000
2000
qui sont bonnes pour ce problème.
11:52
So I think the futureavenir, mainprincipale problemproblème of psychologypsychologie is to classifyclasser
181
694000
4000
Je pense donc que le problème principal à venir de la psychologie est de classer
11:56
typesles types of predicamentssituations difficiles, typesles types of situationssituations, typesles types of obstaclesobstacles
182
698000
4000
les types de situations difficiles, les types de situations, les types d'obstacles
12:00
and alsoaussi to classifyclasser availabledisponible and possiblepossible waysfaçons to think and pairpaire them up.
183
702000
6000
et aussi de classer les moyens disponibles et possibles de penser et de les apparier.
12:06
So you see, it's almostpresque like a PavlovianPavlovien --
184
708000
3000
Donc, vous voyez, c'est presque comme un réflexe pavlovien -
12:09
we lostperdu the first hundredcent yearsannées of psychologypsychologie
185
711000
2000
nous avons perdu les cent premières années de la psychologie
12:11
by really trivialbanal theoriesthéories, where you say,
186
713000
3000
avec des théories vraiment triviales où vous dites,
12:14
how do people learnapprendre how to reactréagir to a situationsituation? What I'm sayingen disant is,
187
716000
6000
comment les gens apprennent à réagir à une situation? Ce que je dis c'est,
12:20
after we go throughpar a lot of levelsles niveaux, includingcomprenant designingconception
188
722000
5000
qu'une fois ce niveau passé, y compris la conception
12:25
a hugeénorme, messydésordonné systemsystème with thousandsmilliers of portsports,
189
727000
3000
d'un immense système désordonné avec des milliers de pièces,
12:28
we'llbien endfin up again with the centralcentral problemproblème of psychologypsychologie.
190
730000
4000
nous finirons à nouveau avec le problème central de la psychologie.
12:32
SayingDicton, not what are the situationssituations,
191
734000
3000
En disant, non pas ce que sont les situations,
12:35
but what are the kindssortes of problemsproblèmes
192
737000
2000
mais quels sont les types de problèmes
12:37
and what are the kindssortes of strategiesstratégies, how do you learnapprendre them,
193
739000
3000
et quels sont les types de stratégies, comment les apprendre,
12:40
how do you connectrelier them up, how does a really creativeCréatif personla personne
194
742000
3000
comment les connecter, comment une personne très créative
12:43
inventinventer a newNouveau way of thinkingen pensant out of the availabledisponible resourcesRessources and so forthavant.
195
745000
5000
invente une nouvelle façon de penser à partir des ressources disponibles et ainsi de suite.
12:48
So, I think in the nextprochain 20 yearsannées,
196
750000
2000
Je pense donc que dans les 20 prochaines années,
12:50
if we can get riddébarrasser of all of the traditionaltraditionnel approachesapproches to artificialartificiel intelligenceintelligence,
197
752000
5000
si nous pouvons nous débarrasser de toutes les approches traditionnelles de l'intelligence artificielle,
12:55
like neuralneural netsfilets and geneticgénétique algorithmsalgorithmes
198
757000
2000
comme les réseaux neuronaux et algorithmes génétiques
12:57
and rule-basedfondé sur des règles systemssystèmes, and just turntour our sightscuriosités a little bitbit higherplus haute to say,
199
759000
6000
et les systèmes à base de règles, et qu'on se contente de viser un peu plus haut pour dire,
13:03
can we make a systemsystème that can use all those things
200
765000
2000
pouvons-nous faire un système qui puisse utiliser toutes ces choses
13:05
for the right kindgentil of problemproblème? Some problemsproblèmes are good for neuralneural netsfilets;
201
767000
4000
pour le bon type de problème? Certains problèmes sont bons pour les réseaux neuronaux;
13:09
we know that othersautres, neuralneural netsfilets are hopelessdésespéré on them.
202
771000
3000
Nous savons que d'autres, des réseaux neuronaux ne leur servent à rien.
13:12
GeneticGénétiques algorithmsalgorithmes are great for certaincertain things;
203
774000
3000
Les algorithmes génétiques sont super pour certaines choses;
13:15
I suspectsuspect I know what they're badmal at, and I won'thabitude tell you.
204
777000
4000
Je pense savoir dans quels cas ils sont mauvais à et je ne vous le dirai pas.
13:19
(LaughterRires)
205
781000
1000
(Rires)
13:20
Thank you.
206
782000
2000
Merci.
13:22
(ApplauseApplaudissements)
207
784000
6000
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Antoniu Gugu

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee