ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky over gezondheid en de menselijke geest

Filmed:
606,909 views

Luister goed - Marvin Minsky's olijke, eclectische, charmant spontane praatje over gezondheid, overbevolking en de menselijke geest bulkt van de subtiliteiten: geestigheid, wijsheid en een snuifje sluw - meent-hij't? - advies.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askvragen people about what partdeel of psychologypsychologie do they think is hardhard,
0
0
6000
Als je mensen vraagt welk deel van de psychologie ze moeilijk vinden,
00:24
and you say, "Well, what about thinkinghet denken and emotionsemoties?"
1
6000
3000
en je zegt: "Wat dacht je van denken en emoties?"
00:27
MostDe meeste people will say, "EmotionsEmoties are terriblyvreselijk hardhard.
2
9000
3000
dan zullen de meeste mensen zeggen: "Emoties zijn verschrikkelijk lastig.
00:30
They're incrediblyongelooflijk complexcomplex. They can't -- I have no ideaidee of how they work.
3
12000
6000
Ze zijn ongelooflijk complex, ze kunnen niet - Ik heb er geen idee van hoe ze werken."
00:36
But thinkinghet denken is really very straightforwardrechtdoorzee:
4
18000
2000
Maar denken is echt heel eenvoudig:
00:38
it's just sortsoort of some kindsoort of logicallogisch reasoningredenering, or something.
5
20000
4000
het is gewoon soort van een soort van logisch redeneren of iets dergelijks.
00:42
But that's not the hardhard partdeel."
6
24000
3000
Maar dat is niet het moeilijkste deel.
00:45
So here'shier is a listlijst of problemsproblemen that come up.
7
27000
2000
Dus hier is een lijst van problemen die naar boven komen.
00:47
One niceleuk problemprobleem is, what do we do about healthGezondheid?
8
29000
3000
Een leuk probleem is: wat doen we met gezondheid?
00:50
The other day, I was readinglezing something, and the personpersoon said
9
32000
4000
Op een dag zat ik iets te lezen, en iemand zei:
00:54
probablywaarschijnlijk the largestDe grootste singlesingle causeoorzaak of diseaseziekte is handshakinghandshaking in the WestWest.
10
36000
6000
waarschijnlijk is handen geven de grootste oorzaak van de ziekte in het Westen.
01:00
And there was a little studystudie about people who don't handshakehanddruk,
11
42000
4000
Er was een kleine studie over mensen die geen handen geven,
01:04
and comparingvergelijken them with onesdegenen who do handshakehanddruk.
12
46000
3000
vergeleken met degenen die wel handen geven
01:07
And I haven'thebben niet the foggiestfoggiest ideaidee of where you find the onesdegenen that don't handshakehanddruk,
13
49000
5000
en ik heb geen flauw idee waar je die mensen vindt die geen handen geven,
01:12
because they mustmoet be hidingverbergen.
14
54000
3000
die zitten waarschijnlijk ondergedoken.
01:15
And the people who avoidvermijden that
15
57000
4000
Mensen die dat niet doen,
01:19
have 30 percentprocent lessminder infectiousbesmettelijke diseaseziekte or something.
16
61000
4000
hebben 30 procent minder besmettelijke ziektes of iets dergelijks.
01:23
Or maybe it was 31 and a quarterkwartaal percentprocent.
17
65000
3000
Of misschien was het 31 en een kwart procent.
01:26
So if you really want to solveoplossen the problemprobleem of epidemicsepidemieën and so forthvoort,
18
68000
4000
Dus als je het probleem van de epidemieën enzovoort echt wil oplossen,
01:30
let's startbegin with that. And sincesinds I got that ideaidee,
19
72000
4000
moet je daarmee beginnen. En sinds ik dat idee kreeg,
01:34
I've had to shakeschudden hundredshonderden of handshanden.
20
76000
4000
heb ik honderden handen te schudden gehad.
01:38
And I think the only way to avoidvermijden it
21
80000
5000
Ik denk dat de enige manier om het te vermijden,
01:43
is to have some horribleverschrikkelijk visiblezichtbaar diseaseziekte,
22
85000
2000
is om een zichtbare vreselijke ziekte te hebben,
01:45
and then you don't have to explainuitleg geven.
23
87000
3000
dan hoef je niets uit te leggen.
01:48
EducationOnderwijs: how do we improveverbeteren educationonderwijs?
24
90000
4000
Onderwijs: hoe kunnen we het onderwijs verbeteren?
01:52
Well, the singlesingle bestbeste way is to get them to understandbegrijpen
25
94000
4000
Nou, de beste manier is om ze te laten begrijpen
01:56
that what they're beingwezen told is a wholegeheel lot of nonsenseonzin.
26
98000
3000
dat wat ze verteld wordt, een hele hoop onzin is.
01:59
And then, of courseCursus, you have to do something
27
101000
2000
Dan moet je bedenken
02:01
about how to moderatematig that, so that anybodyiemand can -- so they'llzullen ze listen to you.
28
103000
5000
hoe je dat kan afzwakken, zodat iedereen naar jou gaat luisteren.
02:06
PollutionVervuiling, energyenergie shortagetekort, environmentalmilieu diversityverscheidenheid, povertyarmoede.
29
108000
4000
Vervuiling, energietekorten, milieu-diversiteit, armoede -
02:10
How do we make stablestal societiessamenlevingen? LongevityLange levensduur.
30
112000
4000
Hoe maken we stabiele samenlevingen? Lange levensduur.
02:14
Okay, there'reer bent lots of problemsproblemen to worryzorgen about.
31
116000
3000
Oké, er zijn veel problemen om je zorgen over te maken.
02:17
AnywayHoe dan ook, the questionvraag I think people should talk about --
32
119000
2000
Hoe dan ook, waarover mensen volgens mij moeten praten, is -
02:19
and it's absolutelyAbsoluut tabootaboe -- is, how manyveel people should there be?
33
121000
5000
en het is absoluut taboe - is, hoeveel mensen zouden er moeten zijn?
02:24
And I think it should be about 100 millionmiljoen or maybe 500 millionmiljoen.
34
126000
7000
Volgens mij ongeveer 100 miljoen of misschien 500 miljoen.
02:31
And then noticekennisgeving that a great manyveel of these problemsproblemen disappearverdwijnen.
35
133000
5000
Je zult merken dat er dan een groot aantal van deze problemen verdwijnen.
02:36
If you had 100 millionmiljoen people
36
138000
2000
Als je 100 miljoen mensen hebt,
02:38
properlynaar behoren spreadverspreiding out, then if there's some garbagevuilnis,
37
140000
6000
goed gespreid, dan kan je je vuilnis
02:44
you throwGooi it away, preferablybij voorkeur where you can't see it, and it will rotRot.
38
146000
7000
weggooien, bij voorkeur waar je het niet kunt zien, en het zal wegrotten.
02:51
Or you throwGooi it into the oceanoceaan and some fishvis will benefitvoordeel from it.
39
153000
5000
Of je gooit het in de oceaan en sommige vissen zullen ervan profiteren.
02:56
The problemprobleem is, how manyveel people should there be?
40
158000
2000
Het probleem is: hoeveel mensen zouden er moeten zijn?
02:58
And it's a sortsoort of choicekeuze we have to make.
41
160000
3000
Het is een keuze die we moeten maken.
03:01
MostDe meeste people are about 60 inchesinches highhoog or more,
42
163000
3000
De meeste mensen zijn ongeveer 1,5 m groot, of meer.
03:04
and there's these cubekubus lawswetten. So if you make them this biggroot,
43
166000
4000
Er bestaat zoiets als de kubusregel, waardoor ze, als je ze zo klein maakt,
03:08
by usinggebruik makend van nanotechnologynanotechnologie, I supposeveronderstellen --
44
170000
3000
door gebruik te maken van nanotechnologie, veronderstel ik -
03:11
(LaughterGelach)
45
173000
1000
(Gelach)
03:12
-- then you could have a thousandduizend timestijden as manyveel.
46
174000
2000
- Dan kun je er duizend keer meer hebben.
03:14
That would solveoplossen the problemprobleem, but I don't see anybodyiemand
47
176000
2000
Dat zou het probleem oplossen, maar ik zie niemand
03:16
doing any researchOnderzoek on makingmaking people smallerkleiner.
48
178000
3000
onderzoek doen naar het kleiner maken van mensen.
03:19
Now, it's niceleuk to reduceverminderen the populationbevolking, but a lot of people want to have childrenkinderen.
49
181000
5000
Bevolkingsvermindering is leuk, maar vele mensen willen kinderen.
03:24
And there's one solutionoplossing that's probablywaarschijnlijk only a fewweinig yearsjaar off.
50
186000
3000
Er is een oplossing die waarschijnlijk maar een paar jaar van ons verwijderd is.
03:27
You know you have 46 chromosomeschromosomen. If you're luckyLucky, you've got 23
51
189000
5000
Je weet dat je 46 chromosomen heb. Als je geluk hebt, heb je er 23
03:32
from eachelk parentouder. SometimesSoms you get an extraextra one or droplaten vallen one out,
52
194000
6000
van elke ouder, soms krijg je een extra of valt er een uit -
03:38
but -- so you can skipoverspringen the grandparentgrootouder and great-grandparentgroot-grootouders stagestadium
53
200000
4000
maar - je kunt het stadium van grootouders en overgrootouders overslaan
03:42
and go right to the great-great-grandparentgroot-groot-grootouders. And you have 46 people
54
204000
5000
en recht naar de betovergrootouders gaan. Neem 46 mensen,
03:47
and you give them a scannerscanner, or whateverwat dan ook you need,
55
209000
3000
geef ze een scanner, of wat je nodig hebt,
03:50
and they look at theirhun chromosomeschromosomen and eachelk of them sayszegt
56
212000
4000
en laat ze kijken ze naar hun chromosomen, en elk van hen mag zeggen
03:54
whichwelke one he likessympathieën bestbeste, or she -- no reasonreden to have just two sexesgeslachten
57
216000
5000
welke hij of zij verkiest - we hoeven ons zelfs niet meer tot 2 geslachten
03:59
any more, even. So eachelk childkind has 46 parentsouders,
58
221000
5000
te beperken. Dus ieder kind heeft 46 ouders,
04:04
and I supposeveronderstellen you could let eachelk groupgroep of 46 parentsouders have 15 childrenkinderen.
59
226000
6000
en ik veronderstel dat je elke groep van 46 ouders 15 kinderen zou kunnen geven -
04:10
Wouldn'tZou niet that be enoughgenoeg? And then the childrenkinderen
60
232000
2000
zou dat niet genoeg zijn? Dan zouden de kinderen
04:12
would get plentyovervloed of supportondersteuning, and nurturingverzorgende, and mentoringbegeleiding,
61
234000
4000
veel steun en verzorging en begeleiding krijgen
04:16
and the worldwereld- populationbevolking would declineafwijzen very rapidlysnel
62
238000
2000
en de wereldbevolking zou zeer snel dalen
04:18
and everybodyiedereen would be totallyhelemaal happygelukkig.
63
240000
3000
en iedereen zou helemaal gelukkig zijn.
04:21
TimesharingTimesharing is a little furtherverder off in the futuretoekomst.
64
243000
3000
Timesharing is een beetje verder af in de toekomst.
04:24
And there's this great novelroman that ArthurArthur ClarkeClarke wroteschreef twicetweemaal,
65
246000
3000
Er is de grote roman die Arthur Clarke twee keer schreef,
04:27
calledriep "AgainstTegen the FallVal of Night" and "The CityStad and the StarsSterren."
66
249000
4000
"Against the Fall of Night" en "The City and the Stars".
04:31
They're bothbeide wonderfulprachtig and largelygrotendeels the samedezelfde,
67
253000
3000
Ze zijn allebei prachtig en grotendeels gelijklopend,
04:34
exceptbehalve that computerscomputers happenedgebeurd in betweentussen.
68
256000
2000
behalve dat er intussen computers kwamen.
04:36
And ArthurArthur was looking at this oldoud bookboek, and he said, "Well, that was wrongfout.
69
258000
5000
Arthur keek naar dit oude boek, en hij zei, nou, dat was verkeerd.
04:41
The futuretoekomst mustmoet have some computerscomputers."
70
263000
2000
De toekomst moet een aantal computers hebben.
04:43
So in the secondtweede versionversie of it, there are 100 billionmiljard
71
265000
5000
Dus in de tweede versie zijn er 100 miljard
04:48
or 1,000 billionmiljard people on EarthAarde, but they're all storedopgeslagen on hardhard disksschijven or floppiesdiskettes,
72
270000
8000
of 1.000 miljard mensen op aarde, maar ze zijn allemaal opgeslagen op harde schijven of diskettes,
04:56
or whateverwat dan ook they have in the futuretoekomst.
73
278000
2000
of wat ze ook maar hebben in de toekomst.
04:58
And you let a fewweinig millionmiljoen of them out at a time.
74
280000
4000
Je laat ze eruit in groepen van een paar miljoen.
05:02
A personpersoon comeskomt out, they liveleven for a thousandduizend yearsjaar
75
284000
4000
Mensen komen uit, ze leven duizend jaar,
05:06
doing whateverwat dan ook they do, and then, when it's time to go back
76
288000
6000
doen wat ze doen, en dan, wanneer het tijd is om terug te gaan
05:12
for a billionmiljard yearsjaar -- or a millionmiljoen, I forgetvergeten, the numbersgetallen don't matterer toe doen --
77
294000
4000
voor een miljard jaar - of een miljoen, ik weet het niet meer - de cijfers doen er niet toe -
05:16
but there really aren'tzijn niet very manyveel people on EarthAarde at a time.
78
298000
4000
maar er zijn echt niet zo veel mensen op aarde op een bepaald moment.
05:20
And you get to think about yourselfjezelf and your memoriesherinneringen,
79
302000
2000
Je moet nadenken over jezelf en je herinneringen,
05:22
and before you go back into suspensionschorsing, you editBewerk your memoriesherinneringen
80
304000
5000
en voordat je terug geschorst wordt, bewerk je je herinneringen
05:27
and you changeverandering your personalitypersoonlijkheid and so forthvoort.
81
309000
3000
verander je je persoonlijkheid enzovoort.
05:30
The plotplot of the bookboek is that there's not enoughgenoeg diversityverscheidenheid,
82
312000
6000
De plot van het boek is dat er niet genoeg diversiteit is,
05:36
so that the people who designedontworpen the citystad
83
318000
3000
zodat de mensen die de stad ontwierpen,
05:39
make sure that everyelk now and then an entirelygeheel newnieuwe personpersoon is createdaangemaakt.
84
321000
4000
zo nu en dan een geheel nieuwe persoon creëren.
05:43
And in the novelroman, a particularbijzonder one namedgenaamd AlvinAlvin is createdaangemaakt. And he sayszegt,
85
325000
6000
In het boek wordt een zekere Alvin gemaakt. Hij zegt:
05:49
maybe this isn't the bestbeste way, and wreckswrakken the wholegeheel systemsysteem.
86
331000
4000
"Misschien is dit niet de beste manier," en hij helpt het systeem om zeep.
05:53
I don't think the solutionsoplossingen that I proposedvoorgestelde
87
335000
2000
Ik denk niet dat de oplossingen die ik voorstel
05:55
are good enoughgenoeg or smartslim enoughgenoeg.
88
337000
3000
goed genoeg of slim genoeg zijn.
05:58
I think the biggroot problemprobleem is that we're not smartslim enoughgenoeg
89
340000
4000
Ik denk dat het grote probleem is dat we niet slim genoeg zijn
06:02
to understandbegrijpen whichwelke of the problemsproblemen we're facinggeconfronteerd are good enoughgenoeg.
90
344000
4000
om te begrijpen welke van onze problemen goed genoeg zijn.
06:06
ThereforeDaarom, we have to buildbouwen supersuper intelligentintelligent machinesmachines like HALHAL.
91
348000
4000
Daarom moeten we superintelligente machines bouwen, zoals HAL.
06:10
As you rememberonthouden, at some pointpunt in the bookboek for "2001,"
92
352000
5000
Je weet nog wel dat HAL op een bepaald punt in het 2001-boek
06:15
HALHAL realizesrealiseert that the universeuniversum is too biggroot, and grandgroots, and profounddiepgaand
93
357000
5000
beseft dat het universum te groot en groots en diep is
06:20
for those really stupiddom astronautsastronauten. If you contrastcontrast HAL'sHAL behaviorgedrag
94
362000
4000
voor die oliedomme astronauten. Zet het gedrag van HAL
06:24
with the trivialitythe bikeshed of the people on the spaceshipruimteschip,
95
366000
4000
naast de trivialiteit van de mensen op het ruimteschip,
06:28
you can see what's writtengeschreven betweentussen the lineslijnen.
96
370000
3000
en je kunt zien wat er tussen de regels staat.
06:31
Well, what are we going to do about that? We could get smarterslimmer.
97
373000
3000
Nou, wat gaan we doen? We zouden slimmer kunnen worden.
06:34
I think that we're prettymooi smartslim, as comparedvergeleken to chimpanzeeschimpansees,
98
376000
5000
Ik denk dat we behoorlijk slim zijn, in vergelijking met chimpansees,
06:39
but we're not smartslim enoughgenoeg to dealtransactie with the colossalkolossale problemsproblemen that we facegezicht,
99
381000
6000
maar we zijn niet slim genoeg om om te gaan met de kolossale problemen waarmee wij geconfronteerd worden,
06:45
eithereen van beide in abstractabstract mathematicswiskunde
100
387000
2000
of het nu in abstracte wiskunde is
06:47
or in figuringuitzoeken out economieseconomieën, or balancingBalancing the worldwereld- around.
101
389000
5000
of in het snappen van economieën of het in evenwicht houden van de wereld rondom ons.
06:52
So one thing we can do is liveleven longerlanger.
102
394000
3000
Dus een ding dat we kunnen doen is langer leven.
06:55
And nobodyniemand knowsweet how hardhard that is,
103
397000
2000
En niemand weet hoe moeilijk dat is,
06:57
but we'llgoed probablywaarschijnlijk find out in a fewweinig yearsjaar.
104
399000
3000
maar we zullen het waarschijnlijk over een paar jaar te weten komen.
07:00
You see, there's two forksvorken in the roadweg. We know that people liveleven
105
402000
3000
Er is een tweesprong op de weg. We weten dat mensen
07:03
twicetweemaal as long as chimpanzeeschimpansees almostbijna,
106
405000
4000
bijna twee keer zo lang leven als chimpansees,
07:07
and nobodyniemand liveslevens more than 120 yearsjaar,
107
409000
4000
en niemand leeft meer dan 120 jaar,
07:11
for reasonsredenen that aren'tzijn niet very well understoodbegrijpelijk.
108
413000
3000
om redenen die we niet erg goed begrijpen.
07:14
But lots of people now liveleven to 90 or 100,
109
416000
3000
Maar veel mensen worden nu 90 of 100,
07:17
unlesstenzij they shakeschudden handshanden too much or something like that.
110
419000
4000
tenzij ze teveel handen schudden of iets dergelijks.
07:21
And so maybe if we livedleefden 200 yearsjaar, we could accumulateaccumuleren enoughgenoeg skillsvaardigheden
111
423000
5000
Als we 200 jaar leefden, zouden we misschien genoeg vaardigheden verzamelen
07:26
and knowledgekennis to solveoplossen some problemsproblemen.
112
428000
5000
en kennis om een ​​aantal problemen op te lossen.
07:31
So that's one way of going about it.
113
433000
2000
Dus dat is een mogelijke aanpak.
07:33
And as I said, we don't know how hardhard that is. It mightmacht be --
114
435000
3000
Zoals ik al zei, weten we niet hoe moeilijk dat is. Het zou kunnen zijn -
07:36
after all, mostmeest other mammalszoogdieren liveleven halfvoor de helft as long as the chimpanzeechimpansee,
115
438000
6000
Immers, de meeste andere zoogdieren leven half zo lang als de chimpansee,
07:42
so we're sortsoort of threedrie and a halfvoor de helft or fourvier timestijden, have fourvier timestijden
116
444000
3000
dus we zijn ongeveer drie-en-een-half of vier keer - hebben vier keer
07:45
the longevitylang leven of mostmeest mammalszoogdieren. And in the casegeval of the primatesprimaten,
117
447000
6000
de levensduur van de meeste zoogdieren. In het geval van de primaten,
07:51
we have almostbijna the samedezelfde genesgenen. We only differverschillen from chimpanzeeschimpansees,
118
453000
4000
hebben we bijna dezelfde genen. We verschillen alleen van de chimpansees,
07:55
in the presentaanwezig statestaat of knowledgekennis, whichwelke is absoluteabsoluut hogwashonzin,
119
457000
6000
volgens de huidige stand van kennis - die absolute onzin is -
08:01
maybe by just a fewweinig hundredhonderd genesgenen.
120
463000
2000
wat betreft slechts een paar honderd genen.
08:03
What I think is that the genegen counterstellers don't know what they're doing yetnog.
121
465000
3000
Wat ik denk is dat het genentellers nog niet weten wat ze doen.
08:06
And whateverwat dan ook you do, don't readlezen anything about geneticsgenetica
122
468000
3000
Wat je ook doet, lees niets over genetica
08:09
that's publishedgepubliceerd withinbinnen your lifetimelevenslang, or something.
123
471000
3000
dat is gepubliceerd tijdens je leven, of zoiets.
08:12
(LaughterGelach)
124
474000
3000
(Gelach)
08:15
The stuffspul has a very shortkort half-lifeHalf-Life, samedezelfde with brainhersenen sciencewetenschap.
125
477000
4000
Het spul heeft een zeer korte halfwaardetijd, hetzelfde met hersenwetenschappen.
08:19
And so it mightmacht be that if we just fixrepareren fourvier or fivevijf genesgenen,
126
481000
6000
En zo kan het zijn dat als we vier of vijf genen fixen,
08:25
we can liveleven 200 yearsjaar.
127
487000
2000
we 200 jaar kunnen leven.
08:27
Or it mightmacht be that it's just 30 or 40,
128
489000
3000
Of het zou kunnen zijn dat het maar 30 of 40 is,
08:30
and I doubttwijfel that it's severalverscheidene hundredhonderd.
129
492000
2000
en ik betwijfel dat het een paar honderd is.
08:32
So this is something that people will be discussingbespreken
130
494000
4000
Dus dit is iets dat de mensen zullen bespreken
08:36
and lots of ethicistsethici -- you know, an ethicistethicus is somebodyiemand
131
498000
3000
en veel ethici - je weet wel, een ethicus is iemand
08:39
who seesziet something wrongfout with whateverwat dan ook you have in mindgeest.
132
501000
3000
die iets verkeerds ziet in al je gedachten.
08:42
(LaughterGelach)
133
504000
3000
(Gelach)
08:45
And it's very hardhard to find an ethicistethicus who considersis van mening any changeverandering
134
507000
4000
Het is heel moeilijk om een ethicus te vinden die vindt dat elke verandering
08:49
worthwaard makingmaking, because he sayszegt, what about the consequencesgevolgen?
135
511000
4000
de moeite is, want hij vraagt altijd hoe het met de gevolgen zit.
08:53
And, of courseCursus, we're not responsibleverantwoordelijk for the consequencesgevolgen
136
515000
3000
Natuurlijk staan we niet in voor de gevolgen
08:56
of what we're doing now, are we? Like all this complaintklacht about clonesklonen.
137
518000
6000
van wat we nu doen, of wel? Kijk naar het geklaag over klonen.
09:02
And yetnog two randomwillekeurig people will matestuurman and have this childkind,
138
524000
3000
Maaar als twee willekeurige mensen seks hebben en een kind krijgen,
09:05
and bothbeide of them have some prettymooi rottenrotte genesgenen,
139
527000
4000
en zelfs als ze belabberde genen hebben,
09:09
and the childkind is likelywaarschijnlijk to come out to be averagegemiddelde.
140
531000
4000
zullen ze waarschijnlijk een gemiddeld kind krijgen.
09:13
WhichDie, by chimpanzeechimpansee standardsstandaarden, is very good indeedinderdaad.
141
535000
6000
Naar chimpanseenormen is dat erg goed.
09:19
If we do have longevitylang leven, then we'llgoed have to facegezicht the populationbevolking growthgroei
142
541000
3000
Als we lang leven, dan moeten we het probleem van de bevolkingsgroei
09:22
problemprobleem anywayin ieder geval. Because if people liveleven 200 or 1,000 yearsjaar,
143
544000
4000
toch het hoofd bieden. Want als mensen 200 of 1.000 jaar leven,
09:26
then we can't let them have a childkind more than about onceeen keer everyelk 200 or 1,000 yearsjaar.
144
548000
6000
dan kunnen we ze maar om de 200 of 1.000 jaar of zo een kind laten krijgen.
09:32
And so there won'tzal niet be any workforcepersoneelsbestand.
145
554000
3000
En dus zullen er geen arbeidskrachten zijn.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedpuntig out, and othersanderen have,
146
557000
4000
Eén van de dingen waar Laurie Garrett en anderen op wezen,
09:39
is that a societymaatschappij that doesn't have people
147
561000
5000
is dat een maatschappij zonder mensen op werkende leeftijd,
09:44
of workingwerkend ageleeftijd is in realecht troublemoeite. And things are going to get worseerger,
148
566000
3000
een probleem heeft. En het zal erger worden,
09:47
because there's nobodyniemand to educateonderwijzen the childrenkinderen or to feedeten geven the oldoud.
149
569000
6000
want er is niemand om de kinderen op te voeden of de ouderen te voeden.
09:53
And when I'm talkingpratend about a long lifetimelevenslang, of courseCursus,
150
575000
2000
Als ik het over een lang leven heb,
09:55
I don't want somebodyiemand who'swie is 200 yearsjaar oldoud to be like our imagebeeld
151
577000
6000
dan wil ik natuurlijk niet dat een 200-jarige lijkt op
10:01
of what a 200-year-old-jaar oud is -- whichwelke is deaddood, actuallywerkelijk.
152
583000
4000
een 200-jarige van vandaag - dat wil zeggen, een dode.
10:05
You know, there's about 400 differentverschillend partsonderdelen of the brainhersenen
153
587000
2000
Het brein heeft ongeveer 400 verschillende onderdelen
10:07
whichwelke seemlijken to have differentverschillend functionsfuncties.
154
589000
2000
die verschillende functies lijken te hebben.
10:09
NobodyNiemand knowsweet how mostmeest of them work in detaildetail-,
155
591000
3000
Niemand kent de gedetailleerde functie van de meeste ervan,
10:12
but we do know that there'reer bent lots of differentverschillend things in there.
156
594000
4000
maar we weten dat er veel verschillende dingen in zitten...
10:16
And they don't always work togethersamen. I like Freud'sFreuds theorytheorie
157
598000
2000
...die niet altijd samenwerken. Ik hou wel van de theorie van Freud
10:18
that mostmeest of them are cancellingannuleren eachelk other out.
158
600000
4000
dat de meeste ervan elkaar opheffen.
10:22
And so if you think of yourselfjezelf as a sortsoort of citystad
159
604000
4000
Als je denkt aan jezelf als een soort stad
10:26
with a hundredhonderd resourcesmiddelen, then, when you're afraidbang, for examplevoorbeeld,
160
608000
6000
met honderd middelen, dan mag je, als je bang bent,
10:32
you maymei discardafdanken your long-rangelangeafstand goalsdoelen, but you maymei think deeplydiep
161
614000
4000
je langetermijndoelen vergeten, maar diep nadenken
10:36
and focusfocus on exactlyprecies how to achievebereiken that particularbijzonder goaldoel.
162
618000
4000
en je richten op hoe je dat precieze doel zal bereiken.
10:40
You throwGooi everything elseanders away. You becomeworden a monomaniacmonomaniac --
163
622000
3000
Je gooit alles weg. Je wordt een monomaan -
10:43
all you carezorg about is not steppingintensivering out on that platformplatform.
164
625000
4000
het enige dat telt, is niet op dat perron stappen.
10:47
And when you're hungryhongerig, foodeten becomeswordt more attractiveaantrekkelijk, and so forthvoort.
165
629000
4000
Als je honger hebt, wordt voedsel aantrekkelijker enzovoort.
10:51
So I see emotionsemoties as highlyzeer evolvedgeëvolueerd subsetsdeelverzamelingen of your capabilitygeschiktheid.
166
633000
6000
Ik zie emoties als hoogontwikkelde deelverzamelingen van je vermogens.
10:57
EmotionEmotie is not something addedtoegevoegd to thought. An emotionalemotioneel statestaat
167
639000
4000
Emotie is niet iets dat je aan het denken toevoegt.
11:01
is what you get when you removeverwijderen 100 or 200
168
643000
4000
Je komt in een emotionele staat als je 100 of 200
11:05
of your normallynormaal availablebeschikbaar resourcesmiddelen.
169
647000
3000
van je normaal beschikbare middelen uitschakelt.
11:08
So thinkinghet denken of emotionsemoties as the oppositetegenover of -- as something
170
650000
3000
Emoties beschouwen als het omgekeerde van - als iets
11:11
lessminder than thinkinghet denken is immenselyonmetelijk productiveproduktief. And I hopehoop,
171
653000
4000
minder dan denken, is enorm productief. Ik hoop
11:15
in the nextvolgende fewweinig yearsjaar, to showtonen that this will leadlood to smartslim machinesmachines.
172
657000
4000
dat ik in de komende jaren kan aantonen dat dit tot slimme machines zal leiden.
11:19
And I guessraden I better skipoverspringen all the restrust uit of this, whichwelke are some detailsgegevens
173
661000
3000
Volgens mij sla ik de rest best over. Het zijn een paar details
11:22
on how we mightmacht make those smartslim machinesmachines and --
174
664000
5000
over hoe we die slimme machines zouden kunnen bouwen.
11:27
(LaughterGelach)
175
669000
5000
(Gelach)
11:32
-- and the mainhoofd ideaidee is in factfeit that the corekern of a really smartslim machinemachine
176
674000
5000
De belangrijkste idee is dat de essentie van een echt slimme machine
11:37
is one that recognizesherkent that a certainzeker kindsoort of problemprobleem is facinggeconfronteerd you.
177
679000
5000
is dat ze erkent dat je een bepaald probleem hebt.
11:42
This is a problemprobleem of suchzodanig and suchzodanig a typetype,
178
684000
3000
Dit is een probleem van het type zus en zo,
11:45
and thereforedaarom there's a certainzeker way or waysmanieren of thinkinghet denken
179
687000
5000
en daarom is er een bepaalde manier of manieren van denken
11:50
that are good for that problemprobleem.
180
692000
2000
die geschikt zijn voor dat probleem.
11:52
So I think the futuretoekomst, mainhoofd problemprobleem of psychologypsychologie is to classifyclassificeren
181
694000
4000
Volgens mij zal het belangrijkste probleem van de psychologie in de toekomst zijn om
11:56
typestypes of predicamentspredicaments, typestypes of situationssituaties, typestypes of obstaclesobstakels
182
698000
4000
soorten moeilijke situaties en obstakels te rangschikken
12:00
and alsoook to classifyclassificeren availablebeschikbaar and possiblemogelijk waysmanieren to think and pairpaar- them up.
183
702000
6000
tegelijk met beschikbare en mogelijke manieren van denken, en om die te koppelen.
12:06
So you see, it's almostbijna like a PavlovianPavlov --
184
708000
3000
Zo zie je maar, het lijkt wel een Pavloviaanse -
12:09
we lostde weg kwijt the first hundredhonderd yearsjaar of psychologypsychologie
185
711000
2000
De psychologie heeft honderd jaar lang haar tijd verdaan
12:11
by really trivialtriviaal theoriestheorieën, where you say,
186
713000
3000
met heel triviale theorieën waarbij je zegt:
12:14
how do people learnleren how to reactReageer to a situationsituatie? What I'm sayinggezegde is,
187
716000
6000
hoe leren mensen om te reageren op een situatie? Ik bedoel:
12:20
after we go throughdoor a lot of levelslevels, includinginclusief designingontwerpen
188
722000
5000
nadat we een reeks niveaus hebben afgewerkt, met inbegrip van het ontwerp
12:25
a hugereusachtig, messyrommelig systemsysteem with thousandsduizenden of portspoorten,
189
727000
3000
van een enorm rommelig systeem met duizenden poorten,
12:28
we'llgoed endeinde up again with the centralcentraal problemprobleem of psychologypsychologie.
190
730000
4000
komen we opnieuw uit bij het centrale probleem van de psychologie.
12:32
SayingGezegde, not what are the situationssituaties,
191
734000
3000
Zeggen - niet wat de situaties zijn,
12:35
but what are the kindssoorten of problemsproblemen
192
737000
2000
maar wat de soorten problemen zijn
12:37
and what are the kindssoorten of strategiesstrategieën, how do you learnleren them,
193
739000
3000
en de soorten van strategie, hoe je ze leert,
12:40
how do you connectaansluiten them up, how does a really creativecreatief personpersoon
194
742000
3000
hoe je ze verbindt, hoe een echt creatieve persoon
12:43
inventuitvinden a newnieuwe way of thinkinghet denken out of the availablebeschikbaar resourcesmiddelen and so forthvoort.
195
745000
5000
een nieuwe denkwijze distilleert uit de aanwezige middelen enzovoort.
12:48
So, I think in the nextvolgende 20 yearsjaar,
196
750000
2000
Ik denk dus dat we de komende 20 jaar
12:50
if we can get ridbevrijden of all of the traditionaltraditioneel approachesbenaderingen to artificialkunstmatig intelligenceintelligentie-,
197
752000
5000
afscheid kunnen nemen van alle traditionele benaderingen van artificiële intelligentie,
12:55
like neuralneurale netsnetten and geneticgenetisch algorithmsalgoritmen
198
757000
2000
zoals neurale netwerken en genetische algoritmen
12:57
and rule-basedregels gebaseerde systemssystemen, and just turnbeurt our sightsbezienswaardigheden a little bitbeetje higherhoger to say,
199
759000
6000
en op regels gebaseerde systemen, en gewoon onze blik wat hoger richten om te zeggen:
13:03
can we make a systemsysteem that can use all those things
200
765000
2000
kunnen we een systeem maken dat al die dingen kan gebruiken
13:05
for the right kindsoort of problemprobleem? Some problemsproblemen are good for neuralneurale netsnetten;
201
767000
4000
voor het juiste soort probleem? Sommige problemen zijn goed voor neurale netwerken.
13:09
we know that othersanderen, neuralneurale netsnetten are hopelesshopeloos on them.
202
771000
3000
We weten dat neurale netwerken voor andere problemen niet deugen.
13:12
GeneticGenetische algorithmsalgoritmen are great for certainzeker things;
203
774000
3000
Genetische algoritmen zijn geweldig voor bepaalde dingen.
13:15
I suspectverdachte I know what they're badslecht at, and I won'tzal niet tell you.
204
777000
4000
Ik vermoed dat ik weet wat hun zwaktes zijn, en die verklap ik niet.
13:19
(LaughterGelach)
205
781000
1000
(Gelach)
13:20
Thank you.
206
782000
2000
Bedankt!
13:22
(ApplauseApplaus)
207
784000
6000
(Applaus)
Translated by Els De Keyser
Reviewed by Rik Delaet

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com