ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Marvin Minsky o zdraví a lidské mysli

Filmed:
606,909 views

Poslouchejte pozorně -- čtverácká, eklektická a roztomile bez okolků pronesená přednáška Marvina Minského o zdraví, přelidnění a lidské mysli, shrnuta s pronikavostí, vtipem, moudrostí a jenom malou troškou lstivosti -- dělá si legraci?
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askdotázat se people about what partčást of psychologypsychologie do they think is hardtvrdý,
0
0
6000
Jestliže se lidí zeptáte, o které části psychologie si myslí, že je komplikovaná,
00:24
and you say, "Well, what about thinkingmyslící and emotionsemoce?"
1
6000
3000
a nadhodíte, co třeba myšlení a emoce,
00:27
MostVětšina people will say, "EmotionsEmoce are terriblystrašně hardtvrdý.
2
9000
3000
většina lidí řekne: "Emoce jsou neskutečně komplikované.
00:30
They're incrediblyneuvěřitelně complexkomplex. They can't -- I have no ideaidea of how they work.
3
12000
6000
Jsou neuvěřitelně komplexní, nelze je -- nemám žádnou představu, jak pracují.
00:36
But thinkingmyslící is really very straightforwardpřímý:
4
18000
2000
Ale myšlení je velice přímočaré:
00:38
it's just sorttřídění of some kinddruh of logicallogický reasoninguvažování, or something.
5
20000
4000
je to jen nějaký druh logického uvažování nebo tak něco.
00:42
But that's not the hardtvrdý partčást."
6
24000
3000
Každopádně ale neskýtá problémy.“
00:45
So here'stady je a listseznam of problemsproblémy that come up.
7
27000
2000
Takže, tady je seznam problémů, o kterých se zmíním.
00:47
One nicepěkný problemproblém is, what do we do about healthzdraví?
8
29000
3000
Jeden pěkný problém je: co děláme pro zdraví?
00:50
The other day, I was readingčtení something, and the personosoba said
9
32000
4000
Jednou jsem četl cosi, kde autor říkal,
00:54
probablypravděpodobně the largestnejvětší singlesingl causezpůsobit of diseasechoroba is handshakingmetoda handshaking in the WestZápad.
10
36000
6000
že pravděpodobně nejčastější příčina nemocí na Západě je podávání rukou.
01:00
And there was a little studystudie about people who don't handshakehandshake,
11
42000
4000
A byla tam malá studie, která porovnávala lidi,
01:04
and comparingporovnání them with onesty who do handshakehandshake.
12
46000
3000
kteří si ruce nepodávají, s těmi, kteří ano.
01:07
And I haven'tnemáte the foggiestsebemenší ideaidea of where you find the onesty that don't handshakehandshake,
13
49000
5000
A neměl jsem sebemenší představu, kde lze nalézt někoho, kdo si s nikým nepodává ruce,
01:12
because they mustmusí be hidingskrytí.
14
54000
3000
protože se zřejmě musí schovávat.
01:15
And the people who avoidvyhýbat se that
15
57000
4000
A lidé, kteří se tomu vyhýbají,
01:19
have 30 percentprocent lessméně infectiousinfekční diseasechoroba or something.
16
61000
4000
mají o 30 procent méně infekčních chorob nebo tak něco.
01:23
Or maybe it was 31 and a quarterčtvrťák percentprocent.
17
65000
3000
Anebo to možná bylo 31 a čtvrt procenta.
01:26
So if you really want to solveřešit the problemproblém of epidemicsepidemie and so forthdále,
18
68000
4000
Takže pokud chcete vážně řešit problém epidemií a tak dále,
01:30
let's startStart with that. And sinceod té doby I got that ideaidea,
19
72000
4000
začněte s tímto. A od doby, kdy jsem dostal tento nápad,
01:34
I've had to shakeotřást hundredsstovky of handsruce.
20
76000
4000
podával jsem si ruku se stovkami lidí.
01:38
And I think the only way to avoidvyhýbat se it
21
80000
5000
A myslím si, že jediný způsob, jak se tomu vyhnout,
01:43
is to have some horriblehrozný visibleviditelné diseasechoroba,
22
85000
2000
je mít nějakou viditelnou odpornou chorobu,
01:45
and then you don't have to explainvysvětlit.
23
87000
3000
pak nic nemusíte vysvětlovat.
01:48
EducationVzdělání: how do we improvezlepšit educationvzdělání?
24
90000
4000
Vzdělání: Jak můžeme zlepšit vzdělání?
01:52
Well, the singlesingl bestnejlepší way is to get them to understandrozumět
25
94000
4000
Nuže, jediná nejlepší cesta je přimět je, aby pochopili,
01:56
that what they're beingbytost told is a wholeCelý lot of nonsensenesmysl.
26
98000
3000
že to, co se jim říká, je úplný nesmysl.
01:59
And then, of coursechod, you have to do something
27
101000
2000
A pak samozřejmě musíte udělat něco pro to,
02:01
about how to moderatemírný that, so that anybodyněkdo can -- so they'lloni budou listen to you.
28
103000
5000
aby vás vůbec někdo poslouchal.
02:06
PollutionZnečištění, energyenergie shortagenedostatek, environmentalživotního prostředí diversityrozmanitost, povertychudoba.
29
108000
4000
Znečištění, nedostatek energie, rozmanitost životního prostředí, chudoba.
02:10
How do we make stablestabilní societiesspolečnosti? LongevityDlouhověkosti.
30
112000
4000
Jak vytváříme stabilní společnosti? Dlouhověkost.
02:14
Okay, there'retam je lots of problemsproblémy to worrytrápit se about.
31
116000
3000
Fajn, je mnoho problémů, se kterými si můžeme dělat starosti.
02:17
AnywayKaždopádně, the questionotázka I think people should talk about --
32
119000
2000
V každém případě otázka, o které by si myslím lidé měli mluvit --
02:19
and it's absolutelyabsolutně tabootabu -- is, how manymnoho people should there be?
33
121000
5000
a která je absolutní tabu -- je, kolik lidí by tu mělo být?
02:24
And I think it should be about 100 millionmilión or maybe 500 millionmilión.
34
126000
7000
A já si myslím, že by to mělo být kolem 100 milionů, nebo možná 500 milionů.
02:31
And then noticeoznámení that a great manymnoho of these problemsproblémy disappearzmizet.
35
133000
5000
A pak zjistíte, že mnoho z těchto problémů zmizí.
02:36
If you had 100 millionmilión people
36
138000
2000
Jestliže byste měli 100 milionů správně rozmístěných
02:38
properlysprávně spreadrozpětí out, then if there's some garbageodpadky,
37
140000
6000
lidí, pak jestliže se objeví nějaký odpad,
02:44
you throwhod it away, preferablys výhodou where you can't see it, and it will rotROT.
38
146000
7000
hodíte ho jinam, pokud možno tam, kde není vidět, a tam si shnije.
02:51
Or you throwhod it into the oceanoceán and some fishRyba will benefitvýhoda from it.
39
153000
5000
Anebo ho hodíte do oceánu a ryby z něho budou mít prospěch.
02:56
The problemproblém is, how manymnoho people should there be?
40
158000
2000
Problém je, kolik lidí by tu mšlo být?
02:58
And it's a sorttřídění of choicevýběr we have to make.
41
160000
3000
A je to ten typ volby, kterou musíme udělat.
03:01
MostVětšina people are about 60 inchespalců highvysoký or more,
42
163000
3000
Většina lidí je vysoká přibližně 60 palců či více,
03:04
and there's these cubekrychle lawszákony. So if you make them this bigvelký,
43
166000
4000
a existuje "zákon druhé a třetí mocniny" (při zvětšení/zmenšení se plocha mění s druhou mocninou, objem s třetí). Takže pokud je uděláte takto velké --
03:08
by usingpoužitím nanotechnologynanotechnologie, I supposepředpokládat --
44
170000
3000
použitím nanotechnologií, předpokládám --
03:11
(LaughterSmích)
45
173000
1000
(Smích)
03:12
-- then you could have a thousandtisíc timesčasy as manymnoho.
46
174000
2000
-- pak jich můžete mít tisíckrát více.
03:14
That would solveřešit the problemproblém, but I don't see anybodyněkdo
47
176000
2000
To by vyřešilo problém, nicméně nevím o nikom,
03:16
doing any researchvýzkum on makingtvorba people smallermenší.
48
178000
3000
kdo by dělal nějaký výzkum zaměřený na zmenšování lidí.
03:19
Now, it's nicepěkný to reducesnížit the populationpopulace, but a lot of people want to have childrenděti.
49
181000
5000
Je hezké zmenšit populaci, ale mnoho lidí chce mít děti.
03:24
And there's one solutionřešení that's probablypravděpodobně only a fewpár yearsroky off.
50
186000
3000
A tady mám řešení, které je pravděpodobně záležitostí pár let.
03:27
You know you have 46 chromosomeschromozómy. If you're luckyšťastný, you've got 23
51
189000
5000
Jak víte, máte 46 chromozomů. Pokud jste měli štěstí, dostali jste 23
03:32
from eachkaždý parentrodič. SometimesNěkdy you get an extradalší one or droppokles one out,
52
194000
6000
od každého z rodičů. Občas se stane, že dostanete nebo naopak nedostanete jeden navíc,
03:38
but -- so you can skippřeskočit the grandparentprarodiče and great-grandparentvelký prarodič stagefáze
53
200000
4000
ale -- tak můžete přeskočit fázi prarodičů a praprarodičů
03:42
and go right to the great-great-grandparentvelký velký prarodič. And you have 46 people
54
204000
5000
a jít přímo na fázi prapraprarodičů. A tak máte 46 lidí
03:47
and you give them a scannerskener, or whateverTo je jedno you need,
55
209000
3000
a dáte jim scanner nebo co budete potřebovat,
03:50
and they look at theirjejich chromosomeschromozómy and eachkaždý of them saysříká
56
212000
4000
oni si prohlédnou své chromozomy a každý z nich řekne,
03:54
whichkterý one he likesrád bestnejlepší, or she -- no reasondůvod to have just two sexespohlaví
57
216000
5000
který z nich se jim líbí nejvíce -- už není důvod mít dvě pohlaví.
03:59
any more, even. So eachkaždý childdítě has 46 parentsrodiče,
58
221000
5000
Takže každé dítě má 46 rodičů,
04:04
and I supposepředpokládat you could let eachkaždý groupskupina of 46 parentsrodiče have 15 childrenděti.
59
226000
6000
a já předpokládám, že můžete povolit každé skupině 46 lidí mít 15 dětí.
04:10
Wouldn'tBy that be enoughdost? And then the childrenděti
60
232000
2000
To by nestačilo? A pak by děti
04:12
would get plentyspousta of supportPodpěra, podpora, and nurturingpéče, and mentoringmentoring,
61
234000
4000
měly přehršel podpory, výchovy a výuky
04:16
and the worldsvět populationpopulace would declinepokles very rapidlyrychle
62
238000
2000
a světová populace by se velmi rychle zmenšila
04:18
and everybodyvšichni would be totallynaprosto happyšťastný.
63
240000
3000
a každý by byl absolutně šťastný.
04:21
TimesharingTimesharing is a little furtherdále off in the futurebudoucnost.
64
243000
3000
Sdílení výpočetního výkonu je vzdáleno kousek dále v budoucnosti.
04:24
And there's this great novelromán that ArthurArthur ClarkeClarke wrotenapsal twicedvakrát,
65
246000
3000
Existuje úžasný román, který Arthur C. Clarke napsal dvakrát,
04:27
calledvolal "AgainstProti the FallNa podzim of Night" and "The CityMěsto and the StarsHvězdy."
66
249000
4000
jmenuje se "Proti pádu noci" a "Město a hvězdy".
04:31
They're bothoba wonderfulBáječné and largelypřevážně the samestejný,
67
253000
3000
Obě knihy jsou vynikající a z velké části stejné,
04:34
exceptaž na that computerspočítačů happenedStalo in betweenmezi.
68
256000
2000
kromě toho, že v mezidobí se objevily počítače.
04:36
And ArthurArthur was looking at this oldstarý bookrezervovat, and he said, "Well, that was wrongšpatně.
69
258000
5000
Arthur, když se podíval na tu starší knihu, řekl: "No, bylo to špatně.
04:41
The futurebudoucnost mustmusí have some computerspočítačů."
70
263000
2000
V budoucnosti musejí být nějaké počítače.
04:43
So in the seconddruhý versionverze of it, there are 100 billionmiliarda
71
265000
5000
Takže ve druhé verzi jsou stovky miliard
04:48
or 1,000 billionmiliarda people on EarthZemě, but they're all storedUloženo on hardtvrdý disksdisky or floppiesdiskety,
72
270000
8000
či tisíce miliard lidí žijících na Zemi, ale jsou obsahem pevných disků a disket,
04:56
or whateverTo je jedno they have in the futurebudoucnost.
73
278000
2000
nebo co všechno v budoucnosti mají.
04:58
And you let a fewpár millionmilión of them out at a time.
74
280000
4000
A najednou několik milionů z nich vypustíte.
05:02
A personosoba comespřijde out, they livežít for a thousandtisíc yearsroky
75
284000
4000
Lidé vyjdou, žijí po tisíc let,
05:06
doing whateverTo je jedno they do, and then, when it's time to go back
76
288000
6000
dělají si, co chtějí, a pak, když je čas se vrátit,
05:12
for a billionmiliarda yearsroky -- or a millionmilión, I forgetzapomenout, the numbersčísla don't matterhmota --
77
294000
4000
za miliardu let -- nebo milion, zapomněl jsem čísla, ale na tom nesejde --
05:16
but there really aren'tnejsou very manymnoho people on EarthZemě at a time.
78
298000
4000
podstatné je, že na Zemi není příliš mnoho lidí najednou.
05:20
And you get to think about yourselfvy sám and your memoriesvzpomínky,
79
302000
2000
A vy přemýšlíte o sobě a svých vzpomínkách,
05:22
and before you go back into suspensionodpružení, you editUpravit your memoriesvzpomínky
80
304000
5000
předtím než se vrátíte, upravíte své vzpomínky
05:27
and you changezměna your personalityosobnost and so forthdále.
81
309000
3000
a změníte svoji osobnost a tak dále.
05:30
The plotspiknutí of the bookrezervovat is that there's not enoughdost diversityrozmanitost,
82
312000
6000
Zápletkou knihy je nedostatek rozmanitosti,
05:36
so that the people who designednavrženo the cityměsto
83
318000
3000
takže lidé, kteří navrhli to město,
05:39
make sure that everykaždý now and then an entirelyzcela newNový personosoba is createdvytvořeno.
84
321000
4000
zajistili, že sem tam je každá osoba vytvořená zcela nově.
05:43
And in the novelromán, a particularkonkrétní one namedpojmenovaný AlvinAlvin is createdvytvořeno. And he saysříká,
85
325000
6000
A v románu je stvořen jedinec jménem Alvin. Říká si,
05:49
maybe this isn't the bestnejlepší way, and wrecksvraky the wholeCelý systemSystém.
86
331000
4000
že to možná není úplně nejlepší způsob, a tak zničí celý systém.
05:53
I don't think the solutionsřešení that I proposednavržené
87
335000
2000
Nemyslím si, že řešení, která jsem představil,
05:55
are good enoughdost or smartchytrý enoughdost.
88
337000
3000
jsou dost dobrá nebo dost chytrá.
05:58
I think the bigvelký problemproblém is that we're not smartchytrý enoughdost
89
340000
4000
Myslím, že velký problém je, že nejsme dostatečně chytří na to,
06:02
to understandrozumět whichkterý of the problemsproblémy we're facingčelí are good enoughdost.
90
344000
4000
abychom pochopili, které problémy, se kterými se střetáváme, jsou dostatečně dobré.
06:06
ThereforeProto, we have to buildstavět supersuper intelligentinteligentní machinesstrojů like HALHAL.
91
348000
4000
Tudíž musíme postavit vysoce inteligentní stroje jako HAL.
06:10
As you rememberpamatovat, at some pointbod in the bookrezervovat for "2001,"
92
352000
5000
Jak si pamatujete, na jistém místě v knize "2001: Vesmírná odysea"
06:15
HALHAL realizesuvědomuje si that the universevesmír is too bigvelký, and grandgrand, and profoundhluboký
93
357000
5000
si HAL uvědomil, že vesmír je příliš velký a důležitý a hluboký
06:20
for those really stupidhloupý astronautsastronauti. If you contrastkontrast HAL'sHALOVA behaviorchování
94
362000
4000
pro ty vskutku hloupé astronauty. Jestliže porovnáte HALovo chování
06:24
with the trivialitybanalitu of the people on the spaceshipkosmická loď,
95
366000
4000
s všedností lidí na kosmické lodi,
06:28
you can see what's writtenpsaný betweenmezi the linesline.
96
370000
3000
můžete vidět, co je napsáno mezi řádky.
06:31
Well, what are we going to do about that? We could get smarterchytřejší.
97
373000
3000
Nuže, co s tím budeme dělat? Měli bychom se stát chytřejšími.
06:34
I think that we're prettydosti smartchytrý, as comparedv porovnání to chimpanzeesšimpanzi,
98
376000
5000
Myslím si, že jsme dost chytří v porovnání se šimpanzi,
06:39
but we're not smartchytrý enoughdost to dealobchod with the colossalkolosální problemsproblémy that we facetvář,
99
381000
6000
ale nejsme dostatečně chytří na to, abychom operovali s obrovskými problémy, kterým čelíme,
06:45
eitherbuď in abstractabstraktní mathematicsmatematika
100
387000
2000
ať už v abstraktní matematice,
06:47
or in figuringztvárnění out economieshospodářství, or balancingvyvažování the worldsvět around.
101
389000
5000
při řešení úsporných opatření nebo vyrovnávání světa kolem.
06:52
So one thing we can do is livežít longerdelší.
102
394000
3000
Takže jedna věc, kterou můžeme udělat, je žít déle.
06:55
And nobodynikdo knows how hardtvrdý that is,
103
397000
2000
A nikdo neví, jak náročné to je,
06:57
but we'lldobře probablypravděpodobně find out in a fewpár yearsroky.
104
399000
3000
ale pravděpodobně na to během pár let přijdeme.
07:00
You see, there's two forksvidlice in the roadsilnice. We know that people livežít
105
402000
3000
Vidíte, cesta se dělí na dvě. Víme, že lidé žijí
07:03
twicedvakrát as long as chimpanzeesšimpanzi almosttéměř,
106
405000
4000
téměř dvakrát déle než šimpanzi,
07:07
and nobodynikdo livesživoty more than 120 yearsroky,
107
409000
4000
a nikdo nežije déle než 120 let,
07:11
for reasonsdůvodů that aren'tnejsou very well understoodrozuměli.
108
413000
3000
z důvodů, které nejsou příliš dobře pochopeny.
07:14
But lots of people now livežít to 90 or 100,
109
416000
3000
Ale mnoho lidí v současnosti žije do 90 či 100 let,
07:17
unlesspokud není they shakeotřást handsruce too much or something like that.
110
419000
4000
pokud si příliš nepodávají ruce nebo tak něco.
07:21
And so maybe if we livedžil 200 yearsroky, we could accumulateakumulovat enoughdost skillsdovednosti
111
423000
5000
A možná kdybychom žili 200 let, mohli bychom nahromadit dostatek dovedností
07:26
and knowledgeznalost to solveřešit some problemsproblémy.
112
428000
5000
a vědomostí pro řešení některých problémů.
07:31
So that's one way of going about it.
113
433000
2000
Takže toto je jedna cesta, co s tím udělat.
07:33
And as I said, we don't know how hardtvrdý that is. It mightmohl be --
114
435000
3000
A jak jsem řekl, nevíme, jak je to těžké. Může to být --
07:36
after all, mostvětšina other mammalssavců livežít halfpolovina as long as the chimpanzeešimpanz,
115
438000
6000
konec konců, většina ostatních savců žije poloviční dobu co šimpanzi,
07:42
so we're sorttřídění of threetři and a halfpolovina or fourčtyři timesčasy, have fourčtyři timesčasy
116
444000
3000
takže my oproti nim tři a půlkrát až čtyřikrát déle -- že máme čtyřikrát
07:45
the longevitydlouhověkost of mostvětšina mammalssavců. And in the casepouzdro of the primatesprimáty,
117
447000
6000
delší život než většina savců. A co se týče primátů,
07:51
we have almosttéměř the samestejný genesgeny. We only differlišit from chimpanzeesšimpanzi,
118
453000
4000
máme téměř shodné geny. Od šimpanzů se lišíme
07:55
in the presentsoučasnost, dárek stateStát of knowledgeznalost, whichkterý is absoluteabsolutní hogwashžvásty,
119
457000
6000
dle současného stavu znalostí, což je absolutně směšné,
08:01
maybe by just a fewpár hundredsto genesgeny.
120
463000
2000
snad jen v pár stovkách genů.
08:03
What I think is that the genegen countersčítače don't know what they're doing yetdosud.
121
465000
3000
Co já si myslím, je, že ti, kdo počítají geny, zatím neví, co dělají.
08:06
And whateverTo je jedno you do, don't readčíst anything about geneticsgenetika
122
468000
3000
Ať děláte cokoli, nečtěte nic o genetice,
08:09
that's publishedpublikováno withinv rámci your lifetimeživot, or something.
123
471000
3000
co je publikováno v průběhu vašeho života, nebo tak.
08:12
(LaughterSmích)
124
474000
3000
(Smích)
08:15
The stuffvěci has a very shortkrátký half-lifepoločas, samestejný with brainmozek scienceVěda.
125
477000
4000
Tento materiál má velmi krátký poločas rozpadu, podobně jako věda o mozku.
08:19
And so it mightmohl be that if we just fixopravit fourčtyři or fivePět genesgeny,
126
481000
6000
A může to být tak, že stačí opravit jen 4 nebo 5 genů
08:25
we can livežít 200 yearsroky.
127
487000
2000
a budeme žít 200 let.
08:27
Or it mightmohl be that it's just 30 or 40,
128
489000
3000
Anebo snad jen 30 či 40 genů,
08:30
and I doubtpochybovat that it's severalněkolik hundredsto.
129
492000
2000
ale pochybuji, že je to několik stovek.
08:32
So this is something that people will be discussingdiskutovat
130
494000
4000
Toto je něco, o čem lidé budou diskutovat
08:36
and lots of ethicistsetiky -- you know, an ethicistfrom web Ethicist is somebodyněkdo
131
498000
3000
a mnoho etiků -- víte, etik je někdo,
08:39
who seesvidí something wrongšpatně with whateverTo je jedno you have in mindmysl.
132
501000
3000
kdo vidí, že je něco v nepořádku s čímkoliv, co máte na mysli.
08:42
(LaughterSmích)
133
504000
3000
(Smích)
08:45
And it's very hardtvrdý to find an ethicistfrom web Ethicist who considerspovažuje za any changezměna
134
507000
4000
A je velice těžké najít etika, který považuje jakoukoliv změnu
08:49
worthhodnota makingtvorba, because he saysříká, what about the consequencesdůsledky?
135
511000
4000
za hodnou vykonání, protože namítá: Jaké ale bude mít následky?
08:53
And, of coursechod, we're not responsibleodpovědný for the consequencesdůsledky
136
515000
3000
A samozřejmě nejsme zodpovědní za následky toho,
08:56
of what we're doing now, are we? Like all this complaintstížnost about clonesklony.
137
518000
6000
co děláme teď, nebo ano? Podobně jako všechny stížnosti na klony.
09:02
And yetdosud two randomnáhodný people will matedůstojník and have this childdítě,
138
524000
3000
Když budou mít dva zcela libovolní lidé dítě,
09:05
and bothoba of them have some prettydosti rottenshnilé genesgeny,
139
527000
4000
přičemž budou mít dost špatné geny,
09:09
and the childdítě is likelypravděpodobně to come out to be averageprůměrný.
140
531000
4000
dítě bude dost možná průměrné.
09:13
WhichKterý, by chimpanzeešimpanz standardsstandardy, is very good indeedVskutku.
141
535000
6000
Což je, měřeno šimpanzími standardy, vskutku velice dobré.
09:19
If we do have longevitydlouhověkost, then we'lldobře have to facetvář the populationpopulace growthrůst
142
541000
3000
Jestliže jsme dosáhli dlouhověkosti, pak musíme každopádně čelit problému populačního růstu.
09:22
problemproblém anywaytak jako tak. Because if people livežít 200 or 1,000 yearsroky,
143
544000
4000
Protože pokud by lidé žili 200 nebo 1000 let,
09:26
then we can't let them have a childdítě more than about oncejednou everykaždý 200 or 1,000 yearsroky.
144
548000
6000
pak jim nemůžeme dovolit mít dítě častěji než jednou za 200 nebo 1000 let.
09:32
And so there won'tzvyklý be any workforcepracovní síla.
145
554000
3000
A tak by tu nebyla žádná pracovní síla.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedšpičatý out, and othersostatní have,
146
557000
4000
A jedna z věcí, na kterou Laurie Garrett i jiní poukázali,
09:39
is that a societyspolečnost that doesn't have people
147
561000
5000
je, že společnost, která nemá lidi
09:44
of workingpracovní agestáří is in realnemovitý troubleproblémy. And things are going to get worsehorší,
148
566000
3000
v produktivním věku, má problémy. A věci se ještě zhoršují,
09:47
because there's nobodynikdo to educatevzdělávat the childrenděti or to feedkrmivo the oldstarý.
149
569000
6000
protože není nikdo, kdo by vzdělával děti nebo živil staré.
09:53
And when I'm talkingmluvící about a long lifetimeživot, of coursechod,
150
575000
2000
A když mluvím o dlouhém životě, samozřejmě
09:55
I don't want somebodyněkdo who'skdo je 200 yearsroky oldstarý to be like our imageobraz
151
577000
6000
nechci, aby někdo, kdo má 200 let, vypadal jako někdo,
10:01
of what a 200-year-old-let starý is -- whichkterý is deadmrtví, actuallyvlastně.
152
583000
4000
kdo má 200 let, jak bychom si ho dnes představili -- vlastně mrtvý.
10:05
You know, there's about 400 differentodlišný partsčásti of the brainmozek
153
587000
2000
Víte, je zde kolem 400 rozličných částí mozku,
10:07
whichkterý seemzdát se to have differentodlišný functionsfunkce.
154
589000
2000
které, zdá se, mají rozdílné funkce.
10:09
NobodyNikdo knows how mostvětšina of them work in detaildetail,
155
591000
3000
Nikdo dopodrobna neví, jak většina z nich pracuje,
10:12
but we do know that there'retam je lots of differentodlišný things in there.
156
594000
4000
ale víme, že se v nich děje celá řada věcí.
10:16
And they don't always work togetherspolu. I like Freud'sFreud theoryteorie
157
598000
2000
A ne vždy pracují společně. Mám rád Freudovu teorii,
10:18
that mostvětšina of them are cancellingzrušení eachkaždý other out.
158
600000
4000
že většina z nich ruší jedna druhou.
10:22
And so if you think of yourselfvy sám as a sorttřídění of cityměsto
159
604000
4000
A když tak přemýšlíte o sobě jakoby o městě
10:26
with a hundredsto resourceszdroje, then, when you're afraidstrach, for examplepříklad,
160
608000
6000
se stovkami zdrojů, pak, když se například bojíte,
10:32
you maysmět discardvyřadit your long-rangedlouhý dosah goalscíle, but you maysmět think deeplyhluboce
161
614000
4000
můžete se zbavit svých dlouhodobých cílů, ale můžete se hluboce zamyslet
10:36
and focussoustředit se on exactlypřesně how to achievedosáhnout that particularkonkrétní goalfotbalová branka.
162
618000
4000
a zaměřit se na dosáhnutí jednoho konkrétního cíle.
10:40
You throwhod everything elsejiný away. You becomestát a monomaniacmonoman --
163
622000
3000
Všechno ostatní hodíte za hlavu. Stanete se monomaniakem --
10:43
all you carepéče about is not steppingkrokování out on that platformplošina.
164
625000
4000
vše, co vás zajímá, je nevystoupit na určité zastávce.
10:47
And when you're hungryhladový, foodjídlo becomesstává se more attractivepřitažlivý, and so forthdále.
165
629000
4000
A když máte hlad, jídlo se stane atraktivnějším a tak dále.
10:51
So I see emotionsemoce as highlyvysoce evolvedvyvíjeno subsetspodmnožin of your capabilityschopnost.
166
633000
6000
Takže já vidím emoce jako vysoce vyvinuté podčásti vašich schopností.
10:57
EmotionEmoce is not something addedpřidal to thought. An emotionalemocionální stateStát
167
639000
4000
Emoce nejsou ničím přidaným k myšlení. Emocionální stav
11:01
is what you get when you removeodstranit 100 or 200
168
643000
4000
je to, co dostanete, když odeberete 100 či 200
11:05
of your normallynormálně availabledostupný resourceszdroje.
169
647000
3000
vám normálně dostupných zdrojů.
11:08
So thinkingmyslící of emotionsemoce as the oppositenaproti of -- as something
170
650000
3000
Takže uvažování o emocích jako protikladu k -- jako něco
11:11
lessméně than thinkingmyslící is immenselynesmírně productivevýrobní. And I hopenaděje,
171
653000
4000
méně než myšlení, je nesmírně produktivní. A já doufám,
11:15
in the nextdalší fewpár yearsroky, to showshow that this will leadVést to smartchytrý machinesstrojů.
172
657000
4000
že v následujících pár letech ukážu, že to povede k chytrým strojům.
11:19
And I guesstipni si I better skippřeskočit all the restodpočinek of this, whichkterý are some detailspodrobnosti
173
661000
3000
A hádám, že bude lepší přeskočit celý zbytek toho, kde jsou nějaké detaily o tom,
11:22
on how we mightmohl make those smartchytrý machinesstrojů and --
174
664000
5000
jak můžeme tyto chytré stroje vyrobit a --
11:27
(LaughterSmích)
175
669000
5000
(Smích)
11:32
-- and the mainhlavní ideaidea is in factskutečnost that the corejádro of a really smartchytrý machinestroj
176
674000
5000
-- a hlavní myšlenkou ve skutečnosti je, že jádrem opravdu chytrých strojů je,
11:37
is one that recognizesuznává that a certainurčitý kinddruh of problemproblém is facingčelí you.
177
679000
5000
že rozpoznají, jakému konkrétnímu problému právě čelí.
11:42
This is a problemproblém of suchtakový and suchtakový a typetyp,
178
684000
3000
Toto je problém takového a takového typu,
11:45
and thereforeproto there's a certainurčitý way or wayszpůsoby of thinkingmyslící
179
687000
5000
takže je určitý způsob či způsoby myšlení,
11:50
that are good for that problemproblém.
180
692000
2000
které se hodí pro daný problém.
11:52
So I think the futurebudoucnost, mainhlavní problemproblém of psychologypsychologie is to classifyklasifikovat
181
694000
4000
Takže si myslím, že v budoucnu bude hlavním problémem psychologie klasifikovat
11:56
typestypy of predicamentsnesnáze, typestypy of situationssituacích, typestypy of obstaclespřekážky
182
698000
4000
typy nesnází, typy situací, typy překážek,
12:00
and alsotaké to classifyklasifikovat availabledostupný and possiblemožný wayszpůsoby to think and pairpár them up.
183
702000
6000
a také klasifikovat možné způsoby přemýšlení o nich a vzájemně je spojit.
12:06
So you see, it's almosttéměř like a PavlovianPavlovien --
184
708000
3000
Takže vidíte, že je to téměř jako učení Pavlovovo --
12:09
we lostztracený the first hundredsto yearsroky of psychologypsychologie
185
711000
2000
ztratili jsme prvních sto let psychologie
12:11
by really trivialtriviální theoriesteorie, where you say,
186
713000
3000
opravdu triviálními teoriemi, které říkají,
12:14
how do people learnUčit se how to reactreagovat to a situationsituace? What I'm sayingrčení is,
187
716000
6000
jak se lidé učí reagovat na situace? To, co já říkám, je,
12:20
after we go throughpřes a lot of levelsúrovně, includingpočítaje v to designingnavrhování
188
722000
5000
že po projití mnoha úrovní, včetně navrhování
12:25
a hugeobrovský, messychaotický systemSystém with thousandstisíce of portspřístavy,
189
727000
3000
ohromného chaotického systému s tisíci porty,
12:28
we'lldobře endkonec up again with the centralcentrální problemproblém of psychologypsychologie.
190
730000
4000
skončíme opět s ústředním problémem psychologie.
12:32
SayingPřísloví, not what are the situationssituacích,
191
734000
3000
Tvrzením nikoli co jsou situace,
12:35
but what are the kindsdruhy of problemsproblémy
192
737000
2000
ale jaké jsou druhy problémů
12:37
and what are the kindsdruhy of strategiesstrategie, how do you learnUčit se them,
193
739000
3000
a jaké jsou strategie, jak se jim učíte,
12:40
how do you connectpřipojit them up, how does a really creativetvořivý personosoba
194
742000
3000
jak je společně propojujete, jak opravdu kreativní osoba
12:43
inventvymyslet a newNový way of thinkingmyslící out of the availabledostupný resourceszdroje and so forthdále.
195
745000
5000
vynalézá nové způsoby myšlení z dostupných zdrojů a tak dále.
12:48
So, I think in the nextdalší 20 yearsroky,
196
750000
2000
Takže si myslím, že v následujících 20 letech,
12:50
if we can get ridzbavit of all of the traditionaltradiční approachespřístupy to artificialumělý intelligenceinteligence,
197
752000
5000
pokud se vzdáme všech tradičních přístupů v umělé inteligenci,
12:55
like neuralneurální netssítě and geneticgenetický algorithmsalgoritmy
198
757000
2000
jako jsou neuronové sítě a genetické algoritmy
12:57
and rule-basedna základě pravidel systemssystémy, and just turnotočit se our sightspohledy a little bitbit highervyšší to say,
199
759000
6000
a pravidlové expertní systémy, obrátíme svoji pozornost trochu výše a zeptáme se,
13:03
can we make a systemSystém that can use all those things
200
765000
2000
zda můžeme vyrobit systém, který bude používat všechny ty věci
13:05
for the right kinddruh of problemproblém? Some problemsproblémy are good for neuralneurální netssítě;
201
767000
4000
pro správné problémy. Některé problémy jsou dobré pro neuronové sítě,
13:09
we know that othersostatní, neuralneurální netssítě are hopelessbeznadějný on them.
202
771000
3000
zároveň víme, že jsou jiné, ve kterých jsou neuronové sítě beznadějně neužitečné.
13:12
GeneticGenetické algorithmsalgoritmy are great for certainurčitý things;
203
774000
3000
Genetické algoritmy jsou skvělé pro určité věci,
13:15
I suspecttušit I know what they're badšpatný at, and I won'tzvyklý tell you.
204
777000
4000
a mám podezření, že vím, v čem jsou špatné, a to vám neprozradím.
13:19
(LaughterSmích)
205
781000
1000
(Smích)
13:20
Thank you.
206
782000
2000
Děkuji.
13:22
(ApplausePotlesk)
207
784000
6000
(Potlesk)
Translated by Marek Vanžura
Reviewed by Barbora Adlerová

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com