ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Марвин Мински за здравето и човешкия ум

Filmed:
606,909 views

Слушайте внимателно - еклектичната и чаровно неформална лекция на Марвин Мински за здравето, пренаселеността и човешкия ум ни кара да вникнем отвъд очевидното и е изпълнена с тънък хумор, мъдрост и съвети, изречени полу-на шега, полу-сериозно.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askпитам people about what partчаст of psychologyпсихология do they think is hardтвърд,
0
0
6000
Ако попитате хората коя част от психологията намират за трудна
00:24
and you say, "Well, what about thinkingмислене and emotionsемоции?"
1
6000
3000
и им дадете за пример мисленето или емоциите,
00:27
MostНай-много people will say, "EmotionsЕмоции are terriblyужасно hardтвърд.
2
9000
3000
повечето хора ще кажат: "Емоциите са ужасно трудни за разбиране.
00:30
They're incrediblyневероятно complexкомплекс. They can't -- I have no ideaидея of how they work.
3
12000
6000
Те са невероятно сложни, нямам понятие как точно се случват.
00:36
But thinkingмислене is really very straightforwardпрост:
4
18000
2000
Но при мисленето всичко е ясно:
00:38
it's just sortвид of some kindмил of logicalлогичен reasoningобосновавам се, or something.
5
20000
4000
Това е някакъв вид логично разсъждение.
00:42
But that's not the hardтвърд partчаст."
6
24000
3000
Но това не е толкова трудно."
00:45
So here'sето a listсписък of problemsпроблеми that come up.
7
27000
2000
Но възникват следните проблеми.
00:47
One niceприятен problemпроблем is, what do we do about healthздраве?
8
29000
3000
Един от тях е: какво правим за нашето здраве?
00:50
The other day, I was readingчетене something, and the personчовек said
9
32000
4000
Онзи ден четох една статия, според която
00:54
probablyвероятно the largestнай-големият singleединичен causeкауза of diseaseболест is handshakingдоговаряне in the WestУест.
10
36000
6000
ръкостискането вероятно е най-разпространеният единичен причинител на заболявания на Запад.
01:00
And there was a little studyуча about people who don't handshakeръкостискане,
11
42000
4000
Имаше малко проучване на хората, които не се ръкостискат,
01:04
and comparingсравняване them with onesтакива who do handshakeръкостискане.
12
46000
3000
което ги сравняваше с тези, които се ръкостискат
01:07
And I haven'tима не the foggiestfoggiest ideaидея of where you find the onesтакива that don't handshakeръкостискане,
13
49000
5000
и всъщност нямам представа къде са намерили тези хора, които не се ръкостискат,
01:12
because they mustтрябва да be hidingСкриване на.
14
54000
3000
защото те несъмнено са се покрили някъде.
01:15
And the people who avoidда се избегне that
15
57000
4000
И хората, които избягват да правят това,
01:19
have 30 percentна сто lessпо-малко infectiousинфекциозни diseaseболест or something.
16
61000
4000
боледуват с 30% по-малко от инфекциозни болести.
01:23
Or maybe it was 31 and a quarterтримесечие percentна сто.
17
65000
3000
Или може би беше 31 и една четвърт процента.
01:26
So if you really want to solveрешавам the problemпроблем of epidemicsепидемии and so forthнапред,
18
68000
4000
Така че, ако наистина искате да решите проблема с епидемиите,
01:30
let's startначало with that. And sinceот I got that ideaидея,
19
72000
4000
трябва да започнете с това. И откакто ми хрумна тази идея,
01:34
I've had to shakeклатя hundredsстотици of handsръце.
20
76000
4000
стиснах стотици ръце.
01:38
And I think the only way to avoidда се избегне it
21
80000
5000
И си мисля, че единственият начин да избегна това,
01:43
is to have some horribleужасен visibleвидим diseaseболест,
22
85000
2000
е да имам някаква ужасна и видима болест,
01:45
and then you don't have to explainобяснявам.
23
87000
3000
и тогава няма да ми се налага да давам обяснения.
01:48
EducationОбразование: how do we improveподобряване на educationобразование?
24
90000
4000
Образованието: как да подобрим образованието?
01:52
Well, the singleединичен bestнай-доброто way is to get them to understandразбирам
25
94000
4000
Най-добрият начин е да ги накарате да разберат,
01:56
that what they're beingсъщество told is a wholeцяло lot of nonsenseглупости.
26
98000
3000
че това, което им се преподава са пълни глупости.
01:59
And then, of courseкурс, you have to do something
27
101000
2000
И след това, разбира се, трябва да направите нещо,
02:01
about how to moderateумерен that, so that anybodyнякой can -- so they'llте ще listen to you.
28
103000
5000
за да промените това, ако искате да продължат да ви слушат.
02:06
PollutionЗамърсяване, energyенергия shortageнедостиг, environmentalна околната среда diversityразнообразие, povertyбедност.
29
108000
4000
Замърсяването, недостигът на енегрия, екологията, бедността -
02:10
How do we make stableстабилен societiesобщества? LongevityДълголетие.
30
112000
4000
как да създадем стабилни общества? Дълголетието.
02:14
Okay, there'reтам сме lots of problemsпроблеми to worryтревожа about.
31
116000
3000
Има много проблеми, за които да се тревожим.
02:17
AnywayТака или иначе, the questionвъпрос I think people should talk about --
32
119000
2000
Според мен въпростът, който хората трябва да си зададат
02:19
and it's absolutelyабсолютно tabooтабу -- is, how manyмного people should there be?
33
121000
5000
и който е пълно табу, е: колко хора трябва да живеят на Земята?
02:24
And I think it should be about 100 millionмилион or maybe 500 millionмилион.
34
126000
7000
Мисля, че трябва да бъдат около 100 милиона или може би 500 милиона.
02:31
And then noticeизвестие that a great manyмного of these problemsпроблеми disappearизчезва.
35
133000
5000
Забележете, че тогава много от тези проблеми ще изчезнат.
02:36
If you had 100 millionмилион people
36
138000
2000
Ако имате 100 милиона души
02:38
properlyправилно spreadразпространение out, then if there's some garbageбоклук,
37
140000
6000
разпръснати равномерно, то тогава ако направите боклук,
02:44
you throwхвърлям it away, preferablyза предпочитане where you can't see it, and it will rotгниене.
38
146000
7000
ше го изхвърлите някъде, където няма да го виждате и той ще изгние.
02:51
Or you throwхвърлям it into the oceanокеан and some fishриба will benefitоблага from it.
39
153000
5000
Ако пък го изхвърлите в океана, някоя риба ще се възползва от него.
02:56
The problemпроблем is, how manyмного people should there be?
40
158000
2000
Въпросът е: колко хора трябва да има на планетата?
02:58
And it's a sortвид of choiceизбор we have to make.
41
160000
3000
Това е избор, който трябва да направим.
03:01
MostНай-много people are about 60 inchesинча highВисоко or more,
42
163000
3000
Повечето хора са високи около 60 инча или повече
03:04
and there's these cubeкуб lawsзакони. So if you make them this bigголям,
43
166000
4000
и оттук получаваме загуба на обем. Но, ако ги направите ей толкова големи,
03:08
by usingизползвайки nanotechnologyнанотехнологиите, I supposeпредполагам --
44
170000
3000
използвайки нанотехнологии, предполагам,
03:11
(LaughterСмях)
45
173000
1000
(Смях)
03:12
-- then you could have a thousandхиляда timesпъти as manyмного.
46
174000
2000
че можете да имате и хиляда пъти повече на брой.
03:14
That would solveрешавам the problemпроблем, but I don't see anybodyнякой
47
176000
2000
Това би решило проблема, но не виждам някой
03:16
doing any researchизследване on makingприготвяне people smallerпо-малък.
48
178000
3000
да се опитва да направи хората по-малки.
03:19
Now, it's niceприятен to reduceнамаляване на the populationнаселение, but a lot of people want to have childrenдеца.
49
181000
5000
Хубаво е да се намали населението, но много хора искат да имат деца.
03:24
And there's one solutionрешение that's probablyвероятно only a fewмалцина yearsгодини off.
50
186000
3000
Има едно решение, от което ни делят може би няколко години.
03:27
You know you have 46 chromosomesхромозоми. If you're luckyкъсметлия, you've got 23
51
189000
5000
Знаете, че имате 46 хромозоми. Ако сте с късмет, имате 23 от
03:32
from eachвсеки parentродител. SometimesПонякога you get an extraекстра one or dropизпускайте one out,
52
194000
6000
всеки родител, понякога имате още една или с една по-малко,
03:38
but -- so you can skipпропускане the grandparentразвъдни and great-grandparentВелик-развъдни stageсцена
53
200000
4000
но нека да пропуснем дедите и прадедите
03:42
and go right to the great-great-grandparentголяма-голям-развъдни. And you have 46 people
54
204000
5000
и да отидем направо при пра-прадедите. Имате 46 души
03:47
and you give them a scannerскенер, or whateverкакто и да е you need,
55
209000
3000
и ако им дадете скенер или друго подобно устройство
03:50
and they look at theirтехен chromosomesхромозоми and eachвсеки of them saysказва
56
212000
4000
и те разгледат своите хромозоми и всеки избира
03:54
whichкойто one he likesхаресвания bestнай-доброто, or she -- no reasonпричина to have just two sexesпола
57
216000
5000
тази, която той или тя, няма причина да не са и от двата пола,
03:59
any more, even. So eachвсеки childдете has 46 parentsродители,
58
221000
5000
харесва най-много. И така всяко дете ще има 46 родители
04:04
and I supposeпредполагам you could let eachвсеки groupгрупа of 46 parentsродители have 15 childrenдеца.
59
226000
6000
и мисля, че можете да разрешите на всяка група от 46 родители да има 15 деца,
04:10
Wouldn'tНяма да that be enoughдостатъчно? And then the childrenдеца
60
232000
2000
те няма ли да им бъдат достатъчни? След това децата
04:12
would get plentyмного of supportподдържа, and nurturingподхранване, and mentoringнаставничество,
61
234000
4000
ще получават много подкрепа и грижа и съвети,
04:16
and the worldсвят populationнаселение would declineупадък very rapidlyбързо
62
238000
2000
световното население ще намалее много бързо
04:18
and everybodyвсички would be totallyнапълно happyщастлив.
63
240000
3000
и всички ще бъдат щастливи.
04:21
TimesharingВременно ползване is a little furtherоще off in the futureбъдеще.
64
243000
3000
Животът в режим на разпределяне на времето е все още далеч в бъдещето.
04:24
And there's this great novelроман that ArthurАртър ClarkeКларк wroteнаписах twiceдва пъти,
65
246000
3000
Има един велик роман, който Артър Кларк е написал два пъти
04:27
calledНаречен "AgainstСрещу the FallЕсен of Night" and "The CityГрад and the StarsЗвезди."
66
249000
4000
озаглавен "Падането на нощта" и "Градът и Звездите".
04:31
They're bothи двете wonderfulчудесен and largelyдо голяма степен the sameедин и същ,
67
253000
3000
И двата са чудесни и почти едни и същи,
04:34
exceptс изключение that computersкомпютри happenedсе случи in betweenмежду.
68
256000
2000
с тази разлика, че в периода между двете книги се появяват компютрите.
04:36
And ArthurАртър was looking at this oldстар bookКнига, and he said, "Well, that was wrongпогрешно.
69
258000
5000
И Артър гледал тази своя стара книга и си казал: "Не, не може така.
04:41
The futureбъдеще mustтрябва да have some computersкомпютри."
70
263000
2000
В бъдещето трябва да има компютри."
04:43
So in the secondвтори versionверсия of it, there are 100 billionмилиард
71
265000
5000
Така че във втората й версия има 100 милиарда
04:48
or 1,000 billionмилиард people on EarthЗемята, but they're all storedсъхранени on hardтвърд disksдискове or floppiesдискети,
72
270000
8000
или 1 000 милиарда души на Земята, но те са архивирани на твърди дискове или флопита
04:56
or whateverкакто и да е they have in the futureбъдеще.
73
278000
2000
или какъвто носител използват в бъдещето.
04:58
And you let a fewмалцина millionмилион of them out at a time.
74
280000
4000
И вие освобождавате по милион от тях наведнъж.
05:02
A personчовек comesидва out, they liveживея for a thousandхиляда yearsгодини
75
284000
4000
Излиза един човек, живее хиляда години,
05:06
doing whateverкакто и да е they do, and then, when it's time to go back
76
288000
6000
прави каквото прави и после идва време да се върне
05:12
for a billionмилиард yearsгодини -- or a millionмилион, I forgetзабравям, the numbersчисленост don't matterвъпрос --
77
294000
4000
за милиард години, или милион, забравил съм, но точната цифра няма значение,
05:16
but there really aren'tне са very manyмного people on EarthЗемята at a time.
78
298000
4000
но по едно и също време на Земята няма много хора.
05:20
And you get to think about yourselfсебе си and your memoriesспомени,
79
302000
2000
Имате и възможност да помислите върху себе си и спомените си
05:22
and before you go back into suspensionокачване, you editредактиране your memoriesспомени
80
304000
5000
и преди да се върнете в архива променяте спомените си,
05:27
and you changeпромяна your personalityиндивидуалност and so forthнапред.
81
309000
3000
и променяте черти от характера си и така нататък.
05:30
The plotпарцел of the bookКнига is that there's not enoughдостатъчно diversityразнообразие,
82
312000
6000
Сюжетът на книгата се състои в това, че няма достатъчно разнообразие,
05:36
so that the people who designedпроектиран the cityград
83
318000
3000
и затова хората, които са създали града,
05:39
make sure that everyвсеки now and then an entirelyизцяло newнов personчовек is createdсъздаден.
84
321000
4000
правят така, че понякога да се роди изцяло нов човек.
05:43
And in the novelроман, a particularособен one namedна име AlvinАлвин is createdсъздаден. And he saysказва,
85
325000
6000
И в романа се появява един такъв човек наречен Алвин и той казва:
05:49
maybe this isn't the bestнай-доброто way, and wrecksотломките the wholeцяло systemсистема.
86
331000
4000
"Може би това не е правилният начин" и разрушава цялата система.
05:53
I don't think the solutionsрешения that I proposedпредложената
87
335000
2000
Не мисля, че решенията, които предложих
05:55
are good enoughдостатъчно or smartумен enoughдостатъчно.
88
337000
3000
са достатъчно добри или умни.
05:58
I think the bigголям problemпроблем is that we're not smartумен enoughдостатъчно
89
340000
4000
Мисля, че големият проблем е, че не сме достатъчно умни,
06:02
to understandразбирам whichкойто of the problemsпроблеми we're facingизправени пред are good enoughдостатъчно.
90
344000
4000
за да разберем кои от проблемите пред нас са достатъчно сериозни.
06:06
ThereforeСледователно, we have to buildпострои superсупер intelligentинтелигентен machinesмашини like HALХАЛ.
91
348000
4000
И затова трябва да създадем супер интелигентни машини като HAL.
06:10
As you rememberпомня, at some pointточка in the bookКнига for "2001,"
92
352000
5000
Както си спомняте, по някое време в книгата за 2001-ва,
06:15
HALХАЛ realizesосъзнава that the universeвселена is too bigголям, and grandграндиозен, and profoundдълбок
93
357000
5000
HAL осъзнава, че вселената е прекалено голяма и грандиозна и сложна
06:20
for those really stupidтъп astronautsастронавти. If you contrastконтраст HAL'sHAL на behaviorповедение
94
362000
4000
за тези наистина тъпи астронавти. Ако сравните поведението на HAL
06:24
with the trivialityбаналността of the people on the spaceshipкосмически кораб,
95
366000
4000
с тривиалността на хората на космическия кораб,
06:28
you can see what's writtenписмен betweenмежду the linesлинии.
96
370000
3000
ще схванете посланието между редовете.
06:31
Well, what are we going to do about that? We could get smarterпо-умни.
97
373000
3000
Какво да направим по този въпрос? Можем да се опитаме да поумнеем.
06:34
I think that we're prettyкрасива smartумен, as comparedсравнение to chimpanzeesшимпанзетата,
98
376000
5000
Мисля, че сме доста умни сравнени с шимпанзетата,
06:39
but we're not smartумен enoughдостатъчно to dealсделка with the colossalколосални problemsпроблеми that we faceлице,
99
381000
6000
но не сме достатъчно умни, за да се справим с огромните проблеми пред нас,
06:45
eitherедин in abstractабстрактен mathematicsматематика
100
387000
2000
нито пък сме добри в абстрактната математика
06:47
or in figuringфигуриращ out economiesикономики, or balancingбалансиране the worldсвят around.
101
389000
5000
или в изграждането на успешни икономики, или в балансирането на света около нас.
06:52
So one thing we can do is liveживея longerповече време.
102
394000
3000
Едно нещо, което можем да направим е да живеем по-дълго.
06:55
And nobodyНикой knowsзнае how hardтвърд that is,
103
397000
2000
И никой не знае колко сложно ще е това,
06:57
but we'llдобре probablyвероятно find out in a fewмалцина yearsгодини.
104
399000
3000
но може би ще разберем след няколко години.
07:00
You see, there's two forksвилици in the roadпът. We know that people liveживея
105
402000
3000
Има две разклонения по нашия път. Знаем, че хората живеят
07:03
twiceдва пъти as long as chimpanzeesшимпанзетата almostпочти,
106
405000
4000
почти два пъти по-дълго от шимпанзетата и
07:07
and nobodyНикой livesживота more than 120 yearsгодини,
107
409000
4000
че никой не живее повече от 120 години
07:11
for reasonsпричини that aren'tне са very well understoodразбрах.
108
413000
3000
поради причини, които не разбираме добре.
07:14
But lots of people now liveживея to 90 or 100,
109
416000
3000
Но много хора днес доживяват до 90 или до 100 години,
07:17
unlessосвен ако they shakeклатя handsръце too much or something like that.
110
419000
4000
освен ако не се ръкостискат прекалено често, или нещо такова.
07:21
And so maybe if we livedживял 200 yearsгодини, we could accumulateнатрупват enoughдостатъчно skillsумения
111
423000
5000
Може би ако живеехме по 200 години, щяхме да натрупаме достатъчно умения
07:26
and knowledgeзнание to solveрешавам some problemsпроблеми.
112
428000
5000
и знания, за да решим някои проблеми.
07:31
So that's one way of going about it.
113
433000
2000
Това е един от начините, по който можем да подходим.
07:33
And as I said, we don't know how hardтвърд that is. It mightбиха могли, може be --
114
435000
3000
Както казах, не знаем колко трудно ще бъде това.
07:36
after all, mostнай-много other mammalsбозайници liveживея halfнаполовина as long as the chimpanzeeшимпанзе,
115
438000
6000
Възможно е, след като другите бозайници живеят два пъти по-малко от шимпанзетата,
07:42
so we're sortвид of threeтри and a halfнаполовина or fourчетирима timesпъти, have fourчетирима timesпъти
116
444000
3000
ние да можем да живеем три и половина или четири пъти
07:45
the longevityдълголетие of mostнай-много mammalsбозайници. And in the caseслучай of the primatesпримати,
117
447000
6000
повече от повечето бозайници. И що се касае до приматите,
07:51
we have almostпочти the sameедин и същ genesгени. We only differразличават from chimpanzeesшимпанзетата,
118
453000
4000
ние имаме почти еднакви гени. Различаваме се от шимпанзетата
07:55
in the presentнастояще stateсъстояние of knowledgeзнание, whichкойто is absoluteабсолютен hogwashглупости,
119
457000
6000
според това което знаем в момента, което е доста малко -
08:01
maybe by just a fewмалцина hundredсто genesгени.
120
463000
2000
по около стотина гена.
08:03
What I think is that the geneген countersБроячи don't know what they're doing yetоще.
121
465000
3000
Спорен мен преброителите на гените все още не знаят какво вършат.
08:06
And whateverкакто и да е you do, don't readПрочети anything about geneticsгенетика
122
468000
3000
Правете, струвайте, но не четете нищо за генетиката,
08:09
that's publishedпубликувано withinв рамките на your lifetimeживот, or something.
123
471000
3000
публикувано, докато сте живи.
08:12
(LaughterСмях)
124
474000
3000
(Смях)
08:15
The stuffматерия has a very shortнисък half-lifeполуживот, sameедин и същ with brainмозък scienceнаука.
125
477000
4000
Тези трудове много бързо губят валидност, същото се отнася и за науките за мозъка.
08:19
And so it mightбиха могли, може be that if we just fixфиксира fourчетирима or fiveпет genesгени,
126
481000
6000
И може би ако променим само 4 или 5 гена,
08:25
we can liveживея 200 yearsгодини.
127
487000
2000
ще можем да живеем 200 години.
08:27
Or it mightбиха могли, може be that it's just 30 or 40,
128
489000
3000
Или може да са само още 30-40,
08:30
and I doubtсъмнение that it's severalняколко hundredсто.
129
492000
2000
но едва ли ще са няколко стотици.
08:32
So this is something that people will be discussingобсъждане
130
494000
4000
Това е въпрос, който ще бъде дискутиран от обществото
08:36
and lots of ethicistsethicists -- you know, an ethicistethicist is somebodyнякой
131
498000
3000
и от много етици - етикът е човек,
08:39
who seesвижда something wrongпогрешно with whateverкакто и да е you have in mindум.
132
501000
3000
който ще намери нещо лошо във всичко, което сте замислили.
08:42
(LaughterСмях)
133
504000
3000
(Смях)
08:45
And it's very hardтвърд to find an ethicistethicist who considersсчита any changeпромяна
134
507000
4000
Много е трудно да намерите етик, който ще ви каже, че дадена промяна
08:49
worthзаслужава си makingприготвяне, because he saysказва, what about the consequencesпоследствия?
135
511000
4000
е добре да се извърши, защото, ще каже той: "Ами последствията?"
08:53
And, of courseкурс, we're not responsibleотговорен for the consequencesпоследствия
136
515000
3000
А, естествено, ние не сме отговорни за последствията
08:56
of what we're doing now, are we? Like all this complaintжалбата about clonesклонинги.
137
518000
6000
от това, което вършим сега, нали? Като, например, всички тези критики срещу клонирането.
09:02
And yetоще two randomслучаен people will mateкапитан and have this childдете,
138
524000
3000
Двама случайни хора могат да се съвокуплят и да имат дете
09:05
and bothи двете of them have some prettyкрасива rottenгнило genesгени,
139
527000
4000
и ако не са имали късмет с гените си,
09:09
and the childдете is likelyвероятно to come out to be averageсредно аритметично.
140
531000
4000
детето им вероятно няма да се различава от средностатистическото.
09:13
WhichКоито, by chimpanzeeшимпанзе standardsстандарти, is very good indeedнаистина.
141
535000
6000
Което според стандартите на шимпанзетата, си е много добре.
09:19
If we do have longevityдълголетие, then we'llдобре have to faceлице the populationнаселение growthрастеж
142
541000
3000
Ако получим дълголетие, тогава ще се изправим пред проблема с
09:22
problemпроблем anywayтака или иначе. Because if people liveживея 200 or 1,000 yearsгодини,
143
544000
4000
нарастването на населението. Защото ако хората живеят по 200 или 1 000 години,
09:26
then we can't let them have a childдете more than about onceведнъж everyвсеки 200 or 1,000 yearsгодини.
144
548000
6000
не можем да им позволим да имат дете повече от веднъж на 200 или 1000 години.
09:32
And so there won'tняма да be any workforceработна сила.
145
554000
3000
В резултат на това, няма да имаме работна сила.
09:35
And one of the things LaurieЛори GarrettГарет pointedзаострен out, and othersдруги have,
146
557000
4000
Лори Гарет, а и много други, подчертават,
09:39
is that a societyобщество that doesn't have people
147
561000
5000
че ако едно общество няма хора в трудоспособна възраст,
09:44
of workingработа ageвъзраст is in realреален troubleбеда. And things are going to get worseпо-лошо,
148
566000
3000
то много е загазило. И нещата ще стават по-зле,
09:47
because there's nobodyНикой to educateобразовам the childrenдеца or to feedфураж the oldстар.
149
569000
6000
защото няма да има кой да обучава децата или да се грижи за старите хора.
09:53
And when I'm talkingговорим about a long lifetimeживот, of courseкурс,
150
575000
2000
Когато говоря за дълъг живот, разбира се, не искам
09:55
I don't want somebodyнякой who'sкой е 200 yearsгодини oldстар to be like our imageизображение
151
577000
6000
на 200 години да изглеждаме така, както си представяме,
10:01
of what a 200-year-old-годишен is -- whichкойто is deadмъртъв, actuallyвсъщност.
152
583000
4000
че бихме изглеждали - като мъртъвци.
10:05
You know, there's about 400 differentразличен partsчасти of the brainмозък
153
587000
2000
Има около 400 различни части в нашия мозък,
10:07
whichкойто seemИзглежда to have differentразличен functionsфункции.
154
589000
2000
които имат различни функции.
10:09
NobodyНикой не knowsзнае how mostнай-много of them work in detailдетайл,
155
591000
3000
Никой не знае как точно работят повечето от тях,
10:12
but we do know that there'reтам сме lots of differentразличен things in there.
156
594000
4000
но знаем, че там има много различни неща.
10:16
And they don't always work togetherзаедно. I like Freud'sФройд theoryтеория
157
598000
2000
И те не винаги работят в синхрон. Харесва ми теорията на Фройд,
10:18
that mostнай-много of them are cancellingанулиране eachвсеки other out.
158
600000
4000
че повечето се взаимно се изключват.
10:22
And so if you think of yourselfсебе си as a sortвид of cityград
159
604000
4000
И ако си се представите като един град
10:26
with a hundredсто resourcesресурси, then, when you're afraidуплашен, for exampleпример,
160
608000
6000
със стотици ресурси, тогава, ако, например, се изплашите,
10:32
you mayможе discardизхвърлете your long-rangeдълъг обхват goalsцели, but you mayможе think deeplyдълбоко
161
614000
4000
вие ще пренебрегнете вашите дългосрочни цели, но ще се фокусирате
10:36
and focusфокус on exactlyточно how to achieveпостигане that particularособен goalцел.
162
618000
4000
върху това как да постигнете една определена цел.
10:40
You throwхвърлям everything elseоще away. You becomeда стане a monomaniacстрадащ от мономания --
163
622000
3000
Ще изхвърлите всичко останало. Ще се превърнете в мономаниак -
10:43
all you careгрижа about is not steppingзасилване out on that platformплатформа.
164
625000
4000
единственото, което ще ви интересува е как да не паднете от тази платформа.
10:47
And when you're hungryгладен, foodхрана becomesстава more attractiveатрактивен, and so forthнапред.
165
629000
4000
А когато сте гладен, храната започва да ви привлича и т.н.
10:51
So I see emotionsемоции as highlyсилно evolvedеволюира subsetsподмножества of your capabilityспособност.
166
633000
6000
Според мен емоциите са силно еволюирали под-групи на вашите възможности.
10:57
EmotionЕмоция is not something addedдобавен to thought. An emotionalемоционален stateсъстояние
167
639000
4000
Емоцията не е нещо прибавено към мисълта. Емоционалното състояние
11:01
is what you get when you removeпремахнете 100 or 200
168
643000
4000
е това, с което оставате, ако изключите 100 или 200
11:05
of your normallyнормално availableна разположение resourcesресурси.
169
647000
3000
от нормално наличните ви ресурси.
11:08
So thinkingмислене of emotionsемоции as the oppositeпротивоположен of -- as something
170
650000
3000
И затова разглеждането на емоциите като противоположност,
11:11
lessпо-малко than thinkingмислене is immenselyизвънредно productiveпродуктивен. And I hopeнадявам се,
171
653000
4000
като нещо по-нисшо от мисленето е много продуктивно. И се надявам
11:15
in the nextследващия fewмалцина yearsгодини, to showшоу that this will leadводя to smartумен machinesмашини.
172
657000
4000
през следващите няколко години да демонстрирам, че това ще доведе до умни машини.
11:19
And I guessпредполагам I better skipпропускане all the restПочивка of this, whichкойто are some detailsдетайли
173
661000
3000
По-добре да пропусна следващата част, описваща в детайли
11:22
on how we mightбиха могли, може make those smartумен machinesмашини and --
174
664000
5000
как можем да направим тези умни машини.
11:27
(LaughterСмях)
175
669000
5000
(Смях)
11:32
-- and the mainосновен ideaидея is in factфакт that the coreсърцевина of a really smartумен machineмашина
176
674000
5000
Основната идея е, че една наистина умна машина
11:37
is one that recognizesразпознава that a certainопределен kindмил of problemпроблем is facingизправени пред you.
177
679000
5000
ще разбере, когато пред вас стои определен проблем.
11:42
This is a problemпроблем of suchтакъв and suchтакъв a typeТип,
178
684000
3000
Че това е проблем от този-и-този вид
11:45
and thereforeСледователно there's a certainопределен way or waysначини of thinkingмислене
179
687000
5000
и следователно съществува определен начин на мислене,
11:50
that are good for that problemпроблем.
180
692000
2000
който ще реши този проблем.
11:52
So I think the futureбъдеще, mainосновен problemпроблем of psychologyпсихология is to classifyкласифицирам
181
694000
4000
Мисля, че бъдещият основен проблем на психологията ще бъде да класифицира
11:56
typesвидове of predicamentsзатруднения, typesвидове of situationsситуации, typesвидове of obstaclesпрепятствия
182
698000
4000
видовете проблеми, ситуации и препятствия
12:00
and alsoсъщо to classifyкласифицирам availableна разположение and possibleвъзможен waysначини to think and pairдвойка them up.
183
702000
6000
и да класифицира наличните и възможните начини, по които да се мисли за тях и по които да ги свързваме.
12:06
So you see, it's almostпочти like a PavlovianPavlovian --
184
708000
3000
Ситуацията е като с кучето на Павлов -
12:09
we lostзагубен the first hundredсто yearsгодини of psychologyпсихология
185
711000
2000
изгубихме първите сто години от науката психология
12:11
by really trivialтривиален theoriesтеории, where you say,
186
713000
3000
с наистина тривиални теории, в които се питаме
12:14
how do people learnуча how to reactреагирам to a situationситуация? What I'm sayingпоговорка is,
187
716000
6000
как хората се научават как да реагират на определена ситуация. Мисля, че
12:20
after we go throughпрез a lot of levelsнива, includingвключително designingпроектиране
188
722000
5000
след като преминем през всички нива, включително и проектирането на
12:25
a hugeогромен, messyразхвърлян systemсистема with thousandsхиляди of portsпристанища,
189
727000
3000
една сложна и объркана система с хиляди части,
12:28
we'llдобре endкрай up again with the centralцентрален problemпроблем of psychologyпсихология.
190
730000
4000
ние пак ще се върнем до централния проблем на психологията.
12:32
SayingПоговорка, not what are the situationsситуации,
191
734000
3000
Не трябва да се питаме какви са видовете ситуации,
12:35
but what are the kindsвидове of problemsпроблеми
192
737000
2000
а какви са видовете проблеми
12:37
and what are the kindsвидове of strategiesстратегии, how do you learnуча them,
193
739000
3000
и какви са видовете стратегии, как ги научаваме,
12:40
how do you connectсвържете them up, how does a really creativeтворчески personчовек
194
742000
3000
как ги свързваме, как един изобретателен човек
12:43
inventизмислям a newнов way of thinkingмислене out of the availableна разположение resourcesресурси and so forthнапред.
195
745000
5000
може да измисли нов начин на мислене, използвайки наличните ресурси и т.н.
12:48
So, I think in the nextследващия 20 yearsгодини,
196
750000
2000
Мисля, че през следващите 20 години,
12:50
if we can get ridизбавям of all of the traditionalтрадиционен approachesподходи to artificialизкуствен intelligenceинтелигентност,
197
752000
5000
ако успеем да загърбим традиционните подходи към изкуствения интелект
12:55
like neuralнервен netsмрежи and geneticгенетичен algorithmsалгоритми
198
757000
2000
като невронните мрежи или генетичните алгоритми
12:57
and rule-basedбазирана на правила systemsсистеми, and just turnзавой our sightsгледки a little bitмалко higherпо-висок to say,
199
759000
6000
и базирани на правила системи и погледнем малко по-високо
13:03
can we make a systemсистема that can use all those things
200
765000
2000
и се запитаме, можем ли да направим система, която да ги използва всичките тези неща
13:05
for the right kindмил of problemпроблем? Some problemsпроблеми are good for neuralнервен netsмрежи;
201
767000
4000
за точния вид проблем? Някои проблеми се решават добре с невронни мрежи,
13:09
we know that othersдруги, neuralнервен netsмрежи are hopelessбезнадежден on them.
202
771000
3000
при други тези мрежи са безнадеждни.
13:12
GeneticГенетични algorithmsалгоритми are great for certainопределен things;
203
774000
3000
Генетичните алгоритми вършат страхотна работа за някои проблеми;
13:15
I suspectзаподозрян I know what they're badлошо at, and I won'tняма да tell you.
204
777000
4000
и мисля, че знам с кои се справят много зле, но няма да ви кажа.
13:19
(LaughterСмях)
205
781000
1000
(Смях)
13:20
Thank you.
206
782000
2000
Благодаря ви.
13:22
(ApplauseАплодисменти)
207
784000
6000
(Аплодисменти)
Translated by Ivelina Petkova
Reviewed by Mihail Stoychev

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com