ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com
TED2003

Marvin Minsky: Health and the human mind

Марвин Мински о здоровье и о мозге

Filmed:
606,909 views

Слушайте внимательно, как Марвин Мински проходится по проблемам здоровья, перенаселения и мозга в своём игривом, эклектическом экспромте, переполненным тончайшего остроумия и мудрости, плюс щепотки лукавых советов.
- AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching. Full bio

Double-click the English transcript below to play the video.

00:18
If you askпросить people about what partчасть of psychologyпсихология do they think is hardжесткий,
0
0
6000
Если спросить, какая сторона психологии самая сложная,
00:24
and you say, "Well, what about thinkingмышление and emotionsэмоции?"
1
6000
3000
и конкретно, спросить насчёт мышления и эмоций,
00:27
MostНаиболее people will say, "EmotionsЭмоции are terriblyужасно hardжесткий.
2
9000
3000
большинство людей ответит: «Эмоции – вещь крайне сложная.
00:30
They're incrediblyневероятно complexсложный. They can't -- I have no ideaидея of how they work.
3
12000
6000
Они безумно запутаны, невозможно... Я совершенно не понимаю, как они работают.
00:36
But thinkingмышление is really very straightforwardпростой:
4
18000
2000
То ли дело мышление, с ним всё понятно:
00:38
it's just sortСортировать of some kindсвоего рода of logicalлогический reasoningрассуждения, or something.
5
20000
4000
это просто логические цепочки или что-то вроде того.
00:42
But that's not the hardжесткий partчасть."
6
24000
3000
Но мышление – это не сложно.»
00:45
So here'sвот a listсписок of problemsпроблемы that come up.
7
27000
2000
И вот возникает целый ряд проблем.
00:47
One niceхороший problemпроблема is, what do we do about healthздоровье?
8
29000
3000
Одна тонкая проблема – как обеспечить здоровье?
00:50
The other day, I was readingчтение something, and the personчеловек said
9
32000
4000
На днях я прочитал где-то о том,
00:54
probablyвероятно the largestкрупнейший singleОдин causeпричина of diseaseболезнь is handshakingподтверждение связи in the Westзапад.
10
36000
6000
что, возможно, крупнейшая причина заболеваний на Западе – рукопожатие.
01:00
And there was a little studyизучение about people who don't handshakeрукопожатие,
11
42000
4000
Были приведены данные о народах, у которых рукопожатие не принято,
01:04
and comparingСравнение them with onesте, who do handshakeрукопожатие.
12
46000
3000
по сравнению с теми, у которых это – норма.
01:07
And I haven'tне the foggiestтуманное ideaидея of where you find the onesте, that don't handshakeрукопожатие,
13
49000
5000
Не представляю себе, где найти тех, кто не пожимают руки –
01:12
because they mustдолжен be hidingпрячется.
14
54000
3000
они, должно быть, скрываются.
01:15
And the people who avoidизбежать that
15
57000
4000
Так вот люди, избегающие рукопожатий
01:19
have 30 percentпроцент lessМеньше infectiousинфекционный diseaseболезнь or something.
16
61000
4000
на 30% меньше болеют инфекционными заболеваниями.
01:23
Or maybe it was 31 and a quarterчетверть percentпроцент.
17
65000
3000
Или, может, 31 с четвертью процента.
01:26
So if you really want to solveрешать the problemпроблема of epidemicsэпидемии and so forthвперед,
18
68000
4000
Так что если вы действительно хотите решить проблему эпидемий и тому подобного,
01:30
let's startНачало with that. And sinceпоскольку I got that ideaидея,
19
72000
4000
то есть с чего начать. Но с тех пор как я узнал об этом,
01:34
I've had to shakeвстряхивать hundredsсотни of handsРуки.
20
76000
4000
мне пришлось пожать сотни рук.
01:38
And I think the only way to avoidизбежать it
21
80000
5000
Полагаю, что единственный способ избавиться от этого –
01:43
is to have some horribleкакой ужас visibleвидимый diseaseболезнь,
22
85000
2000
заиметь ужасающий и явно заметный недуг:
01:45
and then you don't have to explainобъяснять.
23
87000
3000
тогда всё решится само собой.
01:48
Educationобразование: how do we improveулучшать educationобразование?
24
90000
4000
Образование. Как улучшить образование?
01:52
Well, the singleОдин bestЛучший way is to get them to understandПонимаю
25
94000
4000
Лучший способ – заставить людей понять,
01:56
that what they're beingявляющийся told is a wholeвсе lot of nonsenseбред какой то.
26
98000
3000
что всё, что им говорят – полная чушь.
01:59
And then, of courseкурс, you have to do something
27
101000
2000
Потом, конечно, придётся внести оговорки,
02:01
about how to moderateумеренный that, so that anybodyкто-нибудь can -- so they'llони будут listen to you.
28
103000
5000
чтобы хотя бы к вам самим прислушались.
02:06
Pollutionзагрязнение, energyэнергия shortageнехватка, environmentalэкологическая diversityразнообразие, povertyбедность.
29
108000
4000
Загрязнение среды, недостаток энергоресурсов, экологическое разнообразие, бедность, -
02:10
How do we make stableстабильный societiesобщества? Longevityдолголетие.
30
112000
4000
каким образом создать стабильное общество? Долгожительство.
02:14
Okay, there'reтам вы lots of problemsпроблемы to worryбеспокоиться about.
31
116000
3000
Да, поводов для беспокойства – масса.
02:17
AnywayТак или иначе, the questionвопрос I think people should talk about --
32
119000
2000
Но есть одна тема, которая должна бы всех волновать,
02:19
and it's absolutelyабсолютно tabooтабу -- is, how manyмногие people should there be?
33
121000
5000
а именно эта тема – табу. Какая цифра народонаселения планеты допустима?
02:24
And I think it should be about 100 millionмиллиона or maybe 500 millionмиллиона.
34
126000
7000
Я считаю, что она должна быть порядка 100 миллионов, ну пусть 500 миллионов человек.
02:31
And then noticeуведомление that a great manyмногие of these problemsпроблемы disappearисчезать.
35
133000
5000
Обратите внимание: большинство проблем тогда исчезает сама собой.
02:36
If you had 100 millionмиллиона people
36
138000
2000
Если бы на Земле было 100 миллионов человек,
02:38
properlyдолжным образом spreadраспространение out, then if there's some garbageмусор,
37
140000
6000
равномерно распределённых по территории, то тогда мусор можно
02:44
you throwбросать it away, preferablyпредпочтительно where you can't see it, and it will rotгниль.
38
146000
7000
просто выкидывать, желательно туда, где никому не видно, и где он сгниёт.
02:51
Or you throwбросать it into the oceanокеан and some fishрыба will benefitвыгода from it.
39
153000
5000
Либо можно выкинуть его в океан, и какой-то рыбке перепадёт.
02:56
The problemпроблема is, how manyмногие people should there be?
40
158000
2000
Главная проблема в том, сколько народу должно быть.
02:58
And it's a sortСортировать of choiceвыбор we have to make.
41
160000
3000
И в каком-то смысле, этот выбор нам надо сделать.
03:01
MostНаиболее people are about 60 inchesдюймов highвысокая or more,
42
163000
3000
Большинство людей имеют рост примерно в 150 см и выше,
03:04
and there's these cubeкуб lawsзаконы. So if you make them this bigбольшой,
43
166000
4000
а теперь учтём потери, т.к. объём пропорционален кубу. А вот если сделать людей
03:08
by usingс помощью nanotechnologyнанотехнологии, I supposeпредполагать --
44
170000
3000
вот такусенькими, надо думать, посредством нанотехнологии,
03:11
(LaughterСмех)
45
173000
1000
(Смех)
03:12
-- then you could have a thousandтысяча timesраз as manyмногие.
46
174000
2000
то можно было бы иметь в тысячи раз больше народа.
03:14
That would solveрешать the problemпроблема, but I don't see anybodyкто-нибудь
47
176000
2000
Это решило бы проблему, но я что-то не вижу,
03:16
doing any researchисследование on makingизготовление people smallerменьше.
48
178000
3000
чтобы кто-то занимался исследованиями в области уменьшения размера тела.
03:19
Now, it's niceхороший to reduceуменьшить the populationНаселение, but a lot of people want to have childrenдети.
49
181000
5000
Конечно, уменьшить численность населения было бы приятно, но многие хотят иметь детей.
03:24
And there's one solutionрешение that's probablyвероятно only a fewмало yearsлет off.
50
186000
3000
И этому есть одно решение, которое, похоже, появится всего лишь через пару лет.
03:27
You know you have 46 chromosomesхромосомы. If you're luckyвезучий, you've got 23
51
189000
5000
Как вы знаете, у каждого из нас есть 46 хромосом. Если повезло, то – по 23
03:32
from eachкаждый parentродитель. SometimesИногда you get an extraдополнительный one or dropпадение one out,
52
194000
6000
от каждого родителя, иногда на одну меньше или больше.
03:38
but -- so you can skipпропускать the grandparentбабушка или дедушка and great-grandparentВеликий предок stageсцена
53
200000
4000
Можно избавиться от этапа дедушки и прадедушки,
03:42
and go right to the great-great-grandparentпра-пра-дедушка. And you have 46 people
54
204000
5000
и перейти сразу к прапрадедам вот как: выбираются 46 человек,
03:47
and you give them a scannerсканер, or whateverбез разницы you need,
55
209000
3000
им даётся сканер или что там ещё,
03:50
and they look at theirих chromosomesхромосомы and eachкаждый of them saysговорит
56
212000
4000
каждый из них смотрит на свои хромосомы, и выбирает
03:54
whichкоторый one he likesнравится bestЛучший, or she -- no reasonпричина to have just two sexesпола
57
216000
5000
одну самую любимую. Кстати, нет причины настаивать, чтобы в группе
03:59
any more, even. So eachкаждый childребенок has 46 parentsродители,
58
221000
5000
были представлены оба пола. У каждого ребёнка по 46 родителей,
04:04
and I supposeпредполагать you could let eachкаждый groupгруппа of 46 parentsродители have 15 childrenдети.
59
226000
6000
и каждой группе в 46 родителей можно, думаю, разрешить иметь 15 детей –
04:10
Wouldn'tне было бы that be enoughдостаточно? And then the childrenдети
60
232000
2000
разве не достаточно? И тогда детям
04:12
would get plentyмного of supportподдержка, and nurturingвоспитание, and mentoringнаставничество,
61
234000
4000
с избытком достанется и поддержки, и заботы, и воспитания,
04:16
and the worldМир populationНаселение would declineснижение very rapidlyбыстро
62
238000
2000
а количество народонаселения станет резко уменьшаться,
04:18
and everybodyвсе would be totallyполностью happyсчастливый.
63
240000
3000
и все будут бесконечно счастливы.
04:21
TimesharingСовместное времяпровождение is a little furtherв дальнейшем off in the futureбудущее.
64
243000
3000
Чередование жизни во времени ждёт нас в чуть более отдалённом будущем.
04:24
And there's this great novelроман that ArthurАртур ClarkeКларк wroteписал twiceдважды,
65
246000
3000
Артур Кларк написал об этом замечательный роман дважды,
04:27
calledназывается "Againstпротив the FallОсень of Night" and "The Cityгород and the StarsЗвезды."
66
249000
4000
он называется «Против Прихода Ночи» и «Город и Звёзды».
04:31
They're bothи то и другое wonderfulзамечательно and largelyво многом the sameодна и та же,
67
253000
3000
Оба романа - прекрасны, и во многом одинаковы,
04:34
exceptКроме that computersкомпьютеры happenedполучилось in betweenмежду.
68
256000
2000
только вот между их написанием появились компьютеры.
04:36
And ArthurАртур was looking at this oldстарый bookкнига, and he said, "Well, that was wrongнеправильно.
69
258000
5000
И взглянул Артур на своё раннее творение и решил, что так не должно быть.
04:41
The futureбудущее mustдолжен have some computersкомпьютеры."
70
263000
2000
Будущее должно быть обеспечено компьютерами.
04:43
So in the secondвторой versionверсия of it, there are 100 billionмиллиард
71
265000
5000
Так что во второй версии книги на Земле живёт 100 миллиардов
04:48
or 1,000 billionмиллиард people on EarthЗемля, but they're all storedхранится on hardжесткий disksдиски or floppiesдискеты,
72
270000
8000
или 1000 миллиардов людей, но все они хранятся на жёстких, или гибких дисках,
04:56
or whateverбез разницы they have in the futureбудущее.
73
278000
2000
или какие там ещё носители будут в будущем.
04:58
And you let a fewмало millionмиллиона of them out at a time.
74
280000
4000
Единовременно на Землю выходит несколько миллионов человек.
05:02
A personчеловек comesвыходит out, they liveжить for a thousandтысяча yearsлет
75
284000
4000
Люди материализуются, живут по тысячу лет,
05:06
doing whateverбез разницы they do, and then, when it's time to go back
76
288000
6000
занимаются делами, и потом, когда приходит пора заново [вернуться на диск],
05:12
for a billionмиллиард yearsлет -- or a millionмиллиона, I forgetзабывать, the numbersчисел don't matterдело --
77
294000
4000
лет так на миллиард – или на миллион, не помню, да и дело не в числах,
05:16
but there really aren'tне very manyмногие people on EarthЗемля at a time.
78
298000
4000
дело в том, что в любой момент на Земле не так много людей –
05:20
And you get to think about yourselfсам and your memoriesвоспоминания,
79
302000
2000
каждый должен подумать о себе и о своей памяти
05:22
and before you go back into suspensionподвеска, you editредактировать your memoriesвоспоминания
80
304000
5000
перед возвращением в подвешенное состояние и, отредактировав воспоминания,
05:27
and you changeизменение your personalityличность and so forthвперед.
81
309000
3000
изменить свою личность, и тому подобное.
05:30
The plotсюжет of the bookкнига is that there's not enoughдостаточно diversityразнообразие,
82
312000
6000
Сюжет романа в постоянном недостатке разнообразия среди населения,
05:36
so that the people who designedпредназначенный the cityгород
83
318000
3000
ввиду чего основоположники города
05:39
make sure that everyкаждый now and then an entirelyполностью newновый personчеловек is createdсозданный.
84
321000
4000
позаботились о том, чтобы время от времени создавался совершенно новый человек.
05:43
And in the novelроман, a particularконкретный one namedназванный AlvinAlvin is createdсозданный. And he saysговорит,
85
325000
6000
Один такой человек, в романе его зовут Элвин,
05:49
maybe this isn't the bestЛучший way, and wrecksобломки the wholeвсе systemсистема.
86
331000
4000
говорит, что всё это не то, и разрушает систему.
05:53
I don't think the solutionsрешения that I proposedпредложенный
87
335000
2000
Не думаю, что предлагаемые мною решения
05:55
are good enoughдостаточно or smartумная enoughдостаточно.
88
337000
3000
достаточно правильны или достаточно умны.
05:58
I think the bigбольшой problemпроблема is that we're not smartумная enoughдостаточно
89
340000
4000
Но думаю, что проблема в том, что мы недостаточно умны,
06:02
to understandПонимаю whichкоторый of the problemsпроблемы we're facingоблицовочный are good enoughдостаточно.
90
344000
4000
чтобы понять, какие проблемы достаточно правильны.
06:06
ThereforeСледовательно, we have to buildстроить superсупер intelligentумный machinesмашины like HALHAL.
91
348000
4000
Поэтому нам придётся построить сверх-умные машины типа HAL.
06:10
As you rememberзапомнить, at some pointточка in the bookкнига for "2001,"
92
352000
5000
Как вы помните, в какой-то момент в книге о 2001 годе
06:15
HALHAL realizesпонимает that the universeвселенная is too bigбольшой, and grandбольшой, and profoundглубокий
93
357000
5000
HAL вдруг понимает, что вселенная слишком велика и необъятна
06:20
for those really stupidглупый astronautsкосмонавты. If you contrastконтрастировать HAL'sХал behaviorповедение
94
362000
4000
для этих недалёких космонавтов. Если противопоставить поведение HAL’a
06:24
with the trivialityтривиальность of the people on the spaceshipкосмический корабль,
95
366000
4000
мелочности людей на космическом корабле,
06:28
you can see what's writtenнаписано betweenмежду the linesлинии.
96
370000
3000
то можно легко понять написанное автором между строк.
06:31
Well, what are we going to do about that? We could get smarterумнее.
97
373000
3000
Ну и что нам с этим делать? Мы могли бы поумнеть.
06:34
I think that we're prettyСимпатичная smartумная, as comparedв сравнении to chimpanzeesшимпанзе,
98
376000
5000
Я думаю, что мы довольно умны, если сравнивать с шимпанзе,
06:39
but we're not smartумная enoughдостаточно to dealпо рукам with the colossalколоссальный problemsпроблемы that we faceлицо,
99
381000
6000
но мы недостаточно умны для решения стоящих перед нами колоссальных проблем,
06:45
eitherили in abstractАбстрактные mathematicsматематика
100
387000
2000
ни в высшей математике,
06:47
or in figuringвычисляя out economiesэкономики, or balancingбалансировка the worldМир around.
101
389000
5000
ни в понимании экономики, ни в сохранении глобального баланса.
06:52
So one thing we can do is liveжить longerдольше.
102
394000
3000
Для начала мы могли бы продлить себе жизнь.
06:55
And nobodyникто knowsзнает how hardжесткий that is,
103
397000
2000
Никто не знает, насколько это сложно,
06:57
but we'llЧто ж probablyвероятно find out in a fewмало yearsлет.
104
399000
3000
но через пару лет, наверное, мы это узнаем.
07:00
You see, there's two forksвилки in the roadДорога. We know that people liveжить
105
402000
3000
Эволюция дважды рождала новую ветвь. Мы знаем, что люди живут
07:03
twiceдважды as long as chimpanzeesшимпанзе almostпочти,
106
405000
4000
практически вдвое дольше шимпанзе,
07:07
and nobodyникто livesжизни more than 120 yearsлет,
107
409000
4000
хотя никто не живёт дольше 120 лет
07:11
for reasonsпричины that aren'tне very well understoodпонимать.
108
413000
3000
по неясным пока причинам.
07:14
But lots of people now liveжить to 90 or 100,
109
416000
3000
Но многие сегодня доживают до 90 или до 100,
07:17
unlessесли they shakeвстряхивать handsРуки too much or something like that.
110
419000
4000
если, конечно, не увлекаются рукопожатиями и тому подобным.
07:21
And so maybe if we livedжил 200 yearsлет, we could accumulateскапливаться enoughдостаточно skillsнавыки
111
423000
5000
И, возможно, живи мы лет 200, мы могли бы накопить достаточно умений
07:26
and knowledgeзнание to solveрешать some problemsпроблемы.
112
428000
5000
и знаний, чтобы решать кое-какие проблемы.
07:31
So that's one way of going about it.
113
433000
2000
Так что вот один из вариантов.
07:33
And as I said, we don't know how hardжесткий that is. It mightмог бы be --
114
435000
3000
Как я говорил, мы не знаем, насколько это трудно. Может оказаться, что…
07:36
after all, mostбольшинство other mammalsмлекопитающих liveжить halfполовина as long as the chimpanzeeшимпанзе,
115
438000
6000
В конце концов, большая часть млекопитающих живут вдвое меньше шимпанзе, -
07:42
so we're sortСортировать of threeтри and a halfполовина or four4 timesраз, have four4 timesраз
116
444000
3000
так что мы живём в 3,5 – 4 раза дольше,
07:45
the longevityдолговечность of mostбольшинство mammalsмлекопитающих. And in the caseдело of the primatesприматы,
117
447000
6000
чем большая часть млекопитающих. И если взять приматов,
07:51
we have almostпочти the sameодна и та же genesгены. We only differотличаться from chimpanzeesшимпанзе,
118
453000
4000
то у нас почти одинаковые гены. Мы отличаемся от шимпанзе,
07:55
in the presentнастоящее время stateгосударство of knowledgeзнание, whichкоторый is absoluteабсолютный hogwashфигня,
119
457000
6000
согласно нашим нынешним знаниям, – а их можно просто выкинуть на помойку –
08:01
maybe by just a fewмало hundredсто genesгены.
120
463000
2000
где-то лишь на пару сотен ген.
08:03
What I think is that the geneген countersсчетчики don't know what they're doing yetвсе же.
121
465000
3000
Кстати, любители считать гены пока ещё не имеют никакого представления о предмете.
08:06
And whateverбез разницы you do, don't readчитать anything about geneticsгенетика
122
468000
3000
Можете заниматься чем угодно, но не читайте по генетике того,
08:09
that's publishedопубликованный withinв your lifetimeпродолжительность жизни, or something.
123
471000
3000
что будет опубликовано примерно в период вашей жизни.
08:12
(LaughterСмех)
124
474000
3000
(Смех)
08:15
The stuffматериал has a very shortкороткая half-lifeпериод полураспада, sameодна и та же with brainголовной мозг scienceнаука.
125
477000
4000
Уж слишком быстро устаревает в генетике половина всего написанного.
08:19
And so it mightмог бы be that if we just fixфиксировать four4 or five5 genesгены,
126
481000
6000
То же можно сказать об изучении мозга. Так вот, если подправить 4-5 генов,
08:25
we can liveжить 200 yearsлет.
127
487000
2000
то, возможно, мы будем жить по 200 лет.
08:27
Or it mightмог бы be that it's just 30 or 40,
128
489000
3000
Или, может, [надо подправить] 30 или 40,
08:30
and I doubtсомнение that it's severalнесколько hundredсто.
129
492000
2000
но я очень сомневаюсь, что счёт идёт на сотни [генов].
08:32
So this is something that people will be discussingобсуждение
130
494000
4000
Эту тему будут много обсуждать,
08:36
and lots of ethicistsспециалисты по этике -- you know, an ethicistэтик is somebodyкто-то
131
498000
3000
и многие специалисты по этике… Да, кстати, специалист по этике –
08:39
who seesвидит something wrongнеправильно with whateverбез разницы you have in mindразум.
132
501000
3000
это тот, кто в любых ваших мыслях видит что-то не то.
08:42
(LaughterСмех)
133
504000
3000
(Смех)
08:45
And it's very hardжесткий to find an ethicistэтик who considersсчитает any changeизменение
134
507000
4000
Очень трудно найти специалиста по этике, готового одобрить
08:49
worthстоимость makingизготовление, because he saysговорит, what about the consequencesпоследствия?
135
511000
4000
какие бы то ни было изменения, потому что он задаётся вопросом о последствиях.
08:53
And, of courseкурс, we're not responsibleответственность for the consequencesпоследствия
136
515000
3000
А мы, само собой, не несём ответственность за последствия своих
08:56
of what we're doing now, are we? Like all this complaintжалоба about clonesклоны.
137
518000
6000
сегодняшних действий, не правда ли? Взять, скажем, весь этот шум по поводу клонирования.
09:02
And yetвсе же two randomслучайный people will mateприятель and have this childребенок,
138
524000
3000
На его фоне никто не мешает людям случайным образом спариваться и рожать детей,
09:05
and bothи то и другое of them have some prettyСимпатичная rottenгнилой genesгены,
139
527000
4000
при том, что обе стороны имеют весьма хлипкие гены,
09:09
and the childребенок is likelyвероятно to come out to be averageв среднем.
140
531000
4000
и ребёнок, скорее всего, будет заурядностью.
09:13
WhichКоторый, by chimpanzeeшимпанзе standardsстандарты, is very good indeedв самом деле.
141
535000
6000
Что, по нормативам шимпанзе, вполне сносно…
09:19
If we do have longevityдолговечность, then we'llЧто ж have to faceлицо the populationНаселение growthрост
142
541000
3000
Если мы добьёмся долголетия, то в любом раскладе встаёт проблема
09:22
problemпроблема anywayтак или иначе. Because if people liveжить 200 or 1,000 yearsлет,
143
544000
4000
прироста народонаселения. Ведь если человек живёт по 200 или по 1000 лет,
09:26
then we can't let them have a childребенок more than about onceодин раз everyкаждый 200 or 1,000 yearsлет.
144
548000
6000
то нельзя позволить ему иметь ребёнка чаще, чем раз в 200 или в 1000 лет.
09:32
And so there won'tне будет be any workforceтрудовые ресурсы.
145
554000
3000
Но это значит, что не будет рабочей силы.
09:35
And one of the things LaurieLaurie GarrettGarrett pointedзаостренный out, and othersдругие have,
146
557000
4000
И, как подметила Лори Гарретт, да и другие,
09:39
is that a societyобщество that doesn't have people
147
561000
5000
если работоспособного возраста людей нет,
09:44
of workingза работой ageвозраст is in realреальный troubleбеда. And things are going to get worseхуже,
148
566000
3000
то всё общество под угрозой. Ситуация будет только ухудшаться,
09:47
because there's nobodyникто to educateвоспитывать the childrenдети or to feedкорм the oldстарый.
149
569000
6000
потому что некому будет воспитывать детей и заботиться о старости.
09:53
And when I'm talkingговорящий about a long lifetimeпродолжительность жизни, of courseкурс,
150
575000
2000
А когда я говорю о длительной жизни, то, конечно,
09:55
I don't want somebodyкто-то who'sкто 200 yearsлет oldстарый to be like our imageобраз
151
577000
6000
я не хочу, чтобы человек в 200-летнем возрасте соответствовал
10:01
of what a 200-year-old-лет is -- whichкоторый is deadмертвый, actuallyна самом деле.
152
583000
4000
нынешнему представлению о 200-летнем, то бишь, соответствовал мертвецу.
10:05
You know, there's about 400 differentдругой partsчасти of the brainголовной мозг
153
587000
2000
Кстати, в человеческом мозге есть около 400 участков,
10:07
whichкоторый seemказаться to have differentдругой functionsфункции.
154
589000
2000
каждый, похоже, со своим предназначением,
10:09
NobodyНикто knowsзнает how mostбольшинство of them work in detailподробно,
155
591000
3000
и никто в точности не знает, как работает большинство из них,
10:12
but we do know that there'reтам вы lots of differentдругой things in there.
156
594000
4000
хотя известно, что там проходит масса разных процессов.
10:16
And they don't always work togetherвместе. I like Freud'sФрейда theoryтеория
157
598000
2000
И не всегда всё работает сообща. Мне нравится теория Фрейда
10:18
that mostбольшинство of them are cancellingотмена eachкаждый other out.
158
600000
4000
о том, что большая часть отклонений друг друга гасят.
10:22
And so if you think of yourselfсам as a sortСортировать of cityгород
159
604000
4000
Представим себе свой мозг, как город
10:26
with a hundredсто resourcesРесурсы, then, when you're afraidбоюсь, for exampleпример,
160
608000
6000
с сотнями ресурсов. Если человек испытывает, например, страх,
10:32
you mayмай discardотбрасывать your long-rangeдальнобойный goalsцели, but you mayмай think deeplyглубоко
161
614000
4000
то он может, игнорируя свои долгосрочные цели, глубоко
10:36
and focusфокус on exactlyв точку how to achieveдостигать that particularконкретный goalЦель.
162
618000
4000
сконцентрироваться на одной-единственной цели.
10:40
You throwбросать everything elseеще away. You becomeстали a monomaniacманьяк --
163
622000
3000
Всё остальное перестаёт играть роль, человек становится подвержен мономании,
10:43
all you careзабота about is not steppingшаговый out on that platformПлатформа.
164
625000
4000
когда самое главное – не оступиться на платформе.
10:47
And when you're hungryголодный, foodпитание becomesстановится more attractiveпривлекательный, and so forthвперед.
165
629000
4000
В состоянии голода становится приоритетной еда, ну и так далее.
10:51
So I see emotionsэмоции as highlyвысоко evolvedэволюционировали subsetsподмножества of your capabilityвозможность.
166
633000
6000
В моём понимании, эмоции – это ярко выраженные подгруппы способностей человека.
10:57
Emotionэмоция is not something addedдобавленной to thought. An emotionalэмоциональный stateгосударство
167
639000
4000
Эмоция – это не добавка к мышлению. Эмоциональное состояние
11:01
is what you get when you removeУдалить 100 or 200
168
643000
4000
это то, что получится, если устранить роль 100 или 200
11:05
of your normallyкак обычно availableдоступный resourcesРесурсы.
169
647000
3000
ресурсов, активных в нормальном режиме.
11:08
So thinkingмышление of emotionsэмоции as the oppositeнапротив of -- as something
170
650000
3000
Так что, взгляд на эмоции, как на противовес, как на нечто меньшее,
11:11
lessМеньше than thinkingмышление is immenselyочень productiveпродуктивный. And I hopeнадежда,
171
653000
4000
чем мышление, весьма продуктивен. И я надеюсь показать
11:15
in the nextследующий fewмало yearsлет, to showпоказать that this will leadвести to smartумная machinesмашины.
172
657000
4000
в ближайшие годы, как это приведёт к [созданию] интеллектуальной техники.
11:19
And I guessУгадай I better skipпропускать all the restотдых of this, whichкоторый are some detailsДетали
173
661000
3000
Думаю, мне лучше пропустить остальное – это детали того,
11:22
on how we mightмог бы make those smartумная machinesмашины and --
174
664000
5000
как именно разработать эту технику...
11:27
(LaughterСмех)
175
669000
5000
(Смех)
11:32
-- and the mainглавный ideaидея is in factфакт that the coreядро of a really smartумная machineмашина
176
674000
5000
.. основная мысль в том, что высокоинтеллектуальная техника имеет ядро, которое
11:37
is one that recognizesпризнает that a certainопределенный kindсвоего рода of problemпроблема is facingоблицовочный you.
177
679000
5000
распознаёт факт того, что перед нами задача, и
11:42
This is a problemпроблема of suchтакие and suchтакие a typeтип,
178
684000
3000
выясняет, какого конкретного типа эта задача,
11:45
and thereforeследовательно there's a certainопределенный way or waysпути of thinkingмышление
179
687000
5000
и, исходя из этого, предлагает для её решения
11:50
that are good for that problemпроблема.
180
692000
2000
определённые методы мышления.
11:52
So I think the futureбудущее, mainглавный problemпроблема of psychologyпсихология is to classifyклассифицировать
181
694000
4000
Полагаю, что в будущем главной задачей психологии будет классифицировать
11:56
typesтипы of predicamentsзатруднительные, typesтипы of situationsситуации, typesтипы of obstaclesпрепятствий
182
698000
4000
по типам затруднения, ситуации и препятствия, а также классифицировать способы мышления
12:00
and alsoтакже to classifyклассифицировать availableдоступный and possibleвозможное waysпути to think and pairпара them up.
183
702000
6000
– имеющиеся и возможные, – и затем нужным образом состыковать [эти классы].
12:06
So you see, it's almostпочти like a PavlovianПавловское --
184
708000
3000
Видите, это почти как с собакой Павлова…
12:09
we lostпотерял the first hundredсто yearsлет of psychologyпсихология
185
711000
2000
Мы растратили первые сто лет психологии
12:11
by really trivialтривиальный theoriesтеории, where you say,
186
713000
3000
на примитивные теории, и ставили вопросы типа:
12:14
how do people learnучить how to reactреагировать to a situationситуация? What I'm sayingпоговорка is,
187
716000
6000
«Как человек учится реагировать на ситуацию?» Я утверждаю, что
12:20
after we go throughчерез a lot of levelsуровни, includingв том числе designingпроектирование
188
722000
5000
после целой серии этапов, когда мы занимались созданием
12:25
a hugeогромный, messyбеспорядочный systemсистема with thousandsтысячи of portsпорты,
189
727000
3000
колоссально запутанной системы с тысячами элементов,
12:28
we'llЧто ж endконец up again with the centralцентральный problemпроблема of psychologyпсихология.
190
730000
4000
мы вновь вернулись к центральной проблеме психологии.
12:32
Sayingпоговорка, not what are the situationsситуации,
191
734000
3000
Нас интересует не сама ситуация,
12:35
but what are the kindsвиды of problemsпроблемы
192
737000
2000
а разновидности проблем
12:37
and what are the kindsвиды of strategiesстратегии, how do you learnучить them,
193
739000
3000
и стратегий их решения, способы обучения им,
12:40
how do you connectсоединять them up, how does a really creativeтворческий personчеловек
194
742000
3000
правильного их сопоставления. Нам интересно, как по-настоящему изобретательный
12:43
inventвыдумывать a newновый way of thinkingмышление out of the availableдоступный resourcesРесурсы and so forthвперед.
195
745000
5000
человек создаёт, исходя из имеющихся ресурсов, новые методы мышления и т.п.
12:48
So, I think in the nextследующий 20 yearsлет,
196
750000
2000
Что касается ближайших 20 лет, то мне интересно будет посмотреть,
12:50
if we can get ridизбавиться of all of the traditionalтрадиционный approachesподходы to artificialискусственный intelligenceинтеллект,
197
752000
5000
удастся ли нам избавиться от традиционного подхода к искусственному интеллекту,
12:55
like neuralнервный netsсети and geneticгенетический algorithmsалгоритмы
198
757000
2000
вроде нейронных сетей, генетических алгоритмов
12:57
and rule-basedна основе правил systemsсистемы, and just turnочередь our sightsДостопримечательности a little bitнемного higherвыше to say,
199
759000
6000
и базируемых на правилах систем, сможем ли мы подняться выше и попытаться
13:03
can we make a systemсистема that can use all those things
200
765000
2000
создать систему, способную использовать любой из этих подходов
13:05
for the right kindсвоего рода of problemпроблема? Some problemsпроблемы are good for neuralнервный netsсети;
201
767000
4000
для решения задач подходящего типа. Ведь если для каких-то задач нейронные сети
13:09
we know that othersдругие, neuralнервный netsсети are hopelessбезнадежный on them.
202
771000
3000
отлично работают, то для других, как мы знаем, нейронные сети бесполезны.
13:12
Geneticгенетический algorithmsалгоритмы are great for certainопределенный things;
203
774000
3000
Генетические алгоритмы великолепны для каких-то задач,
13:15
I suspectподозреваемый I know what they're badПлохо at, and I won'tне будет tell you.
204
777000
4000
и я, пожалуй, знаю, где они негодны, но об этом я вам не скажу.
13:19
(LaughterСмех)
205
781000
1000
(Смех)
13:20
Thank you.
206
782000
2000
Благодарю вас.
13:22
(ApplauseАплодисменты)
207
784000
6000
(Аплодисменты)
Translated by anna jeglova
Reviewed by Namik Kasumov

▲Back to top

ABOUT THE SPEAKER
Marvin Minsky - AI pioneer
Marvin Minsky is one of the great pioneers of artificial intelligence -- and using computing metaphors to understand the human mind. His contributions to mathematics, robotics and computational linguistics are legendary and far-reaching.

Why you should listen

Marvin Minsky is the superstar-elder of artificial intelligence, one of the most productive and important cognitive scientists of the century, and the leading proponent of the Society of Mind theory. Articulated in his 1985 book of the same name, Minsky's theory says intelligence is not born of any single mechanism, but from the interaction of many independent agents. The book's sequel,The Emotion Machine (2006), says similar activity also accounts for feelings, goals, emotions and conscious thoughts.

Minsky also pioneered advances in mathematics, computational linguistics, optics, robotics and telepresence. He built SNARC, the first neural network simulator, some of the first visual scanners, and the first LOGO "turtle." From his headquarters at MIT's Media Lab and the AI Lab (which he helped found), he continues to work on, as he says, "imparting to machines the human capacity for commonsense reasoning."

More profile about the speaker
Marvin Minsky | Speaker | TED.com