ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com
TED@Merck KGaA, Darmstadt, Germany

Daniel Susskind: 3 myths about the future of work (and why they're not true)

Дэниел Сюскинд: Три мифа о характере будущей работы человека (и почему они не верны)

Filmed:
1,519,249 views

«Заменит ли машина человека?» — этот вопрос волнует сегодня каждого, кто дорожит своей работой. Отвечая на этот вопрос, Дэниел Сюскинд развеивает три мифа о нашем автоматизированном будущем, которые сформировались в обществе. Подводя итог своему выступлению, Дэниел Сюскинд предлагает сформулировать вопрос иначе: как будет распределяться благосостояние в мире, где останется мало или и вовсе не будет работы для человека.
- Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society. Full bio

Double-click the English transcript below to play the video.

00:12
Automationавтоматизация anxietyтревожность
has been spreadingраспространение latelyв последнее время,
0
760
3376
В последнее время в обществе
растёт беспокойство
00:16
a fearстрах that in the futureбудущее,
1
4160
2656
по поводу автоматизации
жизнедеятельности человека,
00:18
manyмногие jobsработы will be performedвыполнено by machinesмашины
2
6840
2456
страх, что в будущем многие задачи,
выполняемые сегодня человеком,
00:21
ratherскорее than humanчеловек beingsсущества,
3
9320
1336
возьмут на себя машины, —
00:22
givenданный the remarkableзамечательный advancesдостижения
that are unfoldingразворачивание
4
10680
2936
это неудивительно,
учитывая колоссальный прогресс
00:25
in artificialискусственный intelligenceинтеллект and roboticsробототехника.
5
13640
2776
в области искусственного интеллекта
и робототехники.
00:28
What's clearЧисто is that
there will be significantзначительное changeизменение.
6
16440
2816
Уже ясно, что в будущем
нас ждут значительные перемены.
00:31
What's lessМеньше clearЧисто
is what that changeизменение will look like.
7
19280
3616
Но менее ясным остаётся характер перемен.
00:34
My researchисследование suggestsпредполагает that the futureбудущее
is bothи то и другое troublingбеспокойство and excitingзахватывающе.
8
22920
4936
Мои исследования показывают, что нас ждёт
тревожное и увлекательное будущее.
00:39
The threatугроза of technologicalтехнологический
unemploymentбезработица is realреальный,
9
27880
3736
Угроза технологической безработицы
существует на самом деле,
00:43
and yetвсе же it's a good problemпроблема to have.
10
31640
2056
но этой проблеме нам стоило бы радоваться.
00:45
And to explainобъяснять
how I cameпришел to that conclusionвывод,
11
33720
3216
А чтобы объяснить вам,
как я пришёл к этому выводу,
00:48
I want to confrontпротивостоять threeтри mythsмифы
12
36960
2536
я хотел бы развеять три мифа,
00:51
that I think are currentlyВ данный момент obscuringзатемнение
our visionвидение of this automatedавтоматизированный futureбудущее.
13
39520
4280
которые, я считаю, мешают нам
трезво оценить это самое будущее.
00:56
A pictureкартина that we see
on our televisionтелевидение screensэкраны,
14
44880
2336
В книгах, кинофильмах и новостях
00:59
in booksкниги, in filmsфильмы, in everydayкаждый день commentaryкомментарий
15
47240
2216
нам показывают,
01:01
is one where an armyармия of robotsроботы
descendsнисходит on the workplaceрабочее место
16
49480
3696
как армия роботов вторгается
в наше рабочее пространство
01:05
with one goalЦель in mindразум:
17
53200
1376
с единственной целью:
01:06
to displaceвытеснять humanчеловек beingsсущества from theirих work.
18
54600
2496
вытеснить человека с его рабочего места.
01:09
And I call this the Terminatorтерминатор mythмиф.
19
57120
2696
Я называю это мифом Терминатора.
01:11
Yes, machinesмашины displaceвытеснять
humanчеловек beingsсущества from particularконкретный tasksзадания,
20
59840
3976
Да, машины освободили человека
от выполнения определённых задач.
01:15
but they don't just
substituteзамена for humanчеловек beingsсущества.
21
63840
2256
Но они не столько сместили людей,
01:18
They alsoтакже complementдополнение them in other tasksзадания,
22
66120
1976
сколько дополнили наш труд,
01:20
makingизготовление that work more valuableценный
and more importantважный.
23
68120
3616
делая его более ценным и важным.
01:23
SometimesИногда they complementдополнение
humanчеловек beingsсущества directlyнепосредственно,
24
71760
3336
Зачастую машины напрямую дополняют
деятельность человека,
01:27
makingизготовление them more productiveпродуктивный
or more efficientэффективное at a particularконкретный taskзадача.
25
75120
4016
помогают нам достичь большей
продуктивности и эффективности в работе.
01:31
So a taxiтакси driverВодитель can use a satnavSatNav systemсистема
to navigateпроводить on unfamiliarнезнакомый roadsдороги.
26
79160
4616
Так, в незнакомой местности таксист может
воспользоваться спутниковой навигацией.
01:35
An architectархитектор can use
computer-assistedкомпьютерный designдизайн softwareпрограммного обеспечения
27
83800
3336
Благодаря системам автоматизированного
проектирования архитектор может
01:39
to designдизайн biggerбольше,
more complicatedсложно buildingsздания.
28
87160
3096
разработать более сложный
и замысловатый дизайн сооружения.
01:42
But technologicalтехнологический progressпрогресс doesn't
just complementдополнение humanчеловек beingsсущества directlyнепосредственно.
29
90280
3696
Но технологический прогресс дополняет
человека не только напрямую.
01:46
It alsoтакже complementsдополняет them indirectlyкосвенно,
and it does this in two waysпути.
30
94000
3336
Это может происходить
косвенно двумя способами.
01:49
The first is if we think
of the economyэкономика as a pieпирог,
31
97360
3336
Для начала давайте представим
экономику в качестве пирога.
01:52
technologicalтехнологический progressпрогресс
makesмарки the pieпирог biggerбольше.
32
100720
2896
Благодаря технологическому прогрессу
этот пирог становится больше.
01:55
As productivityпроизводительность increasesувеличивается,
incomesдоходов riseподъем and demandспрос growsрастет.
33
103640
3856
По мере того как растёт продуктивность,
повышаются доходы и спрос.
01:59
The BritishБританская pieпирог, for instanceпример,
34
107520
1776
К примеру, пирог Великобритании
02:01
is more than a hundredсто timesраз
the sizeразмер it was 300 yearsлет agoтому назад.
35
109320
3960
сегодня в более чем 100 раз крупнее
своего аналога 300-летней давности.
02:05
And so people displacedперемещенных
from tasksзадания in the oldстарый pieпирог
36
113920
3216
А люди, потерявшие работу
в экономике старого пирога,
02:09
could find tasksзадания to do
in the newновый pieпирог insteadвместо.
37
117160
2720
могут трудоустроиться
в рамках нового пирога.
02:12
But technologicalтехнологический progressпрогресс
doesn't just make the pieпирог biggerбольше.
38
120800
3936
Но благодаря технологическому прогрессу
пирог становится не только крупнее.
02:16
It alsoтакже changesизменения
the ingredientsингредиенты in the pieпирог.
39
124760
2856
Меняются и его ингредиенты.
02:19
As time passesпроходит, people spendпроводить
theirих incomeдоход in differentдругой waysпути,
40
127640
3456
Со временем люди начинают тратить
свои доходы по-другому.
02:23
changingизменения how they spreadраспространение it
acrossчерез existingсуществующий goodsтовар,
41
131120
2816
Меняется структура затрат
на существующие товары,
02:25
and developingразвивающийся tastesвкусы
for entirelyполностью newновый goodsтовар, too.
42
133960
3216
и появляется потребность
в совершенно новых товарах.
02:29
Newновый industriesпромышленности are createdсозданный,
43
137200
1776
Появляются новые отрасли хозяйства,
02:31
newновый tasksзадания have to be doneсделанный
44
139000
1816
возникает потребность в новых профессиях,
02:32
and that meansозначает oftenдовольно часто
newновый rolesроли have to be filledзаполненный.
45
140840
2536
а значит, открываются позиции,
которые необходимо заполнить.
02:35
So again, the BritishБританская pieпирог:
46
143400
1496
И снова о пироге Великобритании:
02:36
300 yearsлет agoтому назад,
mostбольшинство people workedработал on farmsфермы,
47
144920
2976
300 лет назад большинство британцев
зарабатывали на жизнь на фермах,
02:39
150 yearsлет agoтому назад, in factoriesзаводы,
48
147920
2336
150 лет назад — на заводах,
02:42
and todayCегодня, mostбольшинство people work in officesофисы.
49
150280
2856
а сегодня большинство
жителей трудятся в офисах.
02:45
And onceодин раз again, people displacedперемещенных
from tasksзадания in the oldстарый bitнемного of pieпирог
50
153160
4056
Опять же — те, кто потерял
работу в старом пироге,
02:49
could tumbleкувыркаться into tasksзадания
in the newновый bitнемного of pieпирог insteadвместо.
51
157240
2800
могут трудоустроиться
в рамках нового пирога.
02:52
EconomistsЭкономисты call these effectsпоследствия
complementaritiesвзаимодополняемость,
52
160720
3336
Экономисты называют
это явление комплементарностью.
02:56
but really that's just a fancyмаскарадный wordслово
to captureзахватить the differentдругой way
53
164080
3256
Но на самом деле это просто
красивое слово для обозначения
02:59
that technologicalтехнологический progressпрогресс
helpsпомогает humanчеловек beingsсущества.
54
167360
3136
технологического прогресса,
находящегося на службе у человека.
03:02
ResolvingРазрешение this Terminatorтерминатор mythмиф
55
170520
2096
Развенчивая миф Терминатора,
03:04
showsшоу us that there are
two forcesсил at playиграть:
56
172640
2336
мы понимаем,
что тут противоборствуют две силы:
03:07
one, machineмашина substitutionзамена
that harmsХармс workersрабочие,
57
175000
3536
первая сила — замещение машинами,
которое вредит человеку,
03:10
but alsoтакже these complementaritiesвзаимодополняемость
that do the oppositeнапротив.
58
178560
2880
вторая сила — комплементарность —
оказывает положительный эффект.
03:13
Now the secondвторой mythмиф,
59
181960
1376
Поговорим о втором мифе,
03:15
what I call the intelligenceинтеллект mythмиф.
60
183360
2280
который я обозначил
как интеллектуальный миф.
03:18
What do the tasksзадания of drivingвождение a carавтомобиль,
makingизготовление a medicalмедицинская diagnosisдиагностика
61
186440
4896
Вождение автомобиля, постановка диагноза
03:23
and identifyingидентифицирующий a birdптица
at a fleetingскоротечный glimpseпроблеск have in commonобщий?
62
191360
2920
и распознавание птиц —
что общего между всеми этими задачами?
03:27
Well, these are all tasksзадания
that untilдо very recentlyв последнее время,
63
195280
2976
Объединяет их то, что до недавнего времени
03:30
leadingведущий economistsэкономисты thought
couldn'tне может readilyлегко be automatedавтоматизированный.
64
198280
3336
их нельзя было автоматизировать,
как полагали ведущие экономисты.
03:33
And yetвсе же todayCегодня, all of these tasksзадания
can be automatedавтоматизированный.
65
201640
3176
И тем не менее сегодня все эти задачи
могут быть автоматизированы.
03:36
You know, all majorглавный carавтомобиль manufacturersпроизводители
have driverlessнеуправляемый carавтомобиль programsпрограммы.
66
204840
3496
Все ведущие производители автомобилей
сегодня разрабатывают беспилотные авто.
03:40
There's countlessбесчисленный systemsсистемы out there
that can diagnoseдиагностики medicalмедицинская problemsпроблемы.
67
208360
3976
Медики уже располагают множеством
диагностических аппаратов.
03:44
And there's even an appприложение
that can identifyидентифицировать a birdптица
68
212360
2416
Что же касается птиц,
существует приложение,
03:46
at a fleetingскоротечный glimpseпроблеск.
69
214800
1200
позволяющее определять их на расстоянии.
03:48
Now, this wasn'tне было simplyпросто a caseдело of badПлохо luckвезение
on the partчасть of economistsэкономисты.
70
216920
4376
Не будем утверждать,
что экономистам просто не повезло.
03:53
They were wrongнеправильно,
71
221320
1296
Они оказались неправы,
03:54
and the reasonпричина why
they were wrongнеправильно is very importantважный.
72
222640
2496
но причина, по которой они ошибались,
имеет большое значение.
03:57
They'veУ них есть fallenпадший for the intelligenceинтеллект mythмиф,
73
225160
2256
Они стали жертвами интеллектуального мифа,
03:59
the beliefвера that machinesмашины
have to copyкопия the way
74
227440
2896
считая, что машины должны имитировать
04:02
that humanчеловек beingsсущества think and reasonпричина
75
230360
2056
людей в том, как мы мыслим и рассуждаем,
04:04
in orderзаказ to outperformопережать them.
76
232440
1776
если хотим, чтобы машины стали умнее нас.
04:06
When these economistsэкономисты
were tryingпытаясь to figureфигура out
77
234240
2216
Когда экономисты попытались разобраться,
04:08
what tasksзадания machinesмашины could not do,
78
236480
1856
какие задачи машинам будут не под силу,
04:10
they imaginedвообразил the only way
to automateавтоматизировать a taskзадача
79
238360
2136
они думали, что единственный способ
автоматизировать задачу —
04:12
was to sitсидеть down with a humanчеловек beingявляющийся,
80
240520
1816
организовать встречу
специалистов с программистами,
04:14
get them to explainобъяснять to you
how it was they performedвыполнено a taskзадача,
81
242360
3536
попросить специалистов описать
алгоритм выполнения задачи,
04:17
and then try and captureзахватить that explanationобъяснение
82
245920
2656
а затем попытаться
формализовать этот алгоритм
04:20
in a setзадавать of instructionsинструкции
for a machineмашина to followследовать.
83
248600
2776
в виде инструкций,
которым машина будет следовать.
04:23
This viewПосмотреть was popularпопулярный in artificialискусственный
intelligenceинтеллект at one pointточка, too.
84
251400
4176
Одно время такой подход был популярен
и в области искусственного интеллекта.
04:27
I know this because RichardРичард SusskindСасскинд,
85
255600
2176
Знаю я об этом потому,
что Ричард Сюскинд —
04:29
who is my dadпапа and my coauthorсоавтор,
86
257800
2856
мой отец и соавтор книги, —
будучи студентом Оксфорда,
04:32
wroteписал his doctorateдокторская степень in the 1980s
on artificialискусственный intelligenceинтеллект and the lawзакон
87
260680
4056
в 1980-х написал докторскую диссертацию
на тему искусственного интеллекта и права,
04:36
at OxfordОксфорд UniversityУниверситет,
88
264760
1416
04:38
and he was partчасть of the vanguardавангардный.
89
266200
1576
а был он тогда в авангарде науки.
04:39
And with a professorпрофессор calledназывается PhillipPhillip CapperМашина Укупорочная машина
90
267800
2256
Вместе с профессором Филлипом Кэппером
04:42
and a legalправовой publisherиздатель calledназывается ButterworthsButterworths,
91
270080
2096
и издательством
правовой литературы Butterworths
04:44
they producedпроизведенный the world'sв мире first
commerciallyв промышленных масштабах availableдоступный
92
272200
5896
они выпустили в продажу первую в мире
04:50
artificialискусственный intelligenceинтеллект systemсистема in the lawзакон.
93
278120
2776
систему искусственного интеллекта
в области права.
04:52
This was the home screenэкран designдизайн.
94
280920
2616
Так выглядела заставка
программы на компьютере.
04:55
He assuresуверяет me this was
a coolкруто screenэкран designдизайн at the time.
95
283560
2696
Отец говорит, что она считалась
очень крутой по тем временам.
04:58
(LaughterСмех)
96
286280
1016
(Смех)
04:59
I've never been entirelyполностью convincedубежденный.
97
287320
1696
Не очень-то верится.
05:01
He publishedопубликованный it
in the formформа of two floppyдискета disksдиски,
98
289040
2616
Опубликовали они эту программу
на двух гибких дисках.
05:03
at a time where floppyдискета disksдиски
genuinelyнеподдельно were floppyдискета,
99
291680
3536
В то время гибкие диски
на самом деле были очень гибкими.
05:07
and his approachподход was the sameодна и та же
as the economists'экономисты:
100
295240
2336
Тогда они подошли к вопросу,
как те самые экономисты:
05:09
sitсидеть down with a lawyerадвокат,
101
297600
1256
встретились с юристом,
05:10
get her to explainобъяснять to you
how it was she solvedрешена a legalправовой problemпроблема,
102
298880
3176
попросили его описать алгоритм
решения правовой проблемы
05:14
and then try and captureзахватить that explanationобъяснение
in a setзадавать of rulesправила for a machineмашина to followследовать.
103
302080
5376
и затем попытались написать программу
для решения поставленной задачи.
05:19
In economicsэкономика, if humanчеловек beingsсущества
could explainобъяснять themselvesсамих себя in this way,
104
307480
3616
В экономике, если человек может
описать задачу таким вот образом,
05:23
the tasksзадания are calledназывается routineрутинный,
and they could be automatedавтоматизированный.
105
311120
3296
задача считается рутинной
и её можно автоматизировать.
05:26
But if humanчеловек beingsсущества
can't explainобъяснять themselvesсамих себя,
106
314440
2336
Но если человек не может описать процесс,
05:28
the tasksзадания are calledназывается non-routineнестандартные,
and they're thought to be out reachдостичь.
107
316800
4256
задача считается творческой,
то есть нерутинной, и часто неразрешимой.
Сегодня классификация задач на рутинные
и творческие встречается повсеместно.
05:33
TodayCегодня, that routine-nonroutineобычные клиентоориентованистю
distinctionразличие is widespreadшироко распространен.
108
321080
3296
05:36
Think how oftenдовольно часто you hearзаслушивать people say to you
109
324400
2056
Вспомните, как часто вы слышите о том,
05:38
machinesмашины can only performвыполнять tasksзадания
that are predictableпредсказуемый or repetitiveповторяющийся,
110
326480
3256
что машины могут выполнять только
предсказуемые и повторяющиеся задачи,
05:41
rules-basedоснованные на правилах or well-definedвполне определенный.
111
329760
1896
те, что следуют правилам,
и которые легко определить.
05:43
Those are all just
differentдругой wordsслова for routineрутинный.
112
331680
2936
Всё это лишь синонимы рутинных задач.
05:46
And go back to those threeтри casesслучаи
that I mentionedупомянутый at the startНачало.
113
334640
3976
Давайте вернёмся к трём примерам,
которые я привёл ранее.
05:50
Those are all classicклассический casesслучаи
of nonroutineклиентоориентованистю tasksзадания.
114
338640
2896
Все три являются классическими
примерами творческих задач.
05:53
AskПросить a doctorврач, for instanceпример,
how she makesмарки a medicalмедицинская diagnosisдиагностика,
115
341560
2976
Задайте вопрос врачам,
как, например, они ставят диагнозы.
05:56
and she mightмог бы be ableв состоянии
to give you a fewмало rulesправила of thumbбольшой палец,
116
344560
2656
Скорее всего, они приведут
несколько общих правил,
05:59
but ultimatelyв конечном счете she'dсарай struggleборьба.
117
347240
1656
но в целом точного ответа не дадут.
06:00
She'dПролить say it requiresтребует things like
creativityкреативность and judgmentсуждение and intuitionинтуиция.
118
348920
4816
Скажут, например,
что постановка диагноза требует
творческого подхода,
правильного суждения и интуиции.
06:05
And these things are
very difficultсложно to articulateартикулировать,
119
353760
2376
Но такие вещи бывает очень
трудно описать, поэтому считалось,
06:08
and so it was thought these tasksзадания
would be very hardжесткий to automateавтоматизировать.
120
356160
3096
06:11
If a humanчеловек beingявляющийся can't explainобъяснять themselvesсамих себя,
121
359280
2536
что автоматизировать
их также будет нелегко.
06:13
where on earthЗемля do we beginначать
in writingписьмо a setзадавать of instructionsинструкции
122
361840
2896
Если человек не может объяснить
какой-то процесс, как он составит
06:16
for a machineмашина to followследовать?
123
364760
1200
инструкции для машины?
06:18
Thirty30 yearsлет agoтому назад, this viewПосмотреть was right,
124
366640
2576
Тридцать лет назад такое мнение
считалось правильным,
06:21
but todayCегодня it's looking shakyнепрочный,
125
369240
2136
сегодня это утверждение
можно подвергнуть сомнению,
06:23
and in the futureбудущее
it's simplyпросто going to be wrongнеправильно.
126
371400
2256
а завтра оно окажется
совершенно неправильным.
06:25
AdvancesАвансы in processingобработка powerмощность,
in dataданные storageместо хранения capabilityвозможность
127
373680
3256
Колоссальная вычислительная мощность,
огромные хранилища данных
06:28
and in algorithmалгоритм designдизайн
128
376960
1656
и усовершенствованные алгоритмы
06:30
mean that this
routine-nonroutineобычные клиентоориентованистю distinctionразличие
129
378640
2496
являются показателем того,
что граница между рутинными
06:33
is diminishinglydiminishingly usefulполезным.
130
381160
1736
и творческими задачами начинает стираться.
06:34
To see this, go back to the caseдело
of makingизготовление a medicalмедицинская diagnosisдиагностика.
131
382920
3256
Давайте вернёмся к примеру
c постановкой диагноза.
06:38
EarlierРанее in the yearгод,
132
386200
1376
Несколько месяцев назад
06:39
a teamкоманда of researchersисследователи at StanfordStanford
announcedобъявленный they'dони developedразвитая a systemсистема
133
387600
3296
исследователи Стэнфордского университета
объявили, что они разработали
06:42
whichкоторый can tell you
whetherбудь то or not a freckleвеснушки is cancerousзлокачественный
134
390920
3056
систему распознавания раковых клеток
на веснушках человека
06:46
as accuratelyточно as leadingведущий dermatologistsдерматологи.
135
394000
2680
и что эта система ставит диагноз
так же точно, как ведущие дерматологи.
06:49
How does it work?
136
397280
1256
Как им это удалось?
06:50
It's not tryingпытаясь to copyкопия the judgmentсуждение
or the intuitionинтуиция of a doctorврач.
137
398560
5296
Машина не запрограммирована копировать
ход суждения или интуицию врачей.
06:55
It knowsзнает or understandsпонимает
nothing about medicineлекарственное средство at all.
138
403880
3136
Более того, машина вообще
ничего не смыслит в медицине.
06:59
InsteadВместо, it's runningБег
a patternшаблон recognitionпризнание algorithmалгоритм
139
407040
2576
На самом деле она следует
алгоритму распознавания,
07:01
throughчерез 129,450 pastмимо casesслучаи,
140
409640
4656
выискивая среди 129 450 наборов данных
случаи, схожие с исследуемой
патологией кожи.
07:06
huntingохота for similaritiesсходство
betweenмежду those casesслучаи
141
414320
3096
07:09
and the particularконкретный lesionпоражение in questionвопрос.
142
417440
2080
Делается это методом,
на который не способен ни один человек.
07:12
It's performingвыполнение these tasksзадания
in an unhumanжестокий way,
143
420080
3216
Машина анализирует
такое количество наборов данных,
07:15
basedисходя из on the analysisанализ
of more possibleвозможное casesслучаи
144
423320
2336
которое ни один врач не сможет
просмотреть за всю свою жизнь.
07:17
than any doctorврач could hopeнадежда
to reviewобзор in theirих lifetimeпродолжительность жизни.
145
425680
2616
07:20
It didn't matterдело that that humanчеловек beingявляющийся,
146
428320
1896
В данном случае машина ставит диагноз
07:22
that doctorврач, couldn'tне может explainобъяснять
how she'dсарай performedвыполнено the taskзадача.
147
430240
2800
без учёта того, как к этому вопросу
подошёл бы врач-специалист.
07:25
Now, there are those
who dwellобитать uponна that the factфакт
148
433640
2336
Многие, безусловно, согласятся с тем,
07:28
that these machinesмашины
aren'tне builtпостроен in our imageобраз.
149
436000
2296
что эти машины строились
не по образу и подобию человека.
07:30
As an exampleпример, take IBM'sIBM, WatsonУотсон,
150
438320
2056
Например, Watson —
суперкомпьютер компании IBM,
07:32
the supercomputerсуперкомпьютер that wentотправился
on the US quizвикторина showпоказать "Jeopardyподсудность!" in 2011,
151
440400
4856
принявший в 2011 году участие
в американской игре-викторине «Jeopardy!»
07:37
and it beatбить the two
humanчеловек championsчемпионы at "Jeopardyподсудность!"
152
445280
3016
и одержавший победу над человеком —
двумя сильнейшими соперниками.
07:40
The day after it wonвыиграл,
153
448320
1696
На следующий день после игры
07:42
The Wallстена Streetулица Journalжурнал ranпобежал a pieceкусок
by the philosopherфилософ JohnДжон SearleSearle
154
450040
3296
в газете Wall Street Journal появилась
заметка философа Джона Сёрла,
07:45
with the titleзаглавие "WatsonУотсон
Doesn't Know It WonВыиграл on 'Jeopardy«Jeopardy!'"
155
453360
3376
озаглавленная «Watson понятия не имеет,
что он победил в викторине "Jeopardy!"».
07:48
Right, and it's brilliantблестящий, and it's trueправда.
156
456760
1976
Блестящее и очень верное замечание.
07:50
You know, WatsonУотсон didn't
let out a cryплакать of excitementволнение.
157
458760
2456
Watson ведь не закричал от радости.
07:53
It didn't call up its parentsродители
to say what a good jobработа it had doneсделанный.
158
461240
3096
Он не позвонил родителям,
чтобы рассказать им о своей победе.
07:56
It didn't go down to the pubпаб for a drinkнапиток.
159
464360
2336
И он не отправился в паб,
чтобы выпить стаканчик.
07:58
This systemсистема wasn'tне было tryingпытаясь to copyкопия the way
that those humanчеловек contestantsконкурсанты playedиграл,
160
466720
4456
Эта машина не пыталась
копировать соперников-людей,
08:03
but it didn't matterдело.
161
471200
1256
но это не имело значения.
08:04
It still outperformedопередили them.
162
472480
1976
Машина всё равно их обыграла.
08:06
ResolvingРазрешение the intelligenceинтеллект mythмиф
163
474480
1576
Развенчивая интеллектуальный миф,
08:08
showsшоу us that our limitedограниченное understandingпонимание
about humanчеловек intelligenceинтеллект,
164
476080
3376
мы видим, что несмотря на то,
что наши знания о человеческом разуме,
08:11
about how we think and reasonпричина,
165
479480
1896
мышлении и суждении весьма ограничены,
08:13
is farдалеко lessМеньше of a constraintограничение
on automationавтоматизация than it was in the pastмимо.
166
481400
3456
в наше время большого влияния
на автоматизацию машин это не имеет.
08:16
What's more, as we'veмы в seenвидели,
167
484880
1496
Более того, как мы отметили,
08:18
when these machinesмашины
performвыполнять tasksзадания differentlyиначе to humanчеловек beingsсущества,
168
486400
3416
когда эти машины выполняют задачи
методом, отличным от методов человека,
08:21
there's no reasonпричина to think
169
489840
1256
не стóит полагать,
08:23
that what humanчеловек beingsсущества
are currentlyВ данный момент capableспособный of doing
170
491120
2536
что возможности человека сегодня
08:25
representsпредставляет any sortСортировать of summitвстреча на высшем уровне
171
493680
1456
являются пределом того,
08:27
in what these machinesмашины
mightмог бы be capableспособный of doing in the futureбудущее.
172
495160
3000
на что будут способны
автоматизированные машины в будущем.
08:31
Now the thirdв третьих mythмиф,
173
499040
1256
И теперь третий миф,
08:32
what I call the superiorityпревосходство mythмиф.
174
500320
2456
который я называю мифом
о превосходстве человека.
08:34
It's oftenдовольно часто said that those who forgetзабывать
175
502800
2216
Принято считать, что те, кто забывают
08:37
about the helpfulполезный sideбоковая сторона
of technologicalтехнологический progressпрогресс,
176
505040
2456
о пользе технологического прогресса,
08:39
those complementaritiesвзаимодополняемость from before,
177
507520
2496
о комплементарности человека и машины,
08:42
are committingсовершение something
knownизвестен as the lumpкусковой of laborтруд, работа fallacyошибочность.
178
510040
3040
впадают в заблуждение
о неизменном объёме работ.
08:45
Now, the problemпроблема is
the lumpкусковой of laborтруд, работа fallacyошибочность
179
513840
2295
Но проблема в том, что само заблуждение
08:48
is itselfсам a fallacyошибочность,
180
516159
1496
о неизменном объёме работ
08:49
and I call this the lumpкусковой
of laborтруд, работа fallacyошибочность fallacyошибочность,
181
517679
2937
является ошибочным,
08:52
or LOLFFLOLFF, for shortкороткая.
182
520640
2320
и я называю это ошибкой заблуждения.
08:56
Let me explainобъяснять.
183
524000
1416
Давайте я поясню.
08:57
The lumpкусковой of laborтруд, работа fallacyошибочность
is a very oldстарый ideaидея.
184
525440
2136
Данное заблуждение — не новая концепция.
08:59
It was a BritishБританская economistэкономист, DavidДэвид SchlossЗамок,
who gaveдал it this nameимя in 1892.
185
527600
4216
Такое название в 1892 году ей дал
британский экономист Дэвид Шлосс.
Однажды он пришёл в недоумение,
когда повстречал портового рабочего,
09:03
He was puzzledнедоуменный
to come acrossчерез a dockдок workerработник
186
531840
2816
09:06
who had begunначатый to use
a machineмашина to make washersшайбы,
187
534680
2336
который начал изготавливать
на станке шайбы —
09:09
the smallмаленький metalметалл discsдиски
that fastenскрепить on the endконец of screwsвинты.
188
537040
3320
небольшие металлические пластины,
которые крепятся под головку болта.
09:13
And this dockдок workerработник
feltпочувствовал guiltyвиновный for beingявляющийся more productiveпродуктивный.
189
541000
3760
Этот рабочий испытывал угрызения совести,
потому что стал более продуктивен.
09:17
Now, mostбольшинство of the time,
we expectожидать the oppositeнапротив,
190
545560
2176
Как правило, происходит обратное —
09:19
that people feel guiltyвиновный
for beingявляющийся unproductiveнепродуктивный,
191
547760
2216
люди чувствуют свою вину,
если работают не очень продуктивно.
09:22
you know, a little too much time
on Facebookfacebook or Twitterщебет at work.
192
550000
3016
Например, если на работе мы много
времени проводим в Facebook или Twitter.
09:25
But this workerработник feltпочувствовал guiltyвиновный
for beingявляющийся more productiveпродуктивный,
193
553040
2536
Но рабочий чувствовал вину потому,
что был слишком продуктивен.
09:27
and askedспросил why, he said,
"I know I'm doing wrongнеправильно.
194
555600
2296
На вопрос Шлосса почему, он ответил:
«Я знаю, что поступаю неправильно.
09:29
I'm takingпринятие away the work of anotherдругой man."
195
557920
2040
09:32
In his mindразум, there was
some fixedисправлено lumpкусковой of work
196
560760
2976
Я лишаю другого человека работы».
Рабочий полагал, что существует
фиксированный объём работы,
09:35
to be dividedразделенный up betweenмежду him and his palsдружки,
197
563760
2136
который они делят между собой,
и если он начнёт делать
09:37
so that if he used
this machineмашина to do more,
198
565920
2056
шайбы на станке, то произведёт их больше,
09:40
there'dкрасный be lessМеньше left for his palsдружки to do.
199
568000
2016
а остальным не останется работы.
09:42
SchlossЗамок saw the mistakeошибка.
200
570040
1856
Шлосс понял, в чём ошибка.
09:43
The lumpкусковой of work wasn'tне было fixedисправлено.
201
571920
1856
Объём работы не был фиксированным.
09:45
As this workerработник used the machineмашина
and becameстал more productiveпродуктивный,
202
573800
2816
Если благодаря станку
производительность увеличится,
09:48
the priceцена of washersшайбы would fallпадать,
demandспрос for washersшайбы would riseподъем,
203
576640
2976
стоимость шайб снизится,
а значит, увеличится спрос.
09:51
more washersшайбы would have to be madeсделал,
204
579640
1696
Рабочим надо будет вырезать больше шайб,
09:53
and there'dкрасный be more work
for his palsдружки to do.
205
581360
2096
и работы прибавится для всех.
09:55
The lumpкусковой of work would get biggerбольше.
206
583480
1696
То есть объём работы в целом увеличится.
09:57
SchlossЗамок calledназывается this
"the lumpкусковой of laborтруд, работа fallacyошибочность."
207
585200
2680
Шлосс назвал эту концепцию
заблуждением о неизменном объёме работ.
10:00
And todayCегодня you hearзаслушивать people talk
about the lumpкусковой of laborтруд, работа fallacyошибочность
208
588560
2936
Сегодня часто вспоминают об этой теории,
10:03
to think about the futureбудущее
of all typesтипы of work.
209
591520
2216
когда речь заходит о работе будущего.
10:05
There's no fixedисправлено lumpкусковой of work
out there to be dividedразделенный up
210
593760
2656
Не существует какого-то
определённого объёма работ,
10:08
betweenмежду people and machinesмашины.
211
596440
1376
который человек делит с машиной.
10:09
Yes, machinesмашины substituteзамена for humanчеловек beingsсущества,
makingизготовление the originalоригинал lumpкусковой of work smallerменьше,
212
597840
4656
Да, машины замещают человека,
уменьшая исходный объём работы,
10:14
but they alsoтакже complementдополнение humanчеловек beingsсущества,
213
602520
1856
но они также и дополняют нас, так что
в целом объём работы увеличивается,
10:16
and the lumpкусковой of work
getsполучает biggerбольше and changesизменения.
214
604400
2096
10:19
But LOLFFLOLFF.
215
607760
1616
меняется специфика работы.
10:21
Here'sВот the mistakeошибка:
216
609400
1376
Так в чём же ошибка заблуждения?
А вот в чём.
10:22
it's right to think
that technologicalтехнологический progressпрогресс
217
610800
2216
Верно, что благодаря
технологическому прогрессу
10:25
makesмарки the lumpкусковой of work to be doneсделанный biggerбольше.
218
613040
1976
объём работы увеличивается.
10:27
Some tasksзадания becomeстали more valuableценный.
Newновый tasksзадания have to be doneсделанный.
219
615040
3016
Некоторые специальности становятся
более востребованными,
10:30
But it's wrongнеправильно to think that necessarilyобязательно,
220
618080
2536
появляется спрос и на новые специальности.
10:32
humanчеловек beingsсущества will be bestЛучший placedпомещенный
to performвыполнять those tasksзадания.
221
620640
3256
Но неверно думать, что человек может
выполнить какие-то задачи лучше машин.
10:35
And this is the superiorityпревосходство mythмиф.
222
623920
1616
В этом суть мифа о превосходстве.
10:37
Yes, the lumpкусковой of work
mightмог бы get biggerбольше and changeизменение,
223
625560
3416
Да, объём работ может
увеличиться и измениться,
но по мере того,
как машины становятся умнее,
10:41
but as machinesмашины becomeстали more capableспособный,
224
629000
1976
10:43
it's likelyвероятно that they'llони будут take on
the extraдополнительный lumpкусковой of work themselvesсамих себя.
225
631000
3896
вероятнее всего, они возьмут на себя
этот новый объём работы.
10:46
Technologicalтехнологический progressпрогресс,
ratherскорее than complementдополнение humanчеловек beingsсущества,
226
634920
3256
При технологическом прогрессе
машины не столько дополняют человека,
10:50
complementsдополняет machinesмашины insteadвместо.
227
638200
1880
сколько дополняют сами себя.
10:52
To see this, go back
to the taskзадача of drivingвождение a carавтомобиль.
228
640920
3016
Чтобы убедиться в этом, возьмём
для примера вождение автомобиля.
10:55
TodayCегодня, satnavSatNav systemsсистемы
directlyнепосредственно complementдополнение humanчеловек beingsсущества.
229
643960
4096
Сегодня системы спутниковой навигации
напрямую дополняют человека.
11:00
They make some
humanчеловек beingsсущества better driversводители.
230
648080
2280
Благодаря им мы стали более эффективными
и безопасными водителями.
11:02
But in the futureбудущее,
231
650920
1256
В будущем, однако,
11:04
softwareпрограммного обеспечения is going to displaceвытеснять
humanчеловек beingsсущества from the drivingвождение seatсиденье,
232
652200
3096
усовершенствованные компьютерные программы
вытеснят человека с водительского кресла,
11:07
and these satnavSatNav systemsсистемы,
ratherскорее than complementдополнение humanчеловек beingsсущества,
233
655320
2936
а системы навигации, вместо того,
чтобы дополнять человека,
11:10
will simplyпросто make these
driverlessнеуправляемый carsлегковые автомобили more efficientэффективное,
234
658280
2536
сделают более эффективными
беспилотные автомобили,
11:12
helpingпомощь the machinesмашины insteadвместо.
235
660840
1536
тем самым помогая самим машинам.
11:14
Or go to those indirectкосвенный complementaritiesвзаимодополняемость
that I mentionedупомянутый as well.
236
662400
4056
Вспомним о примерах косвенной
комплементарности, о которых я говорил.
11:18
The economicэкономической pieпирог mayмай get largerбольше,
237
666480
1776
Экономический пирог может увеличиться,
11:20
but as machinesмашины becomeстали more capableспособный,
238
668280
1736
но по мере того,
как машины становятся умнее,
11:22
it's possibleвозможное that any newновый demandспрос
will fallпадать on goodsтовар that machinesмашины,
239
670040
3143
появившийся спрос, скорее всего,
11:25
ratherскорее than humanчеловек beingsсущества,
are bestЛучший placedпомещенный to produceпроизводить.
240
673207
2649
эффективнее удовлетворят машины,
а не человек.
11:27
The economicэкономической pieпирог mayмай changeизменение,
241
675880
1896
Ингредиенты пирога тоже могут измениться,
11:29
but as machinesмашины becomeстали more capableспособный,
242
677800
1896
но по мере того, как машины
будут приобретать новые навыки,
11:31
it's possibleвозможное that they'llони будут be bestЛучший placedпомещенный
to do the newновый tasksзадания that have to be doneсделанный.
243
679720
4856
возможно, именно они и займут
новые рабочие места.
11:36
In shortкороткая, demandспрос for tasksзадания
isn't demandспрос for humanчеловек laborтруд, работа.
244
684600
3696
Итак, спрос на рабочую силу —
не обязательно спрос на человеческий труд.
11:40
HumanЧеловек beingsсущества only standстоять to benefitвыгода
245
688320
1936
Человек может выиграть от этих перемен,
11:42
if they retainсохранить the upperверхний handрука
in all these complementedдополняется tasksзадания,
246
690280
3816
но только если он будет контролировать
комплементарные задачи.
11:46
but as machinesмашины becomeстали more capableспособный,
that becomesстановится lessМеньше likelyвероятно.
247
694120
3720
Но поскольку машины станут умнее,
то и это можно поставить под сомнение.
11:50
So what do these threeтри mythsмифы tell us then?
248
698760
2016
Какие же выводы
мы можем сделать из этого?
11:52
Well, resolvingрешения the Terminatorтерминатор mythмиф
249
700800
1696
Развенчивая миф Терминатора,
11:54
showsшоу us that the futureбудущее of work dependsзависит
uponна this balanceбаланс betweenмежду two forcesсил:
250
702520
3696
мы понимаем, что наше будущее
зависит от взаимодействия двух сил:
11:58
one, machineмашина substitutionзамена
that harmsХармс workersрабочие
251
706240
3136
замещения машинами,
которое вредит человеку,
12:01
but alsoтакже those complementaritiesвзаимодополняемость
that do the oppositeнапротив.
252
709400
2576
а также комплементарности,
от которой человек только выигрывает.
12:04
And untilдо now, this balanceбаланс
has fallenпадший in favorблагоприятствовать of humanчеловек beingsсущества.
253
712000
4040
Пока чаша весов всегда
склонялась в пользу человека.
Развенчивая второй —
интеллектуальный — миф,
12:09
But resolvingрешения the intelligenceинтеллект mythмиф
254
717120
1736
12:10
showsшоу us that that first forceсила,
machineмашина substitutionзамена,
255
718880
2496
мы увидели, что первая сила —
замещение машинами —
12:13
is gatheringсбор strengthпрочность.
256
721400
1296
тем не менее набирает силу.
12:14
MachinesМашины, of courseкурс, can't do everything,
257
722720
1976
Машины, безусловно, не всемогущи,
12:16
but they can do farдалеко more,
258
724720
1256
но они способны на многое
12:18
encroachingвторгающийся ever deeperГлубже into the realmобласть
of tasksзадания performedвыполнено by humanчеловек beingsсущества.
259
726000
4576
и уже активно перенимают те специальности,
которые когда-то принадлежали людям.
12:22
What's more, there's no reasonпричина to think
260
730600
1896
У нас нет оснований полагать,
12:24
that what humanчеловек beingsсущества
are currentlyВ данный момент capableспособный of
261
732520
2216
что то, на что способен человек,
12:26
representsпредставляет any sortСортировать of finishingотделка lineлиния,
262
734760
1856
представляет предел
возможностей для машин
12:28
that machinesмашины are going
to drawпривлечь to a politeвежливый stop
263
736640
2256
и что машины учтиво
остановятся на достигнутом,
12:30
onceодин раз they're as capableспособный as us.
264
738920
1816
как только сравняются с человеком.
12:32
Now, noneникто of this mattersвопросы
265
740760
1536
На самом деле всё это не так важно,
12:34
so long as those helpfulполезный
windsветры of complementarityвзаимодополняемость
266
742320
2816
если выгодные для нас
ветра комплементарности
12:37
blowдуть firmlyтвердо enoughдостаточно,
267
745160
1736
продолжат дуть в нужном направлении.
12:38
but resolvingрешения the superiorityпревосходство mythмиф
268
746920
1936
Но развенчивая миф о превосходстве,
12:40
showsшоу us that that processобработать
of taskзадача encroachmentпосягательство
269
748880
3096
мы понимаем, что постепенное
вторжение машин
в профессиональную деятельность человека
12:44
not only strengthensукрепляет
the forceсила of machineмашина substitutionзамена,
270
752000
3936
не только упрочивает позиции
машин при замещении человека,
12:47
but it wearsносит down
those helpfulполезный complementaritiesвзаимодополняемость too.
271
755960
3336
но и сводит на нет выгодные для нас
силы комплементарности.
12:51
Bringприносить these threeтри mythsмифы togetherвместе
272
759320
1936
Мы рассмотрели три мифа
о будущем нашей работы,
12:53
and I think we can captureзахватить a glimpseпроблеск
of that troublingбеспокойство futureбудущее.
273
761280
2936
и картина вырисовывается довольно мрачная.
12:56
MachinesМашины continueПродолжать to becomeстали more capableспособный,
274
764240
2016
Машины становятся более способными,
12:58
encroachingвторгающийся ever deeperГлубже
on tasksзадания performedвыполнено by humanчеловек beingsсущества,
275
766280
3656
всё глубже вторгаются в профессиональную
деятельность человека,
13:01
strengtheningукрепление the forceсила
of machineмашина substitutionзамена,
276
769960
2576
обретают бóльшую силу
при замещении человека
13:04
weakeningослабление the forceсила
of machineмашина complementarityвзаимодополняемость.
277
772560
3616
и ослабляют комплементарность.
13:08
And at some pointточка, that balanceбаланс
fallsпадения in favorблагоприятствовать of machinesмашины
278
776200
4296
И в какой-то момент перевес
окажется на стороне машин,
13:12
ratherскорее than humanчеловек beingsсущества.
279
780520
2056
а не людей.
13:14
This is the pathдорожка we're currentlyВ данный момент on.
280
782600
1736
Сейчас мы находимся на этом пути.
13:16
I say "pathдорожка" deliberatelyсознательно,
because I don't think we're there yetвсе же,
281
784360
3176
Я сказал «пути», потому что считаю,
что мы ещё не дошли до финишной прямой.
13:19
but it is hardжесткий to avoidизбежать the conclusionвывод
that this is our directionнаправление of travelпутешествовать.
282
787560
3640
Но трудно не сделать вывод, что мы
продолжаем двигаться в этом направлении.
13:24
That's the troublingбеспокойство partчасть.
283
792640
1456
Это не может не беспокоить.
13:26
Let me say now why I think actuallyна самом деле
this is a good problemпроблема to have.
284
794120
3520
Теперь я расскажу, почему я считаю,
что этой проблеме мы должны радоваться.
13:30
For mostбольшинство of humanчеловек historyистория,
one economicэкономической problemпроблема has dominatedдоминировал:
285
798520
3536
На протяжении почти
всей истории человечества
13:34
how to make the economicэкономической pieпирог
largeбольшой enoughдостаточно for everyoneвсе to liveжить on.
286
802080
4056
доминировала экономическая проблема:
13:38
Go back to the turnочередь
of the first centuryвека ADОБЪЯВЛЕНИЕ,
287
806160
2176
как увеличить экономический
пирог, чтобы его хватило всем.
13:40
and if you tookвзял the globalГлобальный economicэкономической pieпирог
288
808360
2096
На рубеже первого столетия нашей эры
13:42
and dividedразделенный it up into equalравный slicesломтики
for everyoneвсе in the worldМир,
289
810480
3296
этого пирога хватило бы,
чтобы каждому жителю планеты
13:45
everyoneвсе would get a fewмало hundredсто dollarsдолларов.
290
813800
2136
досталось ровно
по несколько сотен долларов.
13:47
AlmostПочти everyoneвсе livedжил
on or around the povertyбедность lineлиния.
291
815960
2760
Почти все жили за чертой
или около черты бедности.
13:51
And if you rollрулон forwardвперед a thousandтысяча yearsлет,
292
819320
2176
Если перенестись на тысячу лет вперёд,
13:53
roughlyгрубо the sameодна и та же is trueправда.
293
821520
1240
вы увидите почти ту же картину.
Но именно в последние пару сотен лет стал
наблюдаться устойчивый экономический рост.
13:55
But in the last fewмало hundredсто yearsлет,
economicэкономической growthрост has takenвзятый off.
294
823680
3576
13:59
Those economicэкономической piesпирогов have explodedвзорванный in sizeразмер.
295
827280
2376
Экономический пирог достиг
небывалых размеров.
14:01
GlobalГлобальный GDPВВП perв headглава,
296
829680
2056
В мировых масштабах ВВП на душу населения,
14:03
the valueстоимость of those individualиндивидуальный
slicesломтики of the pieпирог todayCегодня,
297
831760
3376
то есть размер каждого
отдельного кусочка пирога,
14:07
they're about 10,150 dollarsдолларов.
298
835160
2816
сегодня составляет почти 10 150 долларов.
14:10
If economicэкономической growthрост continuesпродолжается
at two percentпроцент,
299
838000
2696
Если рост мировой экономики
продолжится на уровне 2%,
14:12
our childrenдети will be twiceдважды as richбогатые as us.
300
840720
2056
наши дети станут в два раза богаче нас.
14:14
If it continuesпродолжается
at a more measlyкоревой one percentпроцент,
301
842800
2296
Если этот показатель составит всего 1%,
14:17
our grandchildrenвнучата
will be twiceдважды as richбогатые as us.
302
845120
2656
наши внуки окажутся богаче нас вдвое.
14:19
By and largeбольшой, we'veмы в solvedрешена
that traditionalтрадиционный economicэкономической problemпроблема.
303
847800
3680
То есть, по большому счёту, мы решили
историческую проблему мировой экономики.
14:24
Now, technologicalтехнологический unemploymentбезработица,
if it does happenслучаться,
304
852200
3016
Если технологическая безработица
всё-таки станет реальностью,
14:27
in a strangeстранный way will be
a symptomсимптом of that successуспех,
305
855240
3216
как ни странно, она окажется симптомом
этого экономического успеха.
14:30
will have solvedрешена one problemпроблема --
how to make the pieпирог biggerбольше --
306
858480
3856
Решив одну проблему:
как сделать пирог больше,
14:34
but replacedзаменены it with anotherдругой --
307
862360
1816
мы обзавелись новой проблемой:
14:36
how to make sure
that everyoneвсе getsполучает a sliceкусочек.
308
864200
2760
как сделать так, чтобы все жители
планеты получили по куску пирога.
14:39
As other economistsэкономисты have notedотметил,
solvingрешение this problemпроблема won'tне будет be easyлегко.
309
867840
3496
Другие экономисты также заявили,
что решить эту проблему будет непросто.
14:43
TodayCегодня, for mostбольшинство people,
310
871360
1656
Сегодня, чтобы получить кусочек,
14:45
theirих jobработа is theirих seatсиденье
at the economicэкономической dinnerужин tableТаблица,
311
873040
2496
большинству населения надо лишь занять
место за экономическим столом.
14:47
and in a worldМир with lessМеньше work
or even withoutбез work,
312
875560
2416
Если работы для населения станет меньше
или же её не будет совсем,
14:50
it won'tне будет be clearЧисто
how they get theirих sliceкусочек.
313
878000
2056
непонятно, как распределятся эти куски.
14:52
There's a great dealпо рукам
of discussionобсуждение, for instanceпример,
314
880080
2336
Уже обсуждаются
14:54
about variousразличный formsформы
of universalуниверсальный basicосновной incomeдоход
315
882440
2696
различные формы безусловного
основного дохода (БОД) —
14:57
as one possibleвозможное approachподход,
316
885160
1216
это один возможный подход.
14:58
and there's trialsиспытания underwayна ходу
317
886400
1616
В США, Финляндии и Кении
15:00
in the Unitedобъединенный Statesсостояния
and in FinlandФинляндия and in KenyaКения.
318
888040
2400
даже проводятся эксперименты с БОД.
Нам всем предстоит решить вопрос о том,
15:03
And this is the collectiveколлектив challengeвызов
that's right in frontфронт of us,
319
891000
3176
как распределить
то материальное благосостояние,
15:06
to figureфигура out how this materialматериал prosperityпроцветание
generatedгенерироваться by our economicэкономической systemсистема
320
894200
5056
которое появится у нас
в новой экономической системе,
чтобы его плодами могли
насладиться все жители планеты.
15:11
can be enjoyedнаслаждались by everyoneвсе
321
899280
1976
15:13
in a worldМир in whichкоторый
our traditionalтрадиционный mechanismмеханизм
322
901280
2416
В том новом мире
наши традиционные механизмы
15:15
for slicingнарезка up the pieпирог,
323
903720
1856
распределения пирога
15:17
the work that people do,
324
905600
1936
и распределения объёма работы
для каждого человека
15:19
withersхолка away and perhapsвозможно disappearsисчезает.
325
907560
2160
станут неэффективны
и, возможно, исчезнут совсем.
15:22
SolvingРешение this problemпроблема is going to requireтребовать
us to think in very differentдругой waysпути.
326
910280
4360
Чтобы решить эту проблему,
нам придётся серьёзно подумать.
15:27
There's going to be a lot of disagreementразногласие
about what oughtдолжен to be doneсделанный,
327
915400
4176
Будет много споров о том,
как к этому подойти.
15:31
but it's importantважный to rememberзапомнить
that this is a farдалеко better problemпроблема to have
328
919600
3416
Но важно, чтобы мы помнили,
что эта проблема — вовсе не проблема
15:35
than the one that hauntedчасто посещаемый
our ancestorsпредки for centuriesвека:
329
923040
2816
по сравнению с той, которая преследовала
наших предков тысячелетиями,
15:37
how to make that pieпирог
bigбольшой enoughдостаточно in the first placeместо.
330
925880
3376
а именно, как сделать
экономический пирог больше.
15:41
Thank you very much.
331
929280
1256
Благодарю за внимание.
15:42
(ApplauseАплодисменты)
332
930560
3840
(Аплодисменты)
Translated by Anna Pecot
Reviewed by Alena Chernykh

▲Back to top

ABOUT THE SPEAKER
Daniel Susskind - Economist
Daniel Susskind explores the impact of technology, particularly artificial intelligence, on work and society.

Why you should listen

Daniel Susskind is the co-author, with Richard Susskind, of the best-selling book, The Future of the Professions, and a Fellow in Economics at Balliol College, Oxford University. He is currently finishing his latest book, on the future of work. Previously, he worked in the British Government -- as a policy adviser in the Prime Minister's Strategy Unit, as a policy analyst in the Policy Unit in 10 Downing Street, and as a senior policy adviser in the Cabinet Office. Susskind received a doctorate in economics from Oxford University and was a Kennedy Scholar at Harvard University.

More profile about the speaker
Daniel Susskind | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee