ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Дэймон Хоровиц требует «операционную систему морали»

Filmed:
795,617 views

На TEDxSiliconValley Дэймон Хоровиц рассматривает огромные новые возможности, данные нам технологией: знать больше — и больше друг о друге — чем когда-либо. Вовлекая аудиторию в философскую дискуссию, Хоровиц призывает нас обратить внимание на основы философии — этические принципы — стоящие за технологическим прорывом, меняющим наш мир. Где же «операционная система морали», которая позволит нам придать этому смысл?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerМощность.
0
0
2000
Власть.
00:17
That is the wordслово that comesвыходит to mindразум.
1
2000
2000
Вот слово, которое приходит на ум.
00:19
We're the newновый technologistsтехнологи.
2
4000
2000
Мы — адепты новых технологий.
00:21
We have a lot of dataданные, so we have a lot of powerмощность.
3
6000
3000
У нас много данных, поэтому у нас огромная власть.
00:24
How much powerмощность do we have?
4
9000
2000
Сколько власти в нашем распоряжении?
00:26
SceneМесто действия from a movieкино: "ApocalypseАпокалипсис Now" -- great movieкино.
5
11000
3000
Сцена из фильма: «Апокалипсис сегодня» — отличное кино.
00:29
We'veУ нас got to get our heroгерой, Captainкапитан WillardWillard, to the mouthрот of the NungNung Riverрека
6
14000
3000
Нам нужно доставить нашего героя, капитана Уилларда, к устью реки Нунг,
00:32
so he can go pursueпреследовать ColonelПолковник KurtzКурц.
7
17000
2000
чтобы он смог преследовать полковника Курца.
00:34
The way we're going to do this is flyлетать him in and dropпадение him off.
8
19000
2000
Мы доставим его на самолёте и высадим его там.
00:36
So the sceneместо действия:
9
21000
2000
Итак, сцена:
00:38
the skyнебо is filledзаполненный with this fleetфлот of helicoptersвертолеты carryingпроведение him in.
10
23000
3000
небо заполнено эскадрильей вертолётов, несущей его к месту.
00:41
And there's this loudгромкий, thrillingзахватывающий musicМузыка in the backgroundзадний план,
11
26000
2000
Громкая, захватывающая музыка на заднем фоне,
00:43
this wildдикий musicМузыка.
12
28000
2000
мощная музыка.
00:45
DumDum daда taта daда dumдум
13
30000
2000
♫ Там-та-та-та-там ♫
00:47
DumDum daда taта daда dumдум
14
32000
2000
♫ Там-та-та-та-там ♫
00:49
DaDa taта daда daда
15
34000
3000
♫ Та-та-та-та ♫
00:52
That's a lot of powerмощность.
16
37000
2000
Очень мощно.
00:54
That's the kindсвоего рода of powerмощность I feel in this roomкомната.
17
39000
2000
Эта та мощь, которую я ощущаю в этой комнате.
00:56
That's the kindсвоего рода of powerмощность we have
18
41000
2000
Это та власть, которая у нас есть
00:58
because of all of the dataданные that we have.
19
43000
2000
из-за всей доступной нам информации.
01:00
Let's take an exampleпример.
20
45000
2000
Рассмотрим пример.
01:02
What can we do
21
47000
2000
Что мы можем сделать
01:04
with just one person'sИндивидуальность человека dataданные?
22
49000
3000
с информацией об одном человеке?
01:07
What can we do
23
52000
2000
Что мы можем сделать
01:09
with that guy'sпарень dataданные?
24
54000
2000
с информацией об этом парне?
01:11
I can look at your financialфинансовый recordsучет.
25
56000
2000
Я могу посмотреть на ваши финансовые записи.
01:13
I can tell if you payплатить your billsбанкноты on time.
26
58000
2000
Я могу сказать, оплачиваете ли вы счета вовремя.
01:15
I know if you're good to give a loanссуда to.
27
60000
2000
Я знаю, хороший ли вы заёмщик.
01:17
I can look at your medicalмедицинская recordsучет; I can see if your pumpнасос is still pumpingнакачка --
28
62000
3000
Я могу посмотреть на ваши медицинские записи, я могу посмотреть, в каком состоянии ваше сердце —
01:20
see if you're good to offerпредлагает insuranceстрахование to.
29
65000
3000
чтобы решить, стоит ли предлагать вам страховку.
01:23
I can look at your clickingщелкающий patternsузоры.
30
68000
2000
Я могу посмотреть на следы кликов вашей мышки.
01:25
When you come to my websiteВеб-сайт, I actuallyна самом деле know what you're going to do alreadyуже
31
70000
3000
Когда вы заходите на мой вебсайт, я уже знаю, что вы собрались делать,
01:28
because I've seenвидели you visitпосещение millionsмиллионы of websitesсайты before.
32
73000
2000
потому что я видел, как вы посещали предыдущий миллион вебсайтов.
01:30
And I'm sorry to tell you,
33
75000
2000
И с прискорбием сообщаю вам,
01:32
you're like a pokerпокер playerигрок, you have a tell.
34
77000
2000
что вы как игрок в покер — вас видно насквозь.
01:34
I can tell with dataданные analysisанализ what you're going to do
35
79000
2000
Проанализировав данные, я могу сказать, что вы будете делать,
01:36
before you even do it.
36
81000
2000
прежде, чем вы это сделаете.
01:38
I know what you like. I know who you are,
37
83000
3000
Я знаю, что вам нравится. Я знаю, кто вы.
01:41
and that's even before I look at your mailпочта
38
86000
2000
И всё это даже раньше, чем я увижу вашу почту
01:43
or your phoneТелефон.
39
88000
2000
или телефон.
01:45
Those are the kindsвиды of things we can do
40
90000
2000
Вот такие штуки мы можем делать
01:47
with the dataданные that we have.
41
92000
3000
с теми данными, которые у нас есть.
01:50
But I'm not actuallyна самом деле here to talk about what we can do.
42
95000
3000
Но я здесь не для того, чтобы говорить, что мы можем сделать.
01:56
I'm here to talk about what we should do.
43
101000
3000
Я здесь, чтобы поговорить о том, что мы должны делать.
02:00
What's the right thing to do?
44
105000
3000
Как поступать правильно?
02:04
Now I see some puzzledнедоуменный looksвыглядит
45
109000
2000
Теперь я вижу вопросительные взгляды:
02:06
like, "Why are you askingпросить us what's the right thing to do?
46
111000
3000
«Почему вы нас спрашиваете, как поступать правильно?
02:09
We're just buildingздание this stuffматериал. SomebodyКто-то elseеще is usingс помощью it."
47
114000
3000
Мы всего-то конструируем все эти штуки. Используются-то они кем-то другим».
02:12
FairСправедливая enoughдостаточно.
48
117000
3000
В принципе, правильно.
02:15
But it bringsприносит me back.
49
120000
2000
Но это напоминает мне прошлое.
02:17
I think about WorldМир Warвойна IIII --
50
122000
2000
Я думаю о Второй Мировой Войне —
02:19
some of our great technologistsтехнологи then,
51
124000
2000
о некоторых из наших великих изобретателей,
02:21
some of our great physicistsфизики,
52
126000
2000
некоторых из наших великих физиков,
02:23
studyingизучение nuclearядерной fissionрасщепление and fusionслияние --
53
128000
2000
изучавших ядерный распад и синтез —
02:25
just nuclearядерной stuffматериал.
54
130000
2000
просто всякие ядерные штуки.
02:27
We gatherсобирать togetherвместе these physicistsфизики in LosLos AlamosАламос
55
132000
3000
Мы собрали всех этих физиков в Лос-Аламосе,
02:30
to see what they'llони будут buildстроить.
56
135000
3000
чтобы посмотреть, что же они создадут.
02:33
We want the people buildingздание the technologyтехнологии
57
138000
3000
Мы хотим, чтобы люди, создающие технологию,
02:36
thinkingмышление about what we should be doing with the technologyтехнологии.
58
141000
3000
думали о том, как мы должны обращаться с технологией.
02:41
So what should we be doing with that guy'sпарень dataданные?
59
146000
3000
Как же нам быть с информацией об этом парне?
02:44
Should we be collectingсбор it, gatheringсбор it,
60
149000
3000
Должны ли мы её накапливать, собирать,
02:47
so we can make his onlineонлайн experienceопыт better?
61
152000
2000
чтобы обслуживать его онлайн ещё лучше?
02:49
So we can make moneyДеньги?
62
154000
2000
Чтобы заработать денег?
02:51
So we can protectзащищать ourselvesсами
63
156000
2000
Чтобы защитить себя,
02:53
if he was up to no good?
64
158000
2000
если добра от него ждать не приходится?
02:55
Or should we respectуважение his privacyКонфиденциальность,
65
160000
3000
Или же мы должны уважать его личную жизнь,
02:58
protectзащищать his dignityдостоинство and leaveоставлять him aloneв одиночестве?
66
163000
3000
защищать достоинство и оставить его в покое?
03:02
WhichКоторый one is it?
67
167000
3000
Что выбрать?
03:05
How should we figureфигура it out?
68
170000
2000
Как в этом разобраться?
03:07
I know: crowdsourceкраудсорсинга. Let's crowdsourceкраудсорсинга this.
69
172000
3000
Я знаю: коллективное решение. Давай решим это коллективно.
03:11
So to get people warmedнагретый up,
70
176000
3000
Чтобы люди разогрелись,
03:14
let's startНачало with an easyлегко questionвопрос --
71
179000
2000
начнём с простого вопроса —
03:16
something I'm sure everybodyвсе here has an opinionмнение about:
72
181000
3000
что-нибудь такое, насчёт чего у каждого есть мнение:
03:19
iPhoneiPhone versusпротив AndroidAndroid.
73
184000
2000
iPhone против Android.
03:21
Let's do a showпоказать of handsРуки -- iPhoneiPhone.
74
186000
3000
Поднимите руки — iPhone.
03:24
Uh huh.
75
189000
2000
О-о-го.
03:26
AndroidAndroid.
76
191000
3000
Android.
03:29
You'dВы хотите think with a bunchгроздь of smartумная people
77
194000
2000
Кто бы подумал, что с таким количеством умных людей
03:31
we wouldn'tне будет be suchтакие suckersприсоски just for the prettyСимпатичная phonesтелефоны.
78
196000
2000
мы будем так падки на красивые телефоны.
03:33
(LaughterСмех)
79
198000
2000
(Смех)
03:35
Nextследующий questionвопрос,
80
200000
2000
Следующий вопрос,
03:37
a little bitнемного harderСильнее.
81
202000
2000
чуть посложнее.
03:39
Should we be collectingсбор all of that guy'sпарень dataданные
82
204000
2000
Должны ли мы накапливать всю информацию об этом парне,
03:41
to make his experiencesопыт better
83
206000
2000
чтобы лучше его обслуживать
03:43
and to protectзащищать ourselvesсами in caseдело he's up to no good?
84
208000
3000
и защищать себя, когда он задумал что-то плохое?
03:46
Or should we leaveоставлять him aloneв одиночестве?
85
211000
2000
Или же мы должны оставить его в покое?
03:48
Collectсобирать his dataданные.
86
213000
3000
Собирать информацию.
03:53
LeaveОставлять him aloneв одиночестве.
87
218000
3000
Оставить в покое.
03:56
You're safeбезопасно. It's fine.
88
221000
2000
Вы в безопасности. Всё нормально.
03:58
(LaughterСмех)
89
223000
2000
(Смех)
04:00
Okay, last questionвопрос --
90
225000
2000
Хорошо, последний вопрос —
04:02
harderСильнее questionвопрос --
91
227000
2000
вопрос посложнее —
04:04
when tryingпытаясь to evaluateоценивать
92
229000
3000
при оценке,
04:07
what we should do in this caseдело,
93
232000
3000
что мы должны делать в этом случае,
04:10
should we use a Kantianкантианский deontologicalдеонтологический moralморальный frameworkфреймворк,
94
235000
4000
должны ли мы использовать деонтологическую мораль Канта,
04:14
or should we use a MillianMillian consequentialistконсеквенциализм one?
95
239000
3000
или же консеквенциальную Милля?
04:19
KantКант.
96
244000
3000
Кант.
04:22
Millмельница.
97
247000
3000
Милль.
04:25
Not as manyмногие votesголосов.
98
250000
2000
Не так уж много голосов.
04:27
(LaughterСмех)
99
252000
3000
(Смех)
04:30
Yeah, that's a terrifyingужасающий resultрезультат.
100
255000
3000
Да уж, устрашающий результат.
04:34
Terrifyingужасающий, because we have strongerсильнее opinionsмнения
101
259000
4000
Устрашающий, потому что у нас более определённое мнение
04:38
about our hand-heldручные devicesприборы
102
263000
2000
о наших мобильных устройствах,
04:40
than about the moralморальный frameworkфреймворк
103
265000
2000
нежели о моральных принципах,
04:42
we should use to guideруководство our decisionsрешения.
104
267000
2000
которые должны определять наши решения.
04:44
How do we know what to do with all the powerмощность we have
105
269000
3000
Как узнать, что же делать со всей данной нам властью,
04:47
if we don't have a moralморальный frameworkфреймворк?
106
272000
3000
если у нас нет моральных принципов?
04:50
We know more about mobileмобильный operatingоперационная systemsсистемы,
107
275000
3000
Мы знаем больше о мобильных операционных системах,
04:53
but what we really need is a moralморальный operatingоперационная systemсистема.
108
278000
3000
но что нам нужно на самом деле — это «операционная система морали».
04:58
What's a moralморальный operatingоперационная systemсистема?
109
283000
2000
Чем же является «операционная система морали»?
05:00
We all know right and wrongнеправильно, right?
110
285000
2000
Мы все отличаем правильное от неправильного.
05:02
You feel good when you do something right,
111
287000
2000
Вам хорошо, когда вы поступаете правильно,
05:04
you feel badПлохо when you do something wrongнеправильно.
112
289000
2000
и плохо, когда вы поступаете неправильно.
05:06
Our parentsродители teachучат us that: praiseхвалить with the good, scoldругать with the badПлохо.
113
291000
3000
Наши родители этому нас научили: возноси добро, поноси зло.
05:09
But how do we figureфигура out what's right and wrongнеправильно?
114
294000
3000
Но как узнать, что правильно, а что неправильно?
05:12
And from day to day, we have the techniquesметоды that we use.
115
297000
3000
У нас есть разные приёмы, которые мы используем изо дня в день.
05:15
Maybe we just followследовать our gutпотрошить.
116
300000
3000
Может быть просто по наитию.
05:18
Maybe we take a voteголос -- we crowdsourceкраудсорсинга.
117
303000
3000
Может быть голосованием — решаем коллективно.
05:21
Or maybe we puntплоскодонка --
118
306000
2000
Или, может, мы сдаёмся —
05:23
askпросить the legalправовой departmentотдел, see what they say.
119
308000
3000
спрашиваем юристов, что они скажут.
05:26
In other wordsслова, it's kindсвоего рода of randomслучайный,
120
311000
2000
Другими словами, мы случайно,
05:28
kindсвоего рода of adобъявление hocспециальная,
121
313000
2000
спонтанно,
05:30
how we figureфигура out what we should do.
122
315000
3000
решаем, что же мы должны делать.
05:33
And maybe, if we want to be on surerуверенней footingопора,
123
318000
3000
Может быть, если мы хотим подвести под это солидную основу,
05:36
what we really want is a moralморальный frameworkфреймворк that will help guideруководство us there,
124
321000
3000
что нам нужно на самом деле, это моральные принципы, которые нас направят,
05:39
that will tell us what kindsвиды of things are right and wrongнеправильно in the first placeместо,
125
324000
3000
которые в первую очередь укажут, что правильно и неправильно,
05:42
and how would we know in a givenданный situationситуация what to do.
126
327000
4000
и как узнать, что делать в данной ситуации.
05:46
So let's get a moralморальный frameworkфреймворк.
127
331000
2000
Давайте создадим моральные принципы.
05:48
We're numbersчисел people, livingживой by numbersчисел.
128
333000
3000
Мы же люди точного склада ума, мы живём цифрами.
05:51
How can we use numbersчисел
129
336000
2000
Как мы можем использовать цифры
05:53
as the basisоснова for a moralморальный frameworkфреймворк?
130
338000
3000
в качестве основы моральных принципов?
05:56
I know a guy who did exactlyв точку that.
131
341000
3000
Я знаю парня, который именно это и сделал,
05:59
A brilliantблестящий guy --
132
344000
3000
Выдающийся человек —
06:02
he's been deadмертвый 2,500 yearsлет.
133
347000
3000
2,5 тысячи лет как мёртв.
06:05
PlatoПлатон, that's right.
134
350000
2000
Да, верно, это Платон.
06:07
RememberЗапомнить him -- oldстарый philosopherфилософ?
135
352000
2000
Помните — древний философ?
06:09
You were sleepingспать duringв течение that classкласс.
136
354000
3000
Вы проспали тот урок.
06:12
And PlatoПлатон, he had a lot of the sameодна и та же concernsпроблемы that we did.
137
357000
2000
Платона волновали те же вопросы, что и нас.
06:14
He was worriedволновался about right and wrongнеправильно.
138
359000
2000
Его волновали вопросы правильного и неправильного.
06:16
He wanted to know what is just.
139
361000
2000
Он хотел знать, что справедливо.
06:18
But he was worriedволновался that all we seemказаться to be doing
140
363000
2000
Его волновало, что практически всё, чем мы занимаемся,
06:20
is tradingторговый opinionsмнения about this.
141
365000
2000
это всего лишь обмен мнениями.
06:22
He saysговорит something'sчто-то just. She saysговорит something elseеще is just.
142
367000
3000
Он говорит, что справедливо это. Она говорит, что справедливо что-то другое.
06:25
It's kindсвоего рода of convincingубедительный when he talksпереговоры and when she talksпереговоры too.
143
370000
2000
Он говорит довольно убедительно и она тоже.
06:27
I'm just going back and forthвперед; I'm not gettingполучение anywhereв любом месте.
144
372000
2000
И вот мы ходим взад-вперёд, безрезультатно.
06:29
I don't want opinionsмнения; I want knowledgeзнание.
145
374000
3000
Мне не нужны мнения, я хочу знания.
06:32
I want to know the truthправда about justiceсправедливость --
146
377000
3000
Я хочу знать истину о справедливости —
06:35
like we have truthsистины in mathматематический.
147
380000
3000
так же как есть истина в математике.
06:38
In mathматематический, we know the objectiveзадача factsфакты.
148
383000
3000
В математике, мы знаем объективные факты.
06:41
Take a numberномер, any numberномер -- two.
149
386000
2000
Возьмите число, любое число — два.
06:43
Favoriteлюбимец numberномер. I love that numberномер.
150
388000
2000
Любимое число. Я люблю это число.
06:45
There are truthsистины about two.
151
390000
2000
Есть истины о числе два.
06:47
If you've got two of something,
152
392000
2000
Если у вас есть два чего-то,
06:49
you addДобавить two more, you get four4.
153
394000
2000
вы добавляете ещё два, вы получите четыре.
06:51
That's trueправда no matterдело what thing you're talkingговорящий about.
154
396000
2000
Это истинно вне зависимости от того, о чём идёт речь.
06:53
It's an objectiveзадача truthправда about the formформа of two,
155
398000
2000
Это объективная истина о форме двух,
06:55
the abstractАбстрактные formформа.
156
400000
2000
абстрактной форме.
06:57
When you have two of anything -- two eyesглаза, two earsуши, two nosesносы,
157
402000
2000
Когда у вас есть два чего угодно — два глаза, два уха, носа,
06:59
just two protrusionsвыступы --
158
404000
2000
всего лишь два выступа —
07:01
those all partakeпринимать участие of the formформа of two.
159
406000
3000
они все разделяют форму двух.
07:04
They all participateпринимать участие in the truthsистины that two has.
160
409000
4000
Все истины о двух верны и о них тоже.
07:08
They all have two-nessдва-Несс in them.
161
413000
2000
У них у всех есть двушность.
07:10
And thereforeследовательно, it's not a matterдело of opinionмнение.
162
415000
3000
Поэтому это уже не спорный вопрос.
07:13
What if, PlatoПлатон thought,
163
418000
2000
Платон думал, что если бы
07:15
ethicsэтика was like mathматематический?
164
420000
2000
этика была как математика?
07:17
What if there were a pureчистый formформа of justiceсправедливость?
165
422000
3000
Что если была бы абстрактная форма справедливости?
07:20
What if there are truthsистины about justiceсправедливость,
166
425000
2000
Что если были бы истины о справедливости,
07:22
and you could just look around in this worldМир
167
427000
2000
и можно было бы посмотреть вокруг
07:24
and see whichкоторый things participatedпринимала участие,
168
429000
2000
и увидеть, к каким вещам относится,
07:26
partookвкусили of that formформа of justiceсправедливость?
169
431000
3000
применима эта форма справедливости?
07:29
Then you would know what was really just and what wasn'tне было.
170
434000
3000
Тогда бы вы точно знали, что действительно справедливо, а что нет.
07:32
It wouldn'tне будет be a matterдело
171
437000
2000
Это не было бы
07:34
of just opinionмнение or just appearancesВыступления.
172
439000
3000
спорным вопросом или внешним признаком.
07:37
That's a stunningоглушающий visionвидение.
173
442000
2000
Это ошеломляющее видение.
07:39
I mean, think about that. How grandбольшой. How ambitiousамбициозный.
174
444000
3000
Я настаиваю, подумайте об этом. Как грандиозно. Как амбициозно.
07:42
That's as ambitiousамбициозный as we are.
175
447000
2000
Это так же амбициозно, как и мы с вами.
07:44
He wants to solveрешать ethicsэтика.
176
449000
2000
Он хочет решить этику.
07:46
He wants objectiveзадача truthsистины.
177
451000
2000
Он хочет объективных истин.
07:48
If you think that way,
178
453000
3000
Если вы думаете таким образом —
07:51
you have a Platonistплатоник moralморальный frameworkфреймворк.
179
456000
3000
у вас Платоновские моральные принципы.
07:54
If you don't think that way,
180
459000
2000
Если вы думаете иначе —
07:56
well, you have a lot of companyКомпания in the historyистория of Westernвестерн philosophyфилософия,
181
461000
2000
что ж, у вас много единомышленников в истории западной философии,
07:58
because the tidyаккуратный ideaидея, you know, people criticizedкритика it.
182
463000
3000
потому что эта аккуратная идея подвергалась критике.
08:01
AristotleАристотель, in particularконкретный, he was not amusedдовольный.
183
466000
3000
Аристотелю, в частности, она не очень нравилась.
08:04
He thought it was impracticalнепрактичный.
184
469000
3000
Он полагал, что она непрактична.
08:07
AristotleАристотель said, "We should seekискать only so much precisionточность in eachкаждый subjectпредмет
185
472000
4000
Аристотель утверждал: «Мы должны формализовать предмет настолько,
08:11
as that subjectпредмет allowsпозволяет."
186
476000
2000
насколько предмет позволяет».
08:13
AristotleАристотель thought ethicsэтика wasn'tне было a lot like mathматематический.
187
478000
3000
Аристотель думал, что этика не так уж похожа на математику.
08:16
He thought ethicsэтика was a matterдело of makingизготовление decisionsрешения in the here-and-nowздесь и сейчас
188
481000
3000
Он полагал, что этика — это просто принятие решений в текущий момент
08:19
usingс помощью our bestЛучший judgmentсуждение
189
484000
2000
из лучших побуждений,
08:21
to find the right pathдорожка.
190
486000
2000
чтобы найти правильный путь.
08:23
If you think that, Plato'sПлатона not your guy.
191
488000
2000
Если вы так думаете, то вам с Платоном не по пути.
08:25
But don't give up.
192
490000
2000
Но не отчаивайтесь.
08:27
Maybe there's anotherдругой way
193
492000
2000
Может, есть другой путь,
08:29
that we can use numbersчисел as the basisоснова of our moralморальный frameworkфреймворк.
194
494000
3000
позволяющий использовать числа, как основу наших моральных принципов.
08:33
How about this:
195
498000
2000
Как насчёт этого:
08:35
What if in any situationситуация you could just calculateподсчитывать,
196
500000
3000
Что если бы в любой ситуации можно было бы посчитать,
08:38
look at the choicesвыбор,
197
503000
2000
посмотреть на варианты,
08:40
measureизмерение out whichкоторый one'sодин это better and know what to do?
198
505000
3000
измерить, какой из них наилучший и решить соответственно?
08:43
That soundзвук familiarзнакомые?
199
508000
2000
Знакомо?
08:45
That's a utilitarianутилитарный moralморальный frameworkфреймворк.
200
510000
3000
Это утилитарные моральные принципы.
08:48
JohnДжон StuartСтюарт Millмельница was a great advocateадвокат of this --
201
513000
2000
Джон Стюарт Милль был их большим приверженцем —
08:50
niceхороший guy besidesКроме --
202
515000
2000
между прочим, классный парень —
08:52
and only been deadмертвый 200 yearsлет.
203
517000
2000
и всего-то 200 лет как мёртв.
08:54
So basisоснова of utilitarianismутилитаризм --
204
519000
2000
Итак, основы утилитаризма —
08:56
I'm sure you're familiarзнакомые at leastнаименее.
205
521000
2000
я уверен, вы с ними как минимум знакомы.
08:58
The threeтри people who votedпроголосовавший for Millмельница before are familiarзнакомые with this.
206
523000
2000
Те три человека, что проголосовали за Милля, с этим знакомы.
09:00
But here'sвот the way it worksработает.
207
525000
2000
И всё же, вот как это работает.
09:02
What if moralsнравы, what if what makesмарки something moralморальный
208
527000
3000
Что если мораль, что если то, что определяет моральность,
09:05
is just a matterдело of if it maximizesмаксимизирует pleasureудовольствие
209
530000
2000
всего лишь дело того, максимизирует ли это удовольствие
09:07
and minimizesсводит к минимуму painболь?
210
532000
2000
и минимизирует ли страдания?
09:09
It does something intrinsicсвойственный to the actакт.
211
534000
3000
Это что-то, присущее самому действию.
09:12
It's not like its relationсвязь to some abstractАбстрактные formформа.
212
537000
2000
Это не его отношение к какой-то абстрактной форме.
09:14
It's just a matterдело of the consequencesпоследствия.
213
539000
2000
Это всего лишь вопрос последствий.
09:16
You just look at the consequencesпоследствия
214
541000
2000
Вы смотрите на последствия
09:18
and see if, overallв общем и целом, it's for the good or for the worseхуже.
215
543000
2000
и видите, в общем и целом, это к лучшему, или к худшему.
09:20
That would be simpleпросто. Then we know what to do.
216
545000
2000
Это было бы просто. И затем мы бы знали, что делать.
09:22
Let's take an exampleпример.
217
547000
2000
Рассмотрим пример.
09:24
Supposeпредполагать I go up
218
549000
2000
Предположим, я бы подошёл
09:26
and I say, "I'm going to take your phoneТелефон."
219
551000
2000
и сказал: «Я заберу ваш телефон».
09:28
Not just because it rangзвенел earlierранее,
220
553000
2000
Не только потому, что он звонил ранее,
09:30
but I'm going to take it because I madeсделал a little calculationрасчет.
221
555000
3000
а прежде всего потому, что я немного просчитал.
09:33
I thought, that guy looksвыглядит suspiciousподозрительный.
222
558000
3000
Я подумал: «Так, этот парень выглядит подозрительно.
09:36
And what if he's been sendingотправка little messagesСообщения to Binмусорное ведро Laden'sЛадена hideoutукрытие --
223
561000
3000
Что если он пишет краткие доносы в укрытие бен Ладена —
09:39
or whoeverкто бы ни tookвзял over after Binмусорное ведро Ladenнагруженный --
224
564000
2000
ну или кто там теперь вместо бен Ладена —
09:41
and he's actuallyна самом деле like a terroristтеррорист, a sleeperшпала cellклетка.
225
566000
3000
и на самом деле он террорист, засланный казачок.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Я это проверю, и когда я найду подтверждение,
09:47
I'm going to preventне допустить a hugeогромный amountколичество of damageнаносить ущерб that he could causeпричина.
227
572000
3000
я предотвращу огромный ущерб, который он может причинить.
09:50
That has a very highвысокая utilityутилита to preventне допустить that damageнаносить ущерб.
228
575000
3000
Очень полезно предотвратить такой ущерб.
09:53
And comparedв сравнении to the little painболь that it's going to causeпричина --
229
578000
2000
И в сравнении с небольшим неудобством, которое это причинит —
09:55
because it's going to be embarrassingзатруднительный when I'm looking on his phoneТелефон
230
580000
2000
потому что это будет очень неловко, когда я досмотрю его телефон
09:57
and seeingвидя that he has a FarmvilleФермерская вилла problemпроблема and that wholeвсе bitнемного --
231
582000
3000
и замечу, что у него зависимость от FarmVille, и, в общем, всё это —
10:00
that's overwhelmedперегружены
232
585000
3000
перевешивается
10:03
by the valueстоимость of looking at the phoneТелефон.
233
588000
2000
ценностью досмотра его телефона».
10:05
If you feel that way,
234
590000
2000
Если вы думаете так же,
10:07
that's a utilitarianутилитарный choiceвыбор.
235
592000
3000
то это утилитарный выбор.
10:10
But maybe you don't feel that way eitherили.
236
595000
3000
Но может вы и с этим не согласны.
10:13
Maybe you think, it's his phoneТелефон.
237
598000
2000
Может, вы думаете; «Это же его телефон.
10:15
It's wrongнеправильно to take his phoneТелефон
238
600000
2000
Это неправильно отбирать телефон,
10:17
because he's a personчеловек
239
602000
2000
потому что он личность,
10:19
and he has rightsправа and he has dignityдостоинство,
240
604000
2000
у него есть права и у него есть достоинство,
10:21
and we can't just interfereвмешиваться with that.
241
606000
2000
и мы не можем просто так в это вмешиваться.
10:23
He has autonomyавтономия.
242
608000
2000
У него есть независимость.
10:25
It doesn't matterдело what the calculationsвычисления are.
243
610000
2000
Не имеет значения, что мы просчитали.
10:27
There are things that are intrinsicallyв действительности wrongнеправильно --
244
612000
3000
Есть вещи, которые в принципе неправильны —
10:30
like lyingлежащий is wrongнеправильно,
245
615000
2000
например, врать плохо,
10:32
like torturingпытать innocentневинный childrenдети is wrongнеправильно.
246
617000
3000
пытать невинных детей плохо».
10:35
KantКант was very good on this pointточка,
247
620000
3000
Кант отлично справился с этой темой,
10:38
and he said it a little better than I'll say it.
248
623000
2000
и он высказался лучше, чем я.
10:40
He said we should use our reasonпричина
249
625000
2000
Он сказал, что мы должны использовать здравый смысл,
10:42
to figureфигура out the rulesправила by whichкоторый we should guideруководство our conductповедение,
250
627000
3000
чтобы определить правила, которые должны управлять нашим поведением.
10:45
and then it is our dutyобязанность to followследовать those rulesправила.
251
630000
3000
А затем, это наша обязанность — следовать этим правилам.
10:48
It's not a matterдело of calculationрасчет.
252
633000
3000
Это не вопрос вычислений.
10:51
So let's stop.
253
636000
2000
Давай остановимся.
10:53
We're right in the thickтолстый of it, this philosophicalфилософский thicketзаросли.
254
638000
3000
Мы прямо в самой гуще всего этого, этих философских дебрей.
10:56
And this goesидет on for thousandsтысячи of yearsлет,
255
641000
3000
И вот так продолжается тысячи лет,
10:59
because these are hardжесткий questionsвопросов,
256
644000
2000
потому что это сложные вопросы,
11:01
and I've only got 15 minutesминут.
257
646000
2000
а у меня всего 15 минут.
11:03
So let's cutпорез to the chaseгнаться.
258
648000
2000
Сократим погоню.
11:05
How should we be makingизготовление our decisionsрешения?
259
650000
4000
Как мы должны принимать решения?
11:09
Is it PlatoПлатон, is it AristotleАристотель, is it KantКант, is it Millмельница?
260
654000
3000
Согласно Платону, Аристотелю, Канту, Миллю?
11:12
What should we be doing? What's the answerответ?
261
657000
2000
Что мы должны делать? Каков ответ?
11:14
What's the formulaформула that we can use in any situationситуация
262
659000
3000
Какова формула, которую мы могли бы использовать в любой ситуации,
11:17
to determineопределить what we should do,
263
662000
2000
чтобы определить, что мы должны делать,
11:19
whetherбудь то we should use that guy'sпарень dataданные or not?
264
664000
2000
должны ли мы использовать информацию об этом парне или нет?
11:21
What's the formulaформула?
265
666000
3000
Какова формула?
11:25
There's not a formulaформула.
266
670000
2000
Нет такой формулы.
11:29
There's not a simpleпросто answerответ.
267
674000
2000
Нет простого ответа.
11:31
EthicsЭтика is hardжесткий.
268
676000
3000
Этика сложна.
11:34
EthicsЭтика requiresтребует thinkingмышление.
269
679000
3000
Этика требует размышлений.
11:38
And that's uncomfortableнеудобный.
270
683000
2000
И это неудобно.
11:40
I know; I spentпотраченный a lot of my careerкарьера
271
685000
2000
Я знаю, я потратил приличную часть моей карьеры
11:42
in artificialискусственный intelligenceинтеллект,
272
687000
2000
в области искусственного интеллекта,
11:44
tryingпытаясь to buildстроить machinesмашины that could do some of this thinkingмышление for us,
273
689000
3000
пытаясь построить машины, которые бы что-то думали за нас,
11:47
that could give us answersответы.
274
692000
2000
которые бы могли дать ответы.
11:49
But they can't.
275
694000
2000
Но они не могут.
11:51
You can't just take humanчеловек thinkingмышление
276
696000
2000
Невозможно взять человеческое мышление
11:53
and put it into a machineмашина.
277
698000
2000
и поместить в машину.
11:55
We're the onesте, who have to do it.
278
700000
3000
Мы сами должны это делать.
11:58
Happilyк счастью, we're not machinesмашины, and we can do it.
279
703000
3000
К счастью, мы не машины, мы можем это делать.
12:01
Not only can we think,
280
706000
2000
Мы не только можем думать,
12:03
we mustдолжен.
281
708000
2000
мы должны.
12:05
HannahАнна ArendtАрендт said,
282
710000
2000
Ханна Арендт говорила, —
12:07
"The sadгрустный truthправда
283
712000
2000
«Горькая правда
12:09
is that mostбольшинство evilзло doneсделанный in this worldМир
284
714000
2000
в том, что большая часть зла, совершаемого в мире,
12:11
is not doneсделанный by people
285
716000
2000
не делается людьми,
12:13
who chooseвыберите to be evilзло.
286
718000
2000
которые выбрали путь зла.
12:15
It arisesвозникает from not thinkingмышление."
287
720000
3000
Оно совершается из-за недумания».
12:18
That's what she calledназывается the "banalityбанальность of evilзло."
288
723000
4000
Это то, что она назвала «банальностью зла».
12:22
And the responseответ to that
289
727000
2000
Ответом на это
12:24
is that we demandспрос the exerciseупражнение of thinkingмышление
290
729000
2000
будет требование к каждому здравому человеку
12:26
from everyкаждый saneв своем уме personчеловек.
291
731000
3000
применять мышление.
12:29
So let's do that. Let's think.
292
734000
2000
Давайте сделаем это. Давайте думать.
12:31
In factфакт, let's startНачало right now.
293
736000
3000
Надо сказать, давайте начнём прямо сейчас.
12:34
Everyкаждый personчеловек in this roomкомната do this:
294
739000
3000
Пусть каждый человек в этой комнате сделает вот так:
12:37
think of the last time you had a decisionрешение to make
295
742000
3000
подумайте, когда в последний раз вы принимали решение,
12:40
where you were worriedволновался to do the right thing,
296
745000
2000
которое заставило задуматься, правильно ли вы поступаете,
12:42
where you wonderedзадавались вопросом, "What should I be doing?"
297
747000
2000
где вы думали: «Как я должен поступить?».
12:44
Bringприносить that to mindразум,
298
749000
2000
Вспомните об этом.
12:46
and now reflectотражать on that
299
751000
2000
Теперь поразмышляйте об этом
12:48
and say, "How did I come up that decisionрешение?
300
753000
3000
и спросите себя: «Как я пришёл к тому решению?
12:51
What did I do? Did I followследовать my gutпотрошить?
301
756000
3000
Что я сделал? Последовал интуиции?
12:54
Did I have somebodyкто-то voteголос on it? Or did I puntплоскодонка to legalправовой?"
302
759000
2000
Попросил кого-то проголосовать? Спросил юриста?»
12:56
Or now we have a fewмало more choicesвыбор.
303
761000
3000
Теперь у нас более широкий выбор.
12:59
"Did I evaluateоценивать what would be the highestнаибольший pleasureудовольствие
304
764000
2000
«Рассмотрел ли я, что принесёт наибольшее удовольствие,
13:01
like Millмельница would?
305
766000
2000
как сделал бы Милль?
13:03
Or like KantКант, did I use reasonпричина to figureфигура out what was intrinsicallyв действительности right?"
306
768000
3000
Или как Кант, я использовал разум, чтобы понять, что было в сущности правильным?»
13:06
Think about it. Really bringприносить it to mindразум. This is importantважный.
307
771000
3000
Подумайте об этом. Подумайте над этим хорошенько. Это важно.
13:09
It is so importantважный
308
774000
2000
Это настолько важно,
13:11
we are going to spendпроводить 30 secondsсекунд of valuableценный TEDTalkTEDTalk time
309
776000
2000
что мы потратим 30 секунд ценного времени выступления
13:13
doing nothing but thinkingмышление about this.
310
778000
2000
исключительно на обдумывание этого.
13:15
Are you readyготов? Go.
311
780000
2000
Готовы? Начали.
13:33
Stop. Good work.
312
798000
3000
Хватит. Отлично поработали.
13:36
What you just did,
313
801000
2000
Только что сделанное вами
13:38
that's the first stepшаг towardsв направлении takingпринятие responsibilityобязанность
314
803000
2000
было первым шагом навстречу к ответственности
13:40
for what we should do with all of our powerмощность.
315
805000
3000
за то, что мы должны делать с данной нам властью.
13:45
Now the nextследующий stepшаг -- try this.
316
810000
3000
Теперь следующий шаг — попробуйте вот это.
13:49
Go find a friendдруг and explainобъяснять to them
317
814000
2000
Найдите друга и объясните ему,
13:51
how you madeсделал that decisionрешение.
318
816000
2000
как вы пришли к этому решению.
13:53
Not right now. Wait tillдо I finishКонец talkingговорящий.
319
818000
2000
Нет, не прямо сейчас. Подождите, пока я закончу выступать.
13:55
Do it over lunchобед.
320
820000
2000
Займитесь этим за обедом.
13:57
And don't just find anotherдругой technologistтехнолог friendдруг;
321
822000
3000
И не надо бросаться на очередного друга-технаря,
14:00
find somebodyкто-то differentдругой than you.
322
825000
2000
найдите кого-нибудь отличного то вас.
14:02
Find an artistхудожник or a writerписатель --
323
827000
2000
Найдите артиста или писателя,
14:04
or, heavenнебо forbidзапретить, find a philosopherфилософ and talk to them.
324
829000
3000
или, боже упаси, найдите философа и поговорите с ним.
14:07
In factфакт, find somebodyкто-то from the humanitiesгуманитарные науки.
325
832000
2000
В самом деле, найдите гуманитария.
14:09
Why? Because they think about problemsпроблемы
326
834000
2000
Почему? Потому что они рассуждают о проблемах
14:11
differentlyиначе than we do as technologistsтехнологи.
327
836000
2000
иначе, чем мы, технари.
14:13
Just a fewмало daysдней agoтому назад, right acrossчерез the streetулица from here,
328
838000
3000
Несколько дней назад, прямо через дорогу
14:16
there was hundredsсотни of people gatheredсобранный togetherвместе.
329
841000
2000
было большое собрание людей.
14:18
It was technologistsтехнологи and humanistsгуманисты
330
843000
2000
Это были технари и гуманитарии,
14:20
at that bigбольшой BiblioTechBiblioTech ConferenceКонференция.
331
845000
2000
на той большой конференции BiblioTech.
14:22
And they gatheredсобранный togetherвместе
332
847000
2000
Они собрались вместе,
14:24
because the technologistsтехнологи wanted to learnучить
333
849000
2000
потому что технари хотели узнать,
14:26
what it would be like to think from a humanitiesгуманитарные науки perspectiveперспективы.
334
851000
3000
что значит думать как гуманитарии.
14:29
You have someoneкто то from GoogleGoogle
335
854000
2000
Возьмите кого-нибудь из Google,
14:31
talkingговорящий to someoneкто то who does comparativeСравнительная степень literatureлитература.
336
856000
2000
и заставьте поговорить с кем-то, кто занимается сравнительным литературоведением.
14:33
You're thinkingмышление about the relevanceактуальность of 17thго centuryвека FrenchФранцузский theaterтеатр --
337
858000
3000
Вы думали о значимости французского театра 17-го века —
14:36
how does that bearмедведь uponна ventureпредприятие capitalстолица?
338
861000
2000
а как это отражается на рисковом капитале?
14:38
Well that's interestingинтересно. That's a differentдругой way of thinkingмышление.
339
863000
3000
Вот это интересно. Вот это другой способ мышления.
14:41
And when you think in that way,
340
866000
2000
Когда вы думаете таким образом,
14:43
you becomeстали more sensitiveчувствительный to the humanчеловек considerationsсоображения,
341
868000
3000
вы более чутки к нуждам человека,
14:46
whichкоторый are crucialключевой to makingизготовление ethicalэтический decisionsрешения.
342
871000
3000
что критично для принятия этичных решений.
14:49
So imagineпредставить that right now
343
874000
2000
Представьте, что прямо сейчас
14:51
you wentотправился and you foundнайденный your musicianмузыкант friendдруг.
344
876000
2000
мы пошли и нашли вашего друга-музыканта.
14:53
And you're tellingговоря him what we're talkingговорящий about,
345
878000
3000
И вы ему рассказываете то, о чем мы говорим,
14:56
about our wholeвсе dataданные revolutionреволюция and all this --
346
881000
2000
о всей этой информационной революции и всё такое —
14:58
maybe even humгул a fewмало barsбрусья of our themeтема musicМузыка.
347
883000
2000
может даже напели пару ноток нашего музыкального сопровождения.
15:00
DumDum taта daда daда dumдум dumдум taта daда daда dumдум
348
885000
3000
♫ Там-та-та-та-там там-та-та-та-там ♫
15:03
Well, your musicianмузыкант friendдруг will stop you and say,
349
888000
2000
Знаете, ваш друг-музыкант вас остановит и скажет:
15:05
"You know, the themeтема musicМузыка
350
890000
2000
«Знаешь, музыкальное сопровождение,
15:07
for your dataданные revolutionреволюция,
351
892000
2000
для этой вашей информационной революции,
15:09
that's an operaопера, that's WagnerВагнер.
352
894000
2000
это опера, это Вагнер.
15:11
It's basedисходя из on Norseнорвежцы legendлегенда.
353
896000
2000
Она основана на германо-скандинавской мифологии.
15:13
It's Godsбоги and mythicalмифический creaturesсущества
354
898000
2000
Это боги и мистические создания
15:15
fightingборьба over magicalволшебный jewelryЮвелирные изделия."
355
900000
3000
сражаются за волшебные драгоценности».
15:19
That's interestingинтересно.
356
904000
3000
Вот это интересно.
15:22
Now it's alsoтакже a beautifulкрасивая operaопера,
357
907000
3000
Теперь это ещё и о красивой опере.
15:25
and we're movedпереехал by that operaопера.
358
910000
3000
И мы тронуты этой оперой.
15:28
We're movedпереехал because it's about the battleбоевой
359
913000
2000
Мы тронуты, потому что она о сражении
15:30
betweenмежду good and evilзло,
360
915000
2000
между добром и злом,
15:32
about right and wrongнеправильно.
361
917000
2000
между правильным и неправильным.
15:34
And we careзабота about right and wrongнеправильно.
362
919000
2000
И нам важно, что правильно и неправильно.
15:36
We careзабота what happensпроисходит in that operaопера.
363
921000
3000
Нам важно, что случится в той опере.
15:39
We careзабота what happensпроисходит in "ApocalypseАпокалипсис Now."
364
924000
3000
Нам важно, что случится в «Апокалипсис сегодня».
15:42
And we certainlyбезусловно careзабота
365
927000
2000
И уж точно нам важно,
15:44
what happensпроисходит with our technologiesтехнологии.
366
929000
2000
что случится с нашими технологиями.
15:46
We have so much powerмощность todayCегодня,
367
931000
2000
Сегодня у нас столько власти,
15:48
it is up to us to figureфигура out what to do,
368
933000
3000
что это мы должны разобраться, что делать.
15:51
and that's the good newsНовости.
369
936000
2000
И это хорошая новость.
15:53
We're the onesте, writingписьмо this operaопера.
370
938000
3000
Мы — композиторы этой оперы.
15:56
This is our movieкино.
371
941000
2000
Это наше кино.
15:58
We figureфигура out what will happenслучаться with this technologyтехнологии.
372
943000
3000
Мы придумываем, что случится с этой технологией.
16:01
We determineопределить how this will all endконец.
373
946000
3000
Мы определяем, чем всё это закончится.
16:04
Thank you.
374
949000
2000
Спасибо.
16:06
(ApplauseАплодисменты)
375
951000
5000
(Аплодисменты)
Translated by Aliaksandr Autayeu
Reviewed by Larisa Larionova

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee