ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

Дамон Хоровиц призовава за една "морална операционна система"

Filmed:
795,617 views

На конференцията TEDxSiliconValley, Дамон Хоровитз преглежда невероятните нови способности, които технологията ни дава: за да знаеме все повече и повече , от когато и да е било преди. Подтиквайки публиката към философска дискусия, Хоровитз ни кани да обръщаме нов тип внимание към основната философия - етичните принципи, зад възпламеняването на изобретенията, променящи нашият свят. Къде е опериращата морална система, която ни позволява да го възприемем?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
PowerМощност.
0
0
2000
Власт.
00:17
That is the wordдума that comesидва to mindум.
1
2000
2000
Тази дума ми идва на ум.
00:19
We're the newнов technologistsтехнолози.
2
4000
2000
Ние сме новите технолози.
00:21
We have a lot of dataданни, so we have a lot of powerмощност.
3
6000
3000
Притежаваме много данни, тоест имаме много власт.
00:24
How much powerмощност do we have?
4
9000
2000
Колко власт имаме?
00:26
SceneСцена from a movieфилм: "ApocalypseАпокалипсис Now" -- great movieфилм.
5
11000
3000
Сцена от филма "Апокалипсис сега" - прекрасен филм.
00:29
We'veНие сме got to get our heroгерой, CaptainКапитан WillardУилард, to the mouthуста of the NungNung RiverРека
6
14000
3000
Ние трябва да закараме нашия герой, капитан Уилард, до устието на реката Нунг,
00:32
so he can go pursueпреследвам ColonelПолковник KurtzДамянов.
7
17000
2000
така че той да може да убеди полковник Курц.
00:34
The way we're going to do this is flyлетя him in and dropизпускайте him off.
8
19000
2000
Начинът, по който ще направим това е да го превозим със самолет и да го катапултираме на правилното място.
00:36
So the sceneсцена:
9
21000
2000
Сцената изглежда така:
00:38
the skyнебе is filledс примес with this fleetфлота of helicoptersхеликоптери carryingносене him in.
10
23000
3000
небето е пълно с рояк хеликоптери, които го превозват.
00:41
And there's this loudшумен, thrillingвълнуващо musicмузика in the backgroundзаден план,
11
26000
2000
Тази силна, възбуждаща музика се чува на заден план,
00:43
this wildдив musicмузика.
12
28000
2000
дива музика.
00:45
DumDum daга taTA daга dumDum
13
30000
2000
Дъм да та дъм
00:47
DumDum daга taTA daга dumDum
14
32000
2000
Дъм да та дъм
00:49
DaDa taTA daга daга
15
34000
3000
Да та да да.
00:52
That's a lot of powerмощност.
16
37000
2000
Този момент е зареден с много сила.
00:54
That's the kindмил of powerмощност I feel in this roomстая.
17
39000
2000
Това е този вид сила, който чувствам в тази стая.
00:56
That's the kindмил of powerмощност we have
18
41000
2000
Това е този вид сила, който притежаваме,
00:58
because of all of the dataданни that we have.
19
43000
2000
заради всичките данни, с които разполагаме.
01:00
Let's take an exampleпример.
20
45000
2000
Нека вземем следния пример.
01:02
What can we do
21
47000
2000
Какво можем да направим
01:04
with just one person'sчовек dataданни?
22
49000
3000
с данните само на един човек?
01:07
What can we do
23
52000
2000
Какво можем да направим
01:09
with that guy'sГай dataданни?
24
54000
2000
с данните на този тип?
01:11
I can look at your financialфинансов recordsзаписи.
25
56000
2000
Аз мога да погледна в банковите ви записи.
01:13
I can tell if you payплащам your billsбанкноти on time.
26
58000
2000
Мога да ви кажа дали си плащате сметките навреме.
01:15
I know if you're good to give a loanзаем to.
27
60000
2000
Ще знам дали сте достатъчно надежден, за да ви се даде заем.
01:17
I can look at your medicalмедицински recordsзаписи; I can see if your pumpпомпа is still pumpingпомпане --
28
62000
3000
Мога да погледна здравното ви състояние, и да разбера дали сърцето ви все още работи,
01:20
see if you're good to offerоферта insuranceзастраховка to.
29
65000
3000
така ще разбера дали мога да ви дам здравна застраховка.
01:23
I can look at your clickingщракване patternsмодели.
30
68000
2000
Мога да погледна какви страници сте посещавали.
01:25
When you come to my websiteуебсайт, I actuallyвсъщност know what you're going to do alreadyвече
31
70000
3000
И когато дойдете на моята уеб страница, вече ще мога да кажа какво ще направите там,
01:28
because I've seenвидян you visitпосещение millionsмилиони of websitesуебсайтове before.
32
73000
2000
защото знам, че сте посетили преди това милиони други страници.
01:30
And I'm sorry to tell you,
33
75000
2000
Съжалявам, че трябва да ви го кажа,
01:32
you're like a pokerпокер playerплейър, you have a tell.
34
77000
2000
но вие сте като комарджия - имате опашка.
01:34
I can tell with dataданни analysisанализ what you're going to do
35
79000
2000
Мога да ви кажа чрез анализа на данни какво ще направите,
01:36
before you even do it.
36
81000
2000
преди дори да го направите.
01:38
I know what you like. I know who you are,
37
83000
3000
Знам какво харесвате. Знам кой сте.
01:41
and that's even before I look at your mailпоща
38
86000
2000
И това дори преди да погледна електронната поща
01:43
or your phoneтелефон.
39
88000
2000
или телефона ви.
01:45
Those are the kindsвидове of things we can do
40
90000
2000
Това са онези неща, които можем да направим
01:47
with the dataданни that we have.
41
92000
3000
с данните, които притежаваме.
01:50
But I'm not actuallyвсъщност here to talk about what we can do.
42
95000
3000
Но аз всъщност не съм тук, за да говоря за нещата, които можем да направим.
01:56
I'm here to talk about what we should do.
43
101000
3000
Аз съм тук, за да говоря за нещата, които трябва да направим.
02:00
What's the right thing to do?
44
105000
3000
Кои са правилните неща, които трябва да направим.
02:04
Now I see some puzzledозадачи looksвъншност
45
109000
2000
Тук виждам няколко объркани погледа.
02:06
like, "Why are you askingпита us what's the right thing to do?
46
111000
3000
"Защо ни питаш какво е правилно да се направи"
02:09
We're just buildingсграда this stuffматерия. SomebodyНякой elseоще is usingизползвайки it."
47
114000
3000
Ние само програмираме нещата. Някой друг ги използва.
02:12
FairПанаир enoughдостатъчно.
48
117000
3000
Това е така.
02:15
But it bringsноси me back.
49
120000
2000
Но това ме връща назад във времето.
02:17
I think about WorldСветът WarВойна IIII --
50
122000
2000
Мисля си за Втората Световна Война -
02:19
some of our great technologistsтехнолози then,
51
124000
2000
някои от нашите велики технологии по онова време,
02:21
some of our great physicistsфизици,
52
126000
2000
някои от великите ни физици,
02:23
studyingизучаване nuclearядрен fissionделене and fusionсинтез --
53
128000
2000
изучаващи разделянето и сливането на ядрата -
02:25
just nuclearядрен stuffматерия.
54
130000
2000
чисти ядрени въпроси.
02:27
We gatherсъбирам togetherзаедно these physicistsфизици in LosЛос AlamosАламос
55
132000
3000
Ние събираме тези физици в Лос Аламос,
02:30
to see what they'llте ще buildпострои.
56
135000
3000
за да видим какво ще построят.
02:33
We want the people buildingсграда the technologyтехнология
57
138000
3000
Ние искаме хората, които изобретяват технологиите
02:36
thinkingмислене about what we should be doing with the technologyтехнология.
58
141000
3000
да мислят какво ние трябва да направим с тях.
02:41
So what should we be doing with that guy'sГай dataданни?
59
146000
3000
И така какво трябва да направим със събраната информация за този човек?
02:44
Should we be collectingсъбиране it, gatheringсъбиране it,
60
149000
3000
Трябва ли да ги събираме,
02:47
so we can make his onlineна линия experienceопит better?
61
152000
2000
така че да направим онлайн изживяването му по-добро?
02:49
So we can make moneyпари?
62
154000
2000
За да печелим пари?
02:51
So we can protectзащитавам ourselvesсебе си
63
156000
2000
За да се предпазим от него,
02:53
if he was up to no good?
64
158000
2000
ако той има задни мисли?
02:55
Or should we respectотношение his privacyповерителност,
65
160000
3000
Или трябва да респектираме личната му сфера,
02:58
protectзащитавам his dignityдостойнство and leaveоставям him aloneсам?
66
163000
3000
да пазим достойнството му и просто да го оставим на мира?
03:02
WhichКоито one is it?
67
167000
3000
Кой е верният отговор?
03:05
How should we figureфигура it out?
68
170000
2000
Как можем да го познаем?
03:07
I know: crowdsourceсъбираме от хората. Let's crowdsourceсъбираме от хората this.
69
172000
3000
Аз го знам: колективното решение. Нека да потърсим едно колективно решение.
03:11
So to get people warmedзатопля up,
70
176000
3000
И така, за да загреем,
03:14
let's startначало with an easyлесно questionвъпрос --
71
179000
2000
нека започнем с един лесен въпрос -
03:16
something I'm sure everybodyвсички here has an opinionмнение about:
72
181000
3000
нещо, на което съм сигурен, че всеки тук знае отговора:
03:19
iPhoneiPhone versusсрещу AndroidАндроид.
73
184000
2000
iPhone срещу Android.
03:21
Let's do a showшоу of handsръце -- iPhoneiPhone.
74
186000
3000
Нека тези, които имат iPhone да вдигнат ръце.
03:24
Uh huh.
75
189000
2000
Уху.
03:26
AndroidАндроид.
76
191000
3000
Android.
03:29
You'dВие бихте think with a bunchкуп of smartумен people
77
194000
2000
Вие си мислите, че с няколко смарт телефона
03:31
we wouldn'tне би be suchтакъв suckersнещастници just for the prettyкрасива phonesтелефони.
78
196000
2000
ще престанем да бъдем такива загубеняци.
03:33
(LaughterСмях)
79
198000
2000
(Смях в залата)
03:35
NextСледваща questionвъпрос,
80
200000
2000
Следващият въпрос,
03:37
a little bitмалко harderпо-трудно.
81
202000
2000
малко по-труден от предния.
03:39
Should we be collectingсъбиране all of that guy'sГай dataданни
82
204000
2000
Трябва ли да събираме информация за този човек,
03:41
to make his experiencesпреживявания better
83
206000
2000
за да подобрим усещането му в интернет
03:43
and to protectзащитавам ourselvesсебе си in caseслучай he's up to no good?
84
208000
3000
и да се предпазим от него в случай, че е намислил нещо лошо?
03:46
Or should we leaveоставям him aloneсам?
85
211000
2000
Или да го оставим на мира?
03:48
CollectСъбира his dataданни.
86
213000
3000
Да събираме данните му?
03:53
LeaveОставете him aloneсам.
87
218000
3000
Да го оставим на мира?
03:56
You're safeсейф. It's fine.
88
221000
2000
Добре. Вие сте на на правилната страна.
03:58
(LaughterСмях)
89
223000
2000
(Смях в залата)
04:00
Okay, last questionвъпрос --
90
225000
2000
ОК. Последен въпрос -
04:02
harderпо-трудно questionвъпрос --
91
227000
2000
по-труден въпрос -
04:04
when tryingопитвайки to evaluateоценка
92
229000
3000
когато се оптваме да преценим
04:07
what we should do in this caseслучай,
93
232000
3000
какъв метод трябва да използваме в този случай,
04:10
should we use a KantianKantian deontologicalдеонтологични moralморален frameworkрамка,
94
235000
4000
деонтоложката морална рамка на Кант
04:14
or should we use a MillianMillian consequentialistconsequentialist one?
95
239000
3000
или трябва да използваме подхода на Мил базиращ се на ползата от последствията?
04:19
KantКант.
96
244000
3000
Кант.
04:22
MillМелница.
97
247000
3000
Мил.
04:25
Not as manyмного votesгласове.
98
250000
2000
Хм, няма много гласуващи.
04:27
(LaughterСмях)
99
252000
3000
(Смях в залата)
04:30
Yeah, that's a terrifyingужасяващо resultрезултат.
100
255000
3000
Да, това е един ужасяващ резултат.
04:34
TerrifyingУжасяващо, because we have strongerпо-силен opinionsстановища
101
259000
4000
Ужасяващ, защото ние имаме по-силно изразено мнение
04:38
about our hand-heldръчни devicesустройства
102
263000
2000
за нашите телефони,
04:40
than about the moralморален frameworkрамка
103
265000
2000
отколкото за моралните рамки,
04:42
we should use to guideръководство our decisionsрешения.
104
267000
2000
които трябва да ни ръководят във взимането на решения.
04:44
How do we know what to do with all the powerмощност we have
105
269000
3000
Окъде да знаем как си служим с властта, която имаме,
04:47
if we don't have a moralморален frameworkрамка?
106
272000
3000
ако нямаме морални рамки?
04:50
We know more about mobileПодвижен operatingексплоатационен systemsсистеми,
107
275000
3000
Ние знаем повече за мибилните операционни системи,
04:53
but what we really need is a moralморален operatingексплоатационен systemсистема.
108
278000
3000
но това, от което имаме наистина нужда са морални операционни системи.
04:58
What's a moralморален operatingексплоатационен systemсистема?
109
283000
2000
Какво е морална операционна система?
05:00
We all know right and wrongпогрешно, right?
110
285000
2000
Ние всички знаем какво е правилно и какво е грешно.
05:02
You feel good when you do something right,
111
287000
2000
Чувствате се добре, когато направите нещо правилно,
05:04
you feel badлошо when you do something wrongпогрешно.
112
289000
2000
чувствате се зле, когато извършите нещо лошо.
05:06
Our parentsродители teachпреподавам us that: praiseвъзхвала with the good, scoldгълча with the badлошо.
113
291000
3000
Научили сме го от нашите родители: похвала за доброто дело, смъмряне за лошото.
05:09
But how do we figureфигура out what's right and wrongпогрешно?
114
294000
3000
Но как разбираме кое е добро и кое е лошо?
05:12
And from day to day, we have the techniquesтехники that we use.
115
297000
3000
И така от ден на ден, ние добиваме техниките, които използват за тези решения.
05:15
Maybe we just followпоследвам our gutинстинктивен.
116
300000
3000
Може би, понякога просто следваме шестото си чувство.
05:18
Maybe we take a voteгласуване -- we crowdsourceсъбираме от хората.
117
303000
3000
Може би понякога гласуваме взимайки решението на тълпата.
05:21
Or maybe we puntPunt --
118
306000
2000
Или просто залагаме -
05:23
askпитам the legalправен departmentотдел, see what they say.
119
308000
3000
и питаме какво мисли правния отдел по този въпрос.
05:26
In other wordsдуми, it's kindмил of randomслучаен,
120
311000
2000
С други думи ние следваме някакъв хаотичен,
05:28
kindмил of adреклама hochoc,
121
313000
2000
спонтанен път,
05:30
how we figureфигура out what we should do.
122
315000
3000
когато взимаме решения как да действаме.
05:33
And maybe, if we want to be on surer-сигурен footingоснова,
123
318000
3000
И може би, ако искаме да сме на правилната страна,
05:36
what we really want is a moralморален frameworkрамка that will help guideръководство us there,
124
321000
3000
това от което имаме нужда е морална рамка, която да ни отведе там,
05:39
that will tell us what kindsвидове of things are right and wrongпогрешно in the first placeмясто,
125
324000
3000
която ще ни каже кои неща са правилни и кои грешни
05:42
and how would we know in a givenдаден situationситуация what to do.
126
327000
4000
и ще ни покаже как да действаме в дадена ситуация.
05:46
So let's get a moralморален frameworkрамка.
127
331000
2000
И така нека си създадем тази морална рамка.
05:48
We're numbersчисленост people, livingжив by numbersчисленост.
128
333000
3000
Ние сме група хора, живееща чрез числа.
05:51
How can we use numbersчисленост
129
336000
2000
Как можем да използваме числата
05:53
as the basisоснова for a moralморален frameworkрамка?
130
338000
3000
като база за нашата морална рамка?
05:56
I know a guy who did exactlyточно that.
131
341000
3000
Познавам едно момче, което правеше точно това,
05:59
A brilliantблестящ guy --
132
344000
3000
брилянтен тип -
06:02
he's been deadмъртъв 2,500 yearsгодини.
133
347000
3000
мъртъв е вече 2.500 години.
06:05
PlatoПлатон, that's right.
134
350000
2000
Правилно - Платон.
06:07
RememberЗапомни him -- oldстар philosopherфилософ?
135
352000
2000
Помните ли го - стар философ?
06:09
You were sleepingспален duringпо време на that classклас.
136
354000
3000
Сигурно сте спали по време на този урок.
06:12
And PlatoПлатон, he had a lot of the sameедин и същ concernsопасения that we did.
137
357000
2000
И така Платон е имал много от същите грижи, които ние имаме днес.
06:14
He was worriedразтревожен about right and wrongпогрешно.
138
359000
2000
Той си е задавал въпроса кое е праилно и кое грешно.
06:16
He wanted to know what is just.
139
361000
2000
Искал е да знае какво е справедливо.
06:18
But he was worriedразтревожен that all we seemИзглежда to be doing
140
363000
2000
Но той се е притеснявал, че това с което се занимаваме ние
06:20
is tradingтъргуване opinionsстановища about this.
141
365000
2000
е да се чудим кое е правилно и кое не.
06:22
He saysказва something'sнещо не е just. She saysказва something elseоще is just.
142
367000
3000
Той твърди, че нещо е вярно. Тя твърди, че нещо друго е вярно.
06:25
It's kindмил of convincingубедителен when he talksпреговори and when she talksпреговори too.
143
370000
2000
Звучи убедително когато и двамата си излагат аргументите.
06:27
I'm just going back and forthнапред; I'm not gettingполучаване на anywhereнавсякъде.
144
372000
2000
Аз просто се лутам от тема на тема, но не стигам до никакъв отговор.
06:29
I don't want opinionsстановища; I want knowledgeзнание.
145
374000
3000
Не искам опции, искам знания.
06:32
I want to know the truthистина about justiceправосъдие --
146
377000
3000
Искам да знам истината за справедловостта,
06:35
like we have truthsистини in mathматематика.
147
380000
3000
по същия начин, по който имаме истина за правото.
06:38
In mathматематика, we know the objectiveобективен factsфакти.
148
383000
3000
В математиката ние знаем обективните факти.
06:41
Take a numberномер, any numberномер -- two.
149
386000
2000
Вземете едно число - например две.
06:43
FavoriteФаворит numberномер. I love that numberномер.
150
388000
2000
Любимото ми число.
06:45
There are truthsистини about two.
151
390000
2000
Има няколко факта за две.
06:47
If you've got two of something,
152
392000
2000
Ако вземеш две от нещо
06:49
you addдобави two more, you get fourчетирима.
153
394000
2000
и добавиш още две, ще получиш четири.
06:51
That's trueвярно no matterвъпрос what thing you're talkingговорим about.
154
396000
2000
Това е вярно независимо за какво говориш.
06:53
It's an objectiveобективен truthистина about the formформа of two,
155
398000
2000
Съществува обективна истина за формата на две.,
06:55
the abstractабстрактен formформа.
156
400000
2000
за абстрактната форма.
06:57
When you have two of anything -- two eyesочи, two earsушите, two nosesносове,
157
402000
2000
Когато имаш две от нещо - две очи, две уши, два носа,
06:59
just two protrusionsиздатини --
158
404000
2000
просто две преднини -
07:01
those all partakeвземаме of the formформа of two.
159
406000
3000
това всичко е форма на две.
07:04
They all participateучастие in the truthsистини that two has.
160
409000
4000
Те всички отговарят на истината, която се съдържа в две.
07:08
They all have two-nessдве ност in them.
161
413000
2000
Те всички имат нещо от две в себе си.
07:10
And thereforeСледователно, it's not a matterвъпрос of opinionмнение.
162
415000
3000
И затова не е въпрос на гледна точка.
07:13
What if, PlatoПлатон thought,
163
418000
2000
Какво ако Платон твърдеше,
07:15
ethicsетика was like mathматематика?
164
420000
2000
че етиката е като математиката.
07:17
What if there were a pureчист formформа of justiceправосъдие?
165
422000
3000
Какво ако има чиста форма на справедливостта.
07:20
What if there are truthsистини about justiceправосъдие,
166
425000
2000
Какво ако има истина за справедливостта
07:22
and you could just look around in this worldсвят
167
427000
2000
и ти просто можеш да се огледаш по света
07:24
and see whichкойто things participatedучаствала,
168
429000
2000
и да видиш кой участва
07:26
partookpartook of that formформа of justiceправосъдие?
169
431000
3000
и има дял в тази форма на справедливост?
07:29
Then you would know what was really just and what wasn'tне е.
170
434000
3000
Тогава ще знаеш какво е било наистина справедливо и какво не.
07:32
It wouldn'tне би be a matterвъпрос
171
437000
2000
Нямаше да е въпрос на
07:34
of just opinionмнение or just appearancesизяви.
172
439000
3000
мнение или външен вид.
07:37
That's a stunningзашеметяващ visionзрение.
173
442000
2000
Това е крещяща гледна точка.
07:39
I mean, think about that. How grandграндиозен. How ambitiousамбициозни.
174
444000
3000
Помислете върху това. Колко е грандиозно, колко амбициозно.
07:42
That's as ambitiousамбициозни as we are.
175
447000
2000
Това е толкова амбициозно, колкото сме самите ние.
07:44
He wants to solveрешавам ethicsетика.
176
449000
2000
Той иска да реши етиката.
07:46
He wants objectiveобективен truthsистини.
177
451000
2000
Иска обективна истина.
07:48
If you think that way,
178
453000
3000
Ако мислите по този начин,
07:51
you have a PlatonistPlatonist moralморален frameworkрамка.
179
456000
3000
добивате моралната рамка на Платон.
07:54
If you don't think that way,
180
459000
2000
Ако не мислите по този начин,
07:56
well, you have a lot of companyкомпания in the historyистория of WesternЗападна philosophyфилософия,
181
461000
2000
добре тогава ще намерите компания в западната философия,
07:58
because the tidyподредено ideaидея, you know, people criticizedкритикуван it.
182
463000
3000
защото както знаете хората критикуват подредените идеи.
08:01
AristotleАристотел, in particularособен, he was not amusedразвеселен.
183
466000
3000
Например Аристотел не е намирал тази идея забавна.
08:04
He thought it was impracticalнепрактичен.
184
469000
3000
Смятал я е за непрактична.
08:07
AristotleАристотел said, "We should seekтърся only so much precisionпрецизност in eachвсеки subjectпредмет
185
472000
4000
Аристотел е казал: " Ние търсим толкова прецизност във всеки обект,
08:11
as that subjectпредмет allowsпозволява."
186
476000
2000
колкото този обект позволява."
08:13
AristotleАристотел thought ethicsетика wasn'tне е a lot like mathматематика.
187
478000
3000
Аристотел е на мнение, че етиката не е като математиката.
08:16
He thought ethicsетика was a matterвъпрос of makingприготвяне decisionsрешения in the here-and-nowтук-и-сега
188
481000
3000
Той смята, че етиката е въпрос на взимане на решения тук и сега, служейки си
08:19
usingизползвайки our bestнай-доброто judgmentпреценка
189
484000
2000
с най-добрата преценка, която можем да направим,
08:21
to find the right pathпът.
190
486000
2000
за да намерим правилния път.
08:23
If you think that, Plato'sНа Платон not your guy.
191
488000
2000
Ако мислите по този начин, Платон не е вашия философ.
08:25
But don't give up.
192
490000
2000
Но не се предавайте.
08:27
Maybe there's anotherоще way
193
492000
2000
Може би има и друг начин,
08:29
that we can use numbersчисленост as the basisоснова of our moralморален frameworkрамка.
194
494000
3000
да използваме числата като база на нашата морална рамка.
08:33
How about this:
195
498000
2000
Какво ще кажете за това:
08:35
What if in any situationситуация you could just calculateизчисли,
196
500000
3000
Какво ако можете да пресметнете всяка ситуация,
08:38
look at the choicesизбор,
197
503000
2000
прегледайте изборите,
08:40
measureмярка out whichкойто one'sедин е better and know what to do?
198
505000
3000
изчислявате кой е по-добър и така знаете как да постъпите?
08:43
That soundзвук familiarзапознат?
199
508000
2000
Звучи ви познато?
08:45
That's a utilitarianутилитарен moralморален frameworkрамка.
200
510000
3000
Това е моралната рамка на утилитарното учение.
08:48
JohnДжон StuartСтюарт MillМелница was a great advocateзастъпник of this --
201
513000
2000
Джон Стюарт Мил е голям поддръжник на това учение -
08:50
niceприятен guy besidesОсвен това --
202
515000
2000
между другото много свястно момче -
08:52
and only been deadмъртъв 200 yearsгодини.
203
517000
2000
и е умрял само преди 200 години.
08:54
So basisоснова of utilitarianismутилитаризъм --
204
519000
2000
И така базата на утилитаризма -
08:56
I'm sure you're familiarзапознат at leastнай-малко.
205
521000
2000
сигурен съм, че имате обща представа.
08:58
The threeтри people who votedгласува for MillМелница before are familiarзапознат with this.
206
523000
2000
Тримата, които преди това гласуваха за Мил познават учението.
09:00
But here'sето the way it worksвърши работа.
207
525000
2000
Но сега ще ви кажа как работи.
09:02
What if moralsморал, what if what makesправи something moralморален
208
527000
3000
Какво ако моралът, какво ако това, което прави нещата морални
09:05
is just a matterвъпрос of if it maximizesувеличава pleasureудоволствие
209
530000
2000
е просто функция на това да максимализира удоволствието
09:07
and minimizesнамалява painболка?
210
532000
2000
и минимализира болката?
09:09
It does something intrinsicприсъщите to the actакт.
211
534000
3000
Той действа по някакъв вроден начин.
09:12
It's not like its relationвръзка to some abstractабстрактен formформа.
212
537000
2000
Това не е отношението към някаква абстрактна форма.
09:14
It's just a matterвъпрос of the consequencesпоследствия.
213
539000
2000
Това е просто въпрос на следствие.
09:16
You just look at the consequencesпоследствия
214
541000
2000
Вие поглеждате последствията
09:18
and see if, overallцялостен, it's for the good or for the worseпо-лошо.
215
543000
2000
и преценявате дали са добри или лоши.
09:20
That would be simpleпрост. Then we know what to do.
216
545000
2000
Това би било лесно. Така знаем какво да направим.
09:22
Let's take an exampleпример.
217
547000
2000
Нека да ви дам пример.
09:24
SupposeДа предположим I go up
218
549000
2000
Нека предположим, че аз ще се кача горе
09:26
and I say, "I'm going to take your phoneтелефон."
219
551000
2000
и кажа " Аз ще ви взема телефона".
09:28
Not just because it rangзвънна earlierпо-рано,
220
553000
2000
Не защото е позвънял по-рано,
09:30
but I'm going to take it because I madeизработен a little calculationизчисление.
221
555000
3000
а защото направих малка калкулация.
09:33
I thought, that guy looksвъншност suspiciousподозрителен.
222
558000
3000
Реших, че този човек ми изглежда подозрително.
09:36
And what if he's been sendingизпращане little messagesсъобщения to BinСК Laden'sТовар на hideoutскривалището --
223
561000
3000
И какво ако той изпраща смс-и към скривалището на Бин Ладен -
09:39
or whoeverкойто и tookвзеха over after BinСК LadenНатоварено --
224
564000
2000
или който заема мястото на Бин Ладен -
09:41
and he's actuallyвсъщност like a terroristтерорист, a sleeperританки cellклетка.
225
566000
3000
и действа като спяща клетка на терористи.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
Аз ще разкрия това и разкривайки го,
09:47
I'm going to preventпредотвратявам a hugeогромен amountколичество of damageщета that he could causeкауза.
227
572000
3000
ще предотвратя огромен брой вреди, които той може да нанесе.
09:50
That has a very highВисоко utilityполезност to preventпредотвратявам that damageщета.
228
575000
3000
Така съществува голяма полза да се предотврати таза вреда.
09:53
And comparedсравнение to the little painболка that it's going to causeкауза --
229
578000
2000
Особено като сравните с малката болка, която ще бъде причинена -
09:55
because it's going to be embarrassingнеудобно when I'm looking on his phoneтелефон
230
580000
2000
защото ще бъде глупаво, ако му погледна телефона
09:57
and seeingвиждане that he has a FarmvilleFarmville problemпроблем and that wholeцяло bitмалко --
231
582000
3000
и видя, че има проблем с Farmville и това
10:00
that's overwhelmedпретоварени
232
585000
3000
засенчва целия проблем,
10:03
by the valueстойност of looking at the phoneтелефон.
233
588000
2000
гледайки телефона му.
10:05
If you feel that way,
234
590000
2000
Ако се чувствате по такъв начин,
10:07
that's a utilitarianутилитарен choiceизбор.
235
592000
3000
това е утилитарен избор.
10:10
But maybe you don't feel that way eitherедин.
236
595000
3000
Но може би не се чувствате по такъв начин.
10:13
Maybe you think, it's his phoneтелефон.
237
598000
2000
Може би смятате, че това е неговия телефон.
10:15
It's wrongпогрешно to take his phoneтелефон
238
600000
2000
Смятате, че е погрешно да му вземете телефона,
10:17
because he's a personчовек
239
602000
2000
защото е лична вещ
10:19
and he has rightsправа and he has dignityдостойнство,
240
604000
2000
и той като човек има права и достойнство
10:21
and we can't just interfereмеся се with that.
241
606000
2000
и ние не можем просто така да си играем с тях.
10:23
He has autonomyавтономия.
242
608000
2000
И той има право на личен избор.
10:25
It doesn't matterвъпрос what the calculationsизчисления are.
243
610000
2000
Няма значение какви ще бъдат последствията.
10:27
There are things that are intrinsicallyнеразривно wrongпогрешно --
244
612000
3000
Има неща, които по природа са грешни -
10:30
like lyingлежащ is wrongпогрешно,
245
615000
2000
например да се лъже е грешно,
10:32
like torturingизмъчват innocentневинен childrenдеца is wrongпогрешно.
246
617000
3000
измъчването на невинни деца е грешно.
10:35
KantКант was very good on this pointточка,
247
620000
3000
Кант беше много прав в това отношение
10:38
and he said it a little better than I'll say it.
248
623000
2000
и той го е казал малко по-добре от начина по който аз ще го кажа.
10:40
He said we should use our reasonпричина
249
625000
2000
Казал е, че ние трябва да използваме разума си,
10:42
to figureфигура out the rulesправилник by whichкойто we should guideръководство our conductповедение,
250
627000
3000
за да установим правилата, по които трябва да се ръководим.
10:45
and then it is our dutyмито to followпоследвам those rulesправилник.
251
630000
3000
И тогава е наше задължение да следваме тези правила.
10:48
It's not a matterвъпрос of calculationизчисление.
252
633000
3000
Не е въпрос на пресмятане.
10:51
So let's stop.
253
636000
2000
Така че нека спрем.
10:53
We're right in the thickдебел of it, this philosophicalфилософски thicketгъсталаци.
254
638000
3000
Ние имаме право в неговата сила , този философска дебелина.
10:56
And this goesотива on for thousandsхиляди of yearsгодини,
255
641000
3000
И това продължава хиляди години,
10:59
because these are hardтвърд questionsвъпроси,
256
644000
2000
защото това са сложни философски въпроси,
11:01
and I've only got 15 minutesминути.
257
646000
2000
а аз имам само 15 минути.
11:03
So let's cutразрез to the chaseЧейс.
258
648000
2000
Така че нека сложим чертата.
11:05
How should we be makingприготвяне our decisionsрешения?
259
650000
4000
Как трябва да взимаме нашите решения?
11:09
Is it PlatoПлатон, is it AristotleАристотел, is it KantКант, is it MillМелница?
260
654000
3000
Кой трябва да ни служи за пример - Платон, Аристотел, Кант, Мил?
11:12
What should we be doing? What's the answerотговор?
261
657000
2000
Как да постъпваме? Какъв е отговорът?
11:14
What's the formulaформула that we can use in any situationситуация
262
659000
3000
Каква формула да използваме в една ситуация,
11:17
to determineопредели what we should do,
263
662000
2000
за да решим какво е правилно,
11:19
whetherдали we should use that guy'sГай dataданни or not?
264
664000
2000
дали да използваме данните на тези хора или не?
11:21
What's the formulaформула?
265
666000
3000
Каква е формулата?
11:25
There's not a formulaформула.
266
670000
2000
Тук няма формула.
11:29
There's not a simpleпрост answerотговор.
267
674000
2000
Няма еднозначен отговор.
11:31
EthicsЕтика is hardтвърд.
268
676000
3000
Етиката е сложно нещо.
11:34
EthicsЕтика requiresизисква thinkingмислене.
269
679000
3000
Етиката изисква мислене.
11:38
And that's uncomfortableнеудобен.
270
683000
2000
И това я прави неудобна.
11:40
I know; I spentпрекарах a lot of my careerкариера
271
685000
2000
Прекарах голяма част от кариерата си
11:42
in artificialизкуствен intelligenceинтелигентност,
272
687000
2000
в областта на изкуствения интелект,
11:44
tryingопитвайки to buildпострои machinesмашини that could do some of this thinkingмислене for us,
273
689000
3000
опитвайки се да направя машини, които ще мислят вместо нас,
11:47
that could give us answersотговори.
274
692000
2000
машини, които могат да отоговарят на въпросите ни.
11:49
But they can't.
275
694000
2000
Но те не могат.
11:51
You can't just take humanчовек thinkingмислене
276
696000
2000
Не можеш просто да вземеш човешкото мислене
11:53
and put it into a machineмашина.
277
698000
2000
и да го сложиш в една машина.
11:55
We're the onesтакива who have to do it.
278
700000
3000
Ние сме тези, които трябва да правят това.
11:58
HappilyЩастливо, we're not machinesмашини, and we can do it.
279
703000
3000
За щастие ние не сме машини и можем да го направим.
12:01
Not only can we think,
280
706000
2000
Не само че можем да мислим,
12:03
we mustтрябва да.
281
708000
2000
ние дори трябва да мислим.
12:05
HannahХана ArendtАренд said,
282
710000
2000
Хана Аренд казва:
12:07
"The sadтъжен truthистина
283
712000
2000
"Тъжната истина е, че
12:09
is that mostнай-много evilзло doneСвършен in this worldсвят
284
714000
2000
повечето злини на този свят
12:11
is not doneСвършен by people
285
716000
2000
не са направена от хора,
12:13
who chooseизбирам to be evilзло.
286
718000
2000
които са избрали да бъдат зли.
12:15
It arisesвъзниква from not thinkingмислене."
287
720000
3000
Злото се е получило просто, защото тези хора са избрали да не мислят."
12:18
That's what she calledНаречен the "banalityбаналността of evilзло."
288
723000
4000
Това тя нарича "баналността на злото".
12:22
And the responseотговор to that
289
727000
2000
В отговор на това
12:24
is that we demandтърсене the exerciseупражнение of thinkingмислене
290
729000
2000
ние трябва да изискваме от всеки нормален човек
12:26
from everyвсеки saneнормален personчовек.
291
731000
3000
да може да мисли.
12:29
So let's do that. Let's think.
292
734000
2000
Така че нека го правим. Нека да мислим.
12:31
In factфакт, let's startначало right now.
293
736000
3000
Всъщност нека започнем още сега.
12:34
EveryВсеки personчовек in this roomстая do this:
294
739000
3000
Нека всеки в тази зала да направи следното:
12:37
think of the last time you had a decisionрешение to make
295
742000
3000
помислете си за последния път, в който е трябвало да вземете някакво решение,
12:40
where you were worriedразтревожен to do the right thing,
296
745000
2000
когато сте се притеснявали дали ще вземете правилното решение,
12:42
where you wonderedЧудех се, "What should I be doing?"
297
747000
2000
когато сте се питали: "Какво да направя?".
12:44
BringДонесе that to mindум,
298
749000
2000
Припомнете си този момент.
12:46
and now reflectотразят on that
299
751000
2000
И сега рефлектирайте върху този момент
12:48
and say, "How did I come up that decisionрешение?
300
753000
3000
и си задайте въпроса: " Как стигнах до това решение?"
12:51
What did I do? Did I followпоследвам my gutинстинктивен?
301
756000
3000
Какво направих? Последвах ли шестото си чувство?
12:54
Did I have somebodyнякой voteгласуване on it? Or did I puntPunt to legalправен?"
302
759000
2000
Имше ли някой, който да ме посъветва? Или заложих на сигурно?"
12:56
Or now we have a fewмалцина more choicesизбор.
303
761000
3000
Или тук имаме още няколко варианта.
12:59
"Did I evaluateоценка what would be the highestнай-висока pleasureудоволствие
304
764000
2000
" Прецених ли какво би ми донесло най-голямо удоволствие,
13:01
like MillМелница would?
305
766000
2000
както би направил Мил?
13:03
Or like KantКант, did I use reasonпричина to figureфигура out what was intrinsicallyнеразривно right?"
306
768000
3000
Или като Кант използвах разума си, за да разбера какво е правилно по природа.
13:06
Think about it. Really bringвъвеждат it to mindум. This is importantважно.
307
771000
3000
Помислете върху това. Обмислете го внимателно. Това е важно.
13:09
It is so importantважно
308
774000
2000
Толкова е важно,
13:11
we are going to spendхарча 30 secondsсекунди of valuableценен TEDTalkБрилиянт time
309
776000
2000
че сега ще прекараме 30 секунди от ценното TEDTalk време,
13:13
doing nothing but thinkingмислене about this.
310
778000
2000
без да правим нищо друго освен да мислим.
13:15
Are you readyготов? Go.
311
780000
2000
Готови ли сте? Старт.
13:33
Stop. Good work.
312
798000
3000
Стоп. Добре свършена работа.
13:36
What you just did,
313
801000
2000
Това, което направихте току що
13:38
that's the first stepстъпка towardsкъм takingприемате responsibilityотговорност
314
803000
2000
е първата стъпка към това да поемате отговорност
13:40
for what we should do with all of our powerмощност.
315
805000
3000
за това, което правим с нашата енергия.
13:45
Now the nextследващия stepстъпка -- try this.
316
810000
3000
Следващата стъпка е тази.
13:49
Go find a friendприятел and explainобяснявам to them
317
814000
2000
Намерете приятел и му обяснете
13:51
how you madeизработен that decisionрешение.
318
816000
2000
как взехте това решение.
13:53
Not right now. Wait tillдо I finishзавършек talkingговорим.
319
818000
2000
Не точно сега. Изчакайте да приключа с лекцията.
13:55
Do it over lunchобяд.
320
820000
2000
Направете го по време на обяд.
13:57
And don't just find anotherоще technologistтехнолог friendприятел;
321
822000
3000
И нека това не бъде някой ваш колега;
14:00
find somebodyнякой differentразличен than you.
322
825000
2000
намерете някой различен от вас.
14:02
Find an artistхудожник or a writerписател --
323
827000
2000
Намерете човек на изкуството или писател,
14:04
or, heavenрай forbidзабранявам, find a philosopherфилософ and talk to them.
324
829000
3000
или за бога намерете философ и говорете с него.
14:07
In factфакт, find somebodyнякой from the humanitiesхуманитарни науки.
325
832000
2000
Всъщност намерете някой с хуманитарен профил
14:09
Why? Because they think about problemsпроблеми
326
834000
2000
Защо? Защото те разглеждат проблемите
14:11
differentlyразлично than we do as technologistsтехнолози.
327
836000
2000
по различен начин от хората, които се занимават с технологии.
14:13
Just a fewмалцина daysдни agoпреди, right acrossпрез the streetулица from here,
328
838000
3000
Само преди няколко дни, точно от другата страна на улицата
14:16
there was hundredsстотици of people gatheredсъбрана togetherзаедно.
329
841000
2000
се бяха събрали стотици хора.
14:18
It was technologistsтехнолози and humanistsхуманисти
330
843000
2000
Това бяха хора с технически и хуманитарен профил.
14:20
at that bigголям BiblioTechBiblioTech ConferenceКонференция.
331
845000
2000
Бяха се събрали на онази голяма BiblioTech конференция.
14:22
And they gatheredсъбрана togetherзаедно
332
847000
2000
Бяха се събрали, защото
14:24
because the technologistsтехнолози wanted to learnуча
333
849000
2000
хората от техническите специалности искаха да научат
14:26
what it would be like to think from a humanitiesхуманитарни науки perspectiveперспектива.
334
851000
3000
какво значи да мислиш от хуманистична перспектива.
14:29
You have someoneнякой from GoogleGoogle
335
854000
2000
Така хора от Google
14:31
talkingговорим to someoneнякой who does comparativeсравнителна literatureлитература.
336
856000
2000
говореха със специалисти по литература.
14:33
You're thinkingмислене about the relevanceуместност of 17thтата centuryвек FrenchФренски theaterтеатър --
337
858000
3000
Разсъждавате върху значението на френския театър през 17 век -
14:36
how does that bearмечка uponвърху ventureвенчър capitalкапитал?
338
861000
2000
и се питате каква връзка има той с рисковия капитал?
14:38
Well that's interestingинтересен. That's a differentразличен way of thinkingмислене.
339
863000
3000
Добре, това е интересно. Това е различен начин на мислене.
14:41
And when you think in that way,
340
866000
2000
И когато разсъждавате по този начин,
14:43
you becomeда стане more sensitiveчувствителен to the humanчовек considerationsсъображения,
341
868000
3000
вие сте по-чувствителен към хуманитарния начин на мислене,
14:46
whichкойто are crucialрешаващ to makingприготвяне ethicalетичен decisionsрешения.
342
871000
3000
който е есенциален за взимането на етични решения.
14:49
So imagineПредставете си that right now
343
874000
2000
Представете си, че в точно в този момент
14:51
you wentотидох and you foundнамерено your musicianмузикант friendприятел.
344
876000
2000
срещате приятел музикант.
14:53
And you're tellingказвам him what we're talkingговорим about,
345
878000
3000
И му разказвате за какво говорим,
14:56
about our wholeцяло dataданни revolutionреволюция and all this --
346
881000
2000
за цялата техническа революция и всички тези неща,
14:58
maybe even humбучене a fewмалцина barsрешетки of our themeтема musicмузика.
347
883000
2000
може дори да му изтананикате няколко ноти от нашата тематична музика.
15:00
DumDum taTA daга daга dumDum dumDum taTA daга daга dumDum
348
885000
3000
Дръм та да да дъм дъм та да да дъм
15:03
Well, your musicianмузикант friendприятел will stop you and say,
349
888000
2000
И така вашият приятел музикант ще ви спре и ще каже,
15:05
"You know, the themeтема musicмузика
350
890000
2000
" Нали знаеш, че темата на музиката
15:07
for your dataданни revolutionреволюция,
351
892000
2000
на вашата техническа революция
15:09
that's an operaопера, that's WagnerВагнер.
352
894000
2000
е опера, това е Вагнер.
15:11
It's basedбазиран on NorseСкандинавската legendлегенда.
353
896000
2000
И тя е базирана на нордическа ленгенда.
15:13
It's GodsБогове and mythicalмитичния creaturesсъздания
354
898000
2000
Това са Бог и митичните същества
15:15
fightingборба over magicalмагически jewelryбижута."
355
900000
3000
борещи се за магическите скъпоценности."
15:19
That's interestingинтересен.
356
904000
3000
Това е интересно.
15:22
Now it's alsoсъщо a beautifulкрасив operaопера,
357
907000
3000
Освен това е красива опера.
15:25
and we're movedпреместен by that operaопера.
358
910000
3000
И тя ни впечатлява.
15:28
We're movedпреместен because it's about the battleбитка
359
913000
2000
Впечатлява ни, защото е за борбата
15:30
betweenмежду good and evilзло,
360
915000
2000
между доброто и злото,
15:32
about right and wrongпогрешно.
361
917000
2000
между това кое е правилно и кое грешно.
15:34
And we careгрижа about right and wrongпогрешно.
362
919000
2000
А за нас е важно какво е правилно и какво грешно.
15:36
We careгрижа what happensслучва се in that operaопера.
363
921000
3000
Интересува ни какво се случва в операта.
15:39
We careгрижа what happensслучва се in "ApocalypseАпокалипсис Now."
364
924000
3000
Интересува ни какво се случва в "Апокалипсис сега"
15:42
And we certainlyразбира се careгрижа
365
927000
2000
И определено ни засяга
15:44
what happensслучва се with our technologiesтехнологии.
366
929000
2000
какво се случва с нашите технологии.
15:46
We have so much powerмощност todayднес,
367
931000
2000
В нашето съвремие раполагаме с толкова много власт,
15:48
it is up to us to figureфигура out what to do,
368
933000
3000
че е в нашите възможности да решим как да постъпим.
15:51
and that's the good newsНовини.
369
936000
2000
И това е добрата новина.
15:53
We're the onesтакива writingписане this operaопера.
370
938000
3000
Ние сме тези, които пишем тази опера.
15:56
This is our movieфилм.
371
941000
2000
Това е нашият филм.
15:58
We figureфигура out what will happenстава with this technologyтехнология.
372
943000
3000
Ние решаваме какво ще се случи с тази технология.
16:01
We determineопредели how this will all endкрай.
373
946000
3000
Ние решаваме как ще свърши всичко това.
16:04
Thank you.
374
949000
2000
Благодаря ви
16:06
(ApplauseАплодисменти)
375
951000
5000
Аплодисменти.
Translated by Denitza Toteva
Reviewed by Mihail Stoychev

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com