ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

دیمن هورویتز به دنبال «سیستم عامل اخلاق-مدار» است.

Filmed:
795,617 views

در تد×سیلیکون‌ولی، دیمن هورویتز قدرت عظیمی که تکنولوژی امروز به ما می‌دهد را مرور می‌کند: قدرت بیش‌تر دانستن درباره‌ی یکدیگر- بیش‌تر از هر زمان دیگری. او که حضار را به یک بحث فلسفی می‌کشاند از ما دعوت می‌کند دقت تازه‌ای به فلسفه‌ی بنیادین یا اصول اخلاقیِ پشت اختراعاتی که به جهان‌مان شکل تازه‌ای می‌دهند داشته‌باشیم. سیستم عامل اخلاقی که به ما اجازه دهد آن‌ اصول را اعمال کنیم کجاست؟
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
Powerقدرت.
0
0
2000
قدرت.
00:17
That is the wordکلمه that comesمی آید to mindذهن.
1
2000
2000
این کلمهء است به ذهن خطور می‌کنه.
00:19
We're the newجدید technologistsتکنسین ها.
2
4000
2000
ما فن‌آورانِ مدرن هستیم.
00:21
We have a lot of dataداده ها, so we have a lot of powerقدرت.
3
6000
3000
داده‌های زیادی داریم، پس قدرت زیادی داریم.
00:24
How much powerقدرت do we have?
4
9000
2000
ما چه قدر قدرت داریم؟
00:26
Sceneصحنه from a movieفیلم سینما: "Apocalypseآخر الزمان Now" -- great movieفیلم سینما.
5
11000
3000
صحنه‌ای از یک فیلم: «اینک آخرالزمان»-- فیلم فوق‌العاده‌ایه.
00:29
We'veما هستیم got to get our heroقهرمان, Captainکاپیتان Willardویلارد, to the mouthدهان of the Nungنونگ Riverرودخانه
6
14000
3000
باید قهرمان‌مون، کاپیتان هیلارد رو به دهانه‌ی رود نانگ برسونیم
00:32
so he can go pursueدنبال کردن Colonelسرهنگ Kurtzکورتز.
7
17000
2000
تا بتونه کلنل کرتز رو تعقیب کنه.
00:34
The way we're going to do this is flyپرواز him in and dropرها کردن him off.
8
19000
2000
قراره کاپیتان رو از راه هوایی به اون‌جا برسونیم و پایین بندازیمش.
00:36
So the sceneصحنه:
9
21000
2000
صحنه این طوریه:
00:38
the skyآسمان is filledپر شده with this fleetناوگان of helicoptersهلی کوپترها carryingحمل کردن him in.
10
23000
3000
آسمان مملوء از هلیکوپترهایی که او رو حمل می‌کنن.
00:41
And there's this loudبا صدای بلند, thrillingهیجان انگیز musicموسیقی in the backgroundزمینه,
11
26000
2000
و موسیقی بلند و شورانگیزی در پس‌زمینه وجود داره.
00:43
this wildوحشی musicموسیقی.
12
28000
2000
یک موسیقی طوفانی:
00:45
Dumدومی daدا taتو daدا dumدومی
13
30000
2000
♫دام دا تا دا دام♫
00:47
Dumدومی daدا taتو daدا dumدومی
14
32000
2000
♫دام دا تا دا دام♫
00:49
Daدا taتو daدا daدا
15
34000
3000
♫دا تا دا دا♫
00:52
That's a lot of powerقدرت.
16
37000
2000
یک عالم قدرت.
00:54
That's the kindنوع of powerقدرت I feel in this roomاتاق.
17
39000
2000
این همون قدرتیه که من در این سالن احساس می‌کنم.
00:56
That's the kindنوع of powerقدرت we have
18
41000
2000
این قدرتیه که ما داریم
00:58
because of all of the dataداده ها that we have.
19
43000
2000
به خاطر همه‌ی داده‌هایی که داریم.
01:00
Let's take an exampleمثال.
20
45000
2000
بذارید یک مثال بزنم.
01:02
What can we do
21
47000
2000
با اطلاعاتِ تنها یک فرد
01:04
with just one person'sفردی dataداده ها?
22
49000
3000
چه کارهایی می‌تونیم بکنیم؟
01:07
What can we do
23
52000
2000
با اطلاعات اون آقا
01:09
with that guy'sپسر dataداده ها?
24
54000
2000
چه کار می‌تونیم بکنیم؟
01:11
I can look at your financialمالی recordsسوابق.
25
56000
2000
می‌تونم به سوابق مالی‌ت نگاه کنم.
01:13
I can tell if you payپرداخت your billsصورتحساب on time.
26
58000
2000
اون‌وقت می‌فهمم که قبض‌هاتو به موقع پرداخت می‌کنی یا نه.
01:15
I know if you're good to give a loanوام to.
27
60000
2000
می‌فهمم شخص مناسبی برای وام دادن هستی یا نه.
01:17
I can look at your medicalپزشکی recordsسوابق; I can see if your pumpتلمبه is still pumpingپمپاژ --
28
62000
3000
می‌تونم به سوابق پزشکی‌ت نگاه کنم، اون‌وقت می‌فهمم قلبِ‌ت هنوز می‌تپه یا نه--
01:20
see if you're good to offerپیشنهاد insuranceبیمه to.
29
65000
3000
می‌فهمم پیش‌نهاد بیمه به تو دادن کار مناسبیه یا نه.
01:23
I can look at your clickingکلیک کردن patternsالگوها.
30
68000
2000
می‌تونم به الگوی کلیک کردنِ‌ت نگاه کنم.
01:25
When you come to my websiteسایت اینترنتی, I actuallyدر واقع know what you're going to do alreadyقبلا
31
70000
3000
وقتی به وب‌سایتَ‌م میای، می‌دونم که قصدِ چه کاری رو داری،
01:28
because I've seenمشاهده گردید you visitبازدید کنید millionsمیلیون ها نفر of websitesوب سایت ها before.
32
73000
2000
چون می‌دونم میلیون‌ها وب سایتی که قبلا" سرزدی چه سایت‌هایی بودن.
01:30
And I'm sorry to tell you,
33
75000
2000
و متأسفم که اینو می‌گم،
01:32
you're like a pokerپوکر playerبازیکن, you have a tell.
34
77000
2000
تو مثل یه بازی‌کنِ پوکری.
01:34
I can tell with dataداده ها analysisتحلیل و بررسی what you're going to do
35
79000
2000
من با تحلیل داده‌ها می‌تونم قبل از این که کاری رو انجام بدی،
01:36
before you even do it.
36
81000
2000
پیش‌بینی کنم که می‌خوای انجامش بدی.
01:38
I know what you like. I know who you are,
37
83000
3000
می‌دونم چی دوست داری. می‌دونم کی هستی.
01:41
and that's even before I look at your mailپست الکترونیکی
38
86000
2000
و تازه اینا قبل از دیدن ایمیل‌ها
01:43
or your phoneتلفن.
39
88000
2000
یا تلفنِته.
01:45
Those are the kindsانواع of things we can do
40
90000
2000
این‌ها کارایی هستن که ما می‌تونیم با
01:47
with the dataداده ها that we have.
41
92000
3000
داده‌هایی که داریم انجام بدیم.
01:50
But I'm not actuallyدر واقع here to talk about what we can do.
42
95000
3000
ولی من این‌جا نیومدم که درباره‌ی کارهایی که می‌تونیم انجام بدیم صحبت کنم.
01:56
I'm here to talk about what we should do.
43
101000
3000
اومدم تا درباره‌ی کاری که باید بکنیم صحبت کنیم.
02:00
What's the right thing to do?
44
105000
3000
کارِ درست چیه؟
02:04
Now I see some puzzledگیج شدم looksبه نظر می رسد
45
109000
2000
می‌بینم که نگاه‌هاتون متحیره، انگار دارید می‌گید:
02:06
like, "Why are you askingدرخواست us what's the right thing to do?
46
111000
3000
«چرا از ما می‌پرسی کار درست چیه؟
02:09
We're just buildingساختمان this stuffچیز. Somebodyکسی elseچیز دیگری is usingاستفاده كردن it."
47
114000
3000
ما صرفا" سیستم رو می‌سازیم، یه نفر دیگه داره ازش استفاده می‌کنه.»
02:12
Fairنمایشگاه enoughکافی.
48
117000
3000
منطقیه.
02:15
But it bringsبه ارمغان می آورد me back.
49
120000
2000
ولی این منو برمی‌گردونه به گذشته.
02:17
I think about Worldجهان Warجنگ IIدوم --
50
122000
2000
به جنگ جهانی دوم فکر می‌کنم.
02:19
some of our great technologistsتکنسین ها then,
51
124000
2000
بعضی از فن‌آوران ما در اون زمان،
02:21
some of our great physicistsفیزیکدانان,
52
126000
2000
بعضی از فیزیکدان‌هامون،
02:23
studyingدر حال مطالعه nuclearاتمی fissionتقسیم and fusionهمجوشی --
53
128000
2000
که درباره‌ء شکافت و همجوشی هسته‌ای مطالعه می‌کردند --
02:25
just nuclearاتمی stuffچیز.
54
130000
2000
همون مسائل هسته‌ای.
02:27
We gatherجمع آوری togetherبا یکدیگر these physicistsفیزیکدانان in Losلوس Alamosآلاموس
55
132000
3000
ما این فیزیکدان‌ها رو در لوس آلاموس دور هم جمع می‌کنیم
02:30
to see what they'llآنها خواهند شد buildساختن.
56
135000
3000
تا ببینیم چه چیزی خواهند ساخت.
02:33
We want the people buildingساختمان the technologyتکنولوژی
57
138000
3000
ما از سازنده‌گان تکنولوژی انتظار داریم
02:36
thinkingفكر كردن about what we should be doing with the technologyتکنولوژی.
58
141000
3000
به این که با این تکنولوژی چه کار باید کرد فکر کنند.
02:41
So what should we be doing with that guy'sپسر dataداده ها?
59
146000
3000
خوب حالا ما با اطلاعات اون شخص چه کار باید بکنیم؟
02:44
Should we be collectingجمع آوری it, gatheringجمع آوری it,
60
149000
3000
باید جمعشون کنیم تا بتونیم
02:47
so we can make his onlineآنلاین experienceتجربه better?
61
152000
2000
تجربه‌ء آنلاینِ او رو بهبود ببخشیم؟
02:49
So we can make moneyپول?
62
154000
2000
تا پول بیش‌تری به دست بیاریم؟
02:51
So we can protectمحافظت ourselvesخودمان
63
156000
2000
تا اگه او خیالاتِ بدی داشت
02:53
if he was up to no good?
64
158000
2000
بهتر بتونیم از خودمون محافظت کنیم؟
02:55
Or should we respectتوجه his privacyحریم خصوصی,
65
160000
3000
یا این که به حریم خصوصی‌ش احترام بذاریم،
02:58
protectمحافظت his dignityکرامت and leaveترک کردن him aloneتنها?
66
163000
3000
شأنِ‌ش رو حفظ کنیم و راحتش بذاریم؟
03:02
Whichکدام one is it?
67
167000
3000
کدومش درسته؟
03:05
How should we figureشکل it out?
68
170000
2000
از کجا بفهمیم؟
03:07
I know: crowdsourcecrowdsource. Let's crowdsourcecrowdsource this.
69
172000
3000
من می‌گم رأی‌گیری کنیم.
03:11
So to get people warmedگرم شد up,
70
176000
3000
اول بذارید برای دستگرمی،
03:14
let's startشروع کن with an easyآسان questionسوال --
71
179000
2000
با یه سوال آسون شروع کنیم--
03:16
something I'm sure everybodyهمه here has an opinionنظر about:
72
181000
3000
یه چیزی که مطمئنم همه یه نظری درباره‌ش دارن:
03:19
iPhoneآی فون versusدر مقابل Androidاندروید.
73
184000
2000
آی-فون در مقابل اندروید.
03:21
Let's do a showنشان بده of handsدست ها -- iPhoneآی فون.
74
186000
3000
دست‌هاتونو بالا ببرید. آی-فون.
03:24
Uh huh.
75
189000
2000
آ-اوه.
03:26
Androidاندروید.
76
191000
3000
اندروید.
03:29
You'dمی خواهی think with a bunchدسته ای of smartهوشمندانه people
77
194000
2000
آدم از افراد باذکاوتی مثل شما انتظار داره
03:31
we wouldn'tنمی خواهم be suchچنین suckersمکنده ها just for the prettyبسیار phonesتلفن ها.
78
196000
2000
ولعِ گوشی‌های صرفا" خوشگل رو نداشته‌باشن!
03:33
(Laughterخنده)
79
198000
2000
(خنده‌ی حضار)
03:35
Nextبعد questionسوال,
80
200000
2000
سوال بعدی،
03:37
a little bitبیت harderسخت تر.
81
202000
2000
یه کم سخت تره.
03:39
Should we be collectingجمع آوری all of that guy'sپسر dataداده ها
82
204000
2000
آیا ما باید همه‌ی داده‌های مربوط به اون شخص رو جمع کنیم
03:41
to make his experiencesتجربیات better
83
206000
2000
تا تجربه‌ش رو بهبود ببخشیم
03:43
and to protectمحافظت ourselvesخودمان in caseمورد he's up to no good?
84
208000
3000
و در صورتی که او خیالاتِ بدی داره از خودمون محافظت کنیم؟
03:46
Or should we leaveترک کردن him aloneتنها?
85
211000
2000
یا باید راحتش بذاریم؟
03:48
Collectجمع کن his dataداده ها.
86
213000
3000
اطلاعاتِ‌ش رو جمع کنیم.
03:53
Leaveترک کردن him aloneتنها.
87
218000
3000
راحتش بذاریم.
03:56
You're safeبی خطر. It's fine.
88
221000
2000
کاری‌تون ندارم! نتایج خوب بود.
03:58
(Laughterخنده)
89
223000
2000
(خنده)
04:00
Okay, last questionسوال --
90
225000
2000
خوب، سوال آخر--
04:02
harderسخت تر questionسوال --
91
227000
2000
سوال سخت‌ تریه.
04:04
when tryingتلاش کن to evaluateارزیابی کنید
92
229000
3000
وقتی می‌خوایم گزینه‌هامونو درباره‌ی سوال قبلی
04:07
what we should do in this caseمورد,
93
232000
3000
ارزیابی کنیم،
04:10
should we use a Kantianکانتی deontologicalدونولوگ moralاخلاقی frameworkچارچوب,
94
235000
4000
آیا باید از چهارچوب اخلاقیِ وظیفه‌گرایانه‌ی کانت استفاده کنیم،
04:14
or should we use a Millianمیلان consequentialistپیگیر one?
95
239000
3000
یا از چهارچوب نتیجه‌گرایانه‌ی میل؟
04:19
Kantکانت.
96
244000
3000
کانت.
04:22
Millکارخانه.
97
247000
3000
میل.
04:25
Not as manyبسیاری votesرای.
98
250000
2000
چندان نظری ندارید.
04:27
(Laughterخنده)
99
252000
3000
(خنده‌ی حضار)
04:30
Yeah, that's a terrifyingوحشتناک resultنتيجه.
100
255000
3000
بله، این نتیجه وحشت‌ناکه.
04:34
Terrifyingوحشتناک, because we have strongerقوی تر opinionsنظرات
101
259000
4000
وحشت‌ناکه، چون دیدگاه‌هامون درباره‌ی
04:38
about our hand-heldدست نگه دار devicesدستگاه ها
102
263000
2000
دست‌گاه‌هامون بیش‌تر شکل گرفته
04:40
than about the moralاخلاقی frameworkچارچوب
103
265000
2000
تا درباره‌ی چهارچوب اخلاقی‌‌ای که
04:42
we should use to guideراهنما our decisionsتصمیمات.
104
267000
2000
تصمی‌گیری‌هامونو هدایت می‌کنه.
04:44
How do we know what to do with all the powerقدرت we have
105
269000
3000
اگه چهارچوب اخلاقی مشخصی نداشته‌باشیم
04:47
if we don't have a moralاخلاقی frameworkچارچوب?
106
272000
3000
از کجا بفهمیم که از قدرتِ‌مون چه طور استفاده کنیم؟
04:50
We know more about mobileسیار operatingعامل systemsسیستم های,
107
275000
3000
ما درباره‌ی سیستم عامل‌های موبایل بیش‌تر می‌دونیم،
04:53
but what we really need is a moralاخلاقی operatingعامل systemسیستم.
108
278000
3000
ولی چیزی که واقعن به‌ش نیاز داریم یک سیستم عامل اخلاق-مداره.
04:58
What's a moralاخلاقی operatingعامل systemسیستم?
109
283000
2000
سیستم عامل اخلاق-مدار چیه؟
05:00
We all know right and wrongاشتباه, right?
110
285000
2000
ما همه خوب و بد رو می‌شناسیم. درست.
05:02
You feel good when you do something right,
111
287000
2000
وقتی کار خوبی می‌کنیم حس خوبی داریم،
05:04
you feel badبد when you do something wrongاشتباه.
112
289000
2000
و وقتی کار بدی می‌کنیم حس بدی داریم.
05:06
Our parentsپدر و مادر teachتدریس کنید us that: praiseستایش with the good, scoldترساندن with the badبد.
113
291000
3000
پدر و مادرهامون این رو به‌مون یاد می‌دن: تحسین به خاطر کار خوب و سرزنش به خاطر کار بد.
05:09
But how do we figureشکل out what's right and wrongاشتباه?
114
294000
3000
ولی از کجا بفهمیم چی خوبه و چی بد؟
05:12
And from day to day, we have the techniquesتکنیک that we use.
115
297000
3000
در زنده‌گی روزمره این تکنیک‌ها رو استفاده می‌کنیم:
05:15
Maybe we just followدنبال کردن our gutروده.
116
300000
3000
گاهی به حسّ‌مون تکیه می‌کنیم.
05:18
Maybe we take a voteرای -- we crowdsourcecrowdsource.
117
303000
3000
گاهی رأی‌گیری می‌کنیم.
05:21
Or maybe we puntپونت --
118
306000
2000
یا شاید به مراجع قانونی
05:23
askپرسیدن the legalقانونی departmentبخش, see what they say.
119
308000
3000
مراجعه کنیم و ببینیم چی می‌گن.
05:26
In other wordsکلمات, it's kindنوع of randomتصادفی,
120
311000
2000
به عبارت دیگه، روش ما برای پیدا کردنِ
05:28
kindنوع of adآگهی hocهک,
121
313000
2000
کاری که باید بکنیم، به نوعی تصادفی
05:30
how we figureشکل out what we should do.
122
315000
3000
یا وابسته به شرایطه.
05:33
And maybe, if we want to be on surerمطمئن تر footingپایه,
123
318000
3000
یا شاید، اگه بخوایم خیالِ‌مون راحت‌تر باشه،
05:36
what we really want is a moralاخلاقی frameworkچارچوب that will help guideراهنما us there,
124
321000
3000
واقعا" به یک چهارچوب اخلاقی نیاز داریم که راهنمایی‌مون کنه،
05:39
that will tell us what kindsانواع of things are right and wrongاشتباه in the first placeمحل,
125
324000
3000
و بهمون بگه که در درجه‌ء اول چه چیزهای درست و غلط هستند،
05:42
and how would we know in a givenداده شده situationوضعیت what to do.
126
327000
4000
و از کجا بفهمیم که در یک وضعیت خاص چی کار کنیم.
05:46
So let's get a moralاخلاقی frameworkچارچوب.
127
331000
2000
پس بیاید یک چهارچوب اخلاقی پیدا کنیم.
05:48
We're numbersشماره people, livingزندگي كردن by numbersشماره.
128
333000
3000
ما آدم‌های عددی هستیم، با اعداد زندگی می‌کنیم.
05:51
How can we use numbersشماره
129
336000
2000
حالا چه طور به عنوان اساس چهارچوب اخلاقی‌مون
05:53
as the basisپایه for a moralاخلاقی frameworkچارچوب?
130
338000
3000
از اعداد استفاده‌ کنیم؟
05:56
I know a guy who did exactlyدقیقا that.
131
341000
3000
من کسی رو می‌شناسم که دقیقا" این کار رو کرد،
05:59
A brilliantدرخشان guy --
132
344000
3000
واقعا" مرد باهوشی بود.
06:02
he's been deadمرده 2,500 yearsسالها.
133
347000
3000
او 2500 ساله که مرده.
06:05
Platoافلاطون, that's right.
134
350000
2000
پلاتو، درسته.
06:07
Rememberیاد آوردن him -- oldقدیمی philosopherفیلسوف?
135
352000
2000
اونو به یاد میارید؟ فیلسوفِ پیر؟
06:09
You were sleepingخوابیدن duringدر حین that classکلاس.
136
354000
3000
سر اون کلاس خوابیده‌بودید.
06:12
And Platoافلاطون, he had a lot of the sameیکسان concernsنگرانی ها that we did.
137
357000
2000
و پلاتو، دغدغه‌هایی داشت که دغدغه‌های ما هم بودند.
06:14
He was worriedنگران about right and wrongاشتباه.
138
359000
2000
او دغدغه‌ی درست و غلط رو داشت.
06:16
He wanted to know what is just.
139
361000
2000
می‌خواست بدونه عدالت چیه.
06:18
But he was worriedنگران that all we seemبه نظر می رسد to be doing
140
363000
2000
اما نگرانی او این بود که به نظر می‌رسه
06:20
is tradingتجارت opinionsنظرات about this.
141
365000
2000
ما داریم نظراتِ مون رو در این زمینه معامله می‌کنیم.
06:22
He saysمی گوید something'sبعضی چیزها just. She saysمی گوید something elseچیز دیگری is just.
142
367000
3000
یه نفر می‌گه این کار عادلانه‌ست، دیگری می‌گه یه کار دیگه عادلانه‌ست.
06:25
It's kindنوع of convincingمتقاعد کننده when he talksگفتگو and when she talksگفتگو too.
143
370000
2000
و هر دوشون به شکل قانع‌کننده‌ای از خودشون دفاع می‌کنن.
06:27
I'm just going back and forthچهارم; I'm not gettingگرفتن anywhereهر جا.
144
372000
2000
من فقط عقب و جلو می‌رم و درجا می‌زنم. به جایی نمی‌رسم.
06:29
I don't want opinionsنظرات; I want knowledgeدانش.
145
374000
3000
من نظرات رو نمی‌خوام، من دانش می‌خوام.
06:32
I want to know the truthحقیقت about justiceعدالت --
146
377000
3000
من می‌خوام حقیقتِ عدالت رو بدونم--
06:35
like we have truthsحقایق in mathریاضی.
147
380000
3000
همون طور که حقایقی در ریاضیات داریم.
06:38
In mathریاضی, we know the objectiveهدف، واقعگرایانه factsحقایق.
148
383000
3000
در ریاضیات، ما واقعیت‌ها رو می‌دونیم.
06:41
Take a numberعدد, any numberعدد -- two.
149
386000
2000
یه عدد در نظر بگیرید، هر عددی-- دو.
06:43
Favoriteمورد علاقه numberعدد. I love that numberعدد.
150
388000
2000
عدد موردعلاقه‌ی من. عاشقِ این عددم.
06:45
There are truthsحقایق about two.
151
390000
2000
حقایقی درباره‌ی دو وجود داره.
06:47
If you've got two of something,
152
392000
2000
اگه دو تا از یک چیز داشته‎‌ باشین،
06:49
you addاضافه کردن two more, you get fourچهار.
153
394000
2000
اگه دو تا دیگه بهش اضافه کنید، چهارتا می‌شه.
06:51
That's trueدرست است no matterموضوع what thing you're talkingصحبت کردن about.
154
396000
2000
این حقیقته و ربطی به چیزی که داری درباره اس می گویی ندارد.
06:53
It's an objectiveهدف، واقعگرایانه truthحقیقت about the formفرم of two,
155
398000
2000
این یک حقیقت درباره‌ی دو است.
06:55
the abstractچکیده formفرم.
156
400000
2000
شکل کلیِ دو.
06:57
When you have two of anything -- two eyesچشم ها, two earsگوش ها, two nosesبینی ها,
157
402000
2000
وقتی شما دوتا از هرچیزی دارید-- دو چشم، دو گوش، دو بینی،
06:59
just two protrusionsپیشانی ها --
158
404000
2000
دو تا برآمده‌گی--
07:01
those all partakeبخور of the formفرم of two.
159
406000
3000
این‌ها همه در شکل دهی به دو شرکت دارند.
07:04
They all participateشرکت کردن in the truthsحقایق that two has.
160
409000
4000
همه در حقیقتِ دو شرکت دارند.
07:08
They all have two-nessدو نفره in them.
161
413000
2000
همه‌ی این‌ها، «دو بودن» رو در خودشون دارند.
07:10
And thereforeاز این رو, it's not a matterموضوع of opinionنظر.
162
415000
3000
بنابراین، این ربطی به نظرات نداره.
07:13
What if, Platoافلاطون thought,
163
418000
2000
پلاتو فکر کرد، چی‌ می‌شه اگه
07:15
ethicsاخلاق was like mathریاضی?
164
420000
2000
اخلاق هم همین طور باشه؟
07:17
What if there were a pureخالص formفرم of justiceعدالت?
165
422000
3000
چی می‌شه اگه یک شکل مطلق از عدالت وجود داشته‌باشه؟
07:20
What if there are truthsحقایق about justiceعدالت,
166
425000
2000
شاید حقایقی درباره‌ی عدالت وجود دارند،
07:22
and you could just look around in this worldجهان
167
427000
2000
و ما می‌تونیم به اطرافِ‎ مون نگاه کنیم و
07:24
and see whichکه things participatedشرکت کرد,
168
429000
2000
بفهمیم چه چیزهایی در این حقایق شرکت دارند،
07:26
partookتقسیم کرد of that formفرم of justiceعدالت?
169
431000
3000
و به اون‌ها شکل می‌دهند؟
07:29
Then you would know what was really just and what wasn'tنبود.
170
434000
3000
این طوری می‌فهمیدیم که واقعا" چی عادلانه‌ ست و چی نیست.
07:32
It wouldn'tنمی خواهم be a matterموضوع
171
437000
2000
اون وقت دیگه ربطی به نظرات یا
07:34
of just opinionنظر or just appearancesظاهری.
172
439000
3000
ظواهر امور نداشت.
07:37
That's a stunningخیره کننده visionچشم انداز.
173
442000
2000
دیدگاه شگفت‌انگیزیه.
07:39
I mean, think about that. How grandبزرگ. How ambitiousبلند پروازانه.
174
444000
3000
منظورم اینه که، بهش فکر کنید. چه قدر بزرگ. چه قدر بلندپروازانه.
07:42
That's as ambitiousبلند پروازانه as we are.
175
447000
2000
بلندپرواز، مثل ما.
07:44
He wants to solveحل ethicsاخلاق.
176
449000
2000
او می‌خواد راه حلی برای اخلاق پیدا کنه.
07:46
He wants objectiveهدف، واقعگرایانه truthsحقایق.
177
451000
2000
به دنبال حقائق مطلقه.
07:48
If you think that way,
178
453000
3000
اگر این طوری فکر کنیم،
07:51
you have a PlatonistPlatonist moralاخلاقی frameworkچارچوب.
179
456000
3000
یک چهارچوبِ اخلاقیِ پلاتویی داریم.
07:54
If you don't think that way,
180
459000
2000
اگر این طوری فکر نکنیم،
07:56
well, you have a lot of companyشرکت in the historyتاریخ of Westernغربی philosophyفلسفه,
181
461000
2000
خوب، در این صورت در فلسفه‌ی غرب خیلی ها با ما موافق هستند.
07:58
because the tidyمرتب ideaاندیشه, you know, people criticizedانتقاد شدید it.
182
463000
3000
چون این ایده خیلی تروتمیزه-- دیگران ازش انتقاد کردند.
08:01
Aristotleارسطو, in particularخاص, he was not amusedسرگرم کننده.
183
466000
3000
مخصوصا" ارسطو اصلا" از این ایده خوشش نیومد.
08:04
He thought it was impracticalغیر عملی است.
184
469000
3000
چون فکر می‌کرد عملی نیست.
08:07
Aristotleارسطو said, "We should seekبه دنبال only so much precisionدقت in eachهر یک subjectموضوع
185
472000
4000
ارسطو می‎گفت «در هر موضوع، ما تنها به اندازه‌ای دقت دست می‌یابیم
08:11
as that subjectموضوع allowsاجازه می دهد."
186
476000
2000
که خودِ موضوع بهمون اجازه می‌ده».
08:13
Aristotleارسطو thought ethicsاخلاق wasn'tنبود a lot like mathریاضی.
187
478000
3000
ارسطو فکر نمی‌کرد شباهت زیادی بین اخلاق و ریاضیات وجود داره.
08:16
He thought ethicsاخلاق was a matterموضوع of makingساخت decisionsتصمیمات in the here-and-nowاینجا و الان
188
481000
3000
او فکر می‌کرد موضوعِ اخلاق، تصمیم‌گیری در شرایط فعلی
08:19
usingاستفاده كردن our bestبهترین judgmentداوری
189
484000
2000
با استفاده از بهترین داوری
08:21
to find the right pathمسیر.
190
486000
2000
برای پیدا کردنِ راه درسته.
08:23
If you think that, Plato'sافلاطون not your guy.
191
488000
2000
اگر شما این طور فکر می‌کنید، پلاتو طرفِ شما نیست.
08:25
But don't give up.
192
490000
2000
اما هنوز تموم نشده.
08:27
Maybe there's anotherیکی دیگر way
193
492000
2000
شاید راه دیگه‌ای وجود داره
08:29
that we can use numbersشماره as the basisپایه of our moralاخلاقی frameworkچارچوب.
194
494000
3000
که بتونیم اعداد رو مبنای چهارچوب اخلاقی‌مون قرار بدیم.
08:33
How about this:
195
498000
2000
این یکی چه طوره:
08:35
What if in any situationوضعیت you could just calculateمحاسبه,
196
500000
3000
شاید بتونیم توی هر وضعیتی حساب و کتاب کنیم،
08:38
look at the choicesگزینه های,
197
503000
2000
به گزینه‌هامون نگاه کنیم،
08:40
measureاندازه گرفتن out whichکه one'sیک نفر better and know what to do?
198
505000
3000
بسنجیم که کدوم بهتره و بفهمیم که چی کار بکنیم.
08:43
That soundصدا familiarآشنا?
199
508000
2000
آشنا به نظرتون میاد؟
08:45
That's a utilitarianسودآور moralاخلاقی frameworkچارچوب.
200
510000
3000
این یک چهارچوب سودگرایانه‌ست.
08:48
Johnجان Stuartاستوارت Millکارخانه was a great advocateمدافع of this --
201
513000
2000
جان استوارت میل طرفدار بزرگِ این چهارچوب بود--
08:50
niceخوب guy besidesعلاوه بر این --
202
515000
2000
مرد خوبی هم بود--
08:52
and only been deadمرده 200 yearsسالها.
203
517000
2000
و فقط 200 ساله که مُرده.
08:54
So basisپایه of utilitarianismسودآور بودن --
204
519000
2000
پس اساسِ سودگرایی--
08:56
I'm sure you're familiarآشنا at leastکمترین.
205
521000
2000
مطمئنم که یه چیزهایی درباره‌ش شنیدید.
08:58
The threeسه people who votedرای دادم for Millکارخانه before are familiarآشنا with this.
206
523000
2000
اون سه نفری که به میل رأی دادند حتما" می‌دونند که
09:00
But here'sاینجاست the way it worksآثار.
207
525000
2000
این چهارچوب این طوریه:
09:02
What if moralsاخلاق, what if what makesباعث می شود something moralاخلاقی
208
527000
3000
یک کار اخلاقیه اگر
09:05
is just a matterموضوع of if it maximizesبه حداکثر می رسد pleasureلذت
209
530000
2000
لذت رو به حداکثر برسونه،
09:07
and minimizesبه حداقل می رساند painدرد?
210
532000
2000
و رنج رو به حداقل.
09:09
It does something intrinsicذاتی to the actعمل کن.
211
534000
3000
به ذات اون کار بستگی داره.
09:12
It's not like its relationرابطه to some abstractچکیده formفرم.
212
537000
2000
نه به ارتباطش با یک مطلقِ خارجی.
09:14
It's just a matterموضوع of the consequencesعواقب.
213
539000
2000
فقط به عواقب اون کار بستگی داره.
09:16
You just look at the consequencesعواقب
214
541000
2000
فقط به عواقب توجه می‌کنی
09:18
and see if, overallبه طور کلی, it's for the good or for the worseبدتر.
215
543000
2000
و تصمیم می‌گیری که جمعا" به نفعه یا به ضرر.
09:20
That would be simpleساده. Then we know what to do.
216
545000
2000
ساده‌ست. این طوری می‌فهمیم که چی کار کنیم.
09:22
Let's take an exampleمثال.
217
547000
2000
بیاید به یه مثال بپردازیم.
09:24
Supposeفرض کنید I go up
218
549000
2000
فرض کنید که من بگم
09:26
and I say, "I'm going to take your phoneتلفن."
219
551000
2000
«می‌خوام تلفن شما رو بگیرم».
09:28
Not just because it rangزنگ زد earlierقبلا,
220
553000
2000
نه به خاطر این که زنگ زد،
09:30
but I'm going to take it because I madeساخته شده a little calculationمحاسبه.
221
555000
3000
بلکه چون من کمی حساب و کتاب کردم.
09:33
I thought, that guy looksبه نظر می رسد suspiciousمشکوک.
222
558000
3000
فکر کردم که این آقا مشکوک به نظر می‌رسه.
09:36
And what if he's been sendingدر حال ارسال little messagesپیام ها to Binبن Laden'sلادن hideoutمخفی کردن --
223
561000
3000
شاید داشته به بن لادن پیغام می‌داده--
09:39
or whoeverهر کس tookگرفت over after Binبن Ladenلادن --
224
564000
2000
یا به هر کسی که بعد از بن لادن کارها رو دست گرفته--
09:41
and he's actuallyدر واقع like a terroristتروریست, a sleeperخواب cellسلول.
225
566000
3000
و در واقع این آقا تروریست به نظر میاد.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
من باید مطمئن بشم. و اگر حدس من درست باشه،
09:47
I'm going to preventجلوگیری کردن a hugeبزرگ amountمیزان of damageخسارت that he could causeسبب می شود.
227
572000
3000
جلوی خسارت بزرگی که اون آقا می‌تونست ایجاد کنه گرفته شده.
09:50
That has a very highبالا utilityابزار to preventجلوگیری کردن that damageخسارت.
228
575000
3000
جلوگیری از اون خسارت سود خیلی بزرگیه.
09:53
And comparedمقایسه کرد to the little painدرد that it's going to causeسبب می شود --
229
578000
2000
و در مقایسه با رنج کوچیکی که این کار ایجاد می‌کنه--
09:55
because it's going to be embarrassingشرم آور when I'm looking on his phoneتلفن
230
580000
2000
چون به هر حال خجالت‌آوره که من تلفن اونو نگاه کنم
09:57
and seeingدیدن that he has a FarmvilleFarmville problemمسئله and that wholeکل bitبیت --
231
582000
3000
و بفهمم که با فارم ویل درگیره--
10:00
that's overwhelmedغرق شدن
232
585000
3000
این رنج کوچک، در مقابل سودِ نگاه کردن
10:03
by the valueارزش of looking at the phoneتلفن.
233
588000
2000
به تلفن، اصلن به چشم نمیاد.
10:05
If you feel that way,
234
590000
2000
اگر شما چنین حسی دارید،
10:07
that's a utilitarianسودآور choiceانتخابی.
235
592000
3000
انتخابِ شما سودگرایانه‌ست.
10:10
But maybe you don't feel that way eitherیا.
236
595000
3000
اما شاید چنین حسی نداشته‌باشید.
10:13
Maybe you think, it's his phoneتلفن.
237
598000
2000
شاید فکر کنید اون صاحب تلفنه.
10:15
It's wrongاشتباه to take his phoneتلفن
238
600000
2000
گرفتن تلفنش کار نادرستیه،
10:17
because he's a personفرد
239
602000
2000
چون اون یک انسانه
10:19
and he has rightsحقوق and he has dignityکرامت,
240
604000
2000
و حقوق و حریمی داره،
10:21
and we can't just interfereمداخله کردن with that.
241
606000
2000
و ما نمی‌تونیم این قدر ساده به حریمِ‌ش تجاوز کنیم.
10:23
He has autonomyخودمختاری.
242
608000
2000
اون اختیار خودشو داره.
10:25
It doesn't matterموضوع what the calculationsمحاسبات are.
243
610000
2000
مهم نیست محاسباتِ ما چی می‌گن.
10:27
There are things that are intrinsicallyذاتا wrongاشتباه --
244
612000
3000
بعضی چیزها ذاتن نادرست هستند--
10:30
like lyingدروغ گویی is wrongاشتباه,
245
615000
2000
مثلن دروغ نادرسته،
10:32
like torturingشکنجه innocentبی گناه childrenفرزندان is wrongاشتباه.
246
617000
3000
مثلن شکنجه‌ی کودکان معصوم نادرسته.
10:35
Kantکانت was very good on this pointنقطه,
247
620000
3000
کانت اینجا حرف خوبی می‌زنه.
10:38
and he said it a little better than I'll say it.
248
623000
2000
التبه خودش کمی بهتر از من بیانش کرده.
10:40
He said we should use our reasonدلیل
249
625000
2000
او می‌گه ما باید با استفاده از استدلال
10:42
to figureشکل out the rulesقوانین by whichکه we should guideراهنما our conductهدایت,
250
627000
3000
قوانینی رو بفهمیم که باهاشون رفتارمون رو هدایت کنیم.
10:45
and then it is our dutyوظیفه to followدنبال کردن those rulesقوانین.
251
630000
3000
بعد از اون، وظیفه‌ی ماست که از اون قوانین پیروی کنیم.
10:48
It's not a matterموضوع of calculationمحاسبه.
252
633000
3000
به محاسبات ربطی نداره.
10:51
So let's stop.
253
636000
2000
خوب دیگه کافیه.
10:53
We're right in the thickغلیظ of it, this philosophicalفلسفی thicketجادوگر.
254
638000
3000
حالا ما در قلب جنگلِ فلسفه هستیم.
10:56
And this goesمی رود on for thousandsهزاران نفر of yearsسالها,
255
641000
3000
و این تا هزاران سال ادامه داره،
10:59
because these are hardسخت questionsسوالات,
256
644000
2000
چون این‌ها سوال‌های سختی هستند،
11:01
and I've only got 15 minutesدقایق.
257
646000
2000
و من فقط پانزده دقیقه وقت دارم.
11:03
So let's cutبرش to the chaseتعقیب.
258
648000
2000
بریم سر اصل مطلب.
11:05
How should we be makingساخت our decisionsتصمیمات?
259
650000
4000
چه طور تصمیم‌گیری کنیم؟
11:09
Is it Platoافلاطون, is it Aristotleارسطو, is it Kantکانت, is it Millکارخانه?
260
654000
3000
پلاتو خوبه، یا ارسطو، یا کانت، یا میل؟
11:12
What should we be doing? What's the answerپاسخ?
261
657000
2000
چه کار کنیم؟ پاسخ چیه؟
11:14
What's the formulaفرمول that we can use in any situationوضعیت
262
659000
3000
کدوم فرمول می‌تونه در هر موقعیتی،
11:17
to determineتعیین کنید what we should do,
263
662000
2000
کار درست رو مشخص کنه،
11:19
whetherچه we should use that guy'sپسر dataداده ها or not?
264
664000
2000
و بگه که آیا ما باید از اطلاعات اون شخص استفاده کنیم یا نه؟
11:21
What's the formulaفرمول?
265
666000
3000
اون فرمول چیه؟
11:25
There's not a formulaفرمول.
266
670000
2000
هیچ فرمولی وجود نداره.
11:29
There's not a simpleساده answerپاسخ.
267
674000
2000
پاسخ ساده‌ای به این سوال وجود نداره.
11:31
Ethicsاخلاق is hardسخت.
268
676000
3000
اخلاق سخته.
11:34
Ethicsاخلاق requiresنیاز دارد thinkingفكر كردن.
269
679000
3000
اخلاق مستلزم فکر کردنه.
11:38
And that's uncomfortableناراحت.
270
683000
2000
و ای کار سخته.
11:40
I know; I spentصرف شده a lot of my careerحرفه
271
685000
2000
می‌دونم، بخش عمده‌ی شغل من
11:42
in artificialمصنوعی intelligenceهوش,
272
687000
2000
مربوط به هوش مصنوعیه،
11:44
tryingتلاش کن to buildساختن machinesماشین آلات that could do some of this thinkingفكر كردن for us,
273
689000
3000
در تلاش برای ساختن ماشین‌هایی که بتونن کمی به جای ما فکر کنند،
11:47
that could give us answersپاسخ ها.
274
692000
2000
و بتونن جواب‌هایی به ما بدن.
11:49
But they can't.
275
694000
2000
ولی نمی‌تونن.
11:51
You can't just take humanانسان thinkingفكر كردن
276
696000
2000
نمی‌شه همین طوری تفکر انسان رو برداشت
11:53
and put it into a machineدستگاه.
277
698000
2000
و در یک ماشین قرار داد.
11:55
We're the onesآنهایی که who have to do it.
278
700000
3000
ما خودمون باید این کار رو بکنیم.
11:58
Happilyبا خوشحالی, we're not machinesماشین آلات, and we can do it.
279
703000
3000
خوشبختانه ما ماشین نیستیم و می‌تونیم این کار رو بکنیم.
12:01
Not only can we think,
280
706000
2000
ما نه تنها می‌تونیم فکر کنیم،
12:03
we mustباید.
281
708000
2000
ما باید( فکر کنیم ).
12:05
Hannahهانا Arendtآرنت said,
282
710000
2000
هانا آرنت می‌گه:
12:07
"The sadغمگین truthحقیقت
283
712000
2000
«حقیقتِ تلخ اینه که
12:09
is that mostاکثر evilبد doneانجام شده in this worldجهان
284
714000
2000
بیش‌تر کارهایی بدی که در دنیا انجام می‌شه
12:11
is not doneانجام شده by people
285
716000
2000
به دست آدم‌هایی اتفاق میفته که
12:13
who chooseانتخاب کنید to be evilبد.
286
718000
2000
قصدِ بدی ندارند.
12:15
It arisesناشی می شود from not thinkingفكر كردن."
287
720000
3000
و این نتیجه‌ی فکر نکردنه.»
12:18
That's what she calledبه نام the "banalityظلم و ستم of evilبد."
288
723000
4000
اون اسم این رو «پیش‌پاافتاده‌گیِ بدی» می‌ذاره.
12:22
And the responseواکنش to that
289
727000
2000
و پاسخش اینه که
12:24
is that we demandتقاضا the exerciseورزش of thinkingفكر كردن
290
729000
2000
از هر انسانِ باشعوری انتظار فکر کردن
12:26
from everyهرکدام saneعاقلانه personفرد.
291
731000
3000
داشته‌باشیم.
12:29
So let's do that. Let's think.
292
734000
2000
خوب بیاید این کارو بکنیم. بیاید فکر کنیم.
12:31
In factواقعیت, let's startشروع کن right now.
293
736000
3000
بیاید همین الان شروع کنیم.
12:34
Everyهرکدام personفرد in this roomاتاق do this:
294
739000
3000
همه‌ی حضار این کار رو بکنند:
12:37
think of the last time you had a decisionتصمیم گیری to make
295
742000
3000
به آخرین باری که می‌خواستید تصمیم‌گیری کنید فکر کنید
12:40
where you were worriedنگران to do the right thing,
296
745000
2000
آخرین باری که دغدغه‌ی انجام کار درست رو داشتید،
12:42
where you wonderedشگفت زده, "What should I be doing?"
297
747000
2000
و از خودتون پرسیدید که «چی کار باید بکنم؟»
12:44
Bringآوردن that to mindذهن,
298
749000
2000
اون موقعیت رو به یاد بیارید.
12:46
and now reflectمنعکس کننده on that
299
751000
2000
و حالا بهش فکر کنید.
12:48
and say, "How did I come up that decisionتصمیم گیری?
300
753000
3000
از خودتون بپرسید: «چه طور اون تصمیم رو گرفتم؟
12:51
What did I do? Did I followدنبال کردن my gutروده?
301
756000
3000
چی کار کردم؟ از حسَّ‌م پیروی کردم؟
12:54
Did I have somebodyکسی voteرای on it? Or did I puntپونت to legalقانونی?"
302
759000
2000
رأی‌گیری کردم؟ یا به قانون مراجعه کردم؟»
12:56
Or now we have a fewتعداد کمی more choicesگزینه های.
303
761000
3000
البته حالا چندتا گزینه‌ی دیگه هم داریم.
12:59
"Did I evaluateارزیابی کنید what would be the highestبالاترین pleasureلذت
304
764000
2000
«آیا محاسبه کردم تا ببینم کدوم کار بیشترین لذت رو داره
13:01
like Millکارخانه would?
305
766000
2000
مثل کاری که میل کرد؟
13:03
Or like Kantکانت, did I use reasonدلیل to figureشکل out what was intrinsicallyذاتا right?"
306
768000
3000
یا مثل کانت، استدلال کردم تا بفهمم چه کاری ذاتن درسته؟»
13:06
Think about it. Really bringآوردن it to mindذهن. This is importantمهم.
307
771000
3000
بهش فکر کنید. سعی کنید به یادش بیارید. مهمه.
13:09
It is so importantمهم
308
774000
2000
اون قدر مهمه که
13:11
we are going to spendخرج کردن 30 secondsثانیه of valuableبا ارزش TEDTalkTEDTalk time
309
776000
2000
می‌خوایم 30 ثانیه از وقت ارزشمند تد تاک رو
13:13
doing nothing but thinkingفكر كردن about this.
310
778000
2000
فقط به این فکر کنیم.
13:15
Are you readyآماده? Go.
311
780000
2000
آماده‌اید؟ شروع کنید.
13:33
Stop. Good work.
312
798000
3000
کافیه. خسته نباشید.
13:36
What you just did,
313
801000
2000
کاری که الان شما کردید،
13:38
that's the first stepگام towardsبه سمت takingگرفتن responsibilityمسئوليت
314
803000
2000
اولین قدمه برای پذیرفتنِ مسئولیتِ
13:40
for what we should do with all of our powerقدرت.
315
805000
3000
کاری که می‌تونیم با این همه قدرتِ‌مون انجام بدیم.
13:45
Now the nextبعد stepگام -- try this.
316
810000
3000
حالا قدمِ بعدی-- اینو امتحان کنید.
13:49
Go find a friendدوست and explainتوضیح to them
317
814000
2000
برای یکی از دوست‌هاتون توضیح بدید
13:51
how you madeساخته شده that decisionتصمیم گیری.
318
816000
2000
که چه طور اون تصمیم رو گرفتید.
13:53
Not right now. Wait tillتا I finishپایان دادن talkingصحبت کردن.
319
818000
2000
الان نه. صبر کنید حرف‌های من تموم شه.
13:55
Do it over lunchناهار.
320
820000
2000
موقع ناهار این کار رو بکنید.
13:57
And don't just find anotherیکی دیگر technologistتکنسین friendدوست;
321
822000
3000
دوستی که برای این کار انتخاب می‌کنید، مثل خودتون فنّی نباشه.
14:00
find somebodyکسی differentناهمسان than you.
322
825000
2000
کسی رو انتخاب کنید که با شما فرق داشته‌باشه.
14:02
Find an artistهنرمند or a writerنویسنده --
323
827000
2000
یه هنرمند یا نویسنده--
14:04
or, heavenبهشت forbidممنوع, find a philosopherفیلسوف and talk to them.
324
829000
3000
یا، خدای ناکرده، یه فیلسوف بهتره.
14:07
In factواقعیت, find somebodyکسی from the humanitiesعلوم انسانی.
325
832000
2000
در واقع، سعی کنید رشته‌ش علوم انسانی باشه.
14:09
Why? Because they think about problemsمشکلات
326
834000
2000
چرا؟ چون اون‌ها نگاه‌شون به مسائل
14:11
differentlyمتفاوت است than we do as technologistsتکنسین ها.
327
836000
2000
با نگاهِ ما فنّی‌ها فرق داره.
14:13
Just a fewتعداد کمی daysروزها agoپیش, right acrossدر سراسر the streetخیابان from here,
328
838000
3000
همین چند روز پیش، دقیقا" اون طرف خیابون،
14:16
there was hundredsصدها of people gatheredجمع شد togetherبا یکدیگر.
329
841000
2000
صدها نفر تجمع کرده‌بودند.
14:18
It was technologistsتکنسین ها and humanistsانسان شناسان
330
843000
2000
فنی‌ها و علوم انسانی‌ها برای
14:20
at that bigبزرگ BiblioTechBiblioTech Conferenceکنفرانس.
331
845000
2000
کنفرانس بیبلیوتک اومده‌ بودند.
14:22
And they gatheredجمع شد togetherبا یکدیگر
332
847000
2000
اونا دور هم جمع شده‌بودند
14:24
because the technologistsتکنسین ها wanted to learnیاد گرفتن
333
849000
2000
چون فنی‌ها می‌خواستند بدونند
14:26
what it would be like to think from a humanitiesعلوم انسانی perspectiveچشم انداز.
334
851000
3000
فکر کردن از چشم‌انداز به علوم انسانی چه طوریه.
14:29
You have someoneکسی from Googleگوگل
335
854000
2000
فرض کنید یک نفر از گوگل
14:31
talkingصحبت کردن to someoneکسی who does comparativeمقایسه ای literatureادبیات.
336
856000
2000
با یک نفر در رشته‌ی ادبیات قیاسی صحبت می‌کنه.
14:33
You're thinkingفكر كردن about the relevanceارتباط of 17thth centuryقرن Frenchفرانسوی theaterتئاتر --
337
858000
3000
حتما" دارید فکر می‌کنید که تئاتر قرن ۱۷ فرانسه
14:36
how does that bearخرس uponبر ventureسرمایه گذاری capitalسرمایه، پایتخت?
338
861000
2000
چه ربطی به سرمایه‌گذاری داره؟
14:38
Well that's interestingجالب هست. That's a differentناهمسان way of thinkingفكر كردن.
339
863000
3000
این طوری جالب می‌شه. این یک طرز تفکرِ متفاوته.
14:41
And when you think in that way,
340
866000
2000
و وقتی این طوری فکر کنید،
14:43
you becomeتبدیل شدن به more sensitiveحساس to the humanانسان considerationsملاحظات,
341
868000
3000
نسبت به ملاحظات انسانی که در تصمیم‌گیری‌های اخلاقی
14:46
whichکه are crucialحیاتی to makingساخت ethicalاخلاقی decisionsتصمیمات.
342
871000
3000
نقش مهمی دارند، حساس‌تر می‌شید.
14:49
So imagineتصور کن that right now
343
874000
2000
همین حالا تصور کنید
14:51
you wentرفتی and you foundپیدا شد your musicianنوازنده friendدوست.
344
876000
2000
که پیش دوستِ موسیقی‌دانتون می‌رید.
14:53
And you're tellingگفتن him what we're talkingصحبت کردن about,
345
878000
3000
و این حرف‌ها رو براش توضیح می‌دید،
14:56
about our wholeکل dataداده ها revolutionانقلاب and all this --
346
881000
2000
انقلاب اطلاعات و بقیه‌ی چیزها--
14:58
maybe even humهوم a fewتعداد کمی barsکافه ها of our themeموضوع musicموسیقی.
347
883000
2000
و شاید کمی هم موسیقی متنمون رو براش بزنید.
15:00
Dumدومی taتو daدا daدا dumدومی dumدومی taتو daدا daدا dumدومی
348
885000
3000
♫ دام تا دا دا دام دام تا دا دا دام ♫
15:03
Well, your musicianنوازنده friendدوست will stop you and say,
349
888000
2000
دوست موسیقی‌دانتون می‌پره وسط آهنگ و می‌گه
15:05
"You know, the themeموضوع musicموسیقی
350
890000
2000
«می‌دونی؟ موسیقی متن
15:07
for your dataداده ها revolutionانقلاب,
351
892000
2000
برای انقلاب اطلاعاتی شما،
15:09
that's an operaاپرا, that's Wagnerواگنر.
352
894000
2000
یه اپراست. ونگره.
15:11
It's basedمستقر on Norseنورس legendافسانه.
353
896000
2000
اساسش افسانه‌ی نورسه.
15:13
It's Godsخدایان and mythicalافسانه ای creaturesموجودات
354
898000
2000
به الهه‌ها و موجودات اسطوره‌ای می‌خوره
15:15
fightingدعوا کردن over magicalجادویی jewelryجواهر سازی."
355
900000
3000
که برای جوهرات جادویی با هم می‌جنگن»
15:19
That's interestingجالب هست.
356
904000
3000
جالبه.
15:22
Now it's alsoهمچنین a beautifulخوشگل operaاپرا,
357
907000
3000
حالا قضیه به یه اپرای زیبا هم تبدیل شد.
15:25
and we're movedنقل مکان کرد by that operaاپرا.
358
910000
3000
و ما با این اپرا انگیزه می‌گیریم.
15:28
We're movedنقل مکان کرد because it's about the battleنبرد
359
913000
2000
انگیزه می‌گیریم،‌ چون داستان،
15:30
betweenبین good and evilبد,
360
915000
2000
داستانِ جنگ بین خوبی و بدی
15:32
about right and wrongاشتباه.
361
917000
2000
و درست و غلطه.
15:34
And we careاهميت دادن about right and wrongاشتباه.
362
919000
2000
و ما به درست و غلط اهمیت می‌دیم.
15:36
We careاهميت دادن what happensاتفاق می افتد in that operaاپرا.
363
921000
3000
برامون مهمه که در اون اپرا چه اتفاقی می‌افته.
15:39
We careاهميت دادن what happensاتفاق می افتد in "Apocalypseآخر الزمان Now."
364
924000
3000
برامون مهمه که در «اینک آخرالزمان» چه اتفاقی می‌افته.
15:42
And we certainlyقطعا careاهميت دادن
365
927000
2000
و مخصوصن برامون مهمه که
15:44
what happensاتفاق می افتد with our technologiesفن آوری ها.
366
929000
2000
در فناوری‌مون چه اتفاقی می‌افته.
15:46
We have so much powerقدرت todayامروز,
367
931000
2000
ما امروز خیلی قدرتمندیم.
15:48
it is up to us to figureشکل out what to do,
368
933000
3000
تصمیم با خودمونه که چی کار کنیم.
15:51
and that's the good newsاخبار.
369
936000
2000
و این خبر خوبیه.
15:53
We're the onesآنهایی که writingنوشتن this operaاپرا.
370
938000
3000
ما این اپرا رو می‌نویسیم.
15:56
This is our movieفیلم سینما.
371
941000
2000
این فیلمِ ماست.
15:58
We figureشکل out what will happenبه وقوع پیوستن with this technologyتکنولوژی.
372
943000
3000
ما تعیین می‌کنیم که برای این فناوری چه اتفاقی می‌افته.
16:01
We determineتعیین کنید how this will all endپایان.
373
946000
3000
ما تعیین می‌کنیم که آخر قصه چی می‌شه.
16:04
Thank you.
374
949000
2000
متشکرم.
16:06
(Applauseتشویق و تمجید)
375
951000
5000
(تشویق حضار)
Translated by Safoora Yousefi
Reviewed by soheila Jafari

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com