ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

دامو هوروتز: نحن بحاجة لنظام تشغيل أخلاقي

Filmed:
795,617 views

في مؤتمر تيدأكس وادي السيليكون TEDxSiliconValley، دامو هوروتز يستعرض الإمكانات الهائلة التي تتيحها لنا التكنولوجيا: لمعرفة الكثير -- والكثير عن بعضنا البعض -- بشكلٍ غير مسبوق. ويشارك الجمهور في نقاش فلسفي ، هوروتز يدعونا للنظر في الفلسفة الأساسية -- مبادئ الأخلاق -- والتي كانت وراء الإختراعات التي أعادت تشكيل عالمنا. فأين نظام التشغيل الأخلاقي الذي يجعل لعالمنا معنىً ؟
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
Powerقوة.
0
0
2000
القدرة.
00:17
That is the wordكلمة that comesيأتي to mindعقل.
1
2000
2000
تلك الكلمة التي تتبادر إلى الأذهان.
00:19
We're the newالجديد technologistsالتكنولوجيين.
2
4000
2000
نحن المطورون الجدد.
00:21
We have a lot of dataالبيانات, so we have a lot of powerقوة.
3
6000
3000
إننا نملك الكثير من البيانات ، لذا فلدينا الكثير من القوة والسلطة.
00:24
How much powerقوة do we have?
4
9000
2000
ما حجم السلطة التي نمتلكها ؟
00:26
Sceneمشهد from a movieفيلم: "Apocalypseنهاية العالم Now" -- great movieفيلم.
5
11000
3000
مشهد من فلم : "Apocalypse Now" -- فلمٌ رائع.
00:29
We'veقمنا got to get our heroبطل, Captainقائد المنتخب Willardويلارد, to the mouthفم of the Nungنانج Riverنهر
6
14000
3000
علينا أن نُوصل بطلنا ، الكابتن ويلارد، إلى مصب نهر ننغ
00:32
so he can go pursueلاحق Colonelكولونيل Kurtzكورتز.
7
17000
2000
حتى يستطيع من مطاردة الكولونيل كورتز.
00:34
The way we're going to do this is flyيطير him in and dropقطرة him off.
8
19000
2000
والطريقة التي سنفعل بها ذلك هي من خلال الطيران به و إسقاطه بالمظلة.
00:36
So the sceneمشهد:
9
21000
2000
لذا فالمشهد:
00:38
the skyسماء is filledمعبأ with this fleetسريع of helicoptersطائرات هليكوبتر carryingحمل him in.
10
23000
3000
السماء ممتلئة بأسطول من الطائرات المروحية التي تحمله.
00:41
And there's this loudبصوت عال, thrillingمثير musicموسيقى in the backgroundخلفية,
11
26000
2000
وهناك تلك الأصوات المرتفعة ، وموسيقى الإثارة الخلفية ،
00:43
this wildبري musicموسيقى.
12
28000
2000
كل تلك الموسيقى الصاخبة.
00:45
Dumدوم daدا taتا daدا dumدوم
13
30000
2000
♫ دوم دا تا دا دوم ♫
00:47
Dumدوم daدا taتا daدا dumدوم
14
32000
2000
♫ دوم دا تا دا دوم ♫
00:49
Daدا taتا daدا daدا
15
34000
3000
♫ دا تا دا دا ♫
00:52
That's a lot of powerقوة.
16
37000
2000
هناك الكثير من القوة.
00:54
That's the kindطيب القلب of powerقوة I feel in this roomمجال.
17
39000
2000
تلك هي القوة التي أشعر بها في هذه القاعة.
00:56
That's the kindطيب القلب of powerقوة we have
18
41000
2000
تلك هي القوة التي نمتلكها
00:58
because of all of the dataالبيانات that we have.
19
43000
2000
بسبب كل ما نملكه من بيانات.
01:00
Let's take an exampleمثال.
20
45000
2000
لنأخذ مثالاً.
01:02
What can we do
21
47000
2000
ما الذي يمكننا فعله
01:04
with just one person'sالشخص dataالبيانات?
22
49000
3000
ببيانات شخصٍ واحدٍ فقط ؟
01:07
What can we do
23
52000
2000
ما الذي يمكننا فعله
01:09
with that guy'sرفاق dataالبيانات?
24
54000
2000
ببيانات ذلك الشخص ؟
01:11
I can look at your financialالأمور المالية recordsتسجيل.
25
56000
2000
بإمكاني النظر إلى بياناته المالية.
01:13
I can tell if you payدفع your billsفواتير on time.
26
58000
2000
وأستطيع معرفة ما إذا كنت تسدد فواتيرك في موعدها.
01:15
I know if you're good to give a loanقرض to.
27
60000
2000
وأعرف ما إذا كنت مؤهلاً لقرض.
01:17
I can look at your medicalطبي recordsتسجيل; I can see if your pumpمضخة is still pumpingضخ --
28
62000
3000
أستطيع النظر إلى بياناتك الصحية ، وأستطيع معرفة ما إذا كان قلبك يخفق --
01:20
see if you're good to offerعرض insuranceتأمين to.
29
65000
3000
وأن أعرف ما إذا كنت مؤهلاً لتأمينٍ طبي.
01:23
I can look at your clickingالنقر patternsأنماط - رسم.
30
68000
2000
أستطيع النظر إلى نمط إختيارك المواقع.
01:25
When you come to my websiteموقع الكتروني, I actuallyفعلا know what you're going to do alreadyسابقا
31
70000
3000
وعندما تأتي إلى موقعي الإلكتروني ، أعرف بالضبط ما ستفعله مسبقاً ،
01:28
because I've seenرأيت you visitيزور millionsملايين of websitesالمواقع before.
32
73000
2000
لأنني راقبت زياراتك للملايين من المواقع من قبل.
01:30
And I'm sorry to tell you,
33
75000
2000
ويؤسفني أن أقول لك ،
01:32
you're like a pokerلعبة البوكر playerلاعب, you have a tell.
34
77000
2000
أنك مثل لاعب بوكر ، هناك دلالات على ذلك.
01:34
I can tell with dataالبيانات analysisتحليل what you're going to do
35
79000
2000
أستطيع التنبؤ بما ستفعله بتحليل البيانات
01:36
before you even do it.
36
81000
2000
حتى قبل أن تفعل ذلك.
01:38
I know what you like. I know who you are,
37
83000
3000
أعرف ما تحبه ، أعرف من أنت.
01:41
and that's even before I look at your mailبريد
38
86000
2000
وكل ذلك حتى قبل أن أنظر إلى بريدك
01:43
or your phoneهاتف.
39
88000
2000
أو حتى إلى جوالك.
01:45
Those are the kindsأنواع of things we can do
40
90000
2000
تلك هي الأشياء التي نستطيع عملها
01:47
with the dataالبيانات that we have.
41
92000
3000
بالبيانات التي نملكها.
01:50
But I'm not actuallyفعلا here to talk about what we can do.
42
95000
3000
ولكنني لست هنا اليوم للحديث عما نستطيع فعله.
01:56
I'm here to talk about what we should do.
43
101000
3000
إنني هنا اليوم للحديث عما يجب أن نفعله.
02:00
What's the right thing to do?
44
105000
3000
ماهو الشيء الصواب الذي يجب أن نفعله ؟
02:04
Now I see some puzzledمتحير looksتبدو
45
109000
2000
والاّن أرى القليل من النظرات الحائرة
02:06
like, "Why are you askingيسأل us what's the right thing to do?
46
111000
3000
مثل ، "لماذ تسألنا ماهو الصواب الذي يجب أن نفعله؟
02:09
We're just buildingبناء this stuffأمور. Somebodyشخص ما elseآخر is usingاستخدام it."
47
114000
3000
إننا فقط نصمم تلك الأشياء. والاّخرون يستخدمونها."
02:12
Fairمعرض enoughكافية.
48
117000
3000
هذا صحيح.
02:15
But it bringsتجمع me back.
49
120000
2000
ولكن ذلك يذكرني.
02:17
I think about Worldالعالمية Warحرب IIII --
50
122000
2000
كما أعتقد إلى الحرب العالمية الثانية --
02:19
some of our great technologistsالتكنولوجيين then,
51
124000
2000
بعضاً من عظماء التقنيين حينها ،
02:21
some of our great physicistsعلماء الفيزياء,
52
126000
2000
بعضاً من علماء الفيزياء العظماء ،
02:23
studyingدراسة عربي nuclearنووي fissionالانشطار النووي and fusionانصهار --
53
128000
2000
الذين كانوا يدرسون الإنشطار والإندماج النووي --
02:25
just nuclearنووي stuffأمور.
54
130000
2000
العلوم النووية فقط.
02:27
We gatherجمع togetherسويا these physicistsعلماء الفيزياء in Losانجليس Alamosألاموس
55
132000
3000
جمعنا هؤلاء الفيزيائيين مع بعضهم البعض في لوس ألاموس
02:30
to see what they'llأنها سوف buildبناء.
56
135000
3000
لنرى ما يمكن أن يصنعوه.
02:33
We want the people buildingبناء the technologyتقنية
57
138000
3000
ونريد الأشخاص الذين يصنعون التكنولوجيا
02:36
thinkingتفكير about what we should be doing with the technologyتقنية.
58
141000
3000
أن يفكروا في ما يجب أن نفعله بالتكنولوجيا.
02:41
So what should we be doing with that guy'sرفاق dataالبيانات?
59
146000
3000
إذا مالذي يجب فعله ببيانات ذلك الشخص ؟
02:44
Should we be collectingجمع it, gatheringجمع it,
60
149000
3000
هل نسجلها ، ونجمعها ،
02:47
so we can make his onlineعبر الانترنت experienceتجربة better?
61
152000
2000
لنجعل التصفح أفضل له ؟
02:49
So we can make moneyمال?
62
154000
2000
وبالتالي نستطيع من كسب المال ؟
02:51
So we can protectيحمي ourselvesأنفسنا
63
156000
2000
و لنحمي أنفسنا
02:53
if he was up to no good?
64
158000
2000
إذا كان شخصا لايمكن الإستفادة منه ؟
02:55
Or should we respectاحترام his privacyالإجمالية,
65
160000
3000
أم علينا أن نحترم خصوصيته ،
02:58
protectيحمي his dignityكرامة and leaveغادر him aloneوحده?
66
163000
3000
نحفظ له كرامته ونتركه وشأنه ؟
03:02
Whichالتي one is it?
67
167000
3000
أيهما هو الصواب ؟
03:05
How should we figureالشكل it out?
68
170000
2000
كيف نستطيع معرفة ذلك ؟
03:07
I know: crowdsourceعلى جمع. Let's crowdsourceعلى جمع this.
69
172000
3000
أعرف : Crowd Source "استخدام مجموعة كبيرة من الخبراء لحل مشكلة".
03:11
So to get people warmedاستعد up,
70
176000
3000
ولتحفيز المتواجدين ،
03:14
let's startبداية with an easyسهل questionسؤال --
71
179000
2000
لنبدأ بسؤال بسيط --
03:16
something I'm sure everybodyالجميع here has an opinionرأي about:
72
181000
3000
شيء أعتقد الكثير من المتواجدين هنا لديه رأي فيه:
03:19
iPhoneايفون versusمقابل Androidذكري المظهر.
73
184000
2000
الاّي فون iPhone مقابل الأندرويد Android
03:21
Let's do a showتبين of handsأيادي -- iPhoneايفون.
74
186000
3000
لنرفع الأيادي بالموافقة -- اّي فون.
03:24
Uh huh.
75
189000
2000
أوه ها.
03:26
Androidذكري المظهر.
76
191000
3000
أندرويد.
03:29
You'dكنت think with a bunchباقة of smartذكي people
77
194000
2000
كنت أعتقد مع بعض من الناس الأذكياء
03:31
we wouldn'tلن be suchهذه suckersالمصاصون just for the prettyجميلة phonesالهواتف.
78
196000
2000
لن نكون مثل المعجبين فقط بالهواتف الأنيقة.
03:33
(Laughterضحك)
79
198000
2000
(ضحك)
03:35
Nextالتالى questionسؤال,
80
200000
2000
السؤال التالي ،
03:37
a little bitقليلا harderأصعب.
81
202000
2000
أكثر صعوبة نوعاً ما.
03:39
Should we be collectingجمع all of that guy'sرفاق dataالبيانات
82
204000
2000
هل ينبغي علينا أن نجمع كل بيانات ذلك الشخص
03:41
to make his experiencesخبرة better
83
206000
2000
لجعل من تجربته أفضل
03:43
and to protectيحمي ourselvesأنفسنا in caseقضية he's up to no good?
84
208000
3000
ونحمي أنفسنا في حال كان غير مفيدٍ لنا ؟
03:46
Or should we leaveغادر him aloneوحده?
85
211000
2000
أم يجب أن نتركه وشأنه ؟
03:48
Collectتجميع his dataالبيانات.
86
213000
3000
نجمع بياناته.
03:53
Leaveغادر him aloneوحده.
87
218000
3000
نتركه وشأنه.
03:56
You're safeآمنة. It's fine.
88
221000
2000
إنك بأمان. هذا جيد.
03:58
(Laughterضحك)
89
223000
2000
(ضحك)
04:00
Okay, last questionسؤال --
90
225000
2000
حسنا ، السؤال الأخير --
04:02
harderأصعب questionسؤال --
91
227000
2000
سؤال أصعب --
04:04
when tryingمحاولة to evaluateتقييم
92
229000
3000
عند محاولة تقييم
04:07
what we should do in this caseقضية,
93
232000
3000
عما يجب فعله في هذه الحالة ،
04:10
should we use a Kantianكنتي deontologicaldeontological moralأخلاقي frameworkالإطار,
94
235000
4000
هل ينبغي علينا أن نستخدم فلسفة كِنت في الأخلاق المهنية ،
04:14
or should we use a MillianMillian consequentialistعواقبية one?
95
239000
3000
أم نستخدم نظرية "ميل" في أن الغاية تبرر الوسيلة ؟
04:19
Kantكانط.
96
244000
3000
كِنت.
04:22
Millمطحنة.
97
247000
3000
ميل.
04:25
Not as manyكثير votesالأصوات.
98
250000
2000
ليس الكثير من الأصوات.
04:27
(Laughterضحك)
99
252000
3000
(ضحك)
04:30
Yeah, that's a terrifyingمرعب resultنتيجة.
100
255000
3000
نعم ، هذه نتيجةٌ مرعبة.
04:34
Terrifyingمرعب, because we have strongerأقوى opinionsالآراء
101
259000
4000
مرعبة ، لأن لدينا اّراءٌ قويةٌ
04:38
about our hand-heldمحمول باليد devicesالأجهزة
102
263000
2000
عن أجهزتنا المحمولة
04:40
than about the moralأخلاقي frameworkالإطار
103
265000
2000
أكثر من اّراءنا عن الإطار الأخلاقي الذي
04:42
we should use to guideيرشد our decisionsقرارات.
104
267000
2000
ينبغي أن نستخدمه لإتخاذ قراراتنا.
04:44
How do we know what to do with all the powerقوة we have
105
269000
3000
كيف لنا أن نعرف ما يجب القيام به بكل السلطة التي نملكها
04:47
if we don't have a moralأخلاقي frameworkالإطار?
106
272000
3000
إذا لم يكن لدينا إطارا أخلاقيا ؟
04:50
We know more about mobileالتليفون المحمول operatingالتشغيل systemsأنظمة,
107
275000
3000
نحن نعرف الكثير عن أنظمة تشغيل الهواتف المحمولة ،
04:53
but what we really need is a moralأخلاقي operatingالتشغيل systemالنظام.
108
278000
3000
ولكن ما نحتاج إليه بالفعل هو نظام تشغيلٍ أخلاقي.
04:58
What's a moralأخلاقي operatingالتشغيل systemالنظام?
109
283000
2000
فما هو نظام التشغيل الأخلاقي ؟
05:00
We all know right and wrongخطأ, right?
110
285000
2000
نحن جميعنا نعرف الصواب والخطأ ، نعم.
05:02
You feel good when you do something right,
111
287000
2000
تشعر بالفخر عندما تفعل شيئاً صائباً ،
05:04
you feel badسيئة when you do something wrongخطأ.
112
289000
2000
و تشعر بالضيق عندما تفعل شيئا خاطئا.
05:06
Our parentsالآباء teachعلم us that: praiseمدح with the good, scoldأنب with the badسيئة.
113
291000
3000
أبوانا يعلماننا أن : الثناء مع الفعل الصائب ، والتأنيب مع الفعل الخاطئ.
05:09
But how do we figureالشكل out what's right and wrongخطأ?
114
294000
3000
ولكن كيف يمكننا معرفة ما هو الصواب و ماهو الخطأ ؟
05:12
And from day to day, we have the techniquesتقنيات that we use.
115
297000
3000
ويومياً ، لدينا أساليبنا التي نستخدمها.
05:15
Maybe we just followإتبع our gutالقناة الهضمية.
116
300000
3000
ربما نتبع حدسنا فقط.
05:18
Maybe we take a voteتصويت -- we crowdsourceعلى جمع.
117
303000
3000
وربما نقوم بالتصويت -- نجمع اّراء الناس.
05:21
Or maybe we puntقارب البنط --
118
306000
2000
أو ربما نقوم بالمجازفة --
05:23
askيطلب the legalقانوني department قسم، أقسام, see what they say.
119
308000
3000
أو نسأل الإدارة القانونية ، ونرى ما يقولون.
05:26
In other wordsكلمات, it's kindطيب القلب of randomعشوائي,
120
311000
2000
في عبارة أخرى ، إنها نوعٌ من العشوائية ،
05:28
kindطيب القلب of adميلادي hocخاص,
121
313000
2000
نوعٌ من القرارات الوقتية ،
05:30
how we figureالشكل out what we should do.
122
315000
3000
كيف يمكننا معرفة ما يجب علينا القيام به.
05:33
And maybe, if we want to be on surerأكثر رسوخا footingأساس,
123
318000
3000
أو ربما ، لنقف بأقدامٍ راسخة ،
05:36
what we really want is a moralأخلاقي frameworkالإطار that will help guideيرشد us there,
124
321000
3000
ما نريده حقا هو إطار أخلاقي من شأنه أن يساعدنا في ذلك ،
05:39
that will tell us what kindsأنواع of things are right and wrongخطأ in the first placeمكان,
125
324000
3000
إطارٌ من شأنه أن يبين لنا ما هو الفعل الصواب والفعل الخطأ في المقام الأول ،
05:42
and how would we know in a givenمعطى situationموقف what to do.
126
327000
4000
وكيف لنا أن نعرف كيف نتصرف في موقفٍ ما.
05:46
So let's get a moralأخلاقي frameworkالإطار.
127
331000
2000
لذلك دعونا نتفق على إطارٍ أخلاقي.
05:48
We're numbersأعداد people, livingالمعيشة by numbersأعداد.
128
333000
3000
نحن شعب الأرقام ، الذين يعيشون من خلال الأرقام.
05:51
How can we use numbersأعداد
129
336000
2000
كيف يمكننا استخدام الأرقام
05:53
as the basisأساس for a moralأخلاقي frameworkالإطار?
130
338000
3000
كأساس لوضع إطار أخلاقي ؟
05:56
I know a guy who did exactlyبالضبط that.
131
341000
3000
إنني أعرف الرجل الذي قام بفعل ذلك بالضبط ،
05:59
A brilliantمتألق guy --
132
344000
3000
رجلٌ عبقري --
06:02
he's been deadميت 2,500 yearsسنوات.
133
347000
3000
وهو ميتٌ منذ 2,500 سنة.
06:05
Platoأفلاطون, that's right.
134
350000
2000
أفلاطون ، بالفعل.
06:07
Rememberتذكر him -- oldقديم philosopherفيلسوف?
135
352000
2000
هل تذكرونه ؟ -- فيلسوفٌ قديم ؟
06:09
You were sleepingنائم duringأثناء that classصف دراسي.
136
354000
3000
ربما كنتم نائمون خلال ذلك الدرس.
06:12
And Platoأفلاطون, he had a lot of the sameنفسه concernsاهتمامات that we did.
137
357000
2000
و أفلاطون ، كان لديه الكثير من المخاوف نفسها التي لدينا.
06:14
He was worriedقلق about right and wrongخطأ.
138
359000
2000
وكان يشعر بالقلق بشأن ماهو الصواب والخطأ.
06:16
He wanted to know what is just.
139
361000
2000
أراد أن يعرف ما هو العدل.
06:18
But he was worriedقلق that all we seemبدا to be doing
140
363000
2000
ولكنه كان يشعر بالقلق من أن كل ما يبدو أننا نفعله
06:20
is tradingتجارة opinionsالآراء about this.
141
365000
2000
هو تداول الآراء حول هذا الموضوع.
06:22
He saysيقول something'sشيئا ما just. She saysيقول something elseآخر is just.
142
367000
3000
إنه يقول أن فعلاً ما هو العدل. وهي تقول أن فعلاً آخر هو العدل.
06:25
It's kindطيب القلب of convincingمقنع when he talksمحادثات and when she talksمحادثات too.
143
370000
2000
إنه مقنعٌ نوعاً ما عندما يتحدث وهي مقنعةٌ أيضاً عندما تتحدث.
06:27
I'm just going back and forthعليها; I'm not gettingالحصول على anywhereفي أى مكان.
144
372000
2000
إنني فقط أتجه ذهابا وإيابا ، وأنا لا أصل إلى أي مكان.
06:29
I don't want opinionsالآراء; I want knowledgeالمعرفه.
145
374000
3000
إنني لا أريد اّراءً ، بل أريد المعرفة.
06:32
I want to know the truthحقيقة about justiceعدالة --
146
377000
3000
أريد أن أعرف الحقيقة عن العدالة --
06:35
like we have truthsالحقائق in mathالرياضيات.
147
380000
3000
مثل ما لدينا حقائق في الرياضيات.
06:38
In mathالرياضيات, we know the objectiveموضوعي factsحقائق.
148
383000
3000
في الرياضيات ، نحن نعلم الحقائق المطلقة.
06:41
Take a numberرقم, any numberرقم -- two.
149
386000
2000
خذ رقماً ما ، أي رقم -- إثنين.
06:43
Favoriteمفضل numberرقم. I love that numberرقم.
150
388000
2000
رقمي المفضل. إنني أحب هذا الرقم.
06:45
There are truthsالحقائق about two.
151
390000
2000
هناك حقائق مطلقة عن الرقم إثنين.
06:47
If you've got two of something,
152
392000
2000
إذا كان لديك شيئين اثنين ،
06:49
you addإضافة two more, you get fourأربعة.
153
394000
2000
وأضفت اثنين آخرين ، تحصل على أربعة.
06:51
That's trueصحيح no matterشيء what thing you're talkingالحديث about.
154
396000
2000
وهذه حقيقةٌ مطلقة بغض النظر عن ماهية الشيء الذي تتحدث عنه.
06:53
It's an objectiveموضوعي truthحقيقة about the formشكل of two,
155
398000
2000
انها لحقيقة مطلقة عن شكل من اثنين ،
06:55
the abstractنبذة مختصرة formشكل.
156
400000
2000
الخلاصة المطلقة.
06:57
When you have two of anything -- two eyesعيون, two earsآذان, two nosesأنوف,
157
402000
2000
عندما يكون لديك اثنين من أي شيء -- عينان ، أذنان ، وحتى الأنوف ،
06:59
just two protrusionsنتوءات --
158
404000
2000
أي بروز من اثنين --
07:01
those all partakeاشترك of the formشكل of two.
159
406000
3000
هؤلاء يتشاركون في تشكيل الإثنين.
07:04
They all participateمشاركة in the truthsالحقائق that two has.
160
409000
4000
يتشاركون جميعاً في الحقيقة المطلقة للرقم إثنين.
07:08
They all have two-nessاثنين من نيس in them.
161
413000
2000
لديهم جميعهم خاصية المُثنى.
07:10
And thereforeوبالتالي, it's not a matterشيء of opinionرأي.
162
415000
3000
وبالتالي ، انها ليست مسألة رأي.
07:13
What if, Platoأفلاطون thought,
163
418000
2000
ماذا لو فكر أفلاطون ،
07:15
ethicsأخلاق was like mathالرياضيات?
164
420000
2000
أن الأخلاق كانت كالرياضيات ؟
07:17
What if there were a pureنقي formشكل of justiceعدالة?
165
422000
3000
ماذا لو كان هناك شكلٌ متكاملٌ للعدالة ؟
07:20
What if there are truthsالحقائق about justiceعدالة,
166
425000
2000
ماذا لو كان هناك حقائق مطلقة للعدالة ،
07:22
and you could just look around in this worldالعالمية
167
427000
2000
وبإمكانك بمجرد إلقاء نظرة حول هذا العالم
07:24
and see whichالتي things participatedشارك,
168
429000
2000
ورأيت الأشياء التي تساهم ،
07:26
partookتناولوا of that formشكل of justiceعدالة?
169
431000
3000
في هذا الشكل من العدالة ؟
07:29
Then you would know what was really just and what wasn'tلم يكن.
170
434000
3000
عندئذٍ ستعرف ما هو بالفعل حقيقةٌ مطلقة وما هو ليس كذلك.
07:32
It wouldn'tلن be a matterشيء
171
437000
2000
ولن يكون ذلك مجرد
07:34
of just opinionرأي or just appearancesظهور.
172
439000
3000
رأي فقط أو مناقشات فقط.
07:37
That's a stunningمذهل visionرؤية.
173
442000
2000
هذه رؤية مذهلة.
07:39
I mean, think about that. How grandكبير. How ambitiousطموح.
174
444000
3000
أعني ، أن نفكر في ذلك. كم سيكون ذلك نبيلاً.و طموحاً.
07:42
That's as ambitiousطموح as we are.
175
447000
2000
هذا الطموح بقدر ما نحن عليه.
07:44
He wants to solveحل ethicsأخلاق.
176
449000
2000
انه يريد ان يحل الأخلاق.
07:46
He wants objectiveموضوعي truthsالحقائق.
177
451000
2000
انه يريد الحقائق المطلقة.
07:48
If you think that way,
178
453000
3000
إذا فكرنا بتلك الطريقة ،
07:51
you have a Platonistأفلاطوني moralأخلاقي frameworkالإطار.
179
456000
3000
فإن لديك إطار أفلاطون الأخلاقي.
07:54
If you don't think that way,
180
459000
2000
أما إذا كنت لا تفكر بتلك الطريقة ،
07:56
well, you have a lot of companyشركة in the historyالتاريخ of Westernالغربي philosophyفلسفة,
181
461000
2000
إذاً ، لديك الكثير من الرفقاء في تاريخ الفلسفة الغربية ،
07:58
because the tidyأنيق - مرتب ideaفكرة, you know, people criticizedانتقد it.
182
463000
3000
لأن الفكرة المنهجية -- كما تعلمون ، انتقدها الناس.
08:01
Aristotleأرسطو, in particularبصفة خاصة, he was not amusedمسليا.
183
466000
3000
ولا سيما أرسطو لم يكن يستصيغ الفكرة.
08:04
He thought it was impracticalغير عملي.
184
469000
3000
إعتقد انها غير عملية.
08:07
Aristotleأرسطو said, "We should seekطلب only so much precisionالاحكام in eachكل subjectموضوع
185
472000
4000
فقد قال أرسطو : "علينا فقط التحري عن الدقة في كل موضوع
08:11
as that subjectموضوع allowsيسمح."
186
476000
2000
بقدر ما يسمح ذلك الموضوع ".
08:13
Aristotleأرسطو thought ethicsأخلاق wasn'tلم يكن a lot like mathالرياضيات.
187
478000
3000
إعتقد أرسطو أن الأخلاق من غير الممكن أن تكون مثل الرياضيات.
08:16
He thought ethicsأخلاق was a matterشيء of makingصناعة decisionsقرارات in the here-and-nowهنا و الآن
188
481000
3000
إعتقد أن الأخلاق عبارة عن مجموعة من القرارات نتخذها
08:19
usingاستخدام our bestالأفضل judgmentحكم
189
484000
2000
بين فترة وأخرى باستخدام حكمتنا
08:21
to find the right pathمسار.
190
486000
2000
للعثور على المسار الصحيح.
08:23
If you think that, Plato'sأفلاطون not your guy.
191
488000
2000
إذا كنت تتفق مع ذلك فإن أفلاطون ليس الرجل المناسب لك.
08:25
But don't give up.
192
490000
2000
ولكن لا تستسلم.
08:27
Maybe there's anotherآخر way
193
492000
2000
ربما هناك طريقة أخرى
08:29
that we can use numbersأعداد as the basisأساس of our moralأخلاقي frameworkالإطار.
194
494000
3000
لإستخدام الأرقام كإطار أخلاقي أساسي.
08:33
How about this:
195
498000
2000
لنجرب التالي :
08:35
What if in any situationموقف you could just calculateحساب,
196
500000
3000
ماذا لو أمكنك في أي وقت أن تحسب المعادلة الأخلاقية ،
08:38
look at the choicesاختيارات,
197
503000
2000
أنظر إلى الخيارات التي لديك ،
08:40
measureقياس out whichالتي one'sواحد من better and know what to do?
198
505000
3000
واحسب المعادلة لتعرف أي القرارات أفضل وبالتالي ماذا ستفعل ؟
08:43
That soundصوت familiarمألوف?
199
508000
2000
هل يبدو هذا مألوفاً ؟
08:45
That's a utilitarianالمنفعي moralأخلاقي frameworkالإطار.
200
510000
3000
هذا هو الإطار الأخلاقي النفعي.
08:48
Johnيوحنا Stuartستيوارت Millمطحنة was a great advocateالمؤيد of this --
201
513000
2000
وكان جون ستيوارت ميل داعيةً كبيراً لهذا --
08:50
niceلطيف guy besidesبالإضافة إلى --
202
515000
2000
رجلٌ لطيفٌ بالرغم --
08:52
and only been deadميت 200 yearsسنوات.
203
517000
2000
من أنه مات منذ 200 سنة.
08:54
So basisأساس of utilitarianismمذهب المنفعة --
204
519000
2000
ذلك هو أساس النفعية --
08:56
I'm sure you're familiarمألوف at leastالأقل.
205
521000
2000
أنا متأكد من أنكم على دراية به على الأقل به.
08:58
The threeثلاثة people who votedتم التصويت for Millمطحنة before are familiarمألوف with this.
206
523000
2000
الاشخاص الثلاثة الذين صوتوا لمصلحة ميل يعرفون ذلك من قبل.
09:00
But here'sمن هنا the way it worksأعمال.
207
525000
2000
ولكن ها هي الطريقة التي تعمل بها النفعية.
09:02
What if moralsأخلاق, what if what makesيصنع something moralأخلاقي
208
527000
3000
ماذا لو أن الأخلاق ، أو ماذا لو أن ما يجعل من تصرفٍ ما أخلاقي ،
09:05
is just a matterشيء of if it maximizesيزيد pleasureبكل سرور
209
530000
2000
هي مجرد ما إذا كان ذلك التصرف يشعرك بالسعادة
09:07
and minimizesيقلل painالم?
210
532000
2000
ويقلل من الألم؟
09:09
It does something intrinsicنقي to the actفعل.
211
534000
3000
إنه شيءٌ محسوس لأي تصرف.
09:12
It's not like its relationعلاقة to some abstractنبذة مختصرة formشكل.
212
537000
2000
وليست كشيئٍ ذا علاقة بالمعنى التجريدي.
09:14
It's just a matterشيء of the consequencesالآثار.
213
539000
2000
انها مجرد نتيجة تصرفٍ ما.
09:16
You just look at the consequencesالآثار
214
541000
2000
وما عليك إلا بالنظر إلى النتائج
09:18
and see if, overallبصورة شاملة, it's for the good or for the worseأسوأ.
215
543000
2000
وترى ما اذا كان ذلك ، عموما ، لشيءٍ جيد أم لشيءٍ أسوء.
09:20
That would be simpleبسيط. Then we know what to do.
216
545000
2000
سيكون ذلك أمراً بسيطاً. عندئذٍ سنعرف ما سنفعله.
09:22
Let's take an exampleمثال.
217
547000
2000
دعونا نأخذ مثالا على ذلك.
09:24
Supposeافترض I go up
218
549000
2000
لنفترض أنني أتدخل
09:26
and I say, "I'm going to take your phoneهاتف."
219
551000
2000
و أقول : "إنني سأأخذ منك هاتفك المحمول".
09:28
Not just because it rangرن earlierسابقا,
220
553000
2000
ليس لأنه رن سابقاً ،
09:30
but I'm going to take it because I madeمصنوع a little calculationعملية حسابية.
221
555000
3000
ولكنني ساّخذ ذلك الهاتف لأنني حسبت عمليةً حسابيةً صغيرة.
09:33
I thought, that guy looksتبدو suspiciousمشبوه.
222
558000
3000
و اعتقد ان ذلك الرجل يبدو مشتبهاً به.
09:36
And what if he's been sendingإرسال little messagesرسائل to Binبن Laden'sولادن hideoutمخبأ --
223
561000
3000
ماذا لو انه بدا يرسل رسائل قصيرة إلى مخبأ بن لادن --
09:39
or whoeverمن tookأخذ over after Binبن Ladenمثقل --
224
564000
2000
أو من تولى المسؤولية بعد بن لادن أياً كان --
09:41
and he's actuallyفعلا like a terroristإرهابي, a sleeperالنائم cellخلية - زنزانة.
225
566000
3000
و أنه في الواقع إرهابي ، من خليةٍ نائمة.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
سأتمكن من معرفة ذلك ، وعندما أفعل ذلك ،
09:47
I'm going to preventيحول دون a hugeضخم amountكمية of damageضرر that he could causeسبب.
227
572000
3000
سأكون قادراً على منع إحداث ضررٍ كبير قد يتسبب به.
09:50
That has a very highمتوسط utilityخدمة to preventيحول دون that damageضرر.
228
575000
3000
تحتوي تلك الفكرة على أدواتٍ جيدة لمنع ذلك الضرر.
09:53
And comparedمقارنة to the little painالم that it's going to causeسبب --
229
578000
2000
وبالمقارنة مع الضرر البسيط الذي ستسببه --
09:55
because it's going to be embarrassingمحرج when I'm looking on his phoneهاتف
230
580000
2000
لأن الوضع سيكون محرجاً عندما أتفحص هاتفه المحمول
09:57
and seeingرؤية that he has a Farmvilleفارم فيل problemمشكلة and that wholeكامل bitقليلا --
231
582000
3000
وأكتشف أن لديه إدمانٌ على لعبة Farmville وكل تلك التفاصيل
10:00
that's overwhelmedطغت
232
585000
3000
التي ظهرت
10:03
by the valueالقيمة of looking at the phoneهاتف.
233
588000
2000
بمجرد النظر إلى هاتفه.
10:05
If you feel that way,
234
590000
2000
إذا كنت تتفق مع ذلك ،
10:07
that's a utilitarianالمنفعي choiceخيار.
235
592000
3000
فهذا هو خيار إطار النفعية الأخلاقي.
10:10
But maybe you don't feel that way eitherإما.
236
595000
3000
ولكن ربما لا تتفق أيضاً مع هذه الطريقة.
10:13
Maybe you think, it's his phoneهاتف.
237
598000
2000
ربما تفكر في أن ذلك هاتفه.
10:15
It's wrongخطأ to take his phoneهاتف
238
600000
2000
و من الخطأ أن نأخذ منه هاتفه ،
10:17
because he's a personشخص
239
602000
2000
لأنه إنسان
10:19
and he has rightsحقوق and he has dignityكرامة,
240
604000
2000
و لديه حقوق و كرامة ،
10:21
and we can't just interfereتدخل with that.
241
606000
2000
وليس لنا الحق في التدخل في خصوصياته.
10:23
He has autonomyالحكم الذاتي.
242
608000
2000
لديه الحق في خصوصياته.
10:25
It doesn't matterشيء what the calculationsالعمليات الحسابية are.
243
610000
2000
بغض النظر عن المعادلات الحسابية.
10:27
There are things that are intrinsicallyفي جوهرها wrongخطأ --
244
612000
3000
هناك أشياء خاطئة في جوهرها --
10:30
like lyingيكذب أو ملقاه is wrongخطأ,
245
615000
2000
مثل أن الكذب خطأ ،
10:32
like torturingتعذيب innocentالبريء childrenالأطفال is wrongخطأ.
246
617000
3000
مثلما أن تعذيب طفل بريء يعتبر خطأً.
10:35
Kantكانط was very good on this pointنقطة,
247
620000
3000
"كانت" كانت لديه أفكار جيدة حول هذا الموضوع ،
10:38
and he said it a little better than I'll say it.
248
623000
2000
وشرحها بطريقةٍ أفضل مني.
10:40
He said we should use our reasonالسبب
249
625000
2000
إذ قال انه ينبغي علينا أن نستخدم منطقنا
10:42
to figureالشكل out the rulesقواعد by whichالتي we should guideيرشد our conductسلوك,
250
627000
3000
لمعرفة القوانين التي سنبني عليها تصرفاتنا السلوكية.
10:45
and then it is our dutyمهمة to followإتبع those rulesقواعد.
251
630000
3000
ومن ثم من واجبنا أن نتبع تلك القوانين.
10:48
It's not a matterشيء of calculationعملية حسابية.
252
633000
3000
انها ليست مسألة حسابية.
10:51
So let's stop.
253
636000
2000
لذلك دعونا تتوقف.
10:53
We're right in the thickسميك of it, this philosophicalفلسفي thicketأجمة.
254
638000
3000
إننا الاّن في وسط كل تلك النظريات ، في خضم ذلك النقاش الفلسفي.
10:56
And this goesيذهب on for thousandsالآلاف of yearsسنوات,
255
641000
3000
ولا نزال كذلك منذ اّلاف السنين ،
10:59
because these are hardالصعب questionsالأسئلة,
256
644000
2000
لأنها أسئلةٌ من الصعب الإجابة عليها ،
11:01
and I've only got 15 minutesالدقائق.
257
646000
2000
ولدي فقط 15 دقيقة.
11:03
So let's cutيقطع to the chaseمطاردة.
258
648000
2000
لذلك لنختصر النقاش.
11:05
How should we be makingصناعة our decisionsقرارات?
259
650000
4000
كيف لنا أن نتخذ قراراتنا ؟
11:09
Is it Platoأفلاطون, is it Aristotleأرسطو, is it Kantكانط, is it Millمطحنة?
260
654000
3000
هل نتبع أفلاطون ؟ أم أرسطو ؟ أم كانت ؟ أم ميل ؟
11:12
What should we be doing? What's the answerإجابة?
261
657000
2000
ماذا علينا أن نفعل ؟ ما هي الإجابة ؟
11:14
What's the formulaمعادلة that we can use in any situationموقف
262
659000
3000
ماهي المعادلة التي نستطيع استخدامها في أي وضع
11:17
to determineتحديد what we should do,
263
662000
2000
لنقرر ماذا سنفعل ،
11:19
whetherسواء we should use that guy'sرفاق dataالبيانات or not?
264
664000
2000
فيما إذا كنا سنستخدم بيانات ذلك الشخص أم لا ؟
11:21
What's the formulaمعادلة?
265
666000
3000
ماهي المعادلة ؟
11:25
There's not a formulaمعادلة.
266
670000
2000
ليس هناك من معادلة.
11:29
There's not a simpleبسيط answerإجابة.
267
674000
2000
ليس هناك من جوابٍ بسيط.
11:31
Ethicsأخلاق is hardالصعب.
268
676000
3000
الأخلاقيات شيءٌ معقد.
11:34
Ethicsأخلاق requiresيتطلب thinkingتفكير.
269
679000
3000
الأخلاقيات تتطلب التفكير.
11:38
And that's uncomfortableغير مريح.
270
683000
2000
وهذا شيءٌ غير مريح.
11:40
I know; I spentأنفق a lot of my careerمهنة
271
685000
2000
أعرف ، لقد قضيت جزءً كبيراً من مهنتي
11:42
in artificialمصطنع intelligenceالمخابرات,
272
687000
2000
في مجال الذكاء الإصطناعي ،
11:44
tryingمحاولة to buildبناء machinesآلات that could do some of this thinkingتفكير for us,
273
689000
3000
في محاولةٍ لبناء اّلاتٍ تستطيع التفكير عنا ،
11:47
that could give us answersالأجوبة.
274
692000
2000
وقد تعطينا إجاباتٍ على الأسئلة.
11:49
But they can't.
275
694000
2000
ولكنها لاتستطيع ذلك.
11:51
You can't just take humanبشري thinkingتفكير
276
696000
2000
من غير الممكن أن نقلد طريقة تفكير الإنسان
11:53
and put it into a machineآلة.
277
698000
2000
ووضعها في الالات.
11:55
We're the onesمنها who have to do it.
278
700000
3000
نحن من علينا أن نجد الأجوبة بأنفسنا.
11:58
Happilyبسعادة, we're not machinesآلات, and we can do it.
279
703000
3000
ولحسن الحظ ، أننا لسنا اّلات ، ونستطيع فعل ذلك.
12:01
Not only can we think,
280
706000
2000
ليس لأننا نسطيع التفكير في ذلك ،
12:03
we mustيجب.
281
708000
2000
بل لأنه يجب علينا فعل ذلك.
12:05
Hannahهانا Arendtأرندت said,
282
710000
2000
هانا أرندت قالت :
12:07
"The sadحزين truthحقيقة
283
712000
2000
"الحقيقة المرة
12:09
is that mostعظم evilشر doneفعله in this worldالعالمية
284
714000
2000
هي أن أغلب الأفعال الشريرة في العالم
12:11
is not doneفعله by people
285
716000
2000
لم تكن من قبل أناس
12:13
who chooseأختر to be evilشر.
286
718000
2000
إختاروا أن يكونوا شريرين.
12:15
It arisesينشأ from not thinkingتفكير."
287
720000
3000
بل بسبب أنهم لم يفكروا."
12:18
That's what she calledمسمي the "banalityتفاهة of evilشر."
288
723000
4000
وهذا ما أطلقت عليه اسم " تفاهة الشرير"
12:22
And the responseاستجابة to that
289
727000
2000
و ردي على ذلك
12:24
is that we demandالطلب the exerciseممارسه الرياضه of thinkingتفكير
290
729000
2000
أنه علينا أن نطالب بالتفكير
12:26
from everyكل saneعاقل personشخص.
291
731000
3000
من كل شخصٍ عاقل.
12:29
So let's do that. Let's think.
292
734000
2000
لذا فلنبدأ بذلك. لنبدأ بالتفكير.
12:31
In factحقيقة, let's startبداية right now.
293
736000
3000
في الواقع ، لنبدأ الآن.
12:34
Everyكل personشخص in this roomمجال do this:
294
739000
3000
على كل فردٍ في هذه القاعة القيام بهذا:
12:37
think of the last time you had a decisionقرار to make
295
742000
3000
فكر في اّخر مرة كان عليك اتخاذ قرارٍ
12:40
where you were worriedقلق to do the right thing,
296
745000
2000
وكنت قلقاً فيما إذا كان قرارك هو القرار الصائب أخلاقياً ،
12:42
where you wonderedوتساءل, "What should I be doing?"
297
747000
2000
حيث كنت متردداً ، " أيهما علي أن أفعل ؟ "
12:44
Bringاحضر that to mindعقل,
298
749000
2000
حاول تذكر ذلك.
12:46
and now reflectتعكس on that
299
751000
2000
واعكس ذلك على القرار الذي اتخذته.
12:48
and say, "How did I come up that decisionقرار?
300
753000
3000
وفكر : " كيف توصلت إلى ذلك القرار ؟ "
12:51
What did I do? Did I followإتبع my gutالقناة الهضمية?
301
756000
3000
كيف فعلت ذلك ؟ هل تبعت حدسك ؟
12:54
Did I have somebodyشخص ما voteتصويت on it? Or did I puntقارب البنط to legalقانوني?"
302
759000
2000
هل استشرت أحداً ؟ أم استشرت قانونياً ؟
12:56
Or now we have a fewقليل more choicesاختيارات.
303
761000
3000
والان وقد أصبح لدينا الان خيارتٍ أخرى.
12:59
"Did I evaluateتقييم what would be the highestأعلى pleasureبكل سرور
304
764000
2000
" هل قيمت ذلك بشعورك بالسعادة
13:01
like Millمطحنة would?
305
766000
2000
كما كان ليفعل ميل ؟
13:03
Or like Kantكانط, did I use reasonالسبب to figureالشكل out what was intrinsicallyفي جوهرها right?"
306
768000
3000
أم استخدمت المنطق لتعرف ماهي الحقيقة المطلقة ؟"
13:06
Think about it. Really bringاحضر it to mindعقل. This is importantمهم.
307
771000
3000
فكر في ذلك. بالفعل حاول استحضار ذلك. هذا مهمٌ جداً.
13:09
It is so importantمهم
308
774000
2000
مهمٌ للغاية
13:11
we are going to spendأنفق 30 secondsثواني of valuableذو قيمة TEDTalkTEDTalk time
309
776000
2000
لدرجة أننا سنقضي 30 ثانية من وقت محادثة تيد القيم
13:13
doing nothing but thinkingتفكير about this.
310
778000
2000
صامتين لنفكر في ذلك الموقف.
13:15
Are you readyجاهز? Go.
311
780000
2000
هل أنتم مستعدون ؟ هيا بنا.
13:33
Stop. Good work.
312
798000
3000
توقفوا. عملٌ جيد.
13:36
What you just did,
313
801000
2000
ما فعلتموه للتو ،
13:38
that's the first stepخطوة towardsتجاه takingمع الأخذ responsibilityالمسئولية
314
803000
2000
هي الخطوة الأولى نحو تولي المسؤولية
13:40
for what we should do with all of our powerقوة.
315
805000
3000
فيما يجب أن نفعله مع كل ما لدينا من سلطة.
13:45
Now the nextالتالى stepخطوة -- try this.
316
810000
3000
والان الخطوة التالية -- جربوا هذا.
13:49
Go find a friendصديق and explainشرح to them
317
814000
2000
حاولوا البحث عن صديق واشرحوا له
13:51
how you madeمصنوع that decisionقرار.
318
816000
2000
كيف قمتم باتخاذ ذلك القرار.
13:53
Not right now. Wait tillحتى I finishإنهاء talkingالحديث.
319
818000
2000
ليس الان.انتظروا حتى ننتهي من الحديث.
13:55
Do it over lunchغداء.
320
820000
2000
لنفعل ذلك خلال تناول الغداء.
13:57
And don't just find anotherآخر technologistالتكنوليجي friendصديق;
321
822000
3000
ولا تبحثوا عن صديق آخر تقني أيضاً ؛
14:00
find somebodyشخص ما differentمختلف than you.
322
825000
2000
حاولوا البحث عن أشخاص مختلفين.
14:02
Find an artistفنان or a writerكاتب --
323
827000
2000
ابحثوا عن فنان أو كاتب --
14:04
or, heavenالجنة forbidحرم, find a philosopherفيلسوف and talk to them.
324
829000
3000
أو ، لا سمح الله ، ابحثوا عن فيلسوف وتحدثوا معهم.
14:07
In factحقيقة, find somebodyشخص ما from the humanitiesالعلوم الإنسانية.
325
832000
2000
في الواقع ، حاولوا العثور على شخصٍ ذو علاقةٍ بالعلوم الإنسانية.
14:09
Why? Because they think about problemsمشاكل
326
834000
2000
لماذا ؟ لأنهم يفكرون بالمشاكل
14:11
differentlyبشكل مختلف than we do as technologistsالتكنولوجيين.
327
836000
2000
بطريقةٍ مختلفةٍ عما نفعله نحن التقنيون.
14:13
Just a fewقليل daysأيام agoمنذ, right acrossعبر the streetشارع from here,
328
838000
3000
قبل عدة أيامٍ فقط ، ليس بعيداً من هنا ،
14:16
there was hundredsالمئات of people gatheredجمعت togetherسويا.
329
841000
2000
كان هناك المئات من الأشخاص مجتمعين مع بعضهم
14:18
It was technologistsالتكنولوجيين and humanistsالإنسانيين
330
843000
2000
كانوا أشخاصاً تقنيين و اّخرون من العلوم الإنسانية
14:20
at that bigكبير BiblioTechBiblioTech Conferenceمؤتمر.
331
845000
2000
في اجتماع Biblio Tech الضخم
14:22
And they gatheredجمعت togetherسويا
332
847000
2000
واجتمعوا مع بعضهم البعض
14:24
because the technologistsالتكنولوجيين wanted to learnتعلم
333
849000
2000
لأن التقنيون أرادوا أن يتعلموا
14:26
what it would be like to think from a humanitiesالعلوم الإنسانية perspectiveإنطباع.
334
851000
3000
كيف سيبدوا الأمر لو أنهم فكروا من منطلقٍ إنساني.
14:29
You have someoneشخصا ما from Googleجوجل
335
854000
2000
كان هناك أشخاصٌ من شركة Google
14:31
talkingالحديث to someoneشخصا ما who does comparativeمقارنة literatureالأدب.
336
856000
2000
يتحدثون عن أشخاص يحاضرون في الأدب المقارن.
14:33
You're thinkingتفكير about the relevanceملاءمة of 17thعشر centuryمئة عام Frenchالفرنسية theaterمسرح --
337
858000
3000
إننا نفكر في أهمية المسرح الفرنسي في القرن السابع عشر --
14:36
how does that bearيتحمل uponبناء على ventureالمغامر capitalرأس المال?
338
861000
2000
وكيف ذلك يؤثر في رأس المال الإستثماري ؟
14:38
Well that's interestingمثير للإعجاب. That's a differentمختلف way of thinkingتفكير.
339
863000
3000
حسناً إن هذا مثير للاهتمام. هذه طريقةٌ مختلفةٌ في التفكير.
14:41
And when you think in that way,
340
866000
2000
وعندما تفكرون بهذه الطريقة ،
14:43
you becomeيصبح more sensitiveحساس to the humanبشري considerationsالاعتبارات,
341
868000
3000
تصبحون أكثر إدراكاً للإعتبارات الإنسانية ،
14:46
whichالتي are crucialمهم to makingصناعة ethicalأخلاقي decisionsقرارات.
342
871000
3000
التي تعتبر مصيريةً في إتخاذ قراراتٍ أكثر أخلاقيةً.
14:49
So imagineتخيل that right now
343
874000
2000
لذا تخيلوا ذلك الان
14:51
you wentذهب and you foundوجدت your musicianموسيقي او عازف friendصديق.
344
876000
2000
إذا قابلت صديقاً لك يعمل في الموسيقى.
14:53
And you're tellingتقول him what we're talkingالحديث about,
345
878000
3000
وأخبرته بما نتحدث عنه الان ،
14:56
about our wholeكامل dataالبيانات revolutionثورة and all this --
346
881000
2000
عن الثورة المعلوماتية التي نمر بها --
14:58
maybe even humهمهمة a fewقليل barsالحانات of our themeالمقدمة musicموسيقى.
347
883000
2000
وربما أيضاً عن بعض الدندنة التي أحدثناها.
15:00
Dumدوم taتا daدا daدا dumدوم dumدوم taتا daدا daدا dumدوم
348
885000
3000
♫ دوم تا دا دا دوم دوم تا دا دا دوم ♫
15:03
Well, your musicianموسيقي او عازف friendصديق will stop you and say,
349
888000
2000
حسنا ، سيوقفك صديقك الموسيقي فوراً ويقول :
15:05
"You know, the themeالمقدمة musicموسيقى
350
890000
2000
"هل تعلم ، إن موضوع الموسيقى هذا
15:07
for your dataالبيانات revolutionثورة,
351
892000
2000
والخاص بموسيقى الثورة المعلوماتية ،
15:09
that's an operaدار الأوبرا, that's Wagnerفاغنر.
352
894000
2000
إنها عبارة عن أوبرا ، إنها أوبرا "واغنر".
15:11
It's basedعلى أساس on Norseنورس legendعنوان تفسيري.
353
896000
2000
وهي مبنيةٌ على أسطورة طائر النورس
15:13
It's Godsالآلهة and mythicalأسطوري creaturesكائنات
354
898000
2000
تعبر عن قتالٍ بين الاّلهة ومخلوقاتٍ غريبة
15:15
fightingقتال over magicalسحري jewelryمجوهرات."
355
900000
3000
من أجل بعض المجوهرات السحرية ".
15:19
That's interestingمثير للإعجاب.
356
904000
3000
هذا مثيرٌ للإهتمام.
15:22
Now it's alsoأيضا a beautifulجميلة operaدار الأوبرا,
357
907000
3000
أصبحت الاّن أوبرا جميلة.
15:25
and we're movedانتقل by that operaدار الأوبرا.
358
910000
3000
وتأثرنا جميعنا بتلك الأوبرا.
15:28
We're movedانتقل because it's about the battleمعركة
359
913000
2000
تأثرنا بها لأنها ترمز للقتال
15:30
betweenما بين good and evilشر,
360
915000
2000
بين الخير والشر ،
15:32
about right and wrongخطأ.
361
917000
2000
بين الصواب والخطأ.
15:34
And we careرعاية about right and wrongخطأ.
362
919000
2000
ونحن نهتم لمعرفة ماهو الصواب وماهو الخطأ.
15:36
We careرعاية what happensيحدث in that operaدار الأوبرا.
363
921000
3000
نحن نهتم لأحداث تلك الأوبرا.
15:39
We careرعاية what happensيحدث in "Apocalypseنهاية العالم Now."
364
924000
3000
اننا نهتم لما يحدث في فيلم "Apocalypse Now".
15:42
And we certainlyمن المؤكد careرعاية
365
927000
2000
ونحن بالتأكيد نهتم أيضاً
15:44
what happensيحدث with our technologiesالتقنيات.
366
929000
2000
لما يحدث مع تطور تقنياتنا.
15:46
We have so much powerقوة todayاليوم,
367
931000
2000
نملك الكثير من السلطة اليوم ،
15:48
it is up to us to figureالشكل out what to do,
368
933000
3000
ويعود إلينا ما سنفعله بتلك السلطة.
15:51
and that's the good newsأخبار.
369
936000
2000
وهذا خبرٌ جيد.
15:53
We're the onesمنها writingجاري الكتابة this operaدار الأوبرا.
370
938000
3000
نحن من يكتب هذه الأوبرا.
15:56
This is our movieفيلم.
371
941000
2000
هذا فيلمٌ سينمائيٌ من صنعنا.
15:58
We figureالشكل out what will happenيحدث with this technologyتقنية.
372
943000
3000
وعلينا معرفة ماسيحدث بهذه التقنيات.
16:01
We determineتحديد how this will all endالنهاية.
373
946000
3000
ونحدد ما ستؤول إليه الأمور.
16:04
Thank you.
374
949000
2000
شكراً لكم.
16:06
(Applauseتصفيق)
375
951000
5000
(تصفيق)
Translated by Tofig Ahmed
Reviewed by Anwar Dafa-Alla

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com