ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com
TEDxSiliconValley

Damon Horowitz: We need a "moral operating system"

דאמון הורוביץ קורא להקים "מערכת הפעלה למוסר"

Filmed:
795,617 views

ב-TEDxSiliconValley, דאמון הורוביץ סוקר את הכוחות העצומים שטכנולוגיה מעניקה לנו: לדעת יותר ויותר אחד על השני -- יותר מאשר אי-פעם. על-ידי הובלת הקהל לתוך דיון פילוסופי, הורוביץ קורא לנו לתת תשומת לב מחודשת לפילוסופיה הבסיסית -- עקרונות המוסר -- שמאחורי פרץ ההמצאות אשר מעצב מחדש את עולמנו. היכן מערכת ההפעלה של המוסר שתאפשר לנו לעשות סדר בדברים?
- Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities. Full bio

Double-click the English transcript below to play the video.

00:15
Powerכּוֹחַ.
0
0
2000
כח.
00:17
That is the wordמִלָה that comesבא to mindאכפת.
1
2000
2000
זו המילה שעולה בדעתנו.
00:19
We're the newחָדָשׁ technologistsטכנאים.
2
4000
2000
אנחנו הטכנולוגים החדשים.
00:21
We have a lot of dataנתונים, so we have a lot of powerכּוֹחַ.
3
6000
3000
יש לנו המון נתונים, לכן יש לנו המון כח.
00:24
How much powerכּוֹחַ do we have?
4
9000
2000
כמה כח יש לנו?
00:26
Sceneסְצֵינָה from a movieסרט: "Apocalypseאַפּוֹקָלִיפּסָה Now" -- great movieסרט.
5
11000
3000
קטע מסרט: "אפוקליפסה עכשיו" -- סרט נהדר.
00:29
We'veללא שם: יש לנו got to get our heroגיבור, Captainסֶרֶן Willardוילארד, to the mouthפֶּה of the Nungנונג Riverנהר
6
14000
3000
אנו חייבים להעביר את גיבורנו, קפטן וילארד, אל מוצא נהר ה"נונג"
00:32
so he can go pursueלרדוף Colonelאלוף משנה Kurtzקורץ.
7
17000
2000
כדי שיוכל לרדוף אחר קולונל קורץ.
00:34
The way we're going to do this is flyלטוס, זבוב him in and dropיְרִידָה him off.
8
19000
2000
אנו נעשה זאת בדרך של הטסתו לשם והשלכתו.
00:36
So the sceneסְצֵינָה:
9
21000
2000
זה הקטע:
00:38
the skyשָׁמַיִם is filledמְמוּלָא with this fleetצי of helicoptersמסוקים carryingנְשִׂיאָה him in.
10
23000
3000
השמיים מלאים בצי של מסוקים הנושא אותו.
00:41
And there's this loudבְּקוֹל רָם, thrillingמרגש musicמוּסִיקָה in the backgroundרקע כללי,
11
26000
2000
ויש את המוסיקה הרועשת והמפחידה ברקע,
00:43
this wildפְּרָאִי musicמוּסִיקָה.
12
28000
2000
מוזיקה פראית זו.
00:45
Dumדום dada tata dada dumדום
13
30000
2000
♫ דאם דא טא דא דאם ♫
00:47
Dumדום dada tata dada dumדום
14
32000
2000
♫ דאם דא טא דא דאם ♫
00:49
Daדה tata dada dada
15
34000
3000
♫ דאם טא דא דא ♫
00:52
That's a lot of powerכּוֹחַ.
16
37000
2000
זו המון עוצמה.
00:54
That's the kindסוג of powerכּוֹחַ I feel in this roomחֶדֶר.
17
39000
2000
זו העוצמה שאני מרגיש באולם זה.
00:56
That's the kindסוג of powerכּוֹחַ we have
18
41000
2000
זה סוג העוצמה שיש לנו
00:58
because of all of the dataנתונים that we have.
19
43000
2000
בגלל כל הנתונים שיש לנו.
01:00
Let's take an exampleדוגמא.
20
45000
2000
הבה ניקח דוגמא אחת.
01:02
What can we do
21
47000
2000
מה אנו יכולים לעשות
01:04
with just one person'sשל אדם dataנתונים?
22
49000
3000
רק עם נתונים של אדם אחד?
01:07
What can we do
23
52000
2000
מה אנו יכולים לעשות
01:09
with that guy'sשל הבחור dataנתונים?
24
54000
2000
עם נתונים של אותו אדם?
01:11
I can look at your financialכַּספִּי recordsרשומות.
25
56000
2000
אני יכול להסתכל בנתונים הכספיים שלך.
01:13
I can tell if you payלְשַׁלֵם your billsשטרות on time.
26
58000
2000
אני יכול לומר אם אתה משלם חשבונות בזמן.
01:15
I know if you're good to give a loanלְהַלווֹת to.
27
60000
2000
אני יודע אם אתה טוב בשביל לתת לך הלוואה.
01:17
I can look at your medicalרְפוּאִי recordsרשומות; I can see if your pumpלִשְׁאוֹב is still pumpingשְׁאִיבָה --
28
62000
3000
אני יכול להסתכל בתיק הרפואי שלך, אני יכול לראות אם המשאבה שלך עדיין פועמת --
01:20
see if you're good to offerהַצָעָה insuranceביטוח to.
29
65000
3000
ולראות אם כדאי להציע לך ביטוח.
01:23
I can look at your clickingלחיצה patternsדפוסי.
30
68000
2000
אני יכול להסתכל לתוך דפוסי ההקשות שלך.
01:25
When you come to my websiteאתר אינטרנט, I actuallyלמעשה know what you're going to do alreadyכְּבָר
31
70000
3000
כאשר אתה מגיע לאתר שלי, אני כבר יודע מה אתה הולך לעשות,
01:28
because I've seenלראות you visitלְבַקֵר millionsמיליונים of websitesאתרי אינטרנט before.
32
73000
2000
כי ראיתי אותך כבר מבקר מיליוני אתרים.
01:30
And I'm sorry to tell you,
33
75000
2000
ואני מצטער לומר לך,
01:32
you're like a pokerפּוֹקֶר playerשחקן, you have a tell.
34
77000
2000
שאתה כמו שחקן פוקר, מופיעים עליך סימנים.
01:34
I can tell with dataנתונים analysisאָנָלִיזָה what you're going to do
35
79000
2000
מניתוח הנתונים אני יכול לומר מה אתה הולך לעשות
01:36
before you even do it.
36
81000
2000
לפני שאתה עצמך אפילו עושה.
01:38
I know what you like. I know who you are,
37
83000
3000
אני יודע מה אתה אוהב. אני יודע מי אתה.
01:41
and that's even before I look at your mailדוֹאַר
38
86000
2000
וזה אפילו לפני שראיתי את הדואר שלך
01:43
or your phoneטלפון.
39
88000
2000
או את הטלפון שלך.
01:45
Those are the kindsמיני of things we can do
40
90000
2000
אלה מסוג הדברים שאנו יכולים לעשות
01:47
with the dataנתונים that we have.
41
92000
3000
בעזרת הנתונים שיש לנו.
01:50
But I'm not actuallyלמעשה here to talk about what we can do.
42
95000
3000
אבל בעצם אני לא נמצא כאן כדי לדבר מה אנו יכולים לעשות.
01:56
I'm here to talk about what we should do.
43
101000
3000
אני כאן כדי לדבר מה אנו צריכים לעשות.
02:00
What's the right thing to do?
44
105000
3000
מהו הדבר הנכון לעשותו?
02:04
Now I see some puzzledנבוך looksנראה
45
109000
2000
אני מבחין בכמה מבטים משתאים
02:06
like, "Why are you askingשואל us what's the right thing to do?
46
111000
3000
כאילו, "מדוע אתה שואל אותנו מהו הדבר הנכון לעשות?
02:09
We're just buildingבִּניָן this stuffדברים. Somebodyמִישֶׁהוּ elseאַחֵר is usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני it."
47
114000
3000
אנו רק בונים את הדברים. מישהו אחר משתמש בזה."
02:12
Fairהוֹגֶן enoughמספיק.
48
117000
3000
זה די נכון.
02:15
But it bringsמביא me back.
49
120000
2000
אבל זה מחזיר אותי אחורה.
02:17
I think about Worldעוֹלָם Warמִלחָמָה IIII --
50
122000
2000
אני חושב על מלחמת העולם השניה --
02:19
some of our great technologistsטכנאים then,
51
124000
2000
כמה מאנשי הטכנולוגיה הגדולים שלנו אז,
02:21
some of our great physicistsפיסיקאים,
52
126000
2000
כמה מהפיזיקאים הגדולים שלנו,
02:23
studyingלומד nuclearגַרעִינִי fissionביקוע and fusionהיתוך --
53
128000
2000
שחקרו ביקוע והיתוך גרעיניים --
02:25
just nuclearגַרעִינִי stuffדברים.
54
130000
2000
פשוט דברים גרעיניים.
02:27
We gatherלאסוף togetherיַחַד these physicistsפיסיקאים in Losלוס Alamosאלמוס
55
132000
3000
אספנו ביחד פיזיקאים אלו בלוס אלמוס
02:30
to see what they'llהם יהיו buildלִבנוֹת.
56
135000
3000
כדי לראות מה הם יוכלו לבנות.
02:33
We want the people buildingבִּניָן the technologyטֶכנוֹלוֹגִיָה
57
138000
3000
אנו רוצים שאנשים ייצרו טכנולוגיה
02:36
thinkingחושב about what we should be doing with the technologyטֶכנוֹלוֹגִיָה.
58
141000
3000
בחושבנו על מה שאנו צריכים לעשות עם הטכנולוגיה.
02:41
So what should we be doing with that guy'sשל הבחור dataנתונים?
59
146000
3000
אז מה עלינו לעשות עם הנתונים של אותו אדם?
02:44
Should we be collectingאיסוף it, gatheringכֶּנֶס it,
60
149000
3000
האם עלינו להמשיך לאסוף אותם,
02:47
so we can make his onlineבאינטרנט experienceניסיון better?
61
152000
2000
כדי שנוכל לשפר את חוויית האינטרנט שלו?
02:49
So we can make moneyכֶּסֶף?
62
154000
2000
כדי שנוכל לעשות כסף?
02:51
So we can protectלְהַגֵן ourselvesבְּעָצמֵנוּ
63
156000
2000
כדי להגן על עצמנו
02:53
if he was up to no good?
64
158000
2000
אם הוא עושה בעיות?
02:55
Or should we respectכבוד his privacyפְּרָטִיוּת,
65
160000
3000
או שעלינו לכבד את פרטיותו,
02:58
protectלְהַגֵן his dignityכָּבוֹד and leaveלעזוב him aloneלבד?
66
163000
3000
לשמור על כבודו ולעזוב אותו לנפשו?
03:02
Whichאיזה one is it?
67
167000
3000
מהו הדבר הנכון?
03:05
How should we figureדמות it out?
68
170000
2000
כיצד נוכל לדעת זאת?
03:07
I know: crowdsource-. Let's crowdsource- this.
69
172000
3000
אני יודע: הבה נעשה לזה מיקור-קהל.
03:11
So to get people warmedמחומם up,
70
176000
3000
לכן בתור תרגיל-חימום לקהל,
03:14
let's startהַתחָלָה with an easyקַל questionשְׁאֵלָה --
71
179000
2000
נתחיל עם שאלה קלה --
03:16
something I'm sure everybodyכולם here has an opinionדעה about:
72
181000
3000
משהו שאני בטוח שלכל אחד כאן יש דעה עליו:
03:19
iPhoneiPhone versusנגד Androidדְמוּי אָדָם.
73
184000
2000
אייפון כנגד אנדרואיד.
03:21
Let's do a showלְהַצִיג of handsידיים -- iPhoneiPhone.
74
186000
3000
בואו נעשה הצבעה -- אייפון.
03:24
Uh huh.
75
189000
2000
אה הה.
03:26
Androidדְמוּי אָדָם.
76
191000
3000
אנדרואיד.
03:29
You'dהיית רוצה think with a bunchצְרוֹר of smartלִכאוֹב people
77
194000
2000
אפשר היה לחשוב שעם חבורת אנשים פיקחים
03:31
we wouldn'tלא be suchכגון suckersפראיירים just for the prettyיפה phonesטלפונים.
78
196000
2000
לא נהיה כאלה פראיירים הנמשכים רק לטלפונים יפים.
03:33
(Laughterצחוק)
79
198000
2000
(צחוק)
03:35
Nextהַבָּא questionשְׁאֵלָה,
80
200000
2000
שאלה הבאה,
03:37
a little bitbit harderקשה יותר.
81
202000
2000
קצת יותר קשה.
03:39
Should we be collectingאיסוף all of that guy'sשל הבחור dataנתונים
82
204000
2000
האם עלינו לאסוף את כל הנתונים של אותו אדם
03:41
to make his experiencesחוויות better
83
206000
2000
כדי לשפר את החווייה שלו
03:43
and to protectלְהַגֵן ourselvesבְּעָצמֵנוּ in caseמקרה he's up to no good?
84
208000
3000
וכדי להגן עלינו אם במקרה הוא עושה צרות?
03:46
Or should we leaveלעזוב him aloneלבד?
85
211000
2000
או שעלינו לעזבו לנפשו?
03:48
Collectלאסוף his dataנתונים.
86
213000
3000
לאסוף את נתוניו.
03:53
Leaveלעזוב him aloneלבד.
87
218000
3000
לעזבו לנפשו.
03:56
You're safeבטוח. It's fine.
88
221000
2000
אתם מוגנים. זה בסדר גמור.
03:58
(Laughterצחוק)
89
223000
2000
(צחוק)
04:00
Okay, last questionשְׁאֵלָה --
90
225000
2000
טוב, שאלה אחרונה --
04:02
harderקשה יותר questionשְׁאֵלָה --
91
227000
2000
יותר קשה --
04:04
when tryingמנסה to evaluateלהעריך
92
229000
3000
כאשר מנסים להעריך
04:07
what we should do in this caseמקרה,
93
232000
3000
מה עלינו לעשות במקרה כזה,
04:10
should we use a Kantianקנטיאן deontologicaldeontological moralמוסר השכל frameworkמִסגֶרֶת,
94
235000
4000
האם עלינו להשתמש בעקרונות מוסר דיאונטולוגיים של קאנט,
04:14
or should we use a Millianמיליאן consequentialistתוצאתית one?
95
239000
3000
או שעלינו לעשות שימוש בעקרונות מוסר תוצאתיים של מיל?
04:19
Kantקאנט.
96
244000
3000
קאנט.
04:22
Millטחנה.
97
247000
3000
מיל.
04:25
Not as manyרב votesקולות.
98
250000
2000
אין הרבה דעות כמו קודם.
04:27
(Laughterצחוק)
99
252000
3000
(צחוק)
04:30
Yeah, that's a terrifyingמפחיד resultתוֹצָאָה.
100
255000
3000
זו תוצאה מפחידה.
04:34
Terrifyingמפחיד, because we have strongerיותר חזק opinionsדעות
101
259000
4000
מפחידה כי יש לנו דעות יותר מוצקות
04:38
about our hand-heldיד ביד devicesהתקנים
102
263000
2000
על המכשירים הנישאים שלנו
04:40
than about the moralמוסר השכל frameworkמִסגֶרֶת
103
265000
2000
מאשר על עקרונות מוסר
04:42
we should use to guideלהנחות our decisionsהחלטות.
104
267000
2000
שעלינו להשתמש בהם כקוים מנחים להחלטותינו.
04:44
How do we know what to do with all the powerכּוֹחַ we have
105
269000
3000
כיצד נדע מה לעשות עם כל הכח שבידינו
04:47
if we don't have a moralמוסר השכל frameworkמִסגֶרֶת?
106
272000
3000
אם אין לנו עקרונות מוסר?
04:50
We know more about mobileנייד operatingהפעלה systemsמערכות,
107
275000
3000
אנו יודעים יותר על מערכות הפעלה לטלפונים ניידים,
04:53
but what we really need is a moralמוסר השכל operatingהפעלה systemמערכת.
108
278000
3000
אבל מה שאנו באמת זקוקים לו זה מערכת הפעלה למוסר.
04:58
What's a moralמוסר השכל operatingהפעלה systemמערכת?
109
283000
2000
מהי מערכת הפעלה למוסר?
05:00
We all know right and wrongלא בסדר, right?
110
285000
2000
כולנו יודעים מה טוב ומה רע.
05:02
You feel good when you do something right,
111
287000
2000
אנו מרגישים טוב כאשר עושים משהו נכון,
05:04
you feel badרַע when you do something wrongלא בסדר.
112
289000
2000
אנו מרגישים רע כאשר עושים משהו שגוי.
05:06
Our parentsהורים teachלְלַמֵד us that: praiseשֶׁבַח with the good, scoldלִנְזוֹף with the badרַע.
113
291000
3000
הורינו חינכו אותנו לזה: דברי שבח על משהו טוב, נזיפה על משהו רע.
05:09
But how do we figureדמות out what's right and wrongלא בסדר?
114
294000
3000
אבל כיצד יודעים מה נכון ומה לא?
05:12
And from day to day, we have the techniquesטכניקות that we use.
115
297000
3000
ומיום ליום, יש לנו טכניקות שאנו משתמשים.
05:15
Maybe we just followלעקוב אחר our gutמְעִי.
116
300000
3000
אולי אנו רק פועלים על-פי תחושות בטן.
05:18
Maybe we take a voteהַצבָּעָה -- we crowdsource-.
117
303000
3000
אולי אנו עושים הצבעה -- מיקור-קהל.
05:21
Or maybe we puntסִירָה שְׁטוּחָה --
118
306000
2000
או אולי מהמרים --
05:23
askלִשְׁאוֹל the legalמשפטי departmentמַחלָקָה, see what they say.
119
308000
3000
שואלים את המחלקה למשפטים ומחכים לחוות דעתה.
05:26
In other wordsמילים, it's kindסוג of randomאַקרַאִי,
120
311000
2000
במילים אחרות, זה הכל אקראי,
05:28
kindסוג of adמוֹדָעָה hocHoc,
121
313000
2000
מין אילתור,
05:30
how we figureדמות out what we should do.
122
315000
3000
איך שאנו מגלים מה עלינו לעשות.
05:33
And maybe, if we want to be on surerיותר footingאֲחִיזָה,
123
318000
3000
ואולי, אם ברצוננו להיות יותר בטוחים,
05:36
what we really want is a moralמוסר השכל frameworkמִסגֶרֶת that will help guideלהנחות us there,
124
321000
3000
מה שאנו באמת צריכים זה עקרונות מוסר שיסייעו לנו להגיע לזה,
05:39
that will tell us what kindsמיני of things are right and wrongלא בסדר in the first placeמקום,
125
324000
3000
שיגידו לנו מלכתחילה מהם הדברים הנכונים ומהם הלא נכונים,
05:42
and how would we know in a givenנָתוּן situationמַצָב what to do.
126
327000
4000
וכיצד נדע במצב נתון מה לעשות.
05:46
So let's get a moralמוסר השכל frameworkמִסגֶרֶת.
127
331000
2000
אז הבה נבנה עקרונות מוסר.
05:48
We're numbersמספרים people, livingחַי by numbersמספרים.
128
333000
3000
אנו אנשי המספרים, חיים על-פי מספרים.
05:51
How can we use numbersמספרים
129
336000
2000
כיצד נוכל להשתמש במספרים
05:53
as the basisבָּסִיס for a moralמוסר השכל frameworkמִסגֶרֶת?
130
338000
3000
כבסיס לעקרונות מוסר?
05:56
I know a guy who did exactlyבְּדִיוּק that.
131
341000
3000
אני מכיר מישהו שעשה בדיוק זאת,
05:59
A brilliantמַברִיק guy --
132
344000
3000
אדם מבריק --
06:02
he's been deadמֵת 2,500 yearsשנים.
133
347000
3000
הוא מת לפני 2,500 שנה.
06:05
Platoאפלטון, that's right.
134
350000
2000
אפלטון, הוא בדיוק.
06:07
Rememberלִזכּוֹר him -- oldישן philosopherפִילוֹסוֹף?
135
352000
2000
זוכרים אותו -- פילוסוף זקן?
06:09
You were sleepingיָשֵׁן duringבְּמַהֲלָך that classמעמד.
136
354000
3000
בטח ישנתם באותו שיעור.
06:12
And Platoאפלטון, he had a lot of the sameאותו concernsחששות that we did.
137
357000
2000
ואפלטון, היו לו אותן הדאגות שיש לנו.
06:14
He was worriedמוּדְאָג about right and wrongלא בסדר.
138
359000
2000
הוא היה מודאג בקשר לטוב ורע.
06:16
He wanted to know what is just.
139
361000
2000
הוא רצה לדעת מה צודק.
06:18
But he was worriedמוּדְאָג that all we seemנראה to be doing
140
363000
2000
אבל הוא היה מודאג שכל מה שאנו עושים
06:20
is tradingמִסְחָר opinionsדעות about this.
141
365000
2000
זה החלפת דעות על כך.
06:22
He saysאומר something'sכמה דברים just. She saysאומר something elseאַחֵר is just.
142
367000
3000
הוא אומר שמשהו צודק. היא אומרת שמשהו אחר צודק.
06:25
It's kindסוג of convincingמשכנע when he talksשיחות and when she talksשיחות too.
143
370000
2000
זה די משכנע כאשר הוא מדבר וגם כאשר היא מדברת.
06:27
I'm just going back and forthהָלְאָה; I'm not gettingמקבל anywhereבְּכָל מָקוֹם.
144
372000
2000
אבל אנו הולכים רק קדימה ואחורה; אנו לא מגיעים לשום מקום.
06:29
I don't want opinionsדעות; I want knowledgeיֶדַע.
145
374000
3000
אני לא רוצה דעות, אני רוצה ידע.
06:32
I want to know the truthאֶמֶת about justiceצֶדֶק --
146
377000
3000
ברצוני לדעת את האמת על צדק --
06:35
like we have truthsאמיתות in mathמתמטיקה.
147
380000
3000
כמו שיש לנו אמיתות במתמטיקה.
06:38
In mathמתמטיקה, we know the objectiveמַטָרָה factsעובדות.
148
383000
3000
במתמטיקה אנו יודעים עובדות אובייקטיביות.
06:41
Take a numberמספר, any numberמספר -- two.
149
386000
2000
קחו מספר, כל מספר -- 2.
06:43
Favoriteאהוב numberמספר. I love that numberמספר.
150
388000
2000
מספר אהוב עליי. אני מת עליו.
06:45
There are truthsאמיתות about two.
151
390000
2000
ישנן אמיתות על 2.
06:47
If you've got two of something,
152
392000
2000
אם יש לנו 2 דברים,
06:49
you addלְהוֹסִיף two more, you get fourארבעה.
153
394000
2000
ומוסיפים להם 2 נוספים, מקבלים 4.
06:51
That's trueנָכוֹן no matterחוֹמֶר what thing you're talkingשִׂיחָה about.
154
396000
2000
זה תמיד נכון, לא משנה על איזה דברים מדובר.
06:53
It's an objectiveמַטָרָה truthאֶמֶת about the formטופס of two,
155
398000
2000
זוהי אמת אובייקטיבית על אופיו של 2,
06:55
the abstractתַקצִיר formטופס.
156
400000
2000
האופי המופשט.
06:57
When you have two of anything -- two eyesעיניים, two earsאוזניים, two nosesאפים,
157
402000
2000
יש לנו 2 מכל דבר -- 2 עיניים, 2 אוזניים, 2 אפים,
06:59
just two protrusionsבליטות --
158
404000
2000
פשוט 2 בליטות --
07:01
those all partakeלִיטוֹל חֵלֶק of the formטופס of two.
159
406000
3000
כולם מאופיינים ב-2.
07:04
They all participateלְהִשְׂתַתֵף in the truthsאמיתות that two has.
160
409000
4000
כולם משתתפים באמיתות שיש ב-2.
07:08
They all have two-nessשתיים in them.
161
413000
2000
לכולם מהם יש 2-יות בתוכם.
07:10
And thereforeלכן, it's not a matterחוֹמֶר of opinionדעה.
162
415000
3000
ולכן, זה לא עניין של דעה.
07:13
What if, Platoאפלטון thought,
163
418000
2000
ומה אם, אפלטון היה חושב
07:15
ethicsאֶתִיקָה was like mathמתמטיקה?
164
420000
2000
שאתיקה זה כמו מתמטיקה?
07:17
What if there were a pureטָהוֹר formטופס of justiceצֶדֶק?
165
422000
3000
מה אם ישנן צורות טהורות של צדק?
07:20
What if there are truthsאמיתות about justiceצֶדֶק,
166
425000
2000
מה אם יש אמיתות על צדק,
07:22
and you could just look around in this worldעוֹלָם
167
427000
2000
ופשוט יכולנו להסתכל מסביב בעולם
07:24
and see whichאיזה things participatedהשתתפו,
168
429000
2000
ולראות איזה דברים משתתפים בזה,
07:26
partookחלק of that formטופס of justiceצֶדֶק?
169
431000
3000
מאופיינים באותה צורת צדק?
07:29
Then you would know what was really just and what wasn'tלא היה.
170
434000
3000
אז היינו יודעים מה באמת צודק ומה לא.
07:32
It wouldn'tלא be a matterחוֹמֶר
171
437000
2000
זה לא היה רק
07:34
of just opinionדעה or just appearancesהופעות.
172
439000
3000
עניין של דעה או מראה.
07:37
That's a stunningמַדְהִים visionחָזוֹן.
173
442000
2000
זהו חזון נפלא.
07:39
I mean, think about that. How grandגָדוֹל. How ambitiousשְׁאַפתָנִי.
174
444000
3000
כלומר, חישבו על כך. כמה אדיר, כמה שאפתני.
07:42
That's as ambitiousשְׁאַפתָנִי as we are.
175
447000
2000
זה כמה שאנו שאפתניים.
07:44
He wants to solveלִפְתוֹר ethicsאֶתִיקָה.
176
449000
2000
הוא רוצה לפתור אתיקה.
07:46
He wants objectiveמַטָרָה truthsאמיתות.
177
451000
2000
הוא רוצה אמיתות אובייקטיביות.
07:48
If you think that way,
178
453000
3000
אם אתם חושבים בדרך זו,
07:51
you have a Platonistאפלטוניסט moralמוסר השכל frameworkמִסגֶרֶת.
179
456000
3000
יש לכם עקרונות מוסר אפלטוניים.
07:54
If you don't think that way,
180
459000
2000
אם אינכם חושבים בדרך זו,
07:56
well, you have a lot of companyחֶברָה in the historyהִיסטוֹרִיָה of Westernהמערבי philosophyפִילוֹסוֹפִיָה,
181
461000
2000
אתם בחברה מאוד גדולה בהיסטוריה של הפילוסופיה המערבית,
07:58
because the tidyמסודר ideaרַעְיוֹן, you know, people criticizedמותח ביקורת it.
182
463000
3000
בגלל שהרעיון של הסדר -- נמתחה עליו ביקורת.
08:01
Aristotleאריסטו, in particularמיוחד, he was not amusedמשועשע.
183
466000
3000
אריסטו, במיוחד, הוא לא שבע נחת.
08:04
He thought it was impracticalלֹא מַעֲשִׂי.
184
469000
3000
הוא סבר שזה לא מעשי.
08:07
Aristotleאריסטו said, "We should seekלְחַפֵּשׂ only so much precisionדיוק in eachכל אחד subjectנושא
185
472000
4000
אריסטו אמר, "עלינו לחפש רק את אותו דיוק בכל נושא
08:11
as that subjectנושא allowsמאפשרים."
186
476000
2000
כפי שאותו נושא מאפשר."
08:13
Aristotleאריסטו thought ethicsאֶתִיקָה wasn'tלא היה a lot like mathמתמטיקה.
187
478000
3000
אריסטו סבר שאין האתיקה דומה כל-כך למתמטיקה.
08:16
He thought ethicsאֶתִיקָה was a matterחוֹמֶר of makingהֲכָנָה decisionsהחלטות in the here-and-nowכאן ועכשיו
188
481000
3000
הוא סבר שאתיקה זה עניין של לקבל החלטות כאן ועכשיו
08:19
usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני our bestהטוב ביותר judgmentפְּסַק דִין
189
484000
2000
בעזרת מיטב שיקול דעתנו
08:21
to find the right pathנָתִיב.
190
486000
2000
כדי למצוא את השביל הנכון.
08:23
If you think that, Plato'sאפלטון not your guy.
191
488000
2000
אם אתם חושבים כך, אפלטון הוא לא האיש שלכם.
08:25
But don't give up.
192
490000
2000
אבל לא להתייאש.
08:27
Maybe there's anotherאַחֵר way
193
492000
2000
אולי יש דרך נוספת
08:29
that we can use numbersמספרים as the basisבָּסִיס of our moralמוסר השכל frameworkמִסגֶרֶת.
194
494000
3000
שבה נוכל להשתמש במספרים כבסיס לעקרונות מוסר.
08:33
How about this:
195
498000
2000
מה דעתכם על זה:
08:35
What if in any situationמַצָב you could just calculateלחשב,
196
500000
3000
מה אם היינו יכולים פשוט לחשב כל מצב,
08:38
look at the choicesבחירות,
197
503000
2000
לראות את האפשרויות,
08:40
measureלִמְדוֹד out whichאיזה one'sיחידות better and know what to do?
198
505000
3000
לאמוד איזו יותר טובה וכך לדעת מה לעשות?
08:43
That soundנשמע familiarמוּכָּר?
199
508000
2000
נשמע מוכר?
08:45
That's a utilitarianתוֹעַלתָנִי moralמוסר השכל frameworkמִסגֶרֶת.
200
510000
3000
אלה הם עקרונות מוסר תועלתניים.
08:48
Johnג'ון Stuartסטיוארט Millטחנה was a great advocateעוֹרֵך דִין of this --
201
513000
2000
ג'ון סטיוארט מיל היה חסיד גדול שלהן --
08:50
niceנֶחְמָד guy besidesחוץ מזה --
202
515000
2000
חוץ מזה אדם נחמד --
08:52
and only been deadמֵת 200 yearsשנים.
203
517000
2000
רק מת כבר 200 שנה.
08:54
So basisבָּסִיס of utilitarianismהתועלתנות --
204
519000
2000
כך שבסיס של תועלתנות --
08:56
I'm sure you're familiarמוּכָּר at leastהכי פחות.
205
521000
2000
אני בטוח שלפחות שמעתם על זה.
08:58
The threeשְׁלוֹשָׁה people who votedהצביעו for Millטחנה before are familiarמוּכָּר with this.
206
523000
2000
שלושת האנשים שהצביעו קודם בעד מיל בטח מכירים זאת.
09:00
But here'sהנה the way it worksעובד.
207
525000
2000
וכך זה עובד.
09:02
What if moralsמוֹרָל, what if what makesעושה something moralמוסר השכל
208
527000
3000
מה אם התשובה לשאלה אם משהו מוסרי,
09:05
is just a matterחוֹמֶר of if it maximizesמעלה pleasureהנאה
209
530000
2000
היא רק עניין של אם זה ממקסם הנאה
09:07
and minimizesממזער painכְּאֵב?
210
532000
2000
ומצמצם כאב?
09:09
It does something intrinsicפְּנִימִי to the actפעולה.
211
534000
3000
זה עושה משהו מהותי ופנימי לפעולה.
09:12
It's not like its relationיַחַס to some abstractתַקצִיר formטופס.
212
537000
2000
זה לא כמו הקשר שלו לאיזו צורה מופשטת.
09:14
It's just a matterחוֹמֶר of the consequencesהשלכות.
213
539000
2000
זה פשוט עניין של תוצאות.
09:16
You just look at the consequencesהשלכות
214
541000
2000
פשוט מסתכלים על התוצאות
09:18
and see if, overallבאופן כללי, it's for the good or for the worseרע יותר.
215
543000
2000
ורואים, אם זה לטובה או לרעה.
09:20
That would be simpleפָּשׁוּט. Then we know what to do.
216
545000
2000
זה יהיה פשוט. ואז נדע מה לעשות.
09:22
Let's take an exampleדוגמא.
217
547000
2000
ניקח מקרה לדוגמא.
09:24
Supposeלְהַנִיחַ I go up
218
549000
2000
נניח שאני בא ואומר,
09:26
and I say, "I'm going to take your phoneטלפון."
219
551000
2000
"אני הולך לקחת את הנייד שלך."
09:28
Not just because it rangצלצל earlierמוקדם יותר,
220
553000
2000
לא רק בגלל שהוא צילצל קודם,
09:30
but I'm going to take it because I madeעָשׂוּי a little calculationתַחשִׁיב.
221
555000
3000
אלא כי עשיתי חישוב קטן.
09:33
I thought, that guy looksנראה suspiciousחָשׁוּד.
222
558000
3000
חשבתי שהאדם שם נראה חשוד.
09:36
And what if he's been sendingשְׁלִיחָה little messagesהודעות to Binפַּח Laden'sשל לאדן hideoutמַחֲבוֹא --
223
561000
3000
ומה אם הוא שולח הודעות קצרות אל מחבוא של בין-לאדן --
09:39
or whoeverמִי tookלקח over after Binפַּח Ladenעָמוּס --
224
564000
2000
או מי שבא אחרי בין-לאדן --
09:41
and he's actuallyלמעשה like a terroristמְחַבֵּל, a sleeperאֶדֶן cellתָא.
225
566000
3000
הוא בעצם כמו מחבל, תא רדום.
09:44
I'm going to find that out, and when I find that out,
226
569000
3000
אני הולך לגלות זאת, וכאשר אגלה,
09:47
I'm going to preventלִמְנוֹעַ a hugeעָצוּם amountכמות of damageנֵזֶק that he could causeגורם.
227
572000
3000
אמנע נזק גדול מאוד שהוא יכל לגרום.
09:50
That has a very highגָבוֹהַ utilityתוֹעֶלֶת to preventלִמְנוֹעַ that damageנֵזֶק.
228
575000
3000
לפעולה זו יש תועלת גדולה מאוד של מניעת נזק.
09:53
And comparedבהשוואה to the little painכְּאֵב that it's going to causeגורם --
229
578000
2000
ובהשוואה לכאב הקטן שהיא יכולה לגרום --
09:55
because it's going to be embarrassingמֵבִיך when I'm looking on his phoneטלפון
230
580000
2000
מכיוון שהולך להיות מביך כאשר אסתכל על הנייד שלו
09:57
and seeingרְאִיָה that he has a Farmvilleבחווה problemבְּעָיָה and that wholeכֹּל bitbit --
231
582000
3000
ואמצא שיש לו בעיה במשחק רשת וכל זה --
10:00
that's overwhelmedהמום
232
585000
3000
אבל כל זה מתגמד
10:03
by the valueערך of looking at the phoneטלפון.
233
588000
2000
מול הערך של להסתכל בנייד שלו.
10:05
If you feel that way,
234
590000
2000
אם גם אתם מרגישים כך,
10:07
that's a utilitarianתוֹעַלתָנִי choiceבְּחִירָה.
235
592000
3000
זוהי בחירה תועלתנית.
10:10
But maybe you don't feel that way eitherאוֹ.
236
595000
3000
ואולי אתם לא מרגישים כך.
10:13
Maybe you think, it's his phoneטלפון.
237
598000
2000
אולי אתם חושבים, זה הנייד שלו.
10:15
It's wrongלא בסדר to take his phoneטלפון
238
600000
2000
זה לא בסדר לקחת את הנייד שלו,
10:17
because he's a personאדם
239
602000
2000
מכיוון שהוא אדם
10:19
and he has rightsזכויות and he has dignityכָּבוֹד,
240
604000
2000
ויש לו זכויות ויש לו כבוד-עצמי,
10:21
and we can't just interfereלְהַפְרִיעַ with that.
241
606000
2000
ואל לנו סתם כך לתחוב את אפינו.
10:23
He has autonomyאוטונומיה.
242
608000
2000
יש לו אוטונומיה.
10:25
It doesn't matterחוֹמֶר what the calculationsחישובים are.
243
610000
2000
זה לא משנה מה השיקולים.
10:27
There are things that are intrinsicallyבאופן מהותי wrongלא בסדר --
244
612000
3000
יש דברים שהם באופן מהותי ופנימי עוול --
10:30
like lyingשֶׁקֶר is wrongלא בסדר,
245
615000
2000
כמו שלשקר זה רע,
10:32
like torturingמענה innocentחף מפשע childrenיְלָדִים is wrongלא בסדר.
246
617000
3000
כמו שלענות ילדים תמימים זה רע.
10:35
Kantקאנט was very good on this pointנְקוּדָה,
247
620000
3000
קאנט מאוד צדק בעניין זה,
10:38
and he said it a little better than I'll say it.
248
623000
2000
והוא ביטא את זה יותר טוב ממני.
10:40
He said we should use our reasonסיבה
249
625000
2000
הוא אמר שעלינו להשתמש בשכל שלנו
10:42
to figureדמות out the rulesכללים by whichאיזה we should guideלהנחות our conductהתנהגות,
250
627000
3000
כדי לגלות את הכללים שעלינו להתנהג לפיהם.
10:45
and then it is our dutyחוֹבָה to followלעקוב אחר those rulesכללים.
251
630000
3000
ואז זו חובתנו לציית לכללים אלה.
10:48
It's not a matterחוֹמֶר of calculationתַחשִׁיב.
252
633000
3000
אין זה עניין של חישובים.
10:51
So let's stop.
253
636000
2000
אז הבה נעצור.
10:53
We're right in the thickעָבֶה of it, this philosophicalפילוסופית thicketסְבַך.
254
638000
3000
אנחנו ממש בסבך העניינים, בסבך הפילוסופי הזה.
10:56
And this goesהולך on for thousandsאלפים of yearsשנים,
255
641000
3000
וזה נמשך כבר אלפי שנים,
10:59
because these are hardקָשֶׁה questionsשאלות,
256
644000
2000
מכיוון שאלו הן שאלות קשות,
11:01
and I've only got 15 minutesדקות.
257
646000
2000
ולי יש רק 15 דקות.
11:03
So let's cutגזירה to the chaseמִרדָף.
258
648000
2000
לכן נגיע לעיקר.
11:05
How should we be makingהֲכָנָה our decisionsהחלטות?
259
650000
4000
כיצד עלינו לקבל החלטות?
11:09
Is it Platoאפלטון, is it Aristotleאריסטו, is it Kantקאנט, is it Millטחנה?
260
654000
3000
האם זה אפלטון, האם זה אריסטו, האם זה קאנט, או אולי מיל?
11:12
What should we be doing? What's the answerתשובה?
261
657000
2000
מה עלינו לעשות? מה התשובה?
11:14
What's the formulaנוּסחָה that we can use in any situationמַצָב
262
659000
3000
מהי הנוסחה שעלינו להשתמש בה בכל מצב
11:17
to determineלקבוע what we should do,
263
662000
2000
כדי לקבוע מה עלינו לעשות,
11:19
whetherהאם we should use that guy'sשל הבחור dataנתונים or not?
264
664000
2000
באם עלינו להשתמש בנתוני אותו אדם או לא?
11:21
What's the formulaנוּסחָה?
265
666000
3000
מהי הנוסחה?
11:25
There's not a formulaנוּסחָה.
266
670000
2000
אין נוסחה.
11:29
There's not a simpleפָּשׁוּט answerתשובה.
267
674000
2000
אין תשובה פשוטה.
11:31
Ethicsאֶתִיקָה is hardקָשֶׁה.
268
676000
3000
אתיקה זה דבר מסובך.
11:34
Ethicsאֶתִיקָה requiresדורש thinkingחושב.
269
679000
3000
אתיקה דורשת חשיבה.
11:38
And that's uncomfortableלא נוח.
270
683000
2000
וזה לא נוח.
11:40
I know; I spentמוּתַשׁ a lot of my careerקריירה
271
685000
2000
ביליתי חלק גדול מהקריירה שלי
11:42
in artificialמְלָאכוּתִי intelligenceאינטליגנציה,
272
687000
2000
בבינה מלאכותית,
11:44
tryingמנסה to buildלִבנוֹת machinesמכונה that could do some of this thinkingחושב for us,
273
689000
3000
בניסיון לבנות מכונות שתוכלנה לחשוב במקומנו,
11:47
that could give us answersתשובות.
274
692000
2000
שתוכלנה לתת לנו תשובות.
11:49
But they can't.
275
694000
2000
אבל הן לא יכולות.
11:51
You can't just take humanבן אנוש thinkingחושב
276
696000
2000
אי-אפשר פשוט לקחת חשיבה אנושית
11:53
and put it into a machineמְכוֹנָה.
277
698000
2000
ולשים אותה במכונה.
11:55
We're the onesיחידות who have to do it.
278
700000
3000
אנחנו אלה שנצטרך לעשות זאת.
11:58
Happilyבשמחה, we're not machinesמכונה, and we can do it.
279
703000
3000
לשמחתנו, אנו לא מכונות ואנו יכולים לעשות זאת.
12:01
Not only can we think,
280
706000
2000
לא רק שאנו יכולים לחשוב,
12:03
we mustצריך.
281
708000
2000
אלא אנו חייבים.
12:05
Hannahחנה Arendtארנדט said,
282
710000
2000
חנה ארדנט אמרה,
12:07
"The sadעָצוּב truthאֶמֶת
283
712000
2000
"האמת העצובה היא
12:09
is that mostרוב evilרוע doneבוצע in this worldעוֹלָם
284
714000
2000
שרוב הרע שנעשה בעולם זה,
12:11
is not doneבוצע by people
285
716000
2000
אינו נעשה על-ידי אנשים
12:13
who chooseבחר to be evilרוע.
286
718000
2000
אשר בוחרים לעשות רע.
12:15
It arisesמתעורר from not thinkingחושב."
287
720000
3000
אלא הוא נובע מחוסר חשיבה."
12:18
That's what she calledשקוראים לו the "banalityבָּנָלִיוּת of evilרוע."
288
723000
4000
לזה היא קראה "הבנליות של רוע".
12:22
And the responseתְגוּבָה to that
289
727000
2000
וכמענה לזה,
12:24
is that we demandלִדרוֹשׁ the exerciseתרגיל of thinkingחושב
290
729000
2000
אנו דורשים את תירגול החשיבה
12:26
from everyכֹּל saneשָׁפוּי בְּדַעתוֹ personאדם.
291
731000
3000
מכל אדם שפוי.
12:29
So let's do that. Let's think.
292
734000
2000
אז הבה נעשה זאת, הבה נחשוב.
12:31
In factעוּבדָה, let's startהַתחָלָה right now.
293
736000
3000
בעצם, בואו נתחיל כבר עכשיו.
12:34
Everyכֹּל personאדם in this roomחֶדֶר do this:
294
739000
3000
שכל אחד באולם יעשה את זה:
12:37
think of the last time you had a decisionהַחְלָטָה to make
295
742000
3000
שיחשוב על הפעם האחרונה שהיה עליו לקבל החלטה
12:40
where you were worriedמוּדְאָג to do the right thing,
296
745000
2000
כאשר דאגת בקשר לעשיית הדבר הנכון,
12:42
where you wonderedתהה, "What should I be doing?"
297
747000
2000
כאשר תהית, "מה אני אמור לעשות?"
12:44
Bringלְהָבִיא that to mindאכפת,
298
749000
2000
תיזכרו בזה.
12:46
and now reflectמשקף on that
299
751000
2000
וכעת תהרהרו בזה
12:48
and say, "How did I come up that decisionהַחְלָטָה?
300
753000
3000
ותאמרו, "כיצד הגעתי להחלטה זו?
12:51
What did I do? Did I followלעקוב אחר my gutמְעִי?
301
756000
3000
מה עשיתי? האם פעלתי לפי תחושותיי?
12:54
Did I have somebodyמִישֶׁהוּ voteהַצבָּעָה on it? Or did I puntסִירָה שְׁטוּחָה to legalמשפטי?"
302
759000
2000
האם היה לי מישהו שיביע את דעתו? או שפניתי לחוק?"
12:56
Or now we have a fewמְעַטִים more choicesבחירות.
303
761000
3000
או כעת שיש לנו יותר אפשרויות:
12:59
"Did I evaluateלהעריך what would be the highestהכי גבוה pleasureהנאה
304
764000
2000
"האם בדקתי מתי תהיה ההנאה הגדולה ביותר
13:01
like Millטחנה would?
305
766000
2000
כמו שמיל היה עושה?
13:03
Or like Kantקאנט, did I use reasonסיבה to figureדמות out what was intrinsicallyבאופן מהותי right?"
306
768000
3000
או כמו קאנט, האם השתמשתי בשכל כדי למצוא מה היה נכון מהותית ופנימית?"
13:06
Think about it. Really bringלְהָבִיא it to mindאכפת. This is importantחָשׁוּב.
307
771000
3000
תחשבו על זה. באמת תביאו את עצמכם לחשוב. זה חשוב.
13:09
It is so importantחָשׁוּב
308
774000
2000
זה כל-כך חשוב
13:11
we are going to spendלְבַלוֹת 30 secondsשניות of valuableבעל ערך TEDTalkTEDTalk time
309
776000
2000
שאנו עומדם להעביר 30 שניות מהזמן היקר של הרצאת TED
13:13
doing nothing but thinkingחושב about this.
310
778000
2000
כדי לא לעשות כלום אלא לחשוב על זה.
13:15
Are you readyמוּכָן? Go.
311
780000
2000
האם אתם מוכנים? תתחילו.
13:33
Stop. Good work.
312
798000
3000
עיצרו. עבודה טובה.
13:36
What you just did,
313
801000
2000
מה שעשיתם כרגע,
13:38
that's the first stepשלב towardsלִקרַאת takingלְקִיחָה responsibilityאַחֲרָיוּת
314
803000
2000
היה הצעד הראשון אל עבר לקיחת אחריות
13:40
for what we should do with all of our powerכּוֹחַ.
315
805000
3000
על מה שאנו צריכים לעשות עם כל הכח שבידינו.
13:45
Now the nextהַבָּא stepשלב -- try this.
316
810000
3000
כעת לצעד הבא -- נסו את זה.
13:49
Go find a friendחָבֵר and explainלהסביר to them
317
814000
2000
תמצאו חבר והסבירו לו
13:51
how you madeעָשׂוּי that decisionהַחְלָטָה.
318
816000
2000
כיצד הגעתם להחלטה.
13:53
Not right now. Wait tillעד I finishסִיוּם talkingשִׂיחָה.
319
818000
2000
לא מייד. חכו עד שאסיים לדבר.
13:55
Do it over lunchארוחת צהריים.
320
820000
2000
תעשו זאת בזמן ארוחה.
13:57
And don't just find anotherאַחֵר technologistטכנאי friendחָבֵר;
321
822000
3000
ואל תמצאו רק עוד חבר טכנולוגי;
14:00
find somebodyמִישֶׁהוּ differentשונה than you.
322
825000
2000
תמצאו מישהו שונה מכם.
14:02
Find an artistאמן or a writerסוֹפֵר --
323
827000
2000
תמצאו אמן או סופר --
14:04
or, heavenגן העדן forbidלֶאֱסוֹר, find a philosopherפִילוֹסוֹף and talk to them.
324
829000
3000
או, חס וחלילה, תמצאו פילוסוף ותשוחחו עימם.
14:07
In factעוּבדָה, find somebodyמִישֶׁהוּ from the humanitiesמַדָעֵי הָרוּחַ.
325
832000
2000
בעצם, תמצאו מישהו ממדעי הרוח.
14:09
Why? Because they think about problemsבעיות
326
834000
2000
למה? מכיוון שהם חושבים על בעיות
14:11
differentlyבאופן שונה than we do as technologistsטכנאים.
327
836000
2000
באופן שונה מאיתנו הטכנולוגים.
14:13
Just a fewמְעַטִים daysימים agoלִפנֵי, right acrossלְרוֹחָב the streetרְחוֹב from here,
328
838000
3000
רק לפני מספר ימים, ממש מעבר לכביש כאן,
14:16
there was hundredsמאות of people gatheredהתאספו togetherיַחַד.
329
841000
2000
היו מאות אנשים שנאספו.
14:18
It was technologistsטכנאים and humanistsהומניסטים
330
843000
2000
היו אלה טכנולוגים ואנשי מדעי הרוח
14:20
at that bigגָדוֹל BiblioTechBiblioTech Conferenceוְעִידָה.
331
845000
2000
בכנס BiblioTech הגדול.
14:22
And they gatheredהתאספו togetherיַחַד
332
847000
2000
הם נאספו ביחד
14:24
because the technologistsטכנאים wanted to learnלִלמוֹד
333
849000
2000
כי הטכנולוגים רצו ללמוד
14:26
what it would be like to think from a humanitiesמַדָעֵי הָרוּחַ perspectiveפֶּרספֶּקטִיבָה.
334
851000
3000
איך זה יהיה לחשוב מנקודת מבט של מדעי הרוח.
14:29
You have someoneמִישֶׁהוּ from GoogleGoogle
335
854000
2000
היה שם מישהו מגוגל
14:31
talkingשִׂיחָה to someoneמִישֶׁהוּ who does comparativeיַחֲסִי literatureסִפְרוּת.
336
856000
2000
ששוחח עם מישהו שעוסק בספרות השוואתית.
14:33
You're thinkingחושב about the relevanceהרלוונטיות of 17thה centuryמֵאָה Frenchצָרְפָתִית theaterתיאטרון --
337
858000
3000
אתם שואלים את עצמכם על ההשפעה של תאטרון צרפתי מן המאה ה-17 --
14:36
how does that bearדוב uponעַל ventureמיזם capitalעיר בירה?
338
861000
2000
כיצד הוא קשור להון-סיכון?
14:38
Well that's interestingמעניין. That's a differentשונה way of thinkingחושב.
339
863000
3000
כל זה מעניין. זוהי דרך חשיבה אחרת.
14:41
And when you think in that way,
340
866000
2000
וכאשר חושבים בדרך זו,
14:43
you becomeהפכו more sensitiveרָגִישׁ to the humanבן אנוש considerationsשיקולים,
341
868000
3000
אנו הופכים ליותר רגישים לשיקולים אנושיים,
14:46
whichאיזה are crucialמַכרִיעַ to makingהֲכָנָה ethicalאֶתִי decisionsהחלטות.
342
871000
3000
שהם המפתח לקבלת החלטות אתיות.
14:49
So imagineלדמיין that right now
343
874000
2000
אז דמיינו שממש עכשיו
14:51
you wentהלך and you foundמצאתי your musicianמוּסִיקָאִי friendחָבֵר.
344
876000
2000
נתקלתם בחברכם המוזיקאי.
14:53
And you're tellingאומר him what we're talkingשִׂיחָה about,
345
878000
3000
ואתם מספרים לו על מה שאנו מדברים עכשיו,
14:56
about our wholeכֹּל dataנתונים revolutionמַהְפֵּכָה and all this --
346
881000
2000
על מהפכת הנתונים וכל זה --
14:58
maybe even humזִמזוּם a fewמְעַטִים barsבארים of our themeנושא musicמוּסִיקָה.
347
883000
2000
אולי אפילו תזמזמו כמה תווים ממוזיקת הנושא שלנו.
15:00
Dumדום tata dada dada dumדום dumדום tata dada dada dumדום
348
885000
3000
♫ דאם טא דא דא דאם דאם טא דא דא דאם ♫
15:03
Well, your musicianמוּסִיקָאִי friendחָבֵר will stop you and say,
349
888000
2000
החבר המוזיקאי שלכם יקטע אתכם ויאמר,
15:05
"You know, the themeנושא musicמוּסִיקָה
350
890000
2000
"אתה יודע, מוזיקה זו
15:07
for your dataנתונים revolutionמַהְפֵּכָה,
351
892000
2000
שקשורה למהפכת הנתונים שלך,
15:09
that's an operaאוֹפֵּרָה, that's Wagnerוגנר.
352
894000
2000
היא אופרה, זהו ואגנר.
15:11
It's basedמבוסס on Norseנורדי legendאגדה.
353
896000
2000
היא מבוססת על אגדה נורבגית.
15:13
It's Godsאלוהויות and mythicalאַגָדִי creaturesיצורים
354
898000
2000
אלה הם אלים ויצורים מיתולוגיים
15:15
fightingלְחִימָה over magicalקִסמִי jewelryתכשיט."
355
900000
3000
הנלחמים על אבני חן קסומות."
15:19
That's interestingמעניין.
356
904000
3000
זה מעניין.
15:22
Now it's alsoגַם a beautifulיפה operaאוֹפֵּרָה,
357
907000
3000
אז עכשיו זו גם אופרה יפה.
15:25
and we're movedנִרגָשׁ by that operaאוֹפֵּרָה.
358
910000
3000
וזה נוגע לליבנו, אותה אופרה.
15:28
We're movedנִרגָשׁ because it's about the battleקרב
359
913000
2000
היא נוגעת לליבנו כי היא על הקרב
15:30
betweenבֵּין good and evilרוע,
360
915000
2000
בין טוב לרע,
15:32
about right and wrongלא בסדר.
361
917000
2000
על מה נכון ומה לא נכון.
15:34
And we careלְטַפֵּל about right and wrongלא בסדר.
362
919000
2000
ולנו אכפת מה נכון ומה לא.
15:36
We careלְטַפֵּל what happensקורה in that operaאוֹפֵּרָה.
363
921000
3000
אכפת לנו מה קורה באותה אופרה.
15:39
We careלְטַפֵּל what happensקורה in "Apocalypseאַפּוֹקָלִיפּסָה Now."
364
924000
3000
אכפת לנו מה קורה ב"אפוקליפסה עכשיו".
15:42
And we certainlyבְּהֶחלֵט careלְטַפֵּל
365
927000
2000
ובטוח אכפת לנו
15:44
what happensקורה with our technologiesטכנולוגיות.
366
929000
2000
מה קורה עם הטכנולוגיות שלנו.
15:46
We have so much powerכּוֹחַ todayהיום,
367
931000
2000
יש לנו המון כח היום,
15:48
it is up to us to figureדמות out what to do,
368
933000
3000
ומוטל עלינו לגלות מה עלינו לעשות.
15:51
and that's the good newsחֲדָשׁוֹת.
369
936000
2000
ואלה חדשות טובות.
15:53
We're the onesיחידות writingכְּתִיבָה this operaאוֹפֵּרָה.
370
938000
3000
אנחנו הם אלה שכותבים את האופרה.
15:56
This is our movieסרט.
371
941000
2000
זה הסרט שלנו.
15:58
We figureדמות out what will happenלִקְרוֹת with this technologyטֶכנוֹלוֹגִיָה.
372
943000
3000
אנחנו מגלים מה יקרה עם הטכנולוגיה הזו.
16:01
We determineלקבוע how this will all endסוֹף.
373
946000
3000
אנחנו קובעים כיצד כל זה יסתיים.
16:04
Thank you.
374
949000
2000
תודה לכם.
16:06
(Applauseתְשׁוּאוֹת)
375
951000
5000
(מחיאות כפיים)
Translated by Yubal Masalker
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Damon Horowitz - Philosopher, entrepreneur
Damon Horowitz explores what is possible at the boundaries of technology and the humanities.

Why you should listen

Damon Horowitz is a philosophy professor and serial entrepreneur. He recently joined Google as In-House Philosopher / Director of Engineering, heading development of several initiatives involving social and search. He came to Google from Aardvark, the social search engine, where he was co-founder and CTO, overseeing product development and research strategy. Prior to Aardvark, Horowitz built several companies around applications of intelligent language processing. He co-founded Perspecta (acquired by Excite), was lead architect for Novation Biosciences (acquired by Agilent), and co-founded NewsDB (now Daylife).

Horowitz teaches courses in philosophy, cognitive science, and computer science at several institutions, including Stanford, NYU, University of Pennsylvania and San Quentin State Prison.

Get more information on the Prison University Project >>

More profile about the speaker
Damon Horowitz | Speaker | TED.com