ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com
TED@IBM

Raphael Arar: How we can teach computers to make sense of our emotions

رافييل أرار: كيف يمكننا تعليم الحواسيب على فهم مشاعرنا

Filmed:
1,255,602 views

كيف يمكننا أن نصنع ذكاءً اصطناعيًا يريد الناس حقا التعامل معه؟ يقترح "رافييل أرار" أن نبدأ بصنع فن. هو يشارك مشاريع تفاعلية تساعد الذكاء الاصطناعي أن يستكشف الأفكار المعقدة مثل الحنين والحدس والحوار. الكل يعمل نحو هدف جعل مستقبلنا التكنولوجي أقرب للبشر من الاصطناعية.
- Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives. Full bio

Double-click the English transcript below to play the video.

00:13
I considerيعتبر myselfنفسي one partجزء artistفنان
and one partجزء designerمصمم.
0
1760
4680
أنا أعتبر نفسي فنان جزئياً ومصمم جزئياً.
00:18
And I work at an artificialمصطنع
intelligenceالمخابرات researchابحاث labمختبر.
1
6480
3160
وأنا أعمل في معمل لأبحاث الذكاء الاصطناعي.
00:22
We're tryingمحاولة to createخلق technologyتقنية
2
10720
1696
نحن نحاول خلق تكنولوجيا
00:24
that you'llعليك want to interactتفاعل with
in the farبعيدا futureمستقبل.
3
12440
3296
قد تودّ التفاعل معها في المستقبل البعيد.
00:27
Not just sixستة monthsالشهور from now,
but try yearsسنوات and decadesعقود from now.
4
15760
4640
ليس فقط بعد ستة أشهر من الآن، وإنما نحاول
أن تكون بعد سنين وعقود من الآن.
00:33
And we're takingمع الأخذ a moonshotmoonshot
5
21120
1616
ونحن نأخذ وثبة نوعية
00:34
that we'llحسنا want to be
interactingالتفاعل with computersأجهزة الكمبيوتر
6
22760
2456
حيث أننا نريد أن نتفاعل مع الحواسيب
00:37
in deeplyبشدة emotionalعاطفي waysطرق.
7
25240
2120
بطرق عاطفية شديدة.
00:40
So in orderطلب to do that,
8
28280
1456
لذا لفعل ذلك،
00:41
the technologyتقنية has to be
just as much humanبشري as it is artificialمصطنع.
9
29760
4480
يجب أن تكون التكنولوجيا بشريّة
بقدر كونها صناعيّة.
00:46
It has to get you.
10
34920
2256
يجب عليها أن تفهمك.
00:49
You know, like that insideفي داخل jokeنكتة
that'llالتي سوف have you and your bestالأفضل friendصديق
11
37200
3336
مثل تلك المزحة الخاصة بك
وبصديقك المفضل التي تجعلكما
00:52
on the floorأرضية, crackingتكسير up.
12
40560
1936
تنفجران ضحكاً.
00:54
Or that look of disappointmentخيبة الامل
that you can just smellرائحة from milesاميال away.
13
42520
4560
أو نظرة الإحباط تلك التي تستشعرها
من على بعد أميال.
01:00
I viewرأي artفن as the gatewayبوابة to help us
bridgeجسر this gapالفارق betweenما بين humanبشري and machineآلة:
14
48560
6040
أنا أرى الفن كبوابة تساعدنا
على تخطي الفجوة بين البشر والآلات:
01:07
to figureالشكل out what it meansيعني
to get eachكل other
15
55280
3136
لنكتشف ماذا يعني أن نفهم بعضنا بعضاً
01:10
so that we can trainقطار AIAI to get us.
16
58440
2760
فنستطيع تدريب الذكاء الاصطناعي أن يفهمنا.
01:13
See, to me, artفن is a way
to put tangibleملموس experiencesخبرة
17
61920
3816
بالنسبة لي، الفن وسيلة لوضع خبرات ملموسة
01:17
to intangibleغير الملموسة ideasأفكار,
feelingsمشاعر and emotionsالعواطف.
18
65760
3240
لأفكار وأحاسيس ومشاعر غير ملموسة.
01:21
And I think it's one
of the mostعظم humanبشري things about us.
19
69800
2600
وأعتقد أنّ هذا من أكثر
الأشياء إنسانيةً فينا.
01:25
See, we're a complicatedمعقد
and complexمركب bunchباقة.
20
73480
2936
نحن حزمة معقدة ومركبة.
01:28
We have what feelsيشعر like
an infiniteغير محدود rangeنطاق of emotionsالعواطف,
21
76440
3136
نحن نملك ما يقارب مدىً
غير محدود من المشاعر،
01:31
and to topأعلى it off, we're all differentمختلف.
22
79600
2496
وعلاوة على ذلك، نحن كلّنا مختلفون.
01:34
We have differentمختلف familyأسرة backgroundsخلفيات,
23
82120
2296
نحن نملك خلفيات عائلية مختلفة،
01:36
differentمختلف experiencesخبرة
and differentمختلف psychologiesالعلوم النفسية.
24
84440
3080
خبرات مختلفة، ونفسيات مختلفة.
01:40
And this is what makesيصنع life
really interestingمثير للإعجاب.
25
88240
2720
وهذا ما يجعل الحياة مثيرة للاهتمام حقاً.
01:43
But this is alsoأيضا what makesيصنع
workingعامل on intelligentذكي technologyتقنية
26
91440
3496
ولكن هذا أيضاً ما يجعل العمل
على التكنولوجيا الذكية
01:46
extremelyجدا difficultصعب.
27
94960
1600
صعباً للغاية.
01:49
And right now, AIAI researchابحاث, well,
28
97640
3456
وفي الوقت الراهن، أبحاث الذكاء الاصطناعي
01:53
it's a bitقليلا lopsidedغير متوازن on the techالتكنولوجيا sideجانب.
29
101120
2016
مائلة قليلاً نحو الجانب التقنيّ.
01:55
And that makesيصنع a lot of senseإحساس.
30
103160
2136
وهذا منطقيٌّ جداً.
01:57
See, for everyكل
qualitativeنوعي thing about us --
31
105320
2456
لكل شيء نوعيّ بشأننا -
01:59
you know, those partsأجزاء of us that are
emotionalعاطفي, dynamicديناميكي and subjectiveشخصي --
32
107800
4456
كما تعلمون، هذه الأجزاء العاطفية،
الديناميكية والشخصية -
02:04
we have to convertتحول it
to a quantitativeمرور metricقياس:
33
112280
3136
يجب أن نحولها إلى مقياسٍ كمّيّ:
02:07
something that can be representedممثلة
with factsحقائق, figuresالأرقام and computerالحاسوب codeالشفرة.
34
115440
4360
شيء يمكن تمثيله بحقائق، أشكال
وشيفرات حاسوبية.
02:13
The issueالقضية is, there are
manyكثير qualitativeنوعي things
35
121000
3376
المشكلة أن هناك الكثير من الأشياء النوعيّة
02:16
that we just can't put our fingerاصبع اليد on.
36
124400
1960
التي ببساطة لا يمكننا الإشارة إليها.
02:20
So, think about hearingسمع
your favoriteالمفضل songأغنية for the first time.
37
128400
3200
لذا، فكروا بسماع أغنيتكم
المفضلة للمرة الأولى.
02:25
What were you doing?
38
133200
1200
ماذا كنتم تفعلون؟
02:28
How did you feel?
39
136000
1200
بماذا شعرتم؟
02:30
Did you get goosebumpsصرخة الرعب?
40
138720
1360
هل أصابتكم القشعريرة؟
02:33
Or did you get firedمطرود up?
41
141240
1640
أم أصابكم الحماس؟
02:36
Hardالصعب to describeوصف, right?
42
144400
1200
يصعب الوصف، أليس كذلك؟
02:38
See, partsأجزاء of us feel so simpleبسيط,
43
146800
2096
هناك أجزاء مننا تبدو بسيطة،
02:40
but underتحت the surfaceسطح - المظهر الخارجي,
there's really a tonطن of complexityتعقيد.
44
148920
3656
لكن تحت السطح، إنهم حقاً
على قدر كبير من التعقيد.
02:44
And translatingجار الترجمة
that complexityتعقيد to machinesآلات
45
152600
2936
وترجمة هذا التعقيد للآلات
02:47
is what makesيصنع them modern-dayفي العصر الحديث moonshotsmoonshots.
46
155560
2856
هو ما يجعلهم القفزة النوعية للعصر الحديث.
02:50
And I'm not convincedمقتنع that we can
answerإجابة these deeperأعمق questionsالأسئلة
47
158440
4176
أنا لست مقتنعاً أنه بإمكاننا الإجابة
على هذه الأسئلة العميقة
02:54
with just onesمنها and zerosالأصفار aloneوحده.
48
162640
1480
بواسطة آحاد وأصفار فقط.
02:57
So, in the labمختبر, I've been creatingخلق artفن
49
165120
1936
لذلك، قد كنت أخلق في المختبر الفن
02:59
as a way to help me
designالتصميم better experiencesخبرة
50
167080
2456
كطريقة لمساعدتي على تصميم خبرات أفضل
03:01
for bleeding-edgeحافة النزيف technologyتقنية.
51
169560
2096
لمطلع التكنولوجيا.
03:03
And it's been servingخدمة as a catalystالحفاز
52
171680
1736
وأصبحت تخدم كمحفّز
03:05
to beefلحم بقري up the more humanبشري waysطرق
that computersأجهزة الكمبيوتر can relateترتبط to us.
53
173440
3840
لتدعيم الطرق الأكثر البشرية التي بها
يمكن للحواسيب أن ترتبط بنا.
03:10
Throughعبر artفن, we're tackingتغير اتجاهها
some of the hardestأصعب questionsالأسئلة,
54
178000
2696
من خلال الفن، نحن نتتبع بعض أصعب الأسئلة،
03:12
like what does it really mean to feel?
55
180720
2360
مثل ماذا يعني حقاً أن نشعر؟
03:16
Or how do we engageجذب and know
how to be presentحاضر with eachكل other?
56
184120
4080
أو كيف نتفاعل ونعرف كيف
نكون حاضرين مع بعضنا؟
03:20
And how does intuitionحدس
affectتؤثر the way that we interactتفاعل?
57
188800
4000
وكيف للحدس أن يؤثر
بالطريقة التي نتفاعل بها؟
03:26
So, take for exampleمثال humanبشري emotionالمشاعر.
58
194440
2056
لذا، خذوا العاطفة البشرية على سبيل المثال.
03:28
Right now, computersأجهزة الكمبيوتر can make senseإحساس
of our mostعظم basicالأساسية onesمنها,
59
196520
3256
في الوقت الحالي، يمكن للحواسيب
أن تستوعب أكثرها أساسية،
03:31
like joyفرح, sadnessحزن,
angerغضب, fearخوف and disgustقرف,
60
199800
3696
مثل السعادة، الحزن، الغضب، الخوف، والقرف،
03:35
by convertingالتحول those
characteristicsمميزات to mathالرياضيات.
61
203520
3000
عن طريق تحويل هذه الصفات إلى رياضيات.
03:39
But what about the more complexمركب emotionsالعواطف?
62
207400
2536
لكن ماذا عن المشاعر الأكثر تعقيداً من ذلك؟
03:41
You know, those emotionsالعواطف
63
209960
1216
أنتم تعلمون، تلك المشاعر
03:43
that we have a hardالصعب time
describingوصف to eachكل other?
64
211200
2376
التي نستصعب وصفها لبعضنا؟
03:45
Like nostalgiaحنين.
65
213600
1440
مثل الحنين.
03:47
So, to exploreإستكشاف this, I createdخلقت
a pieceقطعة of artفن, an experienceتجربة,
66
215640
3936
لذا، لاكتشاف ذلك، قمت
بخلق قطعة من الفن، تجربة،
03:51
that askedطلبت people to shareشارك a memoryذاكرة,
67
219600
2096
طلبَت من الناس أن يشاركوا بذكرى ما،
03:53
and I teamedانظم up with some dataالبيانات scientistsالعلماء
68
221720
2136
وقد تعاونت مع بعض علماء البيانات
03:55
to figureالشكل out how to take
an emotionالمشاعر that's so highlyجدا subjectiveشخصي
69
223880
3576
لنكتشف كيف نأخذ إحساساً شخصياً جداً
03:59
and convertتحول it into something
mathematicallyرياضيا preciseدقيق.
70
227480
3200
ونحوله لشيء دقيق رياضياً.
04:03
So, we createdخلقت what we call
a nostalgiaحنين scoreأحرز هدفاً
71
231840
2136
لذلك، ابتكرنا ما ندعوه بمجموع نقاط الحنين
04:06
and it's the heartقلب of this installationالتركيب.
72
234000
2216
وهو أساس هذا التنصيب.
04:08
To do that, the installationالتركيب
asksيسأل you to shareشارك a storyقصة,
73
236240
3056
لفعل ذلك، يسألك التنصيب أن تشارك بقصة ما،
04:11
the computerالحاسوب then analyzesتحليل it
for its simplerبساطة emotionsالعواطف,
74
239320
3256
ويحللها الحاسوب بعد ذلك لمشاعرها الأبسط،
04:14
it checksالشيكات for your tendencyنزعة
to use past-tenseفعل ماضي wordingصياغة
75
242600
2656
ويتأكد لميلك أن تستخدم كلمات
في الزمن الماضي
04:17
and alsoأيضا looksتبدو for wordsكلمات
that we tendتميل to associateمساعد with nostalgiaحنين,
76
245280
3336
ويبحث أيضاً عن كلمات نميل لربطها بالحنين،
04:20
like "home," "childhoodمرحلة الطفولة" and "the pastالماضي."
77
248640
3040
مثل "المنزل" و"الطفولة" و"الماضي".
04:24
It then createsيخلق a nostalgiaحنين scoreأحرز هدفاً
78
252760
2056
ثم يكوّن مجموع نقاط للحنين
04:26
to indicateتشير how nostalgicحنين إلي الوطن your storyقصة is.
79
254840
2736
للإشارة إلي مدى الحنين في قصتك.
04:29
And that scoreأحرز هدفاً is the drivingالقيادة forceفرض
behindخلف these light-basedضوء على أساس sculpturesمنحوتات
80
257600
4136
وتلك النتيجة هي القوة الدافعة
وراء هذه المنحوتات الضوئية
04:33
that serveتخدم as physicalجسدي - بدني embodimentsتجسيدات
of your contributionإسهام.
81
261760
3896
التي تمثّل تجسيدات مادية لإسهامك.
04:37
And the higherأعلى the scoreأحرز هدفاً,
the rosierردية the hueمسحة.
82
265680
3216
وكلما علت النتيجة،
أصبحت درجة اللون أكثر ورديةً.
04:40
You know, like looking at the worldالعالمية
throughعبر rose-coloredبلون الورد glassesنظارات.
83
268920
3936
إنه مثل النظر للعالم من خلال
نظارات وردية اللون.
04:44
So, when you see your scoreأحرز هدفاً
84
272880
2616
لذلك، عندما ترى نتيجتك
04:47
and the physicalجسدي - بدني representationالتمثيل of it,
85
275520
2656
والتمثيل المادي لها،
04:50
sometimesبعض الأحيان you'dكنت agreeيوافق على
and sometimesبعض الأحيان you wouldn'tلن.
86
278200
2936
أحياناً قد تؤيّدها وأحياناً لا.
04:53
It's as if it really understoodفهم
how that experienceتجربة madeمصنوع you feel.
87
281160
3480
إنها حقاً كما لو أنك فهمت
بم جعلتك تلك التجربة تشعر.
04:57
But other timesمرات it getsيحصل على trippedتعثر up
88
285400
2216
لكنها تخطئ في بعض الأحيان
04:59
and has you thinkingتفكير
it doesn't understandتفهم you at all.
89
287640
2560
وتجعلك تعتقد أنها لا تفهمك على الإطلاق.
05:02
But the pieceقطعة really servesيخدم to showتبين
90
290680
1896
لكن القطعة تخدم حقاً لإظهار
05:04
that if we have a hardالصعب time explainingشرح
the emotionsالعواطف that we have to eachكل other,
91
292600
4056
أننا إذا كنا نستصعب شرح المشاعر
التي نكنّها لبعضنا بعضاً،
05:08
how can we teachعلم a computerالحاسوب
to make senseإحساس of them?
92
296680
2360
كيف يمكننا أن نعلم الحاسوب أن يفهمها؟
05:12
So, even the more objectiveموضوعي partsأجزاء
about beingيجرى humanبشري are hardالصعب to describeوصف.
93
300360
3576
وحتى أكثر الأجزاء موضوعيةً بكوننا بشراً
يصعب وصفها.
05:15
Like, conversationمحادثة.
94
303960
1240
مثل المحادثات.
05:17
Have you ever really triedحاول
to breakاستراحة down the stepsخطوات?
95
305880
2736
هل سبق لك أن حاولت بالفعل تحليل الخطوات؟
05:20
So think about sittingجلسة
with your friendصديق at a coffeeقهوة shopمتجر
96
308640
2656
فكّر في الجلوس مع صديقك في مقهى
05:23
and just havingوجود smallصغير talk.
97
311320
1320
وقيامك بمجرد محادثة خفيفة.
05:25
How do you know when to take a turnمنعطف أو دور?
98
313160
1720
كيف تعلم متى تغيّر مجرى الحديث؟
05:27
How do you know when to shiftتحول topicsالمواضيع?
99
315440
1840
كيف تعلم متى تغيّر المواضيع؟
05:29
And how do you even know
what topicsالمواضيع to discussمناقشة?
100
317960
2720
وكيف تعلم حتى ماذا تناقش من مواضيع؟
05:33
See, mostعظم of us
don't really think about it,
101
321560
2096
معظمنا لا يفكر حقاً في ذلك،
05:35
because it's almostتقريبيا secondثانيا natureطبيعة.
102
323680
1656
لأنه أمر فطريّ تقريباً.
05:37
And when we get to know someoneشخصا ما,
we learnتعلم more about what makesيصنع them tickعلامة,
103
325360
3496
وعندما نتعرف على أحدهم، نعلم أكثر
ماذا يعلّمهم،
05:40
and then we learnتعلم
what topicsالمواضيع we can discussمناقشة.
104
328880
2376
ثم نتعلم ما المواضيع التي نناقشها.
05:43
But when it comesيأتي to teachingتعليم
AIAI systemsأنظمة how to interactتفاعل with people,
105
331280
3656
لكن عندما يتعلق الأمر بتعليم أنظمة
الذكاء الاصطناعي كيفية التفاعل مع الناس،
05:46
we have to teachعلم them
stepخطوة by stepخطوة what to do.
106
334960
2856
يجب أن نعلمها ماذا تفعل خطوة بخطوة.
05:49
And right now, it feelsيشعر clunkyعالي الكعب.
107
337840
3496
وحالياً، يبدو الأمر صعباً.
05:53
If you've ever triedحاول to talk
with Alexaاليكسا, Siriسيري or Googleجوجل Assistantمساعد,
108
341360
4136
إذا حاولت التحدث مع "أليكسا"،"سيري"
أو"مساعد جوجل"،
05:57
you can tell that it or they
can still soundصوت coldالبرد.
109
345520
4200
يمكنك القول أنه أو أنهم
مازالوا عديمي الحس.
06:02
And have you ever gottenحصلت annoyedمنزعج
110
350440
1656
وهل غضبت يوماً ما
06:04
when they didn't understandتفهم
what you were sayingقول
111
352120
2256
عندما لم يفهموا ما كنت تقوله
06:06
and you had to rephraseإعادة صياغة what you wanted
20 timesمرات just to playلعب a songأغنية?
112
354400
3840
واضطررت أن تعيد صياغة ما أردته
20 مرة فقط لتشغل أغنية؟
06:11
Alrightحسنا, to the creditائتمان of the designersالمصممين,
realisticواقعي communicationالاتصالات is really hardالصعب.
113
359440
4896
حسناً، لإيفاء المصممين حقهم،
التواصل الواقعي صعب حقاً.
06:16
And there's a wholeكامل branchفرع شجرة of sociologyعلم الإجتماع,
114
364360
2136
وهناك فرع كامل من علم الاجتماع،
06:18
calledمسمي conversationمحادثة analysisتحليل,
115
366520
1936
يسمى تحليل المحادثات،
06:20
that triesيحاول to make blueprintsالمخططات
for differentمختلف typesأنواع of conversationمحادثة.
116
368480
3136
يحاول أن يضع مخططات
لأنواع مختلفة من المحادثات.
06:23
Typesأنواع like customerزبون serviceالخدمات
or counselingتقديم المشورة, teachingتعليم and othersالآخرين.
117
371640
4080
أنواع مثل خدمة الزبائن أو الاستشارة،
أو التدريس وغيرهم.
06:28
I've been collaboratingالتعاون
with a conversationمحادثة analystالمحلل at the labمختبر
118
376880
2936
قمت بالتعاون مع محلل محادثات في المختبر
06:31
to try to help our AIAI systemsأنظمة
holdمعلق more human-soundingالإنسان-السبر conversationsالمحادثات.
119
379840
4696
لنحاول أن نساعد أنظمة الذكاء الاصطناعي
أن تجري محادثات تبدو أكثر بشرية.
06:36
This way, when you have an interactionالتفاعل
with a chatbotتشاتبوت on your phoneهاتف
120
384560
3176
بهذه الطريقة، عندما تتعامل مع تطبيق
للمحادثات التفاعليّة على هاتفك
06:39
or a voice-basedعلى أساس صوت systemالنظام in the carسيارة,
121
387760
1856
أو نظام صوتيّ في سيارتك،
06:41
it soundsاصوات a little more humanبشري
and lessأقل coldالبرد and disjointedمفككة.
122
389640
3320
سيبدو أكثر كإنسان وأقل فتوراً وتفككاً.
06:46
So I createdخلقت a pieceقطعة of artفن
123
394360
1336
لذلك خلقت قطعةً من الفن
06:47
that triesيحاول to highlightتسليط الضوء
the roboticالروبوتية, clunkyعالي الكعب interactionالتفاعل
124
395720
2816
تحاول أن تبرز
التفاعل الآليّ الصعب
06:50
to help us understandتفهم, as designersالمصممين,
125
398560
1976
لتساعدنا، كمصممين، في فهم
06:52
why it doesn't soundصوت humanبشري yetبعد
and, well, what we can do about it.
126
400560
4576
لماذا لا يبدو كإنسانٍ بعد، وماذا
يمكننا أن نفعل حيال ذلك.
06:57
The pieceقطعة is calledمسمي Botبوت to Botبوت
127
405160
1456
تسمى القطعة "Bot to Bot"
06:58
and it putsيضع one conversationalتحادثي
systemالنظام againstضد anotherآخر
128
406640
2936
وهي تضع نظام محادثات واحد أمام الآخر
07:01
and then exposesيفضح it to the generalجنرال لواء publicعامة.
129
409600
2536
ومن ثم تعرضه لعامة الناس.
07:04
And what endsنهايات up happeningحدث
is that you get something
130
412160
2496
وما تحصل عليه في النهاية هو شيء
07:06
that triesيحاول to mimicمقلد الصوت والحركة humanبشري conversationمحادثة,
131
414680
1896
يحاول أن يقلد محادثات الإنسان،
07:08
but fallsالسقوط shortقصيرة.
132
416600
1896
لكنه يقصّر في فعل ذلك.
07:10
Sometimesبعض الأحيان it worksأعمال and sometimesبعض الأحيان
it getsيحصل على into these, well,
133
418520
2736
أحياناً تعمل وأحيانا تصل إلى
07:13
loopsالحلقات of misunderstandingسوء فهم.
134
421280
1536
حلقات من سوء التفاهم.
07:14
So even thoughاعتقد the machine-to-machineآلة إلى آلة
conversationمحادثة can make senseإحساس,
135
422840
3096
لذا على الرغم من أن المحادثات
بين الآلة والأخرى قد يكون لها معنى،
07:17
grammaticallyنحويا and colloquiallyالعامية,
136
425960
2016
نحوياً وعاميّاً،
07:20
it can still endالنهاية up
feelingشعور coldالبرد and roboticالروبوتية.
137
428000
3216
مازالت تبدو فاترة وآليّة.
07:23
And despiteعلى الرغم من checkingتدقيق all the boxesمربعات,
the dialogueحوار lacksيفتقر soulروح
138
431240
4016
وبالرغم من تحقيق كافة المعايير،
مازال يفتقد الحوار للروح
07:27
and those one-offلمرة واحدة quirksالمراوغات
that make eachكل of us who we are.
139
435280
3136
وتلك المراوغات التي تجعل
كل منا ما نحن عليه.
07:30
So while it mightربما be grammaticallyنحويا correctصيح
140
438440
2056
لذلك مع أنها صحيحة نحوياً
07:32
and usesالاستخدامات all the right
hashtagsالهاش and emojisالرموز التعبيرية,
141
440520
2656
وتستخدم كل الهاشتاغات والرموز التعبيرية،
07:35
it can endالنهاية up soundingرنان mechanicalميكانيكي
and, well, a little creepyمخيف.
142
443200
4136
يمكن أن تبدو ميكانيكية ومريبة قليلاً.
07:39
And we call this the uncannyخارق للطبيعة valleyالوادي.
143
447360
2336
ونسمي هذا الوادي الغريب.
07:41
You know, that creepinessالقشعريرة factorعامل of techالتكنولوجيا
144
449720
1936
إنه العامل المريب للتكنولوجيا
07:43
where it's closeأغلق to humanبشري
but just slightlyبعض الشيء off.
145
451680
2856
حيث أنها قريبة للإنسان
لكنها بعيدة بعض الشيء.
07:46
And the pieceقطعة will startبداية beingيجرى
146
454560
1456
وستبدأ القطعة بكونها
07:48
one way that we testاختبار
for the humannessانسانية of a conversationمحادثة
147
456040
3216
إحدى طرق اختبار إنسانية محادثة
07:51
and the partsأجزاء that get
lostضائع in translationترجمة.
148
459280
2160
والأجزاء التي تُفقد خلال الترجمة.
07:54
So there are other things
that get lostضائع in translationترجمة, too,
149
462560
2856
هناك أشياء أخرى تفُقد
في الترجمة أيضاً،
07:57
like humanبشري intuitionحدس.
150
465440
1616
مثل الحدس البشريّ.
07:59
Right now, computersأجهزة الكمبيوتر
are gainingكسب more autonomyالحكم الذاتي.
151
467080
2776
في الوقت الراهن، تكتسب الحواسيب
استقلالاً أكبر.
08:01
They can take careرعاية of things for us,
152
469880
1736
يمكنهم العناية بأشياء لنا،
08:03
like changeيتغيرون the temperatureدرجة الحرارة
of our housesمنازل basedعلى أساس on our preferencesالتفضيلات
153
471640
3176
مثل تغيير في الحرارة في بيوتنا
وفقا لتفضيلاتنا
08:06
and even help us driveقيادة on the freewayطريق سريع.
154
474840
2160
وحتى يساعدوننا في القيادة
على الطريق السريع.
08:09
But there are things
that you and I do in personشخص
155
477560
2496
لكن هناك أشياء نقوم بها أنا وأنتم بأنفسنا
08:12
that are really difficultصعب
to translateترجمه to AIAI.
156
480080
2760
من الصعب أن تُترجم للذكاء الاصطناعي.
08:15
So think about the last time
that you saw an oldقديم classmateزميل الدراسة or coworkerزميل عمل.
157
483440
4360
فكروا في آخر مرة رأيتم فيها زميل دراسة
قديم أو زميل عمل.
08:21
Did you give them a hugعناق
or go in for a handshakeمصافحة?
158
489080
2480
هل عانقتموه أو صافحتوه؟
08:24
You probablyالمحتمل didn't think twiceمرتين
159
492800
1496
على الأرجح لم تفكروا مرتين
08:26
because you've had so manyكثير
builtمبني up experiencesخبرة
160
494320
2336
لأنكم تمتلكون خبرات سابقة
08:28
that had you do one or the other.
161
496680
2000
جعلتكم تفعلوا هذا أو ذاك.
08:31
And as an artistفنان, I feel
that accessالتمكن من to one'sواحد من intuitionحدس,
162
499440
3456
وكفنان، أشعر أن الوصول لحدس أحدهم
08:34
your unconsciousفاقد الوعي knowingمعرفة,
163
502920
1416
بمعرفتك اللاواعية،
08:36
is what helpsيساعد us createخلق amazingرائعة حقا things.
164
504360
3056
هو ما يساعدنا في خلق أشياء رائعة.
08:39
Bigكبير ideasأفكار, from that abstractنبذة مختصرة,
nonlinearغير الخطية placeمكان in our consciousnessوعي
165
507440
4056
الأفكار الكبيرة، من تلك الفكرة التجريدية،
هي مكان غير خطي في وعينا
08:43
that is the culminationالذروة
of all of our experiencesخبرة.
166
511520
2960
تمثل تتويجاً لكل تجاربنا.
08:47
And if we want computersأجهزة الكمبيوتر to relateترتبط to us
and help amplifyيضخم، يوسع، يبالغ our creativeخلاق abilitiesقدرات,
167
515840
4656
وإذا أردنا أن ترتبط بنا الحواسيب وتساعد
على تضخيم قدراتنا،
08:52
I feel that we'llحسنا need to startبداية thinkingتفكير
about how to make computersأجهزة الكمبيوتر be intuitiveحدسي.
168
520520
3896
أشعر أننا نحتاج أن نبدأ في التفكير بكيفية
جعل الحاسوب حدسيّاً.
08:56
So I wanted to exploreإستكشاف
how something like humanبشري intuitionحدس
169
524440
3096
لذلك أردت أن أكتشف كيف لشيء كحدس الإنسان
08:59
could be directlyمباشرة translatedمترجم
to artificialمصطنع intelligenceالمخابرات.
170
527560
3456
يمكن أن يترجم مباشرة للذكاء الاصطناعي.
09:03
And I createdخلقت a pieceقطعة
that exploresيستكشف computer-basedالقائم على الحاسوب intuitionحدس
171
531040
3216
وقد خلقت قطعة تستكشف الحدس الحاسوبي
09:06
in a physicalجسدي - بدني spaceالفراغ.
172
534280
1320
في فضاء مادي.
09:08
The pieceقطعة is calledمسمي Wayfindingاستكشاف,
173
536480
1696
تدعى القطعة "ويي فايندنغ"،
09:10
and it's setجلس up as a symbolicرمزي compassبوصلة
that has fourأربعة kineticحركي sculpturesمنحوتات.
174
538200
3936
وقد نصبت كبوصلة رمزية تمتلك أربع
منحوتات حركية.
09:14
Eachكل one representsيمثل a directionاتجاه,
175
542160
2056
كل منها يمثل اتجاه،
09:16
northشمال, eastالشرق, southجنوب and westغرب.
176
544240
2120
شمال، شرق، جنوب، وغرب.
09:19
And there are sensorsأجهزة الاستشعار setجلس up
on the topأعلى of eachكل sculptureنحت
177
547080
2696
وهناك أجهزة استشعار مثبتة
على رأس كل منحوتة
09:21
that captureأسر how farبعيدا away
you are from them.
178
549800
2256
تلتقط كم أنت بعيد عنهم.
09:24
And the dataالبيانات that getsيحصل على collectedجمع
179
552080
1816
والبيانات التي تم تجميعها
09:25
endsنهايات up changingمتغير the way
that sculpturesمنحوتات moveنقل
180
553920
2136
تقوم بتغيير الطريقة
التي تتحرك بها المنحوتة
09:28
and the directionاتجاه of the compassبوصلة.
181
556080
2040
واتجاه البوصلة.
09:31
The thing is, the pieceقطعة doesn't work
like the automaticتلقائي doorباب sensorالمستشعر
182
559360
3656
كل ما في الأمر أن القطعة
لا تعمل مثل مستشعر الباب التلقائي
09:35
that just opensيفتح
when you walkسير in frontأمامي of it.
183
563040
2656
الذي يفتح عندما تمشي أمامه.
09:37
See, your contributionإسهام is only a partجزء
of its collectionمجموعة of livedيسكن experiencesخبرة.
184
565720
5056
إن مساهمتك مجرد جزء
من مجموعة خبراتها الحية.
09:42
And all of those experiencesخبرة
affectتؤثر the way that it movesالتحركات.
185
570800
4056
وكل تلك الخبرات تؤثر
في الطريقة التي تتحرك بها.
09:46
So when you walkسير in frontأمامي of it,
186
574880
1736
لذلك عندما تمشي أمامها،
09:48
it startsيبدأ to use all of the dataالبيانات
187
576640
1976
تبدأ في استخدام كل البيانات
09:50
that it's capturedالقبض
throughoutعلى مدار its exhibitionمعرض historyالتاريخ --
188
578640
2616
التي التقطتها خلال تاريخ عرضها...
09:53
or its intuitionحدس --
189
581280
1816
أو حدسها...
09:55
to mechanicallyميكانيكيا respondرد to you
basedعلى أساس on what it's learnedتعلم from othersالآخرين.
190
583120
3560
لإجاباتك ميكانيكياً إليك بناءً
على ما تعلمته من الآخرين.
09:59
And what endsنهايات up happeningحدث
is that as participantsالمشاركين
191
587480
2536
وما يحدث في النهاية أننا كمشاركين
10:02
we startبداية to learnتعلم the levelمستوى
of detailالتفاصيل that we need
192
590040
2816
نبدأ في التعلم مستوى التفصيل الذي نحتاجه
10:04
in orderطلب to manageتدبير expectationsتوقعات
193
592880
2016
لندير توقعاتنا
10:06
from bothكلا humansالبشر and machinesآلات.
194
594920
2776
من كل من البشر والآلات.
10:09
We can almostتقريبيا see our intuitionحدس
beingيجرى playedلعب out on the computerالحاسوب,
195
597720
3616
يمكن أن نرى تقريباً حدسنا يُمثل على حاسوب،
10:13
picturingتصوير all of that dataالبيانات
beingيجرى processedمعالجة in our mind'sالعقل eyeعين.
196
601360
3600
مصوراً كل البيانات التي تعالج في عقلنا.
10:17
My hopeأمل is that this typeاكتب of artفن
197
605560
1656
أملي أن هذا النوع من الفن
10:19
will help us think differentlyبشكل مختلف
about intuitionحدس
198
607240
2416
سيساعدنا أن نفكر باختلاف في حدسنا
10:21
and how to applyتطبيق that to AIAI in the futureمستقبل.
199
609680
2280
وكيف نطبق هذا على الذكاء اصطناعي
في المستقبل.
10:24
So these are just a fewقليل examplesأمثلة
of how I'm usingاستخدام artفن to feedتغذية into my work
200
612480
3936
لذلك هذه بعض الأمثلة عن كيف
استخدم الفن لتغذية عملي
10:28
as a designerمصمم and researcherالباحث
of artificialمصطنع intelligenceالمخابرات.
201
616440
3096
كمصمم وباحث في الذكاء الاصطناعي.
10:31
And I see it as a crucialمهم way
to moveنقل innovationالتعاون forwardإلى الأمام.
202
619560
3496
وأنا أرى ذلك طريقة حاسمة
لتحريك الابتكار للأمام.
10:35
Because right now, there are
a lot of extremesالنقيضين when it comesيأتي to AIAI.
203
623080
4376
لأنه حالياً، هناك الكثير من التطرف عندما
يتعلق الأمر بالذكاء الاصطناعي.
10:39
Popularجمع moviesأفلام showتبين it
as this destructiveمدمرة forceفرض
204
627480
2816
تظهره الأفلام المشهورة كأنه قوة مدمرة
10:42
while commercialsاعلانات تجارية
are showingتظهر it as a saviorمنقذ
205
630320
3056
بينما الإعلانات تظهره كمخلّص
10:45
to solveحل some of the world'sالعالم
mostعظم complexمركب problemsمشاكل.
206
633400
2936
لحل بعض أكثر مشاكل العالم تعقيداً.
10:48
But regardlessبغض النظر of where you standيفهم,
207
636360
2536
لكن بغض النظر عن موقفنا تجاهه،
10:50
it's hardالصعب to denyأنكر
that we're livingالمعيشة in a worldالعالمية
208
638920
2176
من الصعب إنكار أننا نعيش في عالم
10:53
that's becomingتصبح more
and more digitalرقمي by the secondثانيا.
209
641120
2576
يصبح رقمياً أكثر وأكثر كل ثانية.
10:55
Our livesالأرواح revolveتدور حول around our devicesالأجهزة,
smartذكي appliancesالأجهزة and more.
210
643720
4600
تدور حياتنا حول أجهزتنا،
الأجهزة الذكية وأكثر من ذلك.
11:01
And I don't think
this will let up any time soonهكذا.
211
649400
2320
وأنا لا أظن أن ذلك سيتوقف في وقت قريب.
11:04
So, I'm tryingمحاولة to embedتضمين
more humannessانسانية from the startبداية.
212
652400
3736
لذا، أحاول تضمين
المزيد من الإنسانية من البداية.
11:08
And I have a hunchشعور that bringingجلب artفن
into an AIAI researchابحاث processمعالج
213
656160
5136
ولدي شعور بأن إحضار الفن
لعملية بحث الذكاء الاصطناعي
11:13
is a way to do just that.
214
661320
1896
هي طريقة لفعل ذلك بالضبط.
11:15
Thank you.
215
663240
1216
شكراً لكم.
11:16
(Applauseتصفيق)
216
664480
2280
(تصفيق)
Translated by Elissa Jahjah
Reviewed by Riyad Almubarak

▲Back to top

ABOUT THE SPEAKER
Raphael Arar - Designer, researcher
IBM's Raphael Arar creates art and designs experiences that examine the complexities of our increasingly technocentric lives.

Why you should listen

While his artwork raises questions about our relationship with modernity and technology, Raphael Arar’s design work revolves around answering those questions in human-centered ways. 

Currently a designer and researcher at IBM Research, Arar has been exploring ways to translate aspects of emotional intelligence into machine-readable format. Through this, he is passionately tackling ethical platforms of artificial intelligence. Inc. Magazine says he "epitomizes the style and multi-disciplinary skill set of the modern designer," and in 2017, he was listed as one of Forbes's "30 under 30 in Enterprise Technology."

More profile about the speaker
Raphael Arar | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee