ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

ماركارات ميشال: كيف يتم تطوير الذكاء الاصطناعي لمساعدة البشر، لا لإيذائهم

Filmed:
1,154,210 views

مارغريت ميشال، عالمة وباحثة في جوجل تساعد لتطوير الحواسيب فيما ترى وتفهم. وهي تتحدث قصة إنذارية عن الفجوات، والأمكنة، والانحيازات التي نترمزها بدون وعي الى الذكاء الاصطناعي... وهي تطلب منا التفكير فيما ستصبح عليه التكنلوجيا التي نصعنها اليوم في المستقبل "كل ما نراه الآن هو لمحة من تطور الذكاء الاصطناعي،" كما تقول ميشال. اذا أردنا تطور الذكاء الاصطناعي بالطريقة التي تخدم البشر، عندئذ نحتاج لتعريف الأهداف والاستراتيجيات التي تمكننا من المضي في ذلك الطريق الآن.
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingمساعدة computersأجهزة الكمبيوتر
communicateنقل about the worldالعالمية around us.
0
1381
4015
أعمل لأساعد الحواسب للتواصل مع العالم حولنا.
00:17
There are a lot of waysطرق to do this,
1
5754
1793
هناك طرق كثيرة لعمل ذلك،
00:19
and I like to focusالتركيز on helpingمساعدة computersأجهزة الكمبيوتر
2
7571
2592
وأحب أن أركز على مساعدة الحواسب
00:22
to talk about what they see
and understandتفهم.
3
10187
2874
للتحدث عما ترى وتفهم.
00:25
Givenمعطى a sceneمشهد like this,
4
13514
1571
فعلى سبيل المثال،
00:27
a modernحديث computer-visionرؤية الكمبيوتر algorithmخوارزمية
5
15109
1905
إن آلخوارزمية المعاصرة الحاسوبية الإبصار
00:29
can tell you that there's a womanالنساء
and there's a dogالكلب.
6
17038
3095
بإمكانها إخبارك ان كانت هناك امرأة و كلب.
00:32
It can tell you that the womanالنساء is smilingباسم.
7
20157
2706
وتستطيع أن تخبرك أن كانت تبتسم ام لا.
00:34
It mightربما even be ableقادر to tell you
that the dogالكلب is incrediblyلا يصدق cuteجذاب.
8
22887
3873
وربما تستطيع أن تخبرك أن
الكلب محبوبة للغاية.
أنا أعمل على هذه المشكلة
00:38
I work on this problemمشكلة
9
26784
1349
00:40
thinkingتفكير about how humansالبشر
understandتفهم and processمعالج the worldالعالمية.
10
28157
4212
افكر كيف يفهم البشر ويتعامل مع العالم.
00:45
The thoughtsأفكار, memoriesذكريات and storiesقصص
11
33577
2952
الأفكار، الذكريات، والقصص
00:48
that a sceneمشهد like this
mightربما evokeأثار for humansالبشر.
12
36553
2818
التي صُورها ممكن أن تثيرهم.
00:51
All the interconnectionsالترابط
of relatedذات صلة situationsمواقف.
13
39395
4285
جميع الترابط في الظروف ذات الصلة.
00:55
Maybe you've seenرأيت
a dogالكلب like this one before,
14
43704
3126
ربما رأيت كلبا مثل هذا من قبل،
00:58
or you've spentأنفق time
runningجري on a beachشاطئ بحر like this one,
15
46854
2969
أو قد أنفقت أوقاتا تجري في شاطئ مثل هذا.
01:01
and that furtherبالإضافة إلى ذلك evokesيستحضر thoughtsأفكار
and memoriesذكريات of a pastالماضي vacationعطلة,
16
49847
4778
وهذا أيضا يثير أفكارك وذكرياتك
للإجازات الماضية،
01:06
pastالماضي timesمرات to the beachشاطئ بحر,
17
54649
1920
الأوقات المنصرمة في الشواطئ،
01:08
timesمرات spentأنفق runningجري around
with other dogsالكلاب.
18
56593
2603
أزمنة قضيتها مع كلاب أخرى.
01:11
One of my guidingتوجيه principlesمبادئ
is that by helpingمساعدة computersأجهزة الكمبيوتر to understandتفهم
19
59688
5207
أن من موجهاتي الأساسية هي أن
أساعد الحواسيب لفهم
01:16
what it's like to have these experiencesخبرة,
20
64919
2896
أشياء تتشابه تجارب.
ولفهم ما ننقل ونعتقد ونشعر
01:19
to understandتفهم what we shareشارك
and believe and feel,
21
67839
5176
01:26
then we're in a great positionموضع
to startبداية evolvingتتطور computerالحاسوب technologyتقنية
22
74094
4310
إذن،نحن في مرتبة أعلى للبدء بتكنولوجيا
الحاسوبية المتطورة
01:30
in a way that's complementaryمكمل
with our ownخاصة experiencesخبرة.
23
78428
4587
بطريقة لزومية تتناسب مع تجاربنا.
01:35
So, diggingحفر more deeplyبشدة into this,
24
83539
3387
لذا، فبعمق التفكير في الأمر،
01:38
a fewقليل yearsسنوات agoمنذ I beganبدأت workingعامل on helpingمساعدة
computersأجهزة الكمبيوتر to generateتوفير human-likeالإنسان مثل storiesقصص
25
86950
5905
بدأت عملي هذا قبل سنوات قليلة
لبناء حواسيب تشتبه الإنسان
01:44
from sequencesمتواليات of imagesصور.
26
92879
1666
من خلال صور متسلسلة.
01:47
So, one day,
27
95427
1904
لذا، ذات يوم،
01:49
I was workingعامل with my computerالحاسوب to askيطلب it
what it thought about a tripرحلة قصيرة to Australiaأستراليا.
28
97355
4622
لقد كنت أعمل مع حاسوبي أسأله عما
فكر عن رحلة إلى أستراليا.
01:54
It tookأخذ a look at the picturesالصور,
and it saw a koalaالكوال دب أسترالي.
29
102768
2920
وأخذ نظرة إلى تلك الصور، ورأى كوالا،
01:58
It didn't know what the koalaالكوال دب أسترالي was,
30
106236
1643
ولم يعلم ما هو كوالا،
01:59
but it said it thought
it was an interesting-lookingمثيرة للاهتمام--يبحث creatureمخلوق.
31
107903
2999
لكنه قال إنه مخلوق مثير للاهتمام.
02:04
Then I sharedمشترك with it a sequenceتسلسل of imagesصور
about a houseمنزل burningاحتراق down.
32
112053
4004
ثم شاركت معه بعض الصور عن منزل يتحرق.
02:09
It tookأخذ a look at the imagesصور and it said,
33
117704
3285
ونظرت إليه فقال،
02:13
"This is an amazingرائعة حقا viewرأي!
This is spectacularمذهل!"
34
121013
3500
إنه منظر رائع ! هذا مذهل !"
02:17
It sentأرسلت chillsقشعريرة برد down my spineالعمود الفقري.
35
125450
2095
لقد اصبت بقشعريره أسفل عمودي الفقري
02:20
It saw a horribleرهيب, life-changingالحياة تتغير
and life-destroyingتدمير الحياة eventهدف
36
128983
4572
لقد رأى أحداث درامية،
أثرت على حياة الآخرين
02:25
and thought it was something positiveإيجابي.
37
133579
2382
و اعتقد انه شيء ايجابي.
02:27
I realizedأدرك that it recognizedمعروف
the contrastتناقض,
38
135985
3441
انا ادركت انه رأى تباين الألوان
02:31
the redsريدز, the yellowsصفراوات,
39
139450
2699
الأحمر و الأصفر
02:34
and thought it was something
worthيستحق remarkingالملاحظة on positivelyبشكل ايجابي.
40
142173
3078
و اعتقد انه شيء جدير بالذكر في الإيجابية
02:37
And partجزء of why it was doing this
41
145928
1615
وجزء من لماذا كانت تفعل هذا
02:39
was because mostعظم
of the imagesصور I had givenمعطى it
42
147577
2945
كان بسبب معظم الصور التي حصلت عليها
02:42
were positiveإيجابي imagesصور.
43
150546
1840
كانوا صور ايجابية
02:44
That's because people
tendتميل to shareشارك positiveإيجابي imagesصور
44
152903
3658
وذلك لان الناس تميل إلى
مشاركة الصور الأيجابية
02:48
when they talk about theirهم experiencesخبرة.
45
156585
2190
عندما يتحدثون عن خبراتهم.
02:51
When was the last time
you saw a selfieصورة شخصية at a funeralجنازة?
46
159267
2541
متي أخر مره رأيت فيها صورة
سيلفي في جنازة ؟
02:55
I realizedأدرك that,
as I workedعمل on improvingتحسين AIAI
47
163434
3095
انا ادركت هذا كمطورة للذكاء الاصطناعي
02:58
taskمهمة by taskمهمة, datasetبيانات by datasetبيانات,
48
166553
3714
مهمة بمهمة ، وبيانات بعد بيانات
03:02
that I was creatingخلق massiveكبير gapsثغرات,
49
170291
2897
انا كنت اخلق ثغرات كبيرة،
03:05
holesثقوب and blindبليند spotsبقع
in what it could understandتفهم.
50
173212
3999
حفر و نقاط عمياء في الاشياء
التي يمكن فهمها
03:10
And while doing so,
51
178307
1334
واثناء فعل ذلك،
03:11
I was encodingالتشفير all kindsأنواع of biasesالتحيزات.
52
179665
2483
كنت اشفر جميع انواع التحيزات.
03:15
Biasesالتحيزات that reflectتعكس a limitedمحدود viewpointوجهة نظر,
53
183029
3318
التحيزات التي تعكس وجهه نظر محدودة،
03:18
limitedمحدود to a singleغير مرتبطة datasetبيانات --
54
186371
2261
محدوده في بيانات من نوع واحد
03:21
biasesالتحيزات that can reflectتعكس
humanبشري biasesالتحيزات foundوجدت in the dataالبيانات,
55
189283
3858
التحيزات التي يمكن أن تعكس
التحيز البشري الموجود في البيانات،
03:25
suchهذه as prejudiceتعصب and stereotypingالنمطية.
56
193165
3104
مثل التحامل و الصورة النمطية.
03:29
I thought back to the evolutionتطور
of the technologyتقنية
57
197554
3057
فكرت مره اخرى في تطوير التكنولوجيا
03:32
that broughtجلبت me to where I was that day --
58
200635
2502
التي جعلتني هكذا اليوم
03:35
how the first colorاللون imagesصور
59
203966
2233
كيف الصور الملونة الأولى
03:38
were calibratedمعايرة againstضد
a whiteأبيض woman'sالمرأة skinبشرة,
60
206223
3048
يتم معايرتها ضد المرأه ذات البشره البيضاء
03:41
meaningالمعنى that colorاللون photographyالتصوير
was biasedانحيازا againstضد blackأسود facesوجوه.
61
209665
4145
بمعني ان اللون الفوتغرافي انشئ
ضد الوجوه السوداء.
03:46
And that sameنفسه biasانحياز، نزعة, that sameنفسه blindبليند spotبقعة
62
214514
2925
وهذا الانحياز هذه النقطة العمياء
03:49
continuedواصلت well into the '90s.
63
217463
1867
استمرت جيدا حتى التسعينات
03:51
And the sameنفسه blindبليند spotبقعة
continuesتواصل even todayاليوم
64
219701
3154
و نفس النقطه العمياء استمرت لليوم
03:54
in how well we can recognizeتعرف
differentمختلف people'sوالناس facesوجوه
65
222879
3698
كيف ندرك جيدا وجوه الناس المختلفة
03:58
in facialتجميل الوجه recognitionالتعرف على technologyتقنية.
66
226601
2200
في تكنولوجيا نظام التعرف على الوجه
04:01
I thoughاعتقد about the stateحالة of the artفن
in researchابحاث todayاليوم,
67
229323
3143
فكرت في مثال رائع من الفن في بحث اليوم
04:04
where we tendتميل to limitحد our thinkingتفكير
to one datasetبيانات and one problemمشكلة.
68
232490
4514
حيث نميل إلي الحد من تفكيرنا إلى
مجموعة بيانات واحدة و مشكلة واحدة
04:09
And that in doing so, we were creatingخلق
more blindبليند spotsبقع and biasesالتحيزات
69
237688
4881
و بهذا كنا نخلق المزيد من
النقط العمياء و التحيزات
04:14
that the AIAI could furtherبالإضافة إلى ذلك amplifyيضخم، يوسع، يبالغ.
70
242593
2277
يمكن أن يضخمها الذكاء الاصطناعي
04:17
I realizedأدرك then
that we had to think deeplyبشدة
71
245712
2079
ادركت ذالك الحين ان علينا التفكير بعمق
04:19
about how the technologyتقنية we work on todayاليوم
looksتبدو in fiveخمسة yearsسنوات, in 10 yearsسنوات.
72
247815
5519
في التكنولوجيا التي نعمل بها اليوم
في الخمس أو العشر سنين القادمة
04:25
Humansالبشر evolveتتطور slowlyببطء,
with time to correctصيح for issuesمسائل
73
253990
3142
مع الوقت يتطور البشر ببطء لتصحيح القضايا
04:29
in the interactionالتفاعل of humansالبشر
and theirهم environmentبيئة.
74
257156
3534
في التفاعل بين البشر و البيئة
04:33
In contrastتناقض, artificialمصطنع intelligenceالمخابرات
is evolvingتتطور at an incrediblyلا يصدق fastبسرعة rateمعدل.
75
261276
5429
في المقابل، الذكاء الاصطناعي
يتطور بمعدل سريع لا يصدق.
04:39
And that meansيعني that it really mattersالقضايا
76
267013
1773
وهذا يعني انه أمر مهم حقا.
04:40
that we think about this
carefullyبحرص right now --
77
268810
2317
أن نفكر في هذا الآن بعناية
04:44
that we reflectتعكس on our ownخاصة blindبليند spotsبقع,
78
272180
3008
اننا نفكر في البقع العمياء الخاصة بنا،
04:47
our ownخاصة biasesالتحيزات,
79
275212
2317
التحيز الخاص بنا،
04:49
and think about how that's informingإعلام
the technologyتقنية we're creatingخلق
80
277553
3857
والتفكير في كيفية تغذية التكنولوجيا
التي نخلقها
04:53
and discussمناقشة what the technologyتقنية of todayاليوم
will mean for tomorrowغدا.
81
281434
3902
و مناقشة كيف ستفيد تكنولوجيا اليوم غدا
04:58
CEOsكبار المديرين التنفيذيين and scientistsالعلماء have weighedوزنه in
on what they think
82
286593
3191
الرئيس التنفيذي و العلماء قد اثقلوا
على ما يفكرون به
05:01
the artificialمصطنع intelligenceالمخابرات technologyتقنية
of the futureمستقبل will be.
83
289808
3325
تقنية الذكاء الاصطناعي ستحدث في المستقبل
05:05
Stephenستيفن Hawkingهوكينغ warnsيحذر that
84
293157
1618
ستيفن هوكنج حذر من ذلك
05:06
"Artificialمصطنع intelligenceالمخابرات
could endالنهاية mankindبشرية."
85
294799
3007
"الذكاء الاصطناعي يمكن ان يقضي
على الجنس البشري".
05:10
Elonايلون Muskعبير المسك warnsيحذر
that it's an existentialوجودي riskخطر
86
298307
2683
ايلون مسك حذر من انه خطر وجودي
05:13
and one of the greatestأعظم risksالمخاطر
that we faceوجه as a civilizationحضارة.
87
301014
3574
وواحد من اكبر المخاطر التي
سنواجهها كحضارة.
05:17
Billمشروع قانون Gatesغيتس has madeمصنوع the pointنقطة,
88
305665
1452
قدم بيل غيتس هذه النقطة
05:19
"I don't understandتفهم
why people aren'tلا more concernedالمعنية."
89
307141
3185
"انا لا افهم لماذا الناس ليسوا اكثر قلقا".
05:23
But these viewsالآراء --
90
311412
1318
ولكن هذه الآراء--
05:25
they're partجزء of the storyقصة.
91
313618
1734
انهم جزء من القصة.
05:28
The mathالرياضيات, the modelsعارضات ازياء,
92
316079
2420
الرياضيات، النماذج
05:30
the basicالأساسية buildingبناء blocksكتل
of artificialمصطنع intelligenceالمخابرات
93
318523
3070
القواعد الاساسية للذكاء إلإصطناعي
05:33
are something that we call accessالتمكن من
and all work with.
94
321617
3135
هو شيء نستطيع كلنا الوصول إليه و العمل به
05:36
We have open-sourceالمصدر المفتوح toolsأدوات
for machineآلة learningتعلم and intelligenceالمخابرات
95
324776
3785
لدينا ادوات مفتوحة المصدر
للتعلم الآلي و الذكاء
05:40
that we can contributeتساهم to.
96
328585
1734
التي يمكننا المساهمة فيها.
05:42
And beyondوراء that,
we can shareشارك our experienceتجربة.
97
330919
3340
و بعد ذلك، يمكننا ان نشارك تجربتنا
05:46
We can shareشارك our experiencesخبرة
with technologyتقنية and how it concernsاهتمامات us
98
334760
3468
يمكننا ان نشارك تجاربنا مع التكنولوجيا
و كيف تقلقنا
05:50
and how it excitesيثير us.
99
338252
1467
و كيف تحمسنا.
05:52
We can discussمناقشة what we love.
100
340251
1867
يمكننا مناقشة ما نحب.
05:55
We can communicateنقل with foresightبصيرة
101
343244
2031
يمكننا التواصل مع البصيرة
05:57
about the aspectsالنواحي of technologyتقنية
that could be more beneficialمفيد
102
345299
4857
عن جوانب التكنولوجيا
التي سوف تكون مفيدة اكثر
06:02
or could be more problematicإشكالية over time.
103
350180
2600
او التي قد تكون اكثر صعوبة
مع مرور الوقت.
06:05
If we all focusالتركيز on openingافتتاح up
the discussionنقاش on AIAI
104
353799
4143
لو ركزنا على الانفتاح في مناقشة
الذكاء الاصطناعي
06:09
with foresightبصيرة towardsتجاه the futureمستقبل,
105
357966
1809
مع البصيرة تجاه المستقبل،
06:13
this will help createخلق a generalجنرال لواء
conversationمحادثة and awarenessوعي
106
361093
4270
هذا سوف يساعد على خلق محادثات عامة و وعي
06:17
about what AIAI is now,
107
365387
2513
عن ما هو الذكاء الأصطناعي الآن،
06:21
what it can becomeيصبح
108
369212
2001
و ماذا سوف يكون
06:23
and all the things that we need to do
109
371237
1785
و كل الأشياء التي نحن بحاجة ان نفعلها
06:25
in orderطلب to enableمكن that outcomeنتيجة
that bestالأفضل suitsبدلة us.
110
373046
3753
من أجل تحقيق هذه النتيجة، بما يناسبنا
06:29
We alreadyسابقا see and know this
in the technologyتقنية that we use todayاليوم.
111
377490
3674
نحن نرى و نعلم بالفعل هذا في التكنولوجيا
التي نستخدمها اليوم.
06:33
We use smartذكي phonesالهواتف
and digitalرقمي assistantsمساعدين and RoombasRoombas.
112
381767
3880
نحن نستخدم الهواتف الذكية
والآلات الحاسبة و المكانس الحديثة.
06:38
Are they evilشر?
113
386457
1150
هل هي مضرة؟
06:40
Maybe sometimesبعض الأحيان.
114
388268
1547
أحيانا في بعض الأوقات.
06:42
Are they beneficialمفيد?
115
390664
1333
هل هي نافعة ؟
06:45
Yes, they're that, too.
116
393005
1533
نعم، انها كذلك ايضا.
06:48
And they're not all the sameنفسه.
117
396236
1761
و كلها ليست مثل بعض
06:50
And there you alreadyسابقا see
a lightضوء shiningساطع on what the futureمستقبل holdsيحمل.
118
398489
3540
وهناك ترى بالفعل ضوءا ساطعا يدل
على ما يحمله المستقبل.
06:54
The futureمستقبل continuesتواصل on
from what we buildبناء and createخلق right now.
119
402942
3619
المستقبل لا يزال مستمر بفضل
الذي نبنيه و ننشئه الآن
06:59
We setجلس into motionاقتراح that dominoالدومينو effectتأثير
120
407165
2642
نبدأ في حركة تأثير الدينامو
07:01
that carvesتقتطع out AI'sمنظمة العفو الدولية evolutionaryتطوري pathمسار.
121
409831
2600
التي تقطع الطريق التطوري للذكاء الإصطناعي
07:05
In our time right now,
we shapeشكل the AIAI of tomorrowغدا.
122
413173
2871
في وقتنا الحالي نحن نشكل
الذكاء الاصطناعي للغد.
07:08
Technologyتقنية that immersesيغطس us
in augmentedالمعزز realitiesحقائق
123
416566
3699
التكنولوجيا التي تغمرنا في الواقع المعزز
07:12
bringingجلب to life pastالماضي worldsالعالم.
124
420289
2566
يجلب الحياة لعوالم الماضي.
07:15
Technologyتقنية that helpsيساعد people
to shareشارك theirهم experiencesخبرة
125
423844
4312
التكنولوجيا التي تساعد الناس
على مشاركة تجاربهم
07:20
when they have difficultyصعوبة communicatingالتواصل.
126
428180
2262
عندما يكون عندهم صعوبة في التواصل.
07:23
Technologyتقنية builtمبني on understandingفهم
the streamingتدفق visualبصري worldsالعالم
127
431323
4532
التكنولوجيا مبنية على فهم
العوالم البصرية المتدفقة
07:27
used as technologyتقنية for self-drivingالقيادة الذاتية carsالسيارات.
128
435879
3079
تستخدم كتكنولوجيا للسيارات ذاتية القيادة.
07:32
Technologyتقنية builtمبني on understandingفهم imagesصور
and generatingتوليد languageلغة,
129
440490
3413
التكنولوجيا مبنية على
فهم الصور و إخراج اللغة،
07:35
evolvingتتطور into technologyتقنية that helpsيساعد people
who are visuallyبصريا impairedضعف السمع
130
443927
4063
تتطور التكنولوجيا التي تساعد الناس
الذين يعانون من ضعف البصر
07:40
be better ableقادر to accessالتمكن من the visualبصري worldالعالمية.
131
448014
2800
لتكون اكثر قدرة على
الوصول للعالم المرئي.
07:42
And we alsoأيضا see how technologyتقنية
can leadقيادة to problemsمشاكل.
132
450838
3261
و نحن ايضا نرى كيف يمكن أن تؤدي
التكنولوجيا إلى مشكلات.
07:46
We have technologyتقنية todayاليوم
133
454885
1428
لدينا تكنولوجيا اليوم
07:48
that analyzesتحليل physicalجسدي - بدني
characteristicsمميزات we're bornمولود with --
134
456337
3835
هذا يحلل الخصائص الجسمانية
التي ولدنا بها --
07:52
suchهذه as the colorاللون of our skinبشرة
or the look of our faceوجه --
135
460196
3272
مثل لون بشرتنا او منظر وجهنا --
07:55
in orderطلب to determineتحديد whetherسواء or not
we mightربما be criminalsالمجرمين or terroristsالإرهابيين.
136
463492
3804
من أجل تحديد إذا كان من الممكن
أن نكون مجرمين أو إرهابين.
07:59
We have technologyتقنية
that crunchesالجرش throughعبر our dataالبيانات,
137
467688
2905
لدينا تكنولوجيا بإمكانها اختراق بياناتنا،
08:02
even dataالبيانات relatingفيما
to our genderجنس or our raceسباق,
138
470617
2896
حتى البيانات المتعلقة بنوع جنسنا
أوإثنيتنا،
08:05
in orderطلب to determineتحديد whetherسواء or not
we mightربما get a loanقرض.
139
473537
2865
من أجل تحديد إذا كان بإمكاننا
الحصول على قرض ام لا.
08:09
All that we see now
140
477494
1579
كل الذي نراه الآن
08:11
is a snapshotلمحة in the evolutionتطور
of artificialمصطنع intelligenceالمخابرات.
141
479097
3617
هي مجرد لقطة في تطوير الذكاء الإصطناعي.
08:15
Because where we are right now,
142
483763
1778
لأننا حيث نوجد الآن،
08:17
is withinفي غضون a momentلحظة of that evolutionتطور.
143
485565
2238
في غضون لحظة من هذا التطور.
08:20
That meansيعني that what we do now
will affectتؤثر what happensيحدث down the lineخط
144
488690
3802
هذا يعني إن ما يحدث الآن سيؤثر
على ما يحدث بعده
08:24
and in the futureمستقبل.
145
492516
1200
و في المستقبل.
08:26
If we want AIAI to evolveتتطور
in a way that helpsيساعد humansالبشر,
146
494063
3951
إذا كنا نريد تطوير الذكاء الإصطناعي
بطريقة تساعد البشر،
08:30
then we need to defineحدد
the goalsأهداف and strategiesاستراتيجيات
147
498038
2801
إذن نحن بحاجة لمعرفة
الأهداف و الاستراتيجيات
08:32
that enableمكن that pathمسار now.
148
500863
1733
التي تمكننا من هذا الطريق الآن.
08:35
What I'd like to see is something
that fitsتناسبها well with humansالبشر,
149
503680
3738
الذي أرغب في رؤيته هو شيء
يتناسب بشكل جيد مع البشر،
08:39
with our cultureحضاره and with the environmentبيئة.
150
507442
2800
مع ثقافتنا و بيئتنا .
08:43
Technologyتقنية that aidsالإيدز and assistsيساعد
those of us with neurologicalالعصبية conditionsالظروف
151
511435
4484
التكنولوجيا التي تساعد و تمكن هؤلاء الناس
الذين يعانون من ظروف صعبة.
08:47
or other disabilitiesالإعاقة
152
515943
1721
أو ذوي الإحتياجات الخاصة
08:49
in orderطلب to make life
equallyبالتساوي challengingالتحدي for everyoneكل واحد.
153
517688
3216
من جعل الحياة تحد مساو للجميع.
08:54
Technologyتقنية that worksأعمال
154
522097
1421
التكنولوجيا التي تعمل
08:55
regardlessبغض النظر of your demographicsالتركيبة السكانية
or the colorاللون of your skinبشرة.
155
523542
3933
بغض النظر عن خلفيتك الاقتصادية
أو لون بشرتك.
09:00
And so todayاليوم, what I focusالتركيز on
is the technologyتقنية for tomorrowغدا
156
528383
4742
و حتى اليوم ما أركز عليه هو تكنولوجيا الغد
09:05
and for 10 yearsسنوات from now.
157
533149
1733
ولمدة عشر سنوات من الآن .
09:08
AIAI can turnمنعطف أو دور out in manyكثير differentمختلف waysطرق.
158
536530
2634
الذكاء الإصطناعي يمكن
أن يتحول لطرق مختلفة.
09:11
But in this caseقضية,
159
539688
1225
ولكن في هذه الحالة
09:12
it isn't a self-drivingالقيادة الذاتية carسيارة
withoutبدون any destinationالمكان المقصود.
160
540937
3328
أنها ليست سيارة ذاتية القيادة بدون أي هدف.
09:16
This is the carسيارة that we are drivingالقيادة.
161
544884
2400
هذه السيارة التي نسوقها.
09:19
We chooseأختر when to speedسرعة up
and when to slowبطيء down.
162
547953
3595
نحن نختار متى نسرع و متى نبطئ.
09:23
We chooseأختر if we need to make a turnمنعطف أو دور.
163
551572
2400
نحن نختار إذا كنا نريد ان نعمل جولة.
09:26
We chooseأختر what the AIAI
of the futureمستقبل will be.
164
554868
3000
نحن نختار ماذا سيكون الذكاء الإصطناعي
في المستقبل.
09:31
There's a vastشاسع playingتلعب fieldحقل
165
559186
1337
هناك مجال واسع للعب
09:32
of all the things that artificialمصطنع
intelligenceالمخابرات can becomeيصبح.
166
560547
2965
في كل الأشياء الذي يستطيع ان يفعلها
الذكاء الإصطناعي.
09:36
It will becomeيصبح manyكثير things.
167
564064
1800
ستصبح أشياء عديدة.
09:39
And it's up to us now,
168
567694
1732
و الموضوع يرجع إلينا الآن،
09:41
in orderطلب to figureالشكل out
what we need to put in placeمكان
169
569450
3061
من أجل معرفة ما نحن بحاجة لوضعه
في المكان الصحيح
09:44
to make sure the outcomesالنتائج
of artificialمصطنع intelligenceالمخابرات
170
572535
3807
للتأكد من أن نتائج الذكاء الإصطناعي
09:48
are the onesمنها that will be
better for all of us.
171
576366
3066
ستكون الأفضل لنا جميعا.
09:51
Thank you.
172
579456
1150
شكرا.
09:52
(Applauseتصفيق)
173
580630
2187
(تصفيق)
Translated by wadah essam
Reviewed by Oualid Hamzi

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee