ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

مارگارت میچل: چطور می‌توانیم هوش مصنوعی را بسازیم که به انسان‌ها کمک کند و آسیبی نرساند.

Filmed:
1,154,210 views

بعنوان دانشمند محقق در گوگل، مارگارت میچل به توسعه رایانه‌هایی کمک می‌کند که قادرند درباره آنچه می‌بینند و می‌فهمند ارتباط برقرار کنند. او داستانی احتیاط برانگیز از شکاف‌ها، نقاط کور و تعصباتی را تعریف می‌کند که ناآگاهانه در هوش مصنوعی از طریق کد نویسی وارد می‌کنیم.-- و از ما می‌خواهد این نکته را در نظر بگیریم که فناوری که امروز خلق می‌کنیم برای فردا چه معنایی خواهد داشت. «همه آنچه امروز می‌بینیم فقط گوشه‌ای از تکامل هوش مصنوعی است.» میچل همینطور ادامه می‌دهد، « اگر ما می‌خواهیم که هوش مصنوعی طوری تکامل پیدا کند که به انسانها کمک کند، لازم است اهداف و استراتژی‌هایی را تعریف کنیم که آن مسیر را از اکنون هموار کند.
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingکمک computersکامپیوترها
communicateبرقراری ارتباط about the worldجهان around us.
0
1381
4015
کار من کمک به برقراری ارتباط
رایانه‌ها در‌باره جهان اطراف ما است.
00:17
There are a lot of waysراه ها to do this,
1
5754
1793
را‌ه‌های مختلفی برای این کار هست
00:19
and I like to focusتمرکز on helpingکمک computersکامپیوترها
2
7571
2592
و من دوست دارم تمرکزم روی کمک به کامپیوترها
00:22
to talk about what they see
and understandفهمیدن.
3
10187
2874
برای صحبت درباره این باشد
که آن‌ها چه می‌بینند و می‌فهمند.
00:25
Givenداده شده a sceneصحنه like this,
4
13514
1571
برای مثال منظره‌ای مثل این،
00:27
a modernمدرن computer-visionبینایی رایانه ای algorithmالگوریتم
5
15109
1905
یک الگوریتم مدرن بینایی-ماشین
00:29
can tell you that there's a womanزن
and there's a dogسگ.
6
17038
3095
می‌تواند به شما بگوید
که یک زن و یک سگ وجود دارد.
00:32
It can tell you that the womanزن is smilingخندان.
7
20157
2706
می‌تواند به شما بگوید آن زن لبخند می‌زند.
00:34
It mightممکن even be ableتوانایی to tell you
that the dogسگ is incrediblyطور باور نکردنی cuteجذاب.
8
22887
3873
حتی شاید قادر باشد به شما بگوید
آن سگ بی‌نهایت با نمک است.
00:38
I work on this problemمسئله
9
26784
1349
همچنین روی این موضوع که
00:40
thinkingفكر كردن about how humansانسان
understandفهمیدن and processروند the worldجهان.
10
28157
4212
انسان‌ها چطور دنیا را می‌فهمند
و پردازش می‌کنند، کار می‌کنم.
00:45
The thoughtsاندیشه ها, memoriesخاطرات and storiesداستان ها
11
33577
2952
افکار، خاطرات و داستان‌هایی
00:48
that a sceneصحنه like this
mightممکن evokeتحریک کردن for humansانسان.
12
36553
2818
که یک منظره مثل این شاید
برای انسان‌ها تداعی کند:
00:51
All the interconnectionsارتباطات
of relatedمربوط situationsموقعیت ها.
13
39395
4285
همه تنیدگی‌های خاطراتی در شرایط مشابه.
00:55
Maybe you've seenمشاهده گردید
a dogسگ like this one before,
14
43704
3126
شاید سگی مثل این را قبلا دیده باشید،
00:58
or you've spentصرف شده time
runningدر حال اجرا on a beachساحل دریا like this one,
15
46854
2969
یا قبلا در ساحلی مثل این قبلا دویده باشید،
01:01
and that furtherبیشتر evokesباعث می شود thoughtsاندیشه ها
and memoriesخاطرات of a pastگذشته vacationتعطیلات,
16
49847
4778
و در ادامه افکار و خاطرات تعطیلات
گذشته را بیدار می‌کند،
01:06
pastگذشته timesبار to the beachساحل دریا,
17
54649
1920
دفعات قبلی در ساحل،
01:08
timesبار spentصرف شده runningدر حال اجرا around
with other dogsسگ ها.
18
56593
2603
زمان‌های سپری شده با دویدن
با سگ‌هایی دیگر در آن اطراف.
01:11
One of my guidingهدایت principlesاصول
is that by helpingکمک computersکامپیوترها to understandفهمیدن
19
59688
5207
یکی از اصول هدایتی من از طریق
کمک به کامپیوتر‌ها برای درک
01:16
what it's like to have these experiencesتجربیات,
20
64919
2896
این است که داشتن چنین تجربه‌هایی
چه شکلی است،
01:19
to understandفهمیدن what we shareاشتراک گذاری
and believe and feel,
21
67839
5176
برای فهم این آنچه به اشتراک می‌گذاریم
و باور داریم و حس می‌کنیم
01:26
then we're in a great positionموقعیت
to startشروع کن evolvingتکامل یافته computerکامپیوتر technologyتکنولوژی
22
74094
4310
تا بعد این موقعیت عالی را داشته باشیم
که شروع به تکامل فناوری رایانه‌ای
01:30
in a way that's complementaryمکمل
with our ownخودت experiencesتجربیات.
23
78428
4587
به طریقی نماییم
که مکمل تجربه‌های خود ما باشد.
01:35
So, diggingحفر more deeplyعمیقا into this,
24
83539
3387
بنابراین، بیشتر در موضوع وارد شدم،
01:38
a fewتعداد کمی yearsسالها agoپیش I beganآغاز شد workingکار کردن on helpingکمک
computersکامپیوترها to generateتولید کنید human-likeمانند انسان storiesداستان ها
25
86950
5905
چند سال قبل شروع به کار روی کمک
به رایانه‌ها برای تولید داستان‌های بشر‌-وار
بر اساس توالی تصاویر کردم.
01:44
from sequencesدنباله ها of imagesتصاویر.
26
92879
1666
01:47
So, one day,
27
95427
1904
بنابراین یک روز
01:49
I was workingکار کردن with my computerکامپیوتر to askپرسیدن it
what it thought about a tripسفر to Australiaاسترالیا.
28
97355
4622
که داشتم نظر کامپیوترم درباره
سفر به استرالیا را می‌پرسیدم
01:54
It tookگرفت a look at the picturesتصاویر,
and it saw a koalaکوالا.
29
102768
2920
نگاهی به تصویر‌ها انداخت و کوآلایی را دید.
01:58
It didn't know what the koalaکوالا was,
30
106236
1643
نمی‌دانست کوآلا چیست،
01:59
but it said it thought
it was an interesting-lookingجالب به دنبال creatureموجود.
31
107903
2999
اما گفت که فکر می‌کند موجود
به ظاهر جالبی است.
02:04
Then I sharedبه اشتراک گذاشته شده with it a sequenceتوالی of imagesتصاویر
about a houseخانه burningسوزش down.
32
112053
4004
سپس چند تصویر از یک خانه در حال سوختن
را به کامپیوتر دادم.
02:09
It tookگرفت a look at the imagesتصاویر and it said,
33
117704
3285
نگاهی به تصویر‌ها انداخت و گفت،
02:13
"This is an amazingحیرت آور viewچشم انداز!
This is spectacularدیدنی و جذاب!"
34
121013
3500
«منظره اعجاب آوریه، دیدنیه!»
02:17
It sentارسال شد chillsلرز down my spineستون فقرات.
35
125450
2095
پشتم تیر کشید.
02:20
It saw a horribleناگوار, life-changingتغییر زندگی
and life-destroyingزندگی از بین بردن eventرویداد
36
128983
4572
حادثه ای ویرانگر، سرنوشت ساز
و هولناک را دید
02:25
and thought it was something positiveمثبت.
37
133579
2382
و فکر کرد چیز مثبتی است.
02:27
I realizedمتوجه شدم that it recognizedشناسایی شده
the contrastتضاد,
38
135985
3441
متوجه شدم که تضادها،
شامل قرمز‌ها و زرد‌ها را دیده
و فکر کرده که
02:31
the redsقرمز, the yellowsزرد,
39
139450
2699
02:34
and thought it was something
worthارزش remarkingremarking on positivelyمثبت.
40
142173
3078
ارزش این را دارد که چیز مثبتی
درباره‌ آن بگوید.
02:37
And partبخشی of why it was doing this
41
145928
1615
و بخشی از علت این کارش
02:39
was because mostاکثر
of the imagesتصاویر I had givenداده شده it
42
147577
2945
عمدتاً بخاطر این بود
که تصویر‌هایی که به آن داده بودم
02:42
were positiveمثبت imagesتصاویر.
43
150546
1840
مثبت بودند.
02:44
That's because people
tendگرایش داشتن to shareاشتراک گذاری positiveمثبت imagesتصاویر
44
152903
3658
چون مردم عادت به اشتراک گذاشتن
تصویر‌های مثبت دارند
02:48
when they talk about theirخودشان experiencesتجربیات.
45
156585
2190
وقتی درباره تجربه‌های خود حرف می‌زنند.
02:51
When was the last time
you saw a selfieسلفی at a funeralمراسم خاکسپاری?
46
159267
2541
اخرین باری کی شاهد عکس سلفی
در تشییع جنازه‌ای بودید؟
02:55
I realizedمتوجه شدم that,
as I workedکار کرد on improvingبهبود می یابد AIAI
47
163434
3095
متوجه شدم وقتی مشغول بهبود
هوش مصنوعی بصورت
02:58
taskوظیفه by taskوظیفه, datasetمجموعه داده by datasetمجموعه داده,
48
166553
3714
فرآیند به فرآیند
و دیتاست به دیتاست بودم،
03:02
that I was creatingپدید آوردن massiveعظیم gapsشکاف ها,
49
170291
2897
شکاف‌ها، نقاط کور و گودال‌های عظیمی
03:05
holesحفره ها and blindنابینا spotsنقاط
in what it could understandفهمیدن.
50
173212
3999
در آنچه می‌توانست درک کند، خلق می‌کردم‌.
03:10
And while doing so,
51
178307
1334
و در حین انجام آن،
03:11
I was encodingرمزگذاری all kindsانواع of biasesتعصب ها.
52
179665
2483
انواع و اقسام آن تعصبات را کدنویسی می‌کردم.
03:15
Biasesسوگيرى that reflectمنعکس کننده a limitedمحدود viewpointنظر,
53
183029
3318
تعصباتی که دیدگاه محدودی را منعکس می‌کند،
03:18
limitedمحدود to a singleتنها datasetمجموعه داده --
54
186371
2261
و محدود به یک دیتاست--
03:21
biasesتعصب ها that can reflectمنعکس کننده
humanانسان biasesتعصب ها foundپیدا شد in the dataداده ها,
55
189283
3858
تعصباتی که منعکس کننده
تعصبات بشری یافته شده در داده‌ها است،
03:25
suchچنین as prejudiceتعصب and stereotypingکلیشه کردن.
56
193165
3104
از قبیل پیش‌داوری و یک‌نواختی بودن.
03:29
I thought back to the evolutionسیر تکاملی
of the technologyتکنولوژی
57
197554
3057
فکر کردم باید برگردم سر وقت تکامل فناوری
03:32
that broughtآورده شده me to where I was that day --
58
200635
2502
که من را به آنجایی که آن روز بودم آورد --
03:35
how the first colorرنگ imagesتصاویر
59
203966
2233
چطور تصاویر رنگی اولیه
03:38
were calibratedکالیبراسیون شده againstدر برابر
a whiteسفید woman'sزن skinپوست,
60
206223
3048
در تضاد با رنگ پوست سفید زنی تنظیم شده،
03:41
meaningبه معنی that colorرنگ photographyعکاسی
was biasedجانبدارانه againstدر برابر blackسیاه facesچهره ها.
61
209665
4145
و این یعنی، آن عکاسی رنگی
بر علیه چهره‌های سیاه متعصب خواهد شد.
03:46
And that sameیکسان biasتعصب, that sameیکسان blindنابینا spotنقطه
62
214514
2925
و آن تعصب، آن نقطه کور
03:49
continuedادامه یافت well into the '90s.
63
217463
1867
وارد دهه ۹۰ میلادی شده بود.
03:51
And the sameیکسان blindنابینا spotنقطه
continuesهمچنان ادامه دارد even todayامروز
64
219701
3154
و آن نقطه کور حتی تا امروز در اینکه
03:54
in how well we can recognizeتشخیص
differentناهمسان people'sمردم facesچهره ها
65
222879
3698
چطور می‌توانیم چهره‌های مختلف را
با بکارگیری فناوری تشخیص چهره
تشخیص دهیم ادامه دارد.
03:58
in facialچهره recognitionبه رسمیت شناختن technologyتکنولوژی.
66
226601
2200
04:01
I thoughگرچه about the stateحالت of the artهنر
in researchپژوهش todayامروز,
67
229323
3143
درباره وضعیت هنر
در جستجو‌های امروزی فکر کردم
04:04
where we tendگرایش داشتن to limitحد our thinkingفكر كردن
to one datasetمجموعه داده and one problemمسئله.
68
232490
4514
جایی که مایلیم افکار خویش را
به یک دیتاست و یک موضوع محدود کنیم.
04:09
And that in doing so, we were creatingپدید آوردن
more blindنابینا spotsنقاط and biasesتعصب ها
69
237688
4881
و با انجام آن ، تعصبات و نقاط کور
بیشتری را خلق می‌کردیم
که هوش مصنوعی می‌توانست
به آن نقاط کور بیشتر شدت دهد.
04:14
that the AIAI could furtherبیشتر amplifyتقویت.
70
242593
2277
04:17
I realizedمتوجه شدم then
that we had to think deeplyعمیقا
71
245712
2079
بعد تشخیص دادم باید
به این عمیق‌تر فکر کنیم
04:19
about how the technologyتکنولوژی we work on todayامروز
looksبه نظر می رسد in fiveپنج yearsسالها, in 10 yearsسالها.
72
247815
5519
که چطور فناوری که امروز روی آن کار می‌کنیم
طی ۵ یا ۱۰ سال آینده به نظر خواهید رسید.
04:25
Humansانسان evolveتکامل یابد slowlyبه آرامی,
with time to correctدرست for issuesمسائل
73
253990
3142
تکامل در انسان‌ها کند است،
مستلزم زمانی است برای اصلاح مسائل
04:29
in the interactionاثر متقابل of humansانسان
and theirخودشان environmentمحیط.
74
257156
3534
در تعامل با انسان‌ها و محیط‌شان.
04:33
In contrastتضاد, artificialمصنوعی intelligenceهوش
is evolvingتکامل یافته at an incrediblyطور باور نکردنی fastسریع rateنرخ.
75
261276
5429
در مقابل، هوش مصنوعی با ضریب سرعت
باورنکردنی در حال تکامل است.
04:39
And that meansبه معنای that it really mattersمسائل
76
267013
1773
و این یعنی واقعا اهمیت دارد
04:40
that we think about this
carefullyبا دقت right now --
77
268810
2317
که ما الان درباره آن با دقت فکر کنیم --
04:44
that we reflectمنعکس کننده on our ownخودت blindنابینا spotsنقاط,
78
272180
3008
که به نقاط کور خود،
04:47
our ownخودت biasesتعصب ها,
79
275212
2317
تعصباتمان فکر کنیم،
04:49
and think about how that's informingاطلاع رسانی
the technologyتکنولوژی we're creatingپدید آوردن
80
277553
3857
و به این فکر کنیم که چطور
به فناوری که خلق می‌کنیم
04:53
and discussبحث و گفتگو what the technologyتکنولوژی of todayامروز
will mean for tomorrowفردا.
81
281434
3902
و بحث درباره این که فناوری امروز برای
فردا چه معنایی خواهد داشت.
04:58
CEOsمدیران اجرایی and scientistsدانشمندان have weighedوزن کرد in
on what they think
82
286593
3191
مدیرعامل‌ها و دانشمندان به اظهارنظر
درباره این پرداخته‌اند که
05:01
the artificialمصنوعی intelligenceهوش technologyتکنولوژی
of the futureآینده will be.
83
289808
3325
فناوری هوش مصنوعی در آینده
چگونه خواهد بود.
05:05
Stephenاستفان Hawkingهاوکینگ warnsهشدار می دهد that
84
293157
1618
استفان هاوکینگ اخطار می‌دهد
05:06
"Artificialساختگی intelligenceهوش
could endپایان mankindبشر."
85
294799
3007
«هوش مصنوعی می‌تواند به بشریت خاتمه دهد.»
05:10
Elonالون Muskمسک warnsهشدار می دهد
that it's an existentialوجودی riskخطر
86
298307
2683
الون ماسک هشدار می‌دهد که
آن خطری حیاتی است
05:13
and one of the greatestبزرگترین risksخطرات
that we faceصورت as a civilizationتمدن.
87
301014
3574
و یکی از بزرگترین خطر‌هایی که ما
بعنوان یک تمدن با آن روبرویم.
05:17
Billبیل Gatesگیتس has madeساخته شده the pointنقطه,
88
305665
1452
بیل گیتس گفته است که
05:19
"I don't understandفهمیدن
why people aren'tنه more concernedنگران."
89
307141
3185
«درک نمی‌کنم چرا نگرانی مردم
در این قضیه بیشتر نیست.»
05:23
But these viewsنمایش ها --
90
311412
1318
اما این دیدگاه‌ها --
05:25
they're partبخشی of the storyداستان.
91
313618
1734
آن‌ها بخشی از داستان هستند.
05:28
The mathریاضی, the modelsمدل ها,
92
316079
2420
ریاضیات، الگوها،
05:30
the basicپایه ای buildingساختمان blocksبلوک ها
of artificialمصنوعی intelligenceهوش
93
318523
3070
واحد‌های اساسی سازنده هوش مصنوعی
05:33
are something that we call accessدسترسی به
and all work with.
94
321617
3135
چیز‌هایی هستند که برای همه قابل دسترس
و کار کردن هستند.
05:36
We have open-sourceمتن باز toolsابزار
for machineدستگاه learningیادگیری and intelligenceهوش
95
324776
3785
ما ابزار منبع آزاد برای هوش و
یادگیری ماشین داریم
05:40
that we can contributeمشارکت to.
96
328585
1734
که می‌توان به آن کمک کرد.
05:42
And beyondفراتر that,
we can shareاشتراک گذاری our experienceتجربه.
97
330919
3340
و ورای آن، ما قادر به اشتراک گذاری
تجربه خود هستیم.
05:46
We can shareاشتراک گذاری our experiencesتجربیات
with technologyتکنولوژی and how it concernsنگرانی ها us
98
334760
3468
می‌توانیم تجارب خود با فناوری و
این که چطور دغدغه و هیجان‌ در ما
ایجاد می‌کند را به اشتراک بگذاریم.
05:50
and how it excitesهیجان زده می شود us.
99
338252
1467
05:52
We can discussبحث و گفتگو what we love.
100
340251
1867
می‌توانیم درباره آنچه دوست داریم بحث کنیم.
05:55
We can communicateبرقراری ارتباط with foresightآینده نگری
101
343244
2031
ما با آینده‌نگری قادر به بحث
05:57
about the aspectsجنبه های of technologyتکنولوژی
that could be more beneficialسودمند
102
345299
4857
درباره زوایای فناوری
که می‌تواند با گذر زمان
مفیدتر یا مشکل آفرین‌تر باشد، هستیم.
06:02
or could be more problematicمشکل ساز over time.
103
350180
2600
06:05
If we all focusتمرکز on openingافتتاح up
the discussionبحث on AIAI
104
353799
4143
ما همگی اگر سر بحث درباره
هوش مصنوعی را باز کنیم
06:09
with foresightآینده نگری towardsبه سمت the futureآینده,
105
357966
1809
با نگاهی آینده‌نگر،
06:13
this will help createايجاد كردن a generalعمومی
conversationگفتگو and awarenessاطلاع
106
361093
4270
به ما کمک خواهد کرد
گفتگو و آگاهی عمومی را خلق کنیم
06:17
about what AIAI is now,
107
365387
2513
درباره اینکه
الان هوش مصنوعی در کجا قرار دارد
06:21
what it can becomeتبدیل شدن به
108
369212
2001
و قرار است بکجا برسد،
06:23
and all the things that we need to do
109
371237
1785
و همه چیز‌هایی که لازم است انجام دهیم
06:25
in orderسفارش to enableفعال کردن that outcomeنتیجه
that bestبهترین suitsمناسب us.
110
373046
3753
تا نتیجه‌ای حاصل شود
که از همه برای ما بهتر است.
06:29
We alreadyقبلا see and know this
in the technologyتکنولوژی that we use todayامروز.
111
377490
3674
ما همین الان شاهد این موضوع
در فناوری هستیم که بکار می‌بریم .
06:33
We use smartهوشمندانه phonesتلفن ها
and digitalدیجیتال assistantsدستیار and RoombasRoombas.
112
381767
3880
از تلفن‌های هوشمند و دستیاران دیجیتالی و
رومبا‌ها [جاروبرقی رباتی] استفاده می‌کنیم.
06:38
Are they evilبد?
113
386457
1150
آیا آن‌ها ذات بدی دارند؟
06:40
Maybe sometimesگاه گاهی.
114
388268
1547
شاید گاهی اوقات.
06:42
Are they beneficialسودمند?
115
390664
1333
آیا نفعی دارند؟
06:45
Yes, they're that, too.
116
393005
1533
بله، فایده هم دارند.
06:48
And they're not all the sameیکسان.
117
396236
1761
و همه آن‌ها مثل هم نیستند.
06:50
And there you alreadyقبلا see
a lightسبک shiningدرخشان on what the futureآینده holdsدارای.
118
398489
3540
وهمین الان شاهد این بودید
که آینده درخشانی هم می‌تواند داشته باشد.
06:54
The futureآینده continuesهمچنان ادامه دارد on
from what we buildساختن and createايجاد كردن right now.
119
402942
3619
آن‌ها بر مبنای چیزی که الان می‌سازیم
و خلق می‌کنیم ادامه پیدا می‌کند.
06:59
We setتنظیم into motionحرکت that dominoدومینو effectاثر
120
407165
2642
ما آن اثر دومینویی را که مسیر تکاملی
هوش مصنوعی
07:01
that carvesحکاکی می کند out AI'sهوش مصنوعی است evolutionaryتکامل یافته pathمسیر.
121
409831
2600
را می‌سازد به حرکت در می‌آوریم.
07:05
In our time right now,
we shapeشکل the AIAI of tomorrowفردا.
122
413173
2871
در این زمان حال ما،
هوش مصنوعی فردا را شکل می‌دهیم.
07:08
Technologyفن آوری that immersesغوطه ور است us
in augmentedافزوده شده realitiesواقعیت ها
123
416566
3699
فناوری که ما در واقعیت‌های افزوده
فرو می‌رود
07:12
bringingبه ارمغان آوردن to life pastگذشته worldsجهان ها.
124
420289
2566
تا به دنیا‌های گذشته زندگی ببخشد.
07:15
Technologyفن آوری that helpsکمک می کند people
to shareاشتراک گذاری theirخودشان experiencesتجربیات
125
423844
4312
فناوری که کمک می‌کند مردم
تجربه‌هایشان را به اشتراک گذارند
07:20
when they have difficultyمشکل communicatingارتباط برقرار کردن.
126
428180
2262
وقتی که مشکل برقراری ارتباط دارند.
07:23
Technologyفن آوری builtساخته شده on understandingدرك كردن
the streamingجریان visualبصری worldsجهان ها
127
431323
4532
فناوری ساخته شده بر پایه درک
جهان‌های پویای بصری
07:27
used as technologyتکنولوژی for self-drivingخود رانندگی carsماشین ها.
128
435879
3079
که بعنوان فناوری اتومبیل‌های
خودران استفاده می‌شود.
07:32
Technologyفن آوری builtساخته شده on understandingدرك كردن imagesتصاویر
and generatingتولید کننده languageزبان,
129
440490
3413
فناوری ساخته شده بر پایه درک تصویرها
و تولید کننده زبان،
07:35
evolvingتکامل یافته into technologyتکنولوژی that helpsکمک می کند people
who are visuallyبصری impairedضعیف
130
443927
4063
به شکل فناوریکه به افراد
مبتلا به مشکلات بینایی
07:40
be better ableتوانایی to accessدسترسی به the visualبصری worldجهان.
131
448014
2800
برای دسترسی بهتر
به جهان بصری کمک می‌کند، در می‌آید.
07:42
And we alsoهمچنین see how technologyتکنولوژی
can leadسرب to problemsمشکلات.
132
450838
3261
و ما همچنین می‌بینیم که فناوری چطور
به حل مشکلات منتهی می‌شود.
07:46
We have technologyتکنولوژی todayامروز
133
454885
1428
فناوری امروز داریم
07:48
that analyzesتجزیه و تحلیل physicalفیزیکی
characteristicsمشخصات we're bornبدنیا آمدن with --
134
456337
3835
که ویژگی‌های فیزیکی را که با آن
متولد شده‌ایم را آنالیز می‌کند--
07:52
suchچنین as the colorرنگ of our skinپوست
or the look of our faceصورت --
135
460196
3272
مثل رنگ پوستمان یا حالت چهره--
07:55
in orderسفارش to determineتعیین کنید whetherچه or not
we mightممکن be criminalsجنایتکاران or terroristsتروریست ها.
136
463492
3804
برای تعیین کردن این که
شاید خرابکار یا جانی هستیم.
فناوری داریم که در بین داده‌های ما
07:59
We have technologyتکنولوژی
that crunchesخرچنگ throughاز طریق our dataداده ها,
137
467688
2905
حتی داده‌های مرتبط به جنسیت یا نژاد‌ ما،
08:02
even dataداده ها relatingمربوط
to our genderجنسیت or our raceنژاد,
138
470617
2896
08:05
in orderسفارش to determineتعیین کنید whetherچه or not
we mightممکن get a loanوام.
139
473537
2865
می‌گردد تا تعیین کند که می‌توانیم
وامی بگیریم یا نه.
08:09
All that we see now
140
477494
1579
همه آنچه الان می‌بینیم
08:11
is a snapshotعکس فوری in the evolutionسیر تکاملی
of artificialمصنوعی intelligenceهوش.
141
479097
3617
گوشه‌ای از تحولات
هوش مصنوعی قلمداد می‌شود.
08:15
Because where we are right now,
142
483763
1778
زیرا جایی که الان قرار دادیم
08:17
is withinدر داخل a momentلحظه of that evolutionسیر تکاملی.
143
485565
2238
در لحظه‌ای از آن تحول قرار دارد.
08:20
That meansبه معنای that what we do now
will affectتاثیر می گذارد what happensاتفاق می افتد down the lineخط
144
488690
3802
این یعنی کاری که الان می‌کنیم
بر آنچه قبل از این و در آینده
اتفاق می‌افتد اثر می‌گذارد.
08:24
and in the futureآینده.
145
492516
1200
08:26
If we want AIAI to evolveتکامل یابد
in a way that helpsکمک می کند humansانسان,
146
494063
3951
اگر می‌خواهیم هوش مصنوعی طوری
تکامل یابد که به بشر کمک کند،
08:30
then we need to defineتعريف كردن
the goalsاهداف and strategiesاستراتژی ها
147
498038
2801
پس لازم است اهداف و استراتژی‌هایی
را تعریف کنیم
08:32
that enableفعال کردن that pathمسیر now.
148
500863
1733
که راه آن مسیر را هموار کند.
08:35
What I'd like to see is something
that fitsمتناسب است well with humansانسان,
149
503680
3738
آنچه مایلم ببینیم چیزی است که
در خور انسان‌ها،
08:39
with our cultureفرهنگ and with the environmentمحیط.
150
507442
2800
فرهنگ و محیط ما باشد.
08:43
Technologyفن آوری that aidsایدز and assistsکمک می کند
those of us with neurologicalعصبی conditionsشرایط
151
511435
4484
فناوری که به آدم‌های با شرایط عصبی یا
ناتوانایی‌های دیگر
08:47
or other disabilitiesمعلولیت
152
515943
1721
کمک و یاری می‌کند
08:49
in orderسفارش to make life
equallyبه همان اندازه challengingچالش برانگیز for everyoneهر کس.
153
517688
3216
برای این که زندگی را
برای همه بطور برابر چالشی کند.
08:54
Technologyفن آوری that worksآثار
154
522097
1421
فناوری که فارغ از
08:55
regardlessبدون در نظر گرفتن of your demographicsجمعیت شناسی
or the colorرنگ of your skinپوست.
155
523542
3933
جمعیت شناسی‌های شما یا
رنگ پوستی‌ شما کار می‌کند.
09:00
And so todayامروز, what I focusتمرکز on
is the technologyتکنولوژی for tomorrowفردا
156
528383
4742
و بناراین امروز، بر آن‌چیزی که تمرکز داریم
فناوریی برای فردا و ده سال بعد
09:05
and for 10 yearsسالها from now.
157
533149
1733
از الان است.
هوش مصنوعی می‌تواند
به روش‌های بسیار مختلفی پدیدار شود.
09:08
AIAI can turnدور زدن out in manyبسیاری differentناهمسان waysراه ها.
158
536530
2634
09:11
But in this caseمورد,
159
539688
1225
اما در این مورد،
09:12
it isn't a self-drivingخود رانندگی carماشین
withoutبدون any destinationمقصد.
160
540937
3328
این یک خوردو-خودران بدون هیچ مقصدی نیست.
09:16
This is the carماشین that we are drivingرانندگی.
161
544884
2400
این ماشینی هست که می‌رانیم.
09:19
We chooseانتخاب کنید when to speedسرعت up
and when to slowآرام down.
162
547953
3595
ما انتخاب می‌کنیم چه وقت سرعت بالا باشد
چه وقت آهسته.
09:23
We chooseانتخاب کنید if we need to make a turnدور زدن.
163
551572
2400
ما انتخاب می‌کنیم چه وقت دور بزنیم.
09:26
We chooseانتخاب کنید what the AIAI
of the futureآینده will be.
164
554868
3000
ما انتخاب می‌کنیم که هوش مصنوعی
آینده چه شکلی باشد.
09:31
There's a vastعظیم playingبازی کردن fieldرشته
165
559186
1337
حوزه‌هایی وسیع از
09:32
of all the things that artificialمصنوعی
intelligenceهوش can becomeتبدیل شدن به.
166
560547
2965
همه چیز‌هایی که هوش مصنوعی
می‌تواند بشود وجود دارد.
09:36
It will becomeتبدیل شدن به manyبسیاری things.
167
564064
1800
در خیلی چیز‌ها استفاده خواهد شد.
09:39
And it's up to us now,
168
567694
1732
و این الان به ما بستگی دارد،
09:41
in orderسفارش to figureشکل out
what we need to put in placeمحل
169
569450
3061
تا بفهمیم کارهایی که لازم است انجام دهیم
تا مطمئن شویم نتایج هوش مصنوعی
09:44
to make sure the outcomesنتایج
of artificialمصنوعی intelligenceهوش
170
572535
3807
09:48
are the onesآنهایی که that will be
better for all of us.
171
576366
3066
آن‌هایی شود که برای کل ما بهتر باشد.
09:51
Thank you.
172
579456
1150
متشکرم.
09:52
(Applauseتشویق و تمجید)
173
580630
2187
(تشویق)
Translated by Leila Ataei
Reviewed by Nima Pourreza

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee