ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

کریتی شارما: چگونه هوش مصنوعی را بدور از تعصب‌های انسانی نگه داریم

Filmed:
2,050,106 views

الگوریتم‌های هوش مصنوعی دائما تصمیمات مهمی در باره شما می‌گیرند -- مثلا چقدر برای بیمه ماشین باید پرداخت کنید یا آیا به آن مصاحبه شغلی دعوت می‌شوید یا نه. اما اگر این ماشین‌ها با تعصبات انسانی برنامه نویسی شوند چه پیش خواهد آمد؟ کریتی شارما که متخصص فناوری است به این موضوع پرداخته که عدم توجه به گوناگونی در فناوری به تدریج وارد هوش مصنوعی می‌گردد، و سه راه برای آنکه بتوانیم الگوریتم‌های اخلاقی‌تری بسازیم را پیشنهاد می‌دهد.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How manyبسیاری decisionsتصمیمات
have been madeساخته شده about you todayامروز,
0
875
3768
امروز چند تصمیم درباره شما،
00:16
or this weekهفته or this yearسال,
1
4667
2601
یا این هفته، یا امسال،
00:19
by artificialمصنوعی intelligenceهوش?
2
7292
1958
توسط هوش مصنوعی گرفته شده؟
00:22
I buildساختن AIAI for a livingزندگي كردن
3
10958
1685
کار من ساختن هوش مصنوعی است
00:24
so, fullپر شده disclosureافشای, I'm kindنوع of a nerdnerd.
4
12667
3017
رک بگویم از آن خوره‌ها هستم.
00:27
And because I'm kindنوع of a nerdnerd,
5
15708
2393
و چون خوره هستم،
00:30
whereverهر کجا که some newجدید newsاخبار storyداستان comesمی آید out
6
18125
2351
هرجایی که خبر تازه‌ای بشنوم
00:32
about artificialمصنوعی intelligenceهوش
stealingسرقت all our jobsشغل ها,
7
20500
3434
از اینکه هوش مصنوعی
همه کار‌هایمان را می‌دزدد،
00:35
or robotsروبات ها gettingگرفتن citizenshipشهروندی
of an actualواقعی countryکشور,
8
23958
4185
یا ربات‌ها واقعا شهروند کشور می‌شوند،
00:40
I'm the personفرد my friendsدوستان
and followersپیروان messageپیام
9
28167
3142
من کسی هستم که دوستان و هواداران
به او پیغام می‌دهند
00:43
freakingfreaking out about the futureآینده.
10
31333
1542
و ترسشان از آینده را عنوان می‌کنند.
00:45
We see this everywhereدر همه جا.
11
33833
2101
این را همه‌ جا می‌بینیم.
00:47
This mediaرسانه ها panicوحشت that
our robotربات overlordsسرپرست are takingگرفتن over.
12
35958
4893
این ترس رسانه‌ای که فرمان‌روایان
رباتیک ما دارند پیروز می‌شوند.
00:52
We could blameسرزنش Hollywoodهالیوود for that.
13
40875
1917
می‌شود هالیوود را بخاطرش سرزنش کرد.
00:56
But in realityواقعیت, that's not the problemمسئله
we should be focusingتمرکز on.
14
44125
4125
اما در واقع، این مشکلی نیست
که باید رویش تمرکز کنیم.
01:01
There is a more pressingفشار دادن dangerخطر,
a biggerبزرگتر riskخطر with AIAI,
15
49250
3643
یک خطر مهمتر وجود دارد،
خطری بزرگتر با هوش مصنوعی،
01:04
that we need to fixثابت first.
16
52917
1583
که باید اول تصحیحش کرد.
01:07
So we are back to this questionسوال:
17
55417
2309
پس به این سوال بر می‌گردیم:
01:09
How manyبسیاری decisionsتصمیمات
have been madeساخته شده about you todayامروز by AIAI?
18
57750
4708
امروز هوش مصنوعی
چند تصمیم درباره‌ات گرفته؟
01:15
And how manyبسیاری of these
19
63792
1976
و چند‌تای آنها
01:17
were basedمستقر on your genderجنسیت,
your raceنژاد or your backgroundزمینه?
20
65792
4500
بر مبنای جنسیت،
نژاد یا پیشینه‌ات بوده؟
01:24
Algorithmsالگوریتم ها are beingبودن used all the time
21
72500
2768
دائما از الگوریتم‌ها
01:27
to make decisionsتصمیمات about who we are
and what we want.
22
75292
3833
در تصمیم‌گیری از اینکه که هستیم
و چه می‌خواهیم استفاده می‌شود.
01:32
Some of the womenزنان in this roomاتاق
will know what I'm talkingصحبت کردن about
23
80208
3643
بعضی از خانم‌های حاضر
در اینجا می‌دانند از چه صحبت می‌کنم
01:35
if you've been madeساخته شده to sitنشستن throughاز طریق
those pregnancyبارداری testتست advertsآگهی ها on YouTubeیوتیوب
24
83875
3768
اگر شما هم مجبور بودید
آن تبلیغات آزمایش بارداری را
01:39
like 1,000 timesبار.
25
87667
2059
روزی هزار بار روی یو‌تیوب ببینید.
01:41
Or you've scrolledپیمودن pastگذشته advertsآگهی ها
of fertilityباروری clinicsکلینیک ها
26
89750
2851
یا اگر روزی تبلیغات
کلینیک‌های بارور‌سازی را
01:44
on your Facebookفیس بوک feedخوراک.
27
92625
2042
روی فیس‌بوک دیده بودید.
01:47
Or in my caseمورد, Indianهندی marriageازدواج bureausدفاتر.
28
95625
2393
یا در مورد من دفتر‌خانه‌های ازدواج هندی‌ها
01:50
(Laughterخنده)
29
98042
1267
(خنده حضار)
01:51
But AIAI isn't just beingبودن used
to make decisionsتصمیمات
30
99333
2976
اما از هوش مصنوعی فقط برای تصمیم گیری
01:54
about what productsمحصولات we want to buyخرید
31
102333
2601
در باره اینکه چه محصولی بخریم
01:56
or whichکه showنشان بده we want to bingeنوشیدنی watch nextبعد.
32
104958
2500
یا کدام برنامه تلویزیونی را
می‌ببینیم استفاده نمی‌شود.
02:01
I wonderتعجب how you'dمی خواهی feel about someoneکسی
who thought things like this:
33
109042
5184
دوست دارم احساس شما را در مورد
کسانی که به این چیز‌ها فکر کرده‌اند بدانم:
02:06
"A blackسیاه or Latinoلاتین personفرد
34
114250
1934
«سیاه‌پوست‌ها یا لاتین تبار‌ها
02:08
is lessکمتر likelyاحتمال دارد than a whiteسفید personفرد
to payپرداخت off theirخودشان loanوام on time."
35
116208
4125
کمتر احتمال دارد تا وامشان را
سر وقت تسویه کنند.»
02:13
"A personفرد calledبه نام Johnجان
makesباعث می شود a better programmerبرنامهنویس
36
121542
2809
«کسی که نامش جان باشد
احتمالا برنامه نویس بهتری است
02:16
than a personفرد calledبه نام Maryمريم."
37
124375
1667
از کسی که نامش مِری است.»
02:19
"A blackسیاه man is more likelyاحتمال دارد to be
a repeatتکرار offenderمجرم than a whiteسفید man."
38
127250
5083
«یک مرد سیاه احتمال بیشتری دارد
که یک جرم را چند بار مرتکب شود.»
02:26
You're probablyشاید thinkingفكر كردن,
39
134958
1268
احتمالا فکر می‌کنید که،
02:28
"Wowوای, that soundsبرای تلفن های موبایل like a prettyبسیار sexistجنسیت,
racistنژاد پرست personفرد," right?
40
136250
3750
«عجب، خیلی جنسیتی،
و تبعیض گرایانه است،» درسته؟
02:33
These are some realواقعی decisionsتصمیمات
that AIAI has madeساخته شده very recentlyبه تازگی,
41
141000
4851
این‌ها واقعا تصمیم‌هایی است
که هوش مصنوعی همین اخیرا گرفته است،
02:37
basedمستقر on the biasesتعصب ها
it has learnedیاد گرفتم from us,
42
145875
2934
بر مبنای تمایلاتی که از ما یاد گرفته،
02:40
from the humansانسان.
43
148833
1250
از انسانها.
02:43
AIAI is beingبودن used to help decideتصميم گرفتن
whetherچه or not you get that jobکار interviewمصاحبه;
44
151750
4809
هوش مصنوعی برای کمک به تصمیم‌گیری
برای انجام یک مصاحبه شغلی استفاده می‌شده؛
02:48
how much you payپرداخت for your carماشین insuranceبیمه;
45
156583
2393
چقدر برای بیمه ماشین پرداخت می‌کنی؛
02:51
how good your creditاعتبار scoreنمره is;
46
159000
1893
رتبه اعتباری‌ات چقدر خوب است؛
02:52
and even what ratingرتبه بندی you get
in your annualسالانه performanceکارایی reviewمرور.
47
160917
3125
و در بازبینی سالانه کارایی،
چه رتبه‌ای می‌گیری.
02:57
But these decisionsتصمیمات
are all beingبودن filteredفیلتر شده throughاز طریق
48
165083
3143
اما همه این تصمیم‌ها
03:00
its assumptionsمفروضات about our identityهویت,
our raceنژاد, our genderجنسیت, our ageسن.
49
168250
5875
بر مبنای فرضیاتی در مورد هویت ما،
نژاد ما، جنسیت ما و سن ما گرفته می‌شود.
03:08
How is that happeningاتفاق می افتد?
50
176250
2268
چطور اتفاق می‌افتد؟
03:10
Now, imagineتصور کن an AIAI is helpingکمک
a hiringاستخدام managerمدیر
51
178542
3517
فرض کنید که هوش مصنوعی
می‌خواهد به مدیر استخدامی‌ کمک کند
03:14
find the nextبعد techتکنولوژی leaderرهبر in the companyشرکت.
52
182083
2851
تا یک راهبر فنی دیگر برای شرکت پیدا کند.
03:16
So farدور, the managerمدیر
has been hiringاستخدام mostlyاغلب menمردان.
53
184958
3101
تا حالا این مدیر بیشتر
مردان را استخدام می‌کرده.
03:20
So the AIAI learnsیاد میگیرد menمردان are more likelyاحتمال دارد
to be programmersبرنامه نویسان than womenزنان.
54
188083
4750
پس هوش مصنوعی یاد گرفته که احتمال اینکه
مردها برنامه نویس بشوند بیشتر است.
03:25
And it's a very shortکوتاه leapجهش from there to:
55
193542
2892
و از اینجا تا مرحله بعد تنها یک قدم است:
03:28
menمردان make better programmersبرنامه نویسان than womenزنان.
56
196458
2042
مردها از زنها برنامه‌نویس‌‌های بهتری هستند.
03:31
We have reinforcedتقویت شده
our ownخودت biasتعصب into the AIAI.
57
199417
3726
ما هوش مصنوعی را
به تمایلات خودمان تجهیز کردیم.
03:35
And now, it's screeningغربالگری out
femaleزن candidatesنامزدهای.
58
203167
3625
و حالا، او خودش کاندیدا‌های
زن را حذف می‌کند.
03:40
Hangآویزان شدن on, if a humanانسان
hiringاستخدام managerمدیر did that,
59
208917
3017
ببین اگر یک مسئول استخدام
مرد این کار را می‌کرد،
03:43
we'dما می خواهیم be outragedخشمگین, we wouldn'tنمی خواهم allowاجازه دادن it.
60
211958
2351
ناراحت می‌شدیم، اجازه نمی‌دادیم.
03:46
This kindنوع of genderجنسیت
discriminationتبعیض is not OK.
61
214333
3476
این نوع از تبعیض‌های جنسیتی درست نیست.
03:49
And yetهنوز somehowبه نحوی,
AIAI has becomeتبدیل شدن به aboveدر بالا the lawقانون,
62
217833
4518
با این همه حالا، هوش مصنوعی
از قانون هم بالاتر رفته،
03:54
because a machineدستگاه madeساخته شده the decisionتصمیم گیری.
63
222375
2083
چون ماشین تصمیم می‌گیرد.
03:57
That's not it.
64
225833
1518
این تنها نیست.
03:59
We are alsoهمچنین reinforcingتقویت our biasتعصب
in how we interactتعامل with AIAI.
65
227375
4875
ما در رابطه با هوش مصنوعی
هم تمایلات خودمان را وارد می کنیم.
04:04
How oftenغالبا do you use a voiceصدای assistantدستیار
like Siriسیری, Alexaالکسا or even CortanaCortana?
66
232917
5976
معمولا چقدر از دستیار‌های صوتی مانند
سیری، اَلکسا یا کورتانا استفاده می‌کنید؟
04:10
They all have two things in commonمشترک:
67
238917
2559
همه آنها دو چیز مشترک دارند:
04:13
one, they can never get my nameنام right,
68
241500
3101
اول، هیچوقت اسمم را درست نمی‌گویند،
04:16
and secondدومین, they are all femaleزن.
69
244625
2667
و دوم، همه‌شان زن هستند.
04:20
They are designedطراحی شده to be
our obedientمطیع servantsبندگان,
70
248417
2767
طراحی شده‌اند تا مطیع و خدمتگذارمان باشند،
04:23
turningچرخش your lightsچراغ ها on and off,
orderingمرتب سازی your shoppingخريد كردن.
71
251208
3250
چراغ‌هایتان را خاموش روشن کنند،
خریدتان را سفارش بدهند.
04:27
You get maleنر AIsAIs too,
but they tendگرایش داشتن to be more high-poweredقدرتمند,
72
255125
3309
هوش مصنوعی مذکر هم داریم،
اما قرار بوده تا قوی‌تر باشند،
04:30
like IBMآی بی ام Watsonواتسون,
makingساخت businessکسب و کار decisionsتصمیمات,
73
258458
3059
مثل واتسون از آی بی ام،
که تصمیم‌های تجاری می‌گیرد،
04:33
SalesforceSalesforce Einsteinانیشتین
or ROSSراس, the robotربات lawyerوکیل.
74
261541
3792
انیشتین از سیلزفورس،
یا راس که وکیل ربات است.
04:38
So poorفقیر robotsروبات ها, even they sufferرنج بردن
from sexismجنس گرایی in the workplaceمحل کار.
75
266208
4060
بیچاره ربات‌ها، حتی آنها هم دچار
تبعیض جنسی شغلی هستند.
04:42
(Laughterخنده)
76
270292
1125
(خنده حضار)
04:44
Think about how these two things combineترکیب کردن
77
272542
2851
حالا فکر کنید که چطور
این دو با هم ترکیب می‌شوند
04:47
and affectتاثیر می گذارد a kidبچه growingدر حال رشد up
in today'sامروزه worldجهان around AIAI.
78
275417
5309
و روی کودکی که در جهان اطراف
هوش مصنوعی بزرگ می‌شود اثر می‌گذارند.
04:52
So they're doing some researchپژوهش
for a schoolمدرسه projectپروژه
79
280750
2934
تحقیقی روی یک پروژه در مدرسه انجام شده
04:55
and they Googleگوگل imagesتصاویر of CEOمدیر عامل.
80
283708
3018
و آنها عکس مدیر عامل را
با گوگل جستجو کرده‌اند.
04:58
The algorithmالگوریتم showsنشان می دهد them
resultsنتایج of mostlyاغلب menمردان.
81
286750
2893
و الگوریتم به آنها بیشتر
تصویر مردان را نشان داده است.
05:01
And now, they Googleگوگل personalشخصی assistantدستیار.
82
289667
2559
بعد آنها دستیار شخصی را
با گوگل جستجو کردند.
05:04
As you can guessحدس بزن,
it showsنشان می دهد them mostlyاغلب femalesزنان.
83
292250
3434
و همانطور که حدس می‌زنید،
بیشتر تصویر زن‌ها را نشان می‌دهد.
05:07
And then they want to put on some musicموسیقی,
and maybe orderسفارش some foodغذا,
84
295708
3601
بعد خواستند تا موسیقی
پخش کند و غذا سفارش بدهند،
05:11
and now, they are barkingلرزیدن ordersسفارشات
at an obedientمطیع femaleزن voiceصدای assistantدستیار.
85
299333
6584
و حالا دارند سر دستیار
صوتی زن داد می‌زنند.
05:19
Some of our brightestروشن ترین mindsذهنها
are creatingپدید آوردن this technologyتکنولوژی todayامروز.
86
307542
5309
این فناوری‌ها را بعضی از درخشان‌ترین
اندیشمندان ما خلق می‌کنند.
05:24
Technologyفن آوری that they could have createdایجاد شده
in any way they wanted.
87
312875
4184
فناوری که می‌توانستند
به هر شکلی که می‌خواهند خلق کنند.
05:29
And yetهنوز, they have chosenانتخاب شده to createايجاد كردن it
in the styleسبک of 1950s "Madدیوانه Man" secretaryدبیر، منشی.
88
317083
5685
اما خواستند تا آن را به شکل منشی‌های
سریال «مَد من» دهه ۱۹۵۰ بسازند.
05:34
Yayبله!
89
322792
1500
چه عالی!
05:36
But OK, don't worryنگرانی,
90
324958
1310
اما نگران نباشید.
05:38
this is not going to endپایان
with me tellingگفتن you
91
326292
2059
قرار نیست صحبتم با گفتن اینکه
05:40
that we are all headingعنوان towardsبه سمت
sexistجنسیت, racistنژاد پرست machinesماشین آلات runningدر حال اجرا the worldجهان.
92
328375
3477
ما به سوی ماشین‌های جنسیتی،
نژاد پرستانه می‌رویم تمام شود.
05:44
The good newsاخبار about AIAI
is that it is entirelyبه طور کامل withinدر داخل our controlکنترل.
93
332792
5791
خبر خوب درباره هوش مصنوعی
اینکه کاملا در اختیار خودمان است.
05:51
We get to teachتدریس کنید the right valuesارزش های,
the right ethicsاخلاق to AIAI.
94
339333
4000
ما باید ارزش‌های صحیح،
اخلاقیات درست را به آن آموزش دهیم.
05:56
So there are threeسه things we can do.
95
344167
2184
می‌توانیم سه کار انجام دهیم.
05:58
One, we can be awareمطلع of our ownخودت biasesتعصب ها
96
346375
3351
اول، می‌شود از تمایلات خودمان
06:01
and the biasتعصب in machinesماشین آلات around us.
97
349750
2726
و تمایلات ماشین‌های اطرافمان آگاه باشیم.
06:04
Two, we can make sure that diverseمتنوع teamsتیم ها
are buildingساختمان this technologyتکنولوژی.
98
352500
4518
دوم، مطمئن شویم که گروهی
با افکار متنوع این فناوری را می‌سازند.
06:09
And threeسه, we have to give it
diverseمتنوع experiencesتجربیات to learnیاد گرفتن from.
99
357042
4916
و سوم، باید تجربیاتی متنوع برایش
ایجاد کنیم تا از آن یاد بگیرد.
06:14
I can talk about the first two
from personalشخصی experienceتجربه.
100
362875
3309
می‌توانم در دو مورد اول
از تجربه خودم برایتان بگویم.
06:18
When you work in technologyتکنولوژی
101
366208
1435
اگر کارتان فناوری باشد
06:19
and you don't look like
a Markعلامت Zuckerbergزوکربرگ or Elonالون Muskمسک,
102
367667
3392
و شبیه مارک زاکربرگ
یا ایلان ماسک نباشید،
06:23
your life is a little bitبیت difficultدشوار,
your abilityتوانایی getsمی شود questionedپرسیدم.
103
371083
3750
کمی زندگی برایتان سخت است،
توانایی‌هایتان زیر سوال است.
06:27
Here'sاینجاست just one exampleمثال.
104
375875
1393
مثالی می‌آورم،
06:29
Like mostاکثر developersتوسعه دهندگان,
I oftenغالبا joinپیوستن onlineآنلاین techتکنولوژی forumsانجمن ها
105
377292
3726
مثل خیلی از برنامه نویس‌ها،
اغلب عضو انجمن‌های آنلاین فناوری می‌شوم
06:33
and shareاشتراک گذاری my knowledgeدانش to help othersدیگران.
106
381042
3226
و اطلاعاتم را برای کمک
به دیگران به اشتراک می‌گذارم.
06:36
And I've foundپیدا شد,
107
384292
1309
فهمیدم که،
06:37
when I logوارد شوید on as myselfخودم,
with my ownخودت photoعکس, my ownخودت nameنام,
108
385625
3976
اگر به عنوان خودم وارد شوم،
با عکس خودم، اسم خودم،
06:41
I tendگرایش داشتن to get questionsسوالات
or commentsنظرات like this:
109
389625
4601
معمولا سوال‌ها یا نظراتی
مثل این را می‌گیرم:
06:46
"What makesباعث می شود you think
you're qualifiedواجد شرایط to talk about AIAI?"
110
394250
3000
«چرا فکر می‌کنی واجد شرایط
صحبت در مورد هوش مصنوعی هستی؟»
06:50
"What makesباعث می شود you think
you know about machineدستگاه learningیادگیری?"
111
398458
3476
«چرا فکر می‌کنی که
یادگیری ماشینی را می‌دانی؟»
06:53
So, as you do, I madeساخته شده a newجدید profileمشخصات,
112
401958
3435
پس من هم مثل شما، پروفایل جدیدی ساختم،
06:57
and this time, insteadبجای of my ownخودت pictureعکس,
I choseانتخاب کرد a catگربه with a jetجت packبسته on it.
113
405417
4851
و این دفعه به جای عکس خودم،
عکس یک گربه با موتور جت را گذاشتم.
07:02
And I choseانتخاب کرد a nameنام
that did not revealآشکار ساختن my genderجنسیت.
114
410292
2458
و اسمی را انتخاب کردم
که جنسیتم را نشان ندهد.
07:05
You can probablyشاید guessحدس بزن
where this is going, right?
115
413917
2726
احتمالا فهمیده‌اید که به کجا می‌رسم، نه؟
07:08
So, this time, I didn't get any of those
patronizingحامی commentsنظرات about my abilityتوانایی
116
416667
6392
خوب این بار، هیچکدام از آن پیام‌های
از موضع بالا در مورد تواناییم را نگرفتم
07:15
and I was ableتوانایی to actuallyدر واقع
get some work doneانجام شده.
117
423083
3334
و واقعا توانستم کار‌هایی انجام دهم.
07:19
And it sucksبمکد, guys.
118
427500
1851
و دوستان این خیلی بد است.
07:21
I've been buildingساختمان robotsروبات ها sinceاز آنجا که I was 15,
119
429375
2476
من از ۱۵ سالگی روبات می‌سازم،
07:23
I have a fewتعداد کمی degreesدرجه in computerکامپیوتر scienceعلوم پایه,
120
431875
2268
و چندین مدرک در علوم رایانه دارم،
07:26
and yetهنوز, I had to hideپنهان شدن my genderجنسیت
121
434167
2434
و هنوز باید جنسیتم را مخفی کنم
07:28
in orderسفارش for my work
to be takenگرفته شده seriouslyبه طور جدی.
122
436625
2250
تا کارم جدی گرفته شود.
07:31
So, what's going on here?
123
439875
1893
اینجا چه خبر است؟
07:33
Are menمردان just better
at technologyتکنولوژی than womenزنان?
124
441792
3208
آیا مردان در فناوری از زنان بهترند؟
07:37
Anotherیکی دیگر studyمطالعه foundپیدا شد
125
445917
1559
تحقیق دیگری می‌گوید
07:39
that when womenزنان codersبرنامه نویسان on one platformسکو
hidمخفی شده theirخودشان genderجنسیت, like myselfخودم,
126
447500
4934
که برنامه نویسان زنی که مثل
من جنسیتشان را مخفی می‌کنند،
07:44
theirخودشان codeکد was acceptedپذیرفته شده
fourچهار percentدرصد more than menمردان.
127
452458
3250
برنامه‌هایشان چهار درصد بیشتر
از مردان پذیرفته می‌شود.
07:48
So this is not about the talentاستعداد.
128
456542
2916
پس ربطی به استعداد ندارد.
07:51
This is about an elitismنخبگان in AIAI
129
459958
2893
مربوط به نخبه‌گرایی در هوش مصنوعی است
07:54
that saysمی گوید a programmerبرنامهنویس
needsنیاز دارد to look like a certainمسلم - قطعی personفرد.
130
462875
2792
که می‌گوید یک برنامه نویس
باید شکل خاصی باشد.
07:59
What we really need to do
to make AIAI better
131
467375
3101
کاری که واقعا باید انجام دهیم
تا هوش مصنوعی را بهتر کنیم
08:02
is bringآوردن people
from all kindsانواع of backgroundsپس زمینه.
132
470500
3042
این است که آدمهایی با سوابق
متفاوت را کنار هم قرار دهیم.
08:06
We need people who can
writeنوشتن and tell storiesداستان ها
133
474542
2559
افرادی را می‌خواهیم که بتوانند
بنویسند و داستان بگویند
08:09
to help us createايجاد كردن personalitiesشخصیت ها of AIAI.
134
477125
2167
تا بتوانیم شخصیت‌های هوش مصنوعی را بسازیم.
08:12
We need people who can solveحل problemsمشکلات.
135
480208
2042
آدمهایی می‌خواهیم که مشکلات را حل کنند،
08:15
We need people
who faceصورت differentناهمسان challengesچالش ها
136
483125
3768
آدمهایی می‌خواهیم
که با چالش‌های مختلف مواجه باشند
08:18
and we need people who can tell us
what are the realواقعی issuesمسائل that need fixingتثبیت
137
486917
5351
و ما به افرادی نیاز داریم تا بگویند
که کدام مسائل واقعا باید حل شوند
08:24
and help us find waysراه ها
that technologyتکنولوژی can actuallyدر واقع fixثابت it.
138
492292
3041
و کمک کنند تا راه‌هایی برای
حل آنها توسط فناوری پیدا کنیم.
08:29
Because, when people
from diverseمتنوع backgroundsپس زمینه come togetherبا یکدیگر,
139
497833
3726
چون، وقتی افرادی
با سوابق مختلف کنار هم قرار گیرند،
08:33
when we buildساختن things in the right way,
140
501583
2143
وقتی چیز‌‌ها را به شکل صحیحی بسازیم،
08:35
the possibilitiesامکانات are limitlessبی حد و حصر.
141
503750
2042
دیگر محدودیتی نخواهیم داشت.
08:38
And that's what I want to endپایان
by talkingصحبت کردن to you about.
142
506750
3309
و می‌خواهم با صحبت در این باره تمام کنم.
08:42
Lessکمتر racistنژاد پرست robotsروبات ها, lessکمتر machinesماشین آلات
that are going to take our jobsشغل ها --
143
510083
4225
ربات‌های نژاد‌پرست کم شوند، ماشین‌هایی
که کار‌هایمان را می‌گیرند باید کم شوند --
08:46
and more about what technologyتکنولوژی
can actuallyدر واقع achieveرسیدن.
144
514332
3125
و آنهایی که فناوری واقعا
برایمان می‌آورد بیشتر شوند.
08:50
So, yes, some of the energyانرژی
in the worldجهان of AIAI,
145
518292
3434
درست است بخشی از انرژی
در دنیای هوش مصنوعی،
08:53
in the worldجهان of technologyتکنولوژی
146
521750
1393
در جهان فناوری
08:55
is going to be about
what adsتبلیغات you see on your streamجریان.
147
523167
4267
صرف تبلیغاتی می‌شود
که در این جریان می‌بینید.
08:59
But a lot of it is going towardsبه سمت
makingساخت the worldجهان so much better.
148
527458
5209
اما بیشتر آن برای بهتر شدن
جهان صرف می‌شود.
09:05
Think about a pregnantباردار womanزن
in the Democraticدموکراتیک Republicجمهوری of Congoکنگو,
149
533500
3768
به زنی باردار در جمهوری
دموکراتیک کنگو توجه کنید،
09:09
who has to walkراه رفتن 17 hoursساعت ها
to her nearestنزدیکترین ruralروستایی prenatalقبل از تولد clinicدرمانگاه
150
537292
4184
که باید ۱۷ ساعت تا نزدیکترین
کلینیک زنان پیاده راه برود
09:13
to get a checkupبازرسی.
151
541500
1851
برای معاینه.
09:15
What if she could get diagnosisتشخیص
on her phoneتلفن, insteadبجای?
152
543375
2917
چه می‌شد اگر می‌توانست
توسط تلفنش معاینه شود؟
یا فکر کنید هوش مصنوعی
می‌تواند چه کاری
09:19
Or think about what AIAI could do
153
547750
1809
09:21
for those one in threeسه womenزنان
in Southجنوب Africaآفریقا
154
549583
2726
برای یکی از هر سه زن در آفریقای جنوبی
09:24
who faceصورت domesticداخلی violenceخشونت.
155
552333
2125
که دچار خشونت‌های
خانوادگی هستند انجام دهد.
09:27
If it wasn'tنبود safeبی خطر to talk out loudبا صدای بلند,
156
555083
2726
اگر بلند صحبت کردن امن نباشد،
09:29
they could get an AIAI serviceسرویس
to raiseبالا بردن alarmزنگ خطر,
157
557833
2476
می‌توانند از هوش مصنوعی
برای فعال کردن اخطار استفاده کنند،
09:32
get financialمالی and legalقانونی adviceمشاوره.
158
560333
2459
و راهنمایی مالی و قانونی بگیرند.
09:35
These are all realواقعی examplesمثال ها of projectsپروژه ها
that people, includingشامل myselfخودم,
159
563958
5018
این‌ها مثال‌هایی واقعی از پروژه‌هایی است
که افرادی، مثل خودم،
09:41
are workingکار کردن on right now, usingاستفاده كردن AIAI.
160
569000
2500
با استفاده از هوش مصنوعی،
همین حالا رویش کار می‌کنند.
09:45
So, I'm sure in the nextبعد coupleزن و شوهر of daysروزها
there will be yetهنوز anotherیکی دیگر newsاخبار storyداستان
161
573542
3601
مطمئنم که ظرف چند روز آینده داستانی خبری
09:49
about the existentialوجودی riskخطر,
162
577167
2684
از تهدید وجودی اینکه،
09:51
robotsروبات ها takingگرفتن over
and comingآینده for your jobsشغل ها.
163
579875
2434
رباتها می‌آیند و کارهایتان را
می‌گیرند خواهیم داشت.
09:54
(Laughterخنده)
164
582333
1018
(خنده حضار)
09:55
And when something like that happensاتفاق می افتد,
165
583375
2309
و وقتی چیزی شبیه این اتفاق بیفتد،
09:57
I know I'll get the sameیکسان messagesپیام ها
worryingنگرانی about the futureآینده.
166
585708
3601
می‌دانم که همین پیام
نگرانی از آینده را می‌گیرم.
10:01
But I feel incrediblyطور باور نکردنی positiveمثبت
about this technologyتکنولوژی.
167
589333
3667
اما بی‌نهایت در مورد این فناوری مثبت هستم.
10:07
This is our chanceشانس to remakeبازسازی کنید the worldجهان
into a much more equalبرابر placeمحل.
168
595458
5959
این فرصتی برای تبدیل دوباره جهان
به مکانی خیلی بیشتر برابر است.
10:14
But to do that, we need to buildساختن it
the right way from the get go.
169
602458
4000
اما برای این کار باید
به شکلی صحیح آن را شروع کنیم.
10:19
We need people of differentناهمسان gendersجنس ها,
racesمسابقات, sexualitiesجنسیت and backgroundsپس زمینه.
170
607667
5083
ما به افرادی با جنسیت‌ها،
نژاد‌ها و سوابق مختلف نیاز داریم.
10:26
We need womenزنان to be the makersسازندگان
171
614458
2476
نیاز داریم تا زنان سازنده باشند
10:28
and not just the machinesماشین آلات
who do the makers'سازندگان biddingمناقصه.
172
616958
3000
نه ماشین‌هایی که خواسته‌های
سازندگان را انجام می‌دهند.
10:33
We need to think very carefullyبا دقت
what we teachتدریس کنید machinesماشین آلات,
173
621875
3768
باید به دقت فکر کنیم
که چه چیزی به ماشین‌ها می‌آموزیم،
10:37
what dataداده ها we give them,
174
625667
1642
چه اطلاعاتی به آنها می‌دهیم،
10:39
so they don't just repeatتکرار
our ownخودت pastگذشته mistakesاشتباهات.
175
627333
3125
تا آنها فقط اشتباهات
گذشته ما را تکرار نکنند.
10:44
So I hopeامید I leaveترک کردن you
thinkingفكر كردن about two things.
176
632125
3542
امیدوارم که بعد از رفتنم
شما به دو چیز فکر کنید.
10:48
First, I hopeامید you leaveترک کردن
thinkingفكر كردن about biasتعصب todayامروز.
177
636542
4559
اول، امیدوارم که
به تمایلات امروز فکر نکنید.
10:53
And that the nextبعد time
you scrollپیمایش pastگذشته an advertآگهی
178
641125
3184
و بار بعدی که از روی تبلیغی عبور می‌کنید
10:56
that assumesفرض می شود you are interestedعلاقه مند
in fertilityباروری clinicsکلینیک ها
179
644333
2810
که فکر می‌کند شما به
کلینیک‌های باروری علاقه‌‌مندید
10:59
or onlineآنلاین bettingشرط بندی websitesوب سایت ها,
180
647167
2851
یا وب‌سایت‌های شرط بندی،
11:02
that you think and rememberیاد آوردن
181
650042
2017
فکر کنید و بیاد آورید
11:04
that the sameیکسان technologyتکنولوژی is assumingبا فرض اینکه
that a blackسیاه man will reoffendمجازات کردن.
182
652083
4625
که همین تکنولوژی فرض می‌کند
که مرد سیاه‌پوست قانون‌شکن است.
11:09
Or that a womanزن is more likelyاحتمال دارد
to be a personalشخصی assistantدستیار than a CEOمدیر عامل.
183
657833
4167
یا اینکه زنها احتمال بیشتری دارد
که دستیار شوند تا مدیرعامل.
11:14
And I hopeامید that remindsیادآوری می کند you
that we need to do something about it.
184
662958
3709
و امیدوارم که به یادتان بیاورد
باید کاری در موردش انجام دهیم.
11:20
And secondدومین,
185
668917
1851
و دوم،
11:22
I hopeامید you think about the factواقعیت
186
670792
1892
امیدوارم در باره این واقعیت فکر کنید
11:24
that you don't need to look a certainمسلم - قطعی way
187
672708
1976
که نیازی نیست تا ظاهری خاص
11:26
or have a certainمسلم - قطعی backgroundزمینه
in engineeringمهندسی or technologyتکنولوژی
188
674708
3851
یا سابقه‌ای ویژه در
مهندسی یا فناوری داشته باشید
11:30
to createايجاد كردن AIAI,
189
678583
1268
تا هوش مصنوعی خلق کنید.
11:31
whichکه is going to be
a phenomenalفوقالعاده forceزور for our futureآینده.
190
679875
2875
که نیروی خالق العاده‌ای
برای آینده‌مان خواهد بود.
11:36
You don't need to look
like a Markعلامت Zuckerbergزوکربرگ,
191
684166
2143
نیازی نیست شبیه مارک زاکربرگ باشید.
11:38
you can look like me.
192
686333
1250
می‌توانید شکل من باشید.
11:41
And it is up to all of us in this roomاتاق
193
689250
2893
و این بر عهده همه ما در این سالن است
11:44
to convinceمتقاعد کردن the governmentsدولت ها
and the corporationsشرکت ها
194
692167
2726
تا دولت‌ها و شرکت‌ها را قانع کنیم
11:46
to buildساختن AIAI technologyتکنولوژی for everyoneهر کس,
195
694917
2892
تا فناوری هوش مصنوعی را برای همه بسازند،
11:49
includingشامل the edgeلبه - تیزی casesموارد.
196
697833
2393
حتی آنهایی که مرزی هستند.
11:52
And for us all to get educationتحصیلات
197
700250
2059
و برای ما تا همه آموزش ببینند
11:54
about this phenomenalفوقالعاده
technologyتکنولوژی in the futureآینده.
198
702333
2375
در مورد این فناوری فوق‌العاده آینده.
11:58
Because if we do that,
199
706167
2017
چون اگر این کار را انجام دهیم،
12:00
then we'veما هستیم only just scratchedخراشیده شده the surfaceسطح
of what we can achieveرسیدن with AIAI.
200
708208
4893
تازه تنها به لایه سطحی چیزی رسیده‌ایم
که با هوش‌مصنوعی می‌توانیم انجام دهیم.
12:05
Thank you.
201
713125
1268
متشکرم.
12:06
(Applauseتشویق و تمجید)
202
714417
2708
(تشویق حضار)
Translated by Behdad Khazaeli
Reviewed by Sadegh Zabihi

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee