ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

קריטי שארמה: איך להשאיר את הדעות הקדומות האנושיות מחוץ לבינה המלאכותית

Filmed:
2,050,106 views

אלגוריתמים של בינה מלאכותית מקבלים החלטות חשובות כל הזמן -- למשל כמה עליכם לשלם עבור ביטוח הרכב שלכם או האם תעברו את ראיון העבודה הזה. אך מה קורה כאשר מכונות אלה נבנות עם דיעות קדומות אנושיות המקודדות לתוך המערכות שלהן? הטכנולוגית קריטי שארמה חוקרת כיצד חוסר הגיוון במקצועות הטכנולוגיים מתגנב לתוך הבינה המלאכותית שלנו, ומציעה לנו שלוש דרכים ליצירת אלגוריתמים מוסריים יותר.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How manyרב decisionsהחלטות
have been madeעָשׂוּי about you todayהיום,
0
875
3768
כמה מההחלטות שנעשו לגביכם היום,
00:16
or this weekשָׁבוּעַ or this yearשָׁנָה,
1
4667
2601
השבוע או השנה,
00:19
by artificialמְלָאכוּתִי intelligenceאינטליגנציה?
2
7292
1958
נעשו על-ידי בינה מלאכותית?
00:22
I buildלִבנוֹת AIAI for a livingחַי
3
10958
1685
אני עוסקת בבינה מלאכותית למחייתי
00:24
so, fullמלא disclosureגילוי, I'm kindסוג of a nerdחנון.
4
12667
3017
אז למען האמת, אני די חנונית.
00:27
And because I'm kindסוג of a nerdחנון,
5
15708
2393
ומשום שאני די חנונית,
00:30
whereverבַּאֲשֶׁר some newחָדָשׁ newsחֲדָשׁוֹת storyכַּתָבָה comesבא out
6
18125
2351
בכל פעם שמתפרסמת כתבה חדשה
00:32
about artificialמְלָאכוּתִי intelligenceאינטליגנציה
stealingגניבה all our jobsמקומות תעסוקה,
7
20500
3434
על בינה מלאכותית
שגוזלת לנו את מקומות העבודה,
00:35
or robotsרובוטים gettingמקבל citizenshipאֶזרָחוּת
of an actualמַמָשִׁי countryמדינה,
8
23958
4185
או רובוטים שמקבלים אזרחות
של מדינה ממשית,
00:40
I'm the personאדם my friendsחברים
and followersעוקבים messageהוֹדָעָה
9
28167
3142
אני זו שכל החברים
והעוקבים פונים אליה,
00:43
freakingלהתחרפן out about the futureעתיד.
10
31333
1542
מבוהלים לגבי העתיד.
00:45
We see this everywhereבכל מקום.
11
33833
2101
אנחנו רואים את זה בכל מקום.
00:47
This mediaכְּלֵי תִקְשׁוֹרֶת panicבֶּהָלָה that
our robotרוֹבּוֹט overlordsאדונים are takingלְקִיחָה over.
12
35958
4893
הבהלה התקשורתית מכך
שהרובוטים, אדונינו, משתלטים.
00:52
We could blameאשמה Hollywoodהוליווד for that.
13
40875
1917
אנחנו יכולים להאשים בכך את הוליווד.
00:56
But in realityמְצִיאוּת, that's not the problemבְּעָיָה
we should be focusingהתמקדות on.
14
44125
4125
אך במציאות, זו לא הבעיה
בה עלינו להתמקד.
01:01
There is a more pressingלחיצה dangerסַכָּנָה,
a biggerגדול יותר riskלְהִסְתָכֵּן with AIAI,
15
49250
3643
יש סכנה דוחקת יותר, סיכון גדול יותר
בהקשר לבינה המלאכותית,
01:04
that we need to fixלתקן first.
16
52917
1583
שעלינו לתקן קודם.
01:07
So we are back to this questionשְׁאֵלָה:
17
55417
2309
ושוב חזרנו לשאלה:
01:09
How manyרב decisionsהחלטות
have been madeעָשׂוּי about you todayהיום by AIAI?
18
57750
4708
כמה מההחלטות שנעשו לגביכם היום,
נעשו על-ידי בינה מלאכותית?
01:15
And how manyרב of these
19
63792
1976
וכמה מתוכן
01:17
were basedמבוסס on your genderמִין,
your raceגזע or your backgroundרקע כללי?
20
65792
4500
התבססו על המגדר שלכם,
הגזע או הרקע שלכם?
01:24
Algorithmsאלגוריתמים are beingלהיות used all the time
21
72500
2768
אלגוריתמים משמשים בכל זמן
01:27
to make decisionsהחלטות about who we are
and what we want.
22
75292
3833
לקבלת החלטות בהקשר
למי שאנחנו ומה שאנו רוצים.
01:32
Some of the womenנשים in this roomחֶדֶר
will know what I'm talkingשִׂיחָה about
23
80208
3643
חלק מהנשים בחדר הזה
יבינו על מה אני מדברת,
01:35
if you've been madeעָשׂוּי to sitלָשֶׁבֶת throughדרך
those pregnancyהֵרָיוֹן testמִבְחָן advertsפרסומות on YouTubeYouTube
24
83875
3768
אם נאלצתן לראות פרסומות
לבדיקות הריון ביוטיוב
01:39
like 1,000 timesפִּי.
25
87667
2059
איזה אלף פעמים.
01:41
Or you've scrolledגלול pastעבר advertsפרסומות
of fertilityפוריות clinicsמרפאות
26
89750
2851
או שגללתן דרך מודעות
למרפאות פוריות
01:44
on your Facebookפייסבוק feedהזנה.
27
92625
2042
בעדכוני הפייסבוק שלכם.
01:47
Or in my caseמקרה, Indianהוֹדִי marriageנישואים bureausלשכות.
28
95625
2393
או במקרה שלי, למשרדי שידוכים הודיים.
01:50
(Laughterצחוק)
29
98042
1267
(צחוק)
01:51
But AIAI isn't just beingלהיות used
to make decisionsהחלטות
30
99333
2976
אבל בינה מלאכותית אינה משמשת
רק לקבלת החלטות
01:54
about what productsמוצרים we want to buyלִקְנוֹת
31
102333
2601
עבור המוצרים אותם נקנה
01:56
or whichאיזה showלְהַצִיג we want to bingebinge watch nextהַבָּא.
32
104958
2500
או התוכנית הבאה לצפיית-רצף (בינג').
02:01
I wonderפֶּלֶא how you'dהיית רוצה feel about someoneמִישֶׁהוּ
who thought things like this:
33
109042
5184
אני תוהה איך תרגישו לגבי מישהו
שיחשוב דברים כמו:
02:06
"A blackשָׁחוֹר or Latinoלטינו personאדם
34
114250
1934
"לאדם שחור או ממוצא לטיני
02:08
is lessפָּחוּת likelyסָבִיר than a whiteלבן personאדם
to payלְשַׁלֵם off theirשֶׁלָהֶם loanלְהַלווֹת on time."
35
116208
4125
יש סיכוי נמוך מאדם לבן
להחזיר את ההלוואה בזמן."
02:13
"A personאדם calledשקוראים לו Johnג'ון
makesעושה a better programmerמְתַכנֵת
36
121542
2809
"אדם ששמו ג'ון הוא מתכנת טוב יותר
02:16
than a personאדם calledשקוראים לו Maryמרי."
37
124375
1667
מאדם ששמו מרי."
02:19
"A blackשָׁחוֹר man is more likelyסָבִיר to be
a repeatחזור offenderעברי than a whiteלבן man."
38
127250
5083
"לגבר שחור סיכוי גבוה יותר להיות
עבריין בהשוואה לגבר לבן."
02:26
You're probablyכנראה thinkingחושב,
39
134958
1268
אתם בטח חושבים לעצמכם:
02:28
"Wowוואו, that soundsקולות like a prettyיפה sexistסקסיסטי,
racistגִזעָן personאדם," right?
40
136250
3750
"וואו, זה נשמע כמו מישהו
סקסיסטי וגזעני למדי" נכון?
02:33
These are some realאמיתי decisionsהחלטות
that AIAI has madeעָשׂוּי very recentlyלאחרונה,
41
141000
4851
אלה כמה מההחלטות האמיתיות
שבינה מלאכותית קיבלה לאחרונה,
02:37
basedמבוסס on the biasesהטיות
it has learnedמְלוּמָד from us,
42
145875
2934
בהתבסס על ההטיות
שהיא למדה מאיתנו,
02:40
from the humansבני אנוש.
43
148833
1250
מבני האדם.
02:43
AIAI is beingלהיות used to help decideלְהַחלִיט
whetherהאם or not you get that jobעבודה interviewרֵאָיוֹן;
44
151750
4809
בינה מלאכותית משמשת לסייע בהחלטה האם תתקבלו לעבודה או לא,
02:48
how much you payלְשַׁלֵם for your carאוטו insuranceביטוח;
45
156583
2393
כמה תשלמו עבור ביטוח הרכב,
02:51
how good your creditאַשׁרַאי scoreציון is;
46
159000
1893
כמה טוב דירוג האשראי שלכם,
02:52
and even what ratingדֵרוּג you get
in your annualשנתי performanceביצועים reviewסקירה.
47
160917
3125
ואפילו מה הציון שתקבלו
בהערכת העובד השנתית שלכם.
02:57
But these decisionsהחלטות
are all beingלהיות filteredמְסוּנָן throughדרך
48
165083
3143
אך החלטות אלה עוברות סינון
03:00
its assumptionsהנחות about our identityזהות,
our raceגזע, our genderמִין, our ageגיל.
49
168250
5875
מבעד להנחות לגבי זהותנו,
הגזע, המגדר והגיל שלנו.
03:08
How is that happeningמתרחש?
50
176250
2268
כיצד זה קורה?
03:10
Now, imagineלדמיין an AIAI is helpingמָנָה
a hiringשְׂכִירָה managerמנהל
51
178542
3517
ובכן, דמיינו בינה מלאכותית
שמסייעת למנהל מגייס
03:14
find the nextהַבָּא techטק leaderמַנהִיג in the companyחֶברָה.
52
182083
2851
במציאת ראש הצוות הטכנולוגי
הבא של החברה.
03:16
So farרָחוֹק, the managerמנהל
has been hiringשְׂכִירָה mostlyבעיקר menגברים.
53
184958
3101
עד כה המנהל גייס בעיקר גברים.
03:20
So the AIAI learnsלומד menגברים are more likelyסָבִיר
to be programmersמתכנתים than womenנשים.
54
188083
4750
כך הבינה המלאכותית למדה שלגברים
סיכוי גבוה יותר להיות מתכנתים מנשים.
03:25
And it's a very shortקצר leapלִקְפּוֹץ from there to:
55
193542
2892
וזו קפיצה קצרה אף יותר ל:
03:28
menגברים make better programmersמתכנתים than womenנשים.
56
196458
2042
גברים הם מתכנתים טובים יותר מנשים.
03:31
We have reinforcedמחוזקים
our ownשֶׁלוֹ biasהֲטָיָה into the AIAI.
57
199417
3726
הטמענו את ההטיות של עצמנו
בתוך הבינה המלאכותית.
03:35
And now, it's screeningסְרִיקָה out
femaleנְקֵבָה candidatesמועמדים.
58
203167
3625
וכעת היא מסננת מועמדות נשים.
03:40
Hangלִתְלוֹת on, if a humanבן אנוש
hiringשְׂכִירָה managerמנהל did that,
59
208917
3017
חכו רגע, אם מנהל אנושי
היה עושה את זה
03:43
we'dלהתחתן be outragedזועם, we wouldn'tלא allowלהתיר it.
60
211958
2351
היינו מתקוממים,
לא היינו מאפשרים זאת.
03:46
This kindסוג of genderמִין
discriminationאַפלָיָה is not OK.
61
214333
3476
אפלייה כזו על רקע מגדר היא לא בסדר.
03:49
And yetעדיין somehowאיכשהו,
AIAI has becomeהפכו aboveמֵעַל the lawחוֹק,
62
217833
4518
ובכל זאת, איכשהו הבינה המלאכותית
הפכה להיות מעל לחוק,
03:54
because a machineמְכוֹנָה madeעָשׂוּי the decisionהַחְלָטָה.
63
222375
2083
כי זו מכונה שקיבלה את ההחלטה.
03:57
That's not it.
64
225833
1518
וזה לא הכל.
03:59
We are alsoגַם reinforcingחיזוק our biasהֲטָיָה
in how we interactאינטראקציה with AIAI.
65
227375
4875
אנחנו גם מטמיעים את הדעות הקדומות שלנו בתקשורת עם הבינה המלאכותית.
04:04
How oftenלעתים קרובות do you use a voiceקוֹל assistantעוֹזֵר
like Siriסירי, Alexaאלכסה or even Cortanaקורטנה?
66
232917
5976
כמה אתם משתמשים בעוזרת קולית כמו סירי, אלכסה או אפילו קורטנה?
04:10
They all have two things in commonמשותף:
67
238917
2559
לכולן שני דברים במשותף:
04:13
one, they can never get my nameשֵׁם right,
68
241500
3101
הראשון, הן לעולם לא יצליחו
לקלוט את השם שלי נכון,
04:16
and secondשְׁנִיָה, they are all femaleנְקֵבָה.
69
244625
2667
והשני, הן כולן נשים.
04:20
They are designedמְעוּצָב to be
our obedientמְמוּשׁמָע servantsמשרתים,
70
248417
2767
הן מתוכננות להיות
המשרתות הצייתניות שלנו,
04:23
turningחֲרִיטָה your lightsאורות on and off,
orderingהזמנה your shoppingקניות.
71
251208
3250
מכבות ומדליקות עבורכם את האור,
מזמינות את הקניות שלכם,
04:27
You get maleזָכָר AIsAIs too,
but they tendנוטה to be more high-poweredרב עוצמה,
72
255125
3309
אתם מקבלים גם קולות גבריים,
אך הם נוטים להיות משפיעים יותר,
04:30
like IBMיבמ Watsonווטסון,
makingהֲכָנָה businessעֵסֶק decisionsהחלטות,
73
258458
3059
כמו ווטסון של איי.בי.אם,
מקבל החלטות עסקיות,
04:33
SalesforceSalesforce Einsteinאיינשטיין
or ROSSרוס, the robotרוֹבּוֹט lawyerעורך דין.
74
261541
3792
איינשטיין של סיילספורס
או רוס, עורך הדין הרובוט.
04:38
So poorעני robotsרובוטים, even they sufferסובל
from sexismסקסיזם in the workplaceבמקום העבודה.
75
266208
4060
מסכנים הרובוטים, אפילו הם סובלים
מסקסיזם במקום העבודה.
04:42
(Laughterצחוק)
76
270292
1125
(צחוק)
04:44
Think about how these two things combineלְשַׁלֵב
77
272542
2851
חישבו איך שני הדברים האלה מתחברים
04:47
and affectלהשפיע a kidיֶלֶד growingגָדֵל up
in today'sשל היום worldעוֹלָם around AIAI.
78
275417
5309
ומשפיעים על ילד הגדל בעולם של היום
בסביבת בינות מלאכותיות.
04:52
So they're doing some researchמחקר
for a schoolבית ספר projectפּרוֹיֶקט
79
280750
2934
הם חוקרים קצת במסגרת שיעורי בית
04:55
and they GoogleGoogle imagesתמונות of CEOמנכ"ל.
80
283708
3018
ומחפשים בגוגל תמונות של מנכ"ל.
04:58
The algorithmאַלגוֹרִיתְם showsמופעים them
resultsתוצאות of mostlyבעיקר menגברים.
81
286750
2893
האלגוריתם יראה להם
בעיקר תוצאות של גברים.
05:01
And now, they GoogleGoogle personalאישי assistantעוֹזֵר.
82
289667
2559
ועכשיו, הם מחפשים בגוגל מזכירות.
05:04
As you can guessלְנַחֵשׁ,
it showsמופעים them mostlyבעיקר femalesנקבות.
83
292250
3434
כפי שתוכלו לנחש,
הוא יראה להם בעיקר נשים.
05:07
And then they want to put on some musicמוּסִיקָה,
and maybe orderלהזמין some foodמזון,
84
295708
3601
ואז הם ירצו להדליק מוזיקה,
ואולי להזמין משהו לאכול,
05:11
and now, they are barkingנביחות ordersהזמנות
at an obedientמְמוּשׁמָע femaleנְקֵבָה voiceקוֹל assistantעוֹזֵר.
85
299333
6584
ועכשיו הם נובחים פקודות
על עוזרת קולית צייתנית.
05:19
Some of our brightestהבהיר ביותר mindsמוחות
are creatingיוצר this technologyטֶכנוֹלוֹגִיָה todayהיום.
86
307542
5309
כמה מהמוחות המבריקים ביותר שלנו
הם מיוצרי הטכנולוגיה הזו כיום.
05:24
Technologyטֶכנוֹלוֹגִיָה that they could have createdשנוצר
in any way they wanted.
87
312875
4184
טכנולוגיה שהם יכלו ליצור
באיזו צורה שיבחרו.
05:29
And yetעדיין, they have chosenנִבחָר to createלִיצוֹר it
in the styleסִגְנוֹן of 1950s "Madמְטוּרָף Man" secretaryמזכיר.
88
317083
5685
ובכל זאת, הם בחרו ליצור אותה
בסגנון מזכירה, משנות החמישים.
05:34
Yayיש!
89
322792
1500
הידד!
05:36
But OK, don't worryדאגה,
90
324958
1310
אבל בסדר, אל דאגה.
05:38
this is not going to endסוֹף
with me tellingאומר you
91
326292
2059
זה לא הולך להגמר בכך
שאומר לכם
05:40
that we are all headingכּוֹתֶרֶת towardsלִקרַאת
sexistסקסיסטי, racistגִזעָן machinesמכונה runningרץ the worldעוֹלָם.
92
328375
3477
שכולנו עומדים בפני מכונות
סקסיסטיות וגזעניות שישלטו בעולם.
05:44
The good newsחֲדָשׁוֹת about AIAI
is that it is entirelyלַחֲלוּטִין withinבְּתוֹך our controlלִשְׁלוֹט.
93
332792
5791
החדשות הטובות לגבי בינה מלאכותית
הן שהיא לגמרי בשליטתנו.
05:51
We get to teachלְלַמֵד the right valuesערכים,
the right ethicsאֶתִיקָה to AIAI.
94
339333
4000
אנחנו זוכים ללמד אותה את הערכים ואת האתיקה הנכונה.
05:56
So there are threeשְׁלוֹשָׁה things we can do.
95
344167
2184
יש שלושה דברים שביכולתנו לעשות.
05:58
One, we can be awareמוּדָע of our ownשֶׁלוֹ biasesהטיות
96
346375
3351
הראשון, אנו יכולים להיות
מודעים לדיעות הקדומות שלנו
06:01
and the biasהֲטָיָה in machinesמכונה around us.
97
349750
2726
והדיעות הקדומות של
המכונות שבסביבה.
06:04
Two, we can make sure that diverseמְגוּוָן teamsצוותים
are buildingבִּניָן this technologyטֶכנוֹלוֹגִיָה.
98
352500
4518
השני, אנו יכולים לוודא כי צוותים מגוונים
בונים את הטכנולוגיה הזו.
06:09
And threeשְׁלוֹשָׁה, we have to give it
diverseמְגוּוָן experiencesחוויות to learnלִלמוֹד from.
99
357042
4916
והשלישי, אנו צריכים לספק לה
חוויות מגוונות ללמוד מתוכן.
06:14
I can talk about the first two
from personalאישי experienceניסיון.
100
362875
3309
אני יכולה לספר על השניים הראשונים
מנסיוני האישי.
06:18
When you work in technologyטֶכנוֹלוֹגִיָה
101
366208
1435
כשאתם עובדים בתחום הטכנולוגי
06:19
and you don't look like
a Markסימן Zuckerbergצוקרברג or Elonאילון Muskמוּשָׁק,
102
367667
3392
ואתם לא נראים כמו מארק צוקרברג
או אילון מאסק,
06:23
your life is a little bitbit difficultקָשֶׁה,
your abilityיְכוֹלֶת getsמקבל questionedנחקר.
103
371083
3750
החיים שלכם קצת יותר קשים,
היכולת שלכם מוטלת בספק.
06:27
Here'sהנה just one exampleדוגמא.
104
375875
1393
הנה רק דוגמה אחת.
06:29
Like mostרוב developersמפתחים,
I oftenלעתים קרובות joinלְהִצְטַרֵף onlineבאינטרנט techטק forumsפורומים
105
377292
3726
כמו רוב המפתחים, לעיתים קרובות
אני מתחברת לפורומים טכניים ברשת
06:33
and shareלַחֲלוֹק my knowledgeיֶדַע to help othersאחרים.
106
381042
3226
וחולקת מהידע שלי כדי לעזור לאחרים.
06:36
And I've foundמצאתי,
107
384292
1309
וגיליתי,
06:37
when I logעֵץ on as myselfעצמי,
with my ownשֶׁלוֹ photoתמונה, my ownשֶׁלוֹ nameשֵׁם,
108
385625
3976
שכשאני מתחברת בתור עצמי,
עם התמונה והשם שלי,
06:41
I tendנוטה to get questionsשאלות
or commentsהערות like this:
109
389625
4601
אני נוטה לקבל שאלות או תגובות
כמו למשל:
06:46
"What makesעושה you think
you're qualifiedמוסמך to talk about AIAI?"
110
394250
3000
"מה גורם לך לחשוב שאת מוסמכת
לדבר על בינה מלאכותית?"
06:50
"What makesעושה you think
you know about machineמְכוֹנָה learningלְמִידָה?"
111
398458
3476
"מה גורם לך לחשוב שאת מבינה
בלמידת מכונה?"
06:53
So, as you do, I madeעָשׂוּי a newחָדָשׁ profileפּרוֹפִיל,
112
401958
3435
אז כנהוג, יצרתי פרופיל חדש,
06:57
and this time, insteadבמקום זאת of my ownשֶׁלוֹ pictureתְמוּנָה,
I choseבחר a catחתול with a jetמטוס סילון packחבילה on it.
113
405417
4851
והפעם במקום התמונה שלי,
בחרתי בתמונת חתול עם תרמיל ריחוף.
07:02
And I choseבחר a nameשֵׁם
that did not revealלְגַלוֹת my genderמִין.
114
410292
2458
ובחרתי בשם שלא חושף
את המגדר שלי.
07:05
You can probablyכנראה guessלְנַחֵשׁ
where this is going, right?
115
413917
2726
אתם בטח יכולים לנחש
לאן זה מתקדם, נכון?
07:08
So, this time, I didn't get any of those
patronizingמתנשא commentsהערות about my abilityיְכוֹלֶת
116
416667
6392
ובכן, הפעם לא קיבלתי אף אחת
מאותן תגובות פטרוניות לגבי היכולת שלי
07:15
and I was ableיכול to actuallyלמעשה
get some work doneבוצע.
117
423083
3334
ולמעשה הצלחתי לעבוד קצת.
07:19
And it sucksמוצץ, guys.
118
427500
1851
וזה גרוע, חברים.
07:21
I've been buildingבִּניָן robotsרובוטים sinceמאז I was 15,
119
429375
2476
אני בונה רובוטים מאז גיל 15,
07:23
I have a fewמְעַטִים degreesמעלות in computerמַחשֵׁב scienceמַדָע,
120
431875
2268
יש לי כמה תארים במדעי המחשב,
07:26
and yetעדיין, I had to hideלהתחבא my genderמִין
121
434167
2434
ובכל זאת, נאלצתי
להסתיר את המגדר שלי,
07:28
in orderלהזמין for my work
to be takenנלקח seriouslyברצינות.
122
436625
2250
על מנת שיקחו ברצינות
את העבודה שלי.
07:31
So, what's going on here?
123
439875
1893
אז מה קורה כאן?
07:33
Are menגברים just better
at technologyטֶכנוֹלוֹגִיָה than womenנשים?
124
441792
3208
האם גברים פשוט טובים יותר
בטכנולוגיה מנשים?
07:37
Anotherאַחֵר studyלימוד foundמצאתי
125
445917
1559
מחקר נוסף מצא
07:39
that when womenנשים coderscoders on one platformפּלַטפוֹרמָה
hidהסתתר theirשֶׁלָהֶם genderמִין, like myselfעצמי,
126
447500
4934
שכאשר מתכנתות בפלטפורמה מסויימת
הסתירו את המגדר שלהן, כמוני,
07:44
theirשֶׁלָהֶם codeקוד was acceptedמְקוּבָּל
fourארבעה percentאָחוּז more than menגברים.
127
452458
3250
הקוד שלהן התקבל ב-4 אחוזים
יותר מקוד של הגברים.
07:48
So this is not about the talentכִּשָׁרוֹן.
128
456542
2916
אז הבעיה היא לא בכישרון.
07:51
This is about an elitismאליטיזם in AIAI
129
459958
2893
היא באליטיזם בתחום
הבינה המלאכותית
07:54
that saysאומר a programmerמְתַכנֵת
needsצרכי to look like a certainמסוים personאדם.
130
462875
2792
שקובע איך מתכנת אמור להיראות.
07:59
What we really need to do
to make AIAI better
131
467375
3101
מה שאנחנו באמת צריכים לעשות
כדי לשפר את הבינה המלאכותית
08:02
is bringלְהָבִיא people
from all kindsמיני of backgroundsרקעים.
132
470500
3042
זה להביא אנשים בעלי רקע שונה.
08:06
We need people who can
writeלִכתוֹב and tell storiesסיפורים
133
474542
2559
אנו זקוקים לאנשים שיודעים
לכתוב ולספר סיפורים
08:09
to help us createלִיצוֹר personalitiesאישים of AIAI.
134
477125
2167
כדי לעזור לנו ליצור את אישיות
הבינה המלאכותית.
08:12
We need people who can solveלִפְתוֹר problemsבעיות.
135
480208
2042
אנו זקוקים לאנשים שיודעים לפתור בעיות.
08:15
We need people
who faceפָּנִים differentשונה challengesאתגרים
136
483125
3768
אנו זקוקים לאנשים שמתמודדים
עם אתגרים שונים
08:18
and we need people who can tell us
what are the realאמיתי issuesנושאים that need fixingקְבִיעָה
137
486917
5351
ואנו זקוקים לאנשים שיכולים לומר לנו
מה הבעיות האמיתיות שיש לפתור,
08:24
and help us find waysדרכים
that technologyטֶכנוֹלוֹגִיָה can actuallyלמעשה fixלתקן it.
138
492292
3041
ושיעזרו לנו למצוא דרכים בהן
הטכנולוגיה תוכל לפתור אותן.
08:29
Because, when people
from diverseמְגוּוָן backgroundsרקעים come togetherיַחַד,
139
497833
3726
משום שכשאנשים
ממגוון רקעים נפגשים,
08:33
when we buildלִבנוֹת things in the right way,
140
501583
2143
כשאנו בונים דברים בדרך הנכונה,
08:35
the possibilitiesאפשרויות are limitlessללא גבולות.
141
503750
2042
האפשרויות הן בלתי-מוגבלות.
08:38
And that's what I want to endסוֹף
by talkingשִׂיחָה to you about.
142
506750
3309
וכך אני רוצה לסיים
את השיחה שלנו.
08:42
Lessפָּחוּת racistגִזעָן robotsרובוטים, lessפָּחוּת machinesמכונה
that are going to take our jobsמקומות תעסוקה --
143
510083
4225
פחות רובוטים גזענים, פחות מכונות
שגוזלות את המשרות שלנו --
08:46
and more about what technologyטֶכנוֹלוֹגִיָה
can actuallyלמעשה achieveלְהַשִׂיג.
144
514332
3125
ויותר על מה שהטכנולוגיה
יכולה באמת להשיג.
08:50
So, yes, some of the energyאֵנֶרְגִיָה
in the worldעוֹלָם of AIAI,
145
518292
3434
אז נכון, חלק מהמשאבים
בעולם הבינה המלאכותית,
08:53
in the worldעוֹלָם of technologyטֶכנוֹלוֹגִיָה
146
521750
1393
בעולם הטכנולוגיה,
08:55
is going to be about
what adsמודעות you see on your streamזרם.
147
523167
4267
יוקדשו לאילו מודעות תראו ברשת.
08:59
But a lot of it is going towardsלִקרַאת
makingהֲכָנָה the worldעוֹלָם so much better.
148
527458
5209
אבל חלק גדול יוקדש להפיכת
העולם להרבה יותר טוב.
09:05
Think about a pregnantבְּהֵרָיוֹן womanאִשָׁה
in the Democraticדֵמוֹקרָטִי Republicרפובליקה of Congoקונגו,
149
533500
3768
חישבו על אשה בהריון
ברפובליקה הדמוקרטית של קונגו,
09:09
who has to walkלָלֶכֶת 17 hoursשעות
to her nearestהקרוב ביותר ruralכַּפרִי prenatalשֶׁלִפנֵי הַלֵדָה clinicמרפאה
150
537292
4184
שצריכה ללכת 17 שעות
למרפאת הנשים הכפרית הקרובה
09:13
to get a checkupבְּדִיקָה.
151
541500
1851
כדי להבדק.
09:15
What if she could get diagnosisאִבחוּן
on her phoneטלפון, insteadבמקום זאת?
152
543375
2917
מה אם היא תוכל לעבור אבחון
בטלפון שלה במקום?
09:19
Or think about what AIAI could do
153
547750
1809
או חישבו על מה שניתן לעשות
09:21
for those one in threeשְׁלוֹשָׁה womenנשים
in Southדָרוֹם Africaאַפְרִיקָה
154
549583
2726
עבור אחת משלוש נשים
בדרום אפריקה
09:24
who faceפָּנִים domesticבֵּיתִי violenceאַלִימוּת.
155
552333
2125
שמתמודדות עם אלימות במשפחה.
09:27
If it wasn'tלא היה safeבטוח to talk out loudבְּקוֹל רָם,
156
555083
2726
אם לא בטוח עבורן לדבר בקול,
09:29
they could get an AIAI serviceשֵׁרוּת
to raiseהַעֲלָאָה alarmאזעקה,
157
557833
2476
הן תוכלנה להיעזר בבינה מלאכותית
כדי להתריע,
09:32
get financialכַּספִּי and legalמשפטי adviceעֵצָה.
158
560333
2459
לקבל יעוץ כספי וחוקי.
09:35
These are all realאמיתי examplesדוגמאות of projectsפרויקטים
that people, includingלְרַבּוֹת myselfעצמי,
159
563958
5018
אלה דוגמאות אמיתיות של פרוייקטים
שאנשים, כולל אני,
09:41
are workingעובד on right now, usingבאמצעות AIAI.
160
569000
2500
עובדים עליהם כיום, תוך שימוש
בבינה מלאכותית.
09:45
So, I'm sure in the nextהַבָּא coupleזוּג of daysימים
there will be yetעדיין anotherאַחֵר newsחֲדָשׁוֹת storyכַּתָבָה
161
573542
3601
אני בטוחה שבקרוב יצוץ
סיפור חדשותי נוסף
09:49
about the existentialקיומית riskלְהִסְתָכֵּן,
162
577167
2684
על הסיכון הקיומי,
09:51
robotsרובוטים takingלְקִיחָה over
and comingמגיע for your jobsמקומות תעסוקה.
163
579875
2434
רובוטים שמשתלטים וחומדים
את המשרות שלכם.
09:54
(Laughterצחוק)
164
582333
1018
(צחוק)
09:55
And when something like that happensקורה,
165
583375
2309
וכשמשהו כזה קורה,
09:57
I know I'll get the sameאותו messagesהודעות
worryingמדאיגה about the futureעתיד.
166
585708
3601
אני יודעת שאקבל את אותן ההודעות
בדאגה לגבי העתיד.
10:01
But I feel incrediblyבצורה מדהימה positiveחִיוּבִי
about this technologyטֶכנוֹלוֹגִיָה.
167
589333
3667
אך אני מרגישה חיובית להפליא
בנוגע לטכנולוגיה הזו.
10:07
This is our chanceהִזדַמְנוּת to remakeמַהֲדוּרָה מְחוּדֶשֶׁת the worldעוֹלָם
into a much more equalשווה placeמקום.
168
595458
5959
זו ההזדמנות שלנו להפוך את העולם
למקום הרבה יותר שוויוני.
10:14
But to do that, we need to buildלִבנוֹת it
the right way from the get go.
169
602458
4000
אך כדי לעשות זאת, עלינו לבנות אותו
בדרך הנכונה מהבסיס.
10:19
We need people of differentשונה gendersמגדרים,
racesמירוצים, sexualitiesמיניות and backgroundsרקעים.
170
607667
5083
אנו זקוקים לאנשים ממגוון מגדרים,
גזעים, העדפות מיניות ורקעים.
10:26
We need womenנשים to be the makersמקבלי
171
614458
2476
אנו זקוקים לנשים שתהיינה היוצרות
10:28
and not just the machinesמכונה
who do the makers'קבלי biddingמתן הצעות מחיר.
172
616958
3000
ולא רק המכונות עושות דברו של היוצר.
10:33
We need to think very carefullyבקפידה
what we teachלְלַמֵד machinesמכונה,
173
621875
3768
אנו צריכים לבחון בקפידה
מה אנו מלמדים את המכונות,
10:37
what dataנתונים we give them,
174
625667
1642
אילו נתונים אנו נותנים להן,
10:39
so they don't just repeatחזור
our ownשֶׁלוֹ pastעבר mistakesטעויות.
175
627333
3125
כדי שהן לא רק תחזורנה
על טעויות העבר שלנו.
10:44
So I hopeלְקַווֹת I leaveלעזוב you
thinkingחושב about two things.
176
632125
3542
אני מקווה שאני מותירה אתכם
במחשבה על שני דברים.
10:48
First, I hopeלְקַווֹת you leaveלעזוב
thinkingחושב about biasהֲטָיָה todayהיום.
177
636542
4559
ראשית, אני מקווה שאשאיר אתכם
חושבים על דעות קדומות היום.
10:53
And that the nextהַבָּא time
you scrollגְלִילָה pastעבר an advertAds
178
641125
3184
ושבפעם הבאה שתתקלו במודעה ברשת
10:56
that assumesמניח you are interestedמעוניין
in fertilityפוריות clinicsמרפאות
179
644333
2810
שמניחה שאתם מתעניינים
במרפאות פוריות,
10:59
or onlineבאינטרנט bettingהִתעָרְבוּת websitesאתרי אינטרנט,
180
647167
2851
או אתרי הימורים,
11:02
that you think and rememberלִזכּוֹר
181
650042
2017
שתחשבו על כך ותזכרו
11:04
that the sameאותו technologyטֶכנוֹלוֹגִיָה is assumingבהנחה
that a blackשָׁחוֹר man will reoffendreoffend.
182
652083
4625
שזו אותה הטכנולוגיה שמניחה
שגבר שחור יהיה עבריין חוזר.
11:09
Or that a womanאִשָׁה is more likelyסָבִיר
to be a personalאישי assistantעוֹזֵר than a CEOמנכ"ל.
183
657833
4167
או שלאשה סיכוי גדול יותר להיות
עוזרת אישית מאשר מנכ"לית.
11:14
And I hopeלְקַווֹת that remindsמזכיר you
that we need to do something about it.
184
662958
3709
ואני מקווה שזה יזכיר לכם
שעלינו לפעול בעניין.
11:20
And secondשְׁנִיָה,
185
668917
1851
ושנית,
11:22
I hopeלְקַווֹת you think about the factעוּבדָה
186
670792
1892
אני מקווה שתחשבו על העובדה
11:24
that you don't need to look a certainמסוים way
187
672708
1976
שאתם לא צריכים להיות
בעלי מראה מסוים
11:26
or have a certainמסוים backgroundרקע כללי
in engineeringהַנדָסָה or technologyטֶכנוֹלוֹגִיָה
188
674708
3851
או שיהיה לכם רקע מסוים
בהנדסה או טכנולוגיה
11:30
to createלִיצוֹר AIAI,
189
678583
1268
כדי ליצור בינה מלאכותית,
11:31
whichאיזה is going to be
a phenomenalפֵנוֹמֵנָלִי forceכּוֹחַ for our futureעתיד.
190
679875
2875
שתהיה בעלת השפעה מכרעת
על עתידנו.
11:36
You don't need to look
like a Markסימן Zuckerbergצוקרברג,
191
684166
2143
אתם לא צריכים להיראות כמו
מארק צוקרברג,
11:38
you can look like me.
192
686333
1250
אתם יכולים להיראות כמוני.
11:41
And it is up to all of us in this roomחֶדֶר
193
689250
2893
ובאחריות כל מי שנמצא בחדר הזה
11:44
to convinceלְשַׁכְנֵעַ the governmentsממשלות
and the corporationsתאגידים
194
692167
2726
לשכנע את הממשלות והתאגידים
11:46
to buildלִבנוֹת AIAI technologyטֶכנוֹלוֹגִיָה for everyoneכל אחד,
195
694917
2892
לבנות טכנולוגיות בינה מלאכותית
המיועדות לכולם,
11:49
includingלְרַבּוֹת the edgeקָצֶה casesבמקרים.
196
697833
2393
כולל מקרי קצה.
11:52
And for us all to get educationהַשׂכָּלָה
197
700250
2059
ולאפשר לכולנו השכלה
11:54
about this phenomenalפֵנוֹמֵנָלִי
technologyטֶכנוֹלוֹגִיָה in the futureעתיד.
198
702333
2375
בתחום הטכנולוגיה הייחודית הזו בעתיד.
11:58
Because if we do that,
199
706167
2017
כי אם נעשה זאת,
12:00
then we'veיש לנו only just scratchedשרטה the surfaceמשטח
of what we can achieveלְהַשִׂיג with AIAI.
200
708208
4893
זה יהיה רק מעט ממה שנוכל להשיג
בעזרת בינה מלאכותית.
12:05
Thank you.
201
713125
1268
תודה.
12:06
(Applauseתְשׁוּאוֹת)
202
714417
2708
(מחיאות כפיים)
Translated by Ruth Veksler
Reviewed by Nurit Noy

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee