ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

Kriti Sharma: Cum să ținem prejudecățile umane departe de I.A.

Filmed:
2,050,106 views

Algoritmii folosiți pentru I.A. iau în mod constant decizii importante pentru voi, cum ar fi cât trebuie să plătiți pentru asigurarea mașinii sau dacă veți fi invitați la un interviu de angajare. Dar ce se întâmplă atunci când aceste tehnologii sunt construite cu prejudecăți umane codificate în sistemul lor? Kriti Sharma a analizat modul în care lipsa de diversitate din tehnologie ajunge să strice I.A. și ne sugerează trei modalități prin care putem începe să creăm algoritmi mai etici.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How manymulți decisionsdeciziile
have been madefăcut about you todayastăzi,
0
875
3768
Cât de multe decizii
au fost luate astăzi pentru voi,
00:16
or this weeksăptămână or this yearan,
1
4667
2601
în această săptămână sau în acest an,
00:19
by artificialartificial intelligenceinteligență?
2
7292
1958
de către inteligența artificială?
Profesia mea e să construiesc I.A.
00:22
I buildconstrui AIAI for a livingviaţă
3
10958
1685
00:24
so, fulldeplin disclosureDezvaluirea, I'm kinddrăguț of a nerdtocilar.
4
12667
3017
Mărturisesc că sunt puțin tocilară.
00:27
And because I'm kinddrăguț of a nerdtocilar,
5
15708
2393
Și pentru că sunt puțin tocilară,
00:30
whereveroriunde some newnou newsștiri storypoveste comesvine out
6
18125
2351
ori de câte ori apare o nouă știre
00:32
about artificialartificial intelligenceinteligență
stealingfurtul all our jobslocuri de munca,
7
20500
3434
despre inteligența artificială
care ne fură locurile de muncă,
00:35
or robotsroboți gettingobtinerea citizenshipcetățenie
of an actualreal countryțară,
8
23958
4185
sau despre roboții care obțin
cetățenia unei țări,
00:40
I'm the personpersoană my friendsprieteni
and followersadepţi messagemesaj
9
28167
3142
prietenii și persoanele
care mă urmăresc mă contactează
00:43
freakingfreaking out about the futureviitor.
10
31333
1542
pentru că se tem de viitor.
00:45
We see this everywherepretutindeni.
11
33833
2101
Vedem acest lucru peste tot.
00:47
This mediamass-media panicpanica that
our robotrobot overlordsstăpânii are takingluare over.
12
35958
4893
Frica mediatică că roboții
ar putea prelua controlul.
00:52
We could blamevină HollywoodHollywood for that.
13
40875
1917
Am putea da vina pe Hollywood pentru asta.
00:56
But in realityrealitate, that's not the problemproblemă
we should be focusingfocalizare on.
14
44125
4125
Dar de fapt, nu asta e problema
pe care ar trebui să ne concentrăm.
01:01
There is a more pressingpresare dangerPericol,
a biggermai mare riskrisc with AIAI,
15
49250
3643
Există o problemă mult mai urgentă,
un risc mult mai mare cu I.A.,
01:04
that we need to fixrepara first.
16
52917
1583
pe care trebuie să-l rezolvăm mai întâi.
01:07
So we are back to this questionîntrebare:
17
55417
2309
Să ne întoarcem la această întrebare:
01:09
How manymulți decisionsdeciziile
have been madefăcut about you todayastăzi by AIAI?
18
57750
4708
Cât de multe decizii au fost luate
astăzi pentru voi de I.A.?
01:15
And how manymulți of these
19
63792
1976
Câte dintre acestea
01:17
were basedbazat on your gendergen,
your racerasă or your backgroundfundal?
20
65792
4500
se bazează pe sexul,
rasa sau mediul vostru?
01:24
AlgorithmsAlgoritmi are beingfiind used all the time
21
72500
2768
Algoritmii sunt folosiți în mod constant
01:27
to make decisionsdeciziile about who we are
and what we want.
22
75292
3833
pentru a lua decizii cu privire
la cine suntem și ceea ce ne dorim.
01:32
Some of the womenfemei in this roomcameră
will know what I'm talkingvorbind about
23
80208
3643
Câteva femei din această sală
știu despre ce vorbesc
01:35
if you've been madefăcut to sitsta throughprin
those pregnancysarcina testTest advertsanunţuri on YouTubeYouTube
24
83875
3768
dacă au fost nevoite să suporte reclamele
la testele de sarcină de pe YouTube
01:39
like 1,000 timesori.
25
87667
2059
de cel puțin o mie de ori.
01:41
Or you've scrolleddefilat pasttrecut advertsanunţuri
of fertilityfertilitate clinicsclinici
26
89750
2851
Sau dacă v-au apărut reclame
la clinicile de fertilitate pe Facebook.
01:44
on your FacebookFacebook feeda hrani.
27
92625
2042
Sau în cazul meu,
agențiile matrimoniale indiene.
01:47
Or in my casecaz, IndianIndian marriagecăsătorie bureausbirouri.
28
95625
2393
(Râsete)
01:50
(LaughterRâs)
29
98042
1267
01:51
But AIAI isn't just beingfiind used
to make decisionsdeciziile
30
99333
2976
Dar I.A. nu este folosită
doar pentru a lua decizii
01:54
about what productsproduse we want to buya cumpara
31
102333
2601
în legătură cu produsele
pe care vrem să le cumpărăm,
01:56
or whichcare showspectacol we want to bingechef watch nextUrmător →.
32
104958
2500
sau la ce seriale să ne uităm.
02:01
I wondermirare how you'dte-ai feel about someonecineva
who thought things like this:
33
109042
5184
Mă întreb ce ați crede
despre cineva care ar gândi următoarele:
02:06
"A blacknegru or LatinoLatino personpersoană
34
114250
1934
„O persoană neagră sau de origine latină
02:08
is lessMai puțin likelyprobabil than a whitealb personpersoană
to paya plati off theiral lor loanîmprumut on time."
35
116208
4125
e mai puțin probabil să achite împrumutul
la timp decât o persoană albă.”
02:13
"A personpersoană calleddenumit JohnIoan
makesmărci a better programmerprogramator
36
121542
2809
„Cineva care se numește John
e un programator mai bun
02:16
than a personpersoană calleddenumit MaryMary."
37
124375
1667
decât cineva care se numește Maria.“
02:19
"A blacknegru man is more likelyprobabil to be
a repeatrepeta offenderinfractor than a whitealb man."
38
127250
5083
„E mai probabil ca o persoană de culoare
să recidiveze decât o persoană albă.”
02:26
You're probablyprobabil thinkinggândire,
39
134958
1268
Probabil vă gândiți:
02:28
"WowWow, that soundssunete like a prettyfrumos sexistsexiste,
racistrasist personpersoană," right?
40
136250
3750
„Pare a fi o persoană cam sexistă
și rasistă”, nu-i așa?
02:33
These are some realreal decisionsdeciziile
that AIAI has madefăcut very recentlyrecent,
41
141000
4851
Acestea sunt decizii reale
pe care I.A. le-a luat recent,
02:37
basedbazat on the biasesdistorsiunilor
it has learnedînvățat from us,
42
145875
2934
bazându-se pe prejudecățile
pe care le-a învățat de la noi,
02:40
from the humansoameni.
43
148833
1250
de la oameni.
02:43
AIAI is beingfiind used to help decidea decide
whetherdacă or not you get that jobloc de munca interviewinterviu;
44
151750
4809
I.A. e folosită pentru a hotărî dacă veți
obține un interviu pentru o slujbă;
02:48
how much you paya plati for your carmașină insuranceasigurare;
45
156583
2393
cât veți plăti pentru asigurarea mașinii;
02:51
how good your creditcredit scorescor is;
46
159000
1893
cât de bună e performața creditului tău;
02:52
and even what ratingrating you get
in your annualanual performanceperformanţă reviewrevizuire.
47
160917
3125
până și ce rezultate veți avea
în evaluarea anuală a performanței.
02:57
But these decisionsdeciziile
are all beingfiind filteredfiltrate throughprin
48
165083
3143
Dar aceste decizii sunt toate filtrate
prin ipotezele sale privind identitatea,
rasa, sexul și vârsta noastră.
03:00
its assumptionsipoteze about our identityidentitate,
our racerasă, our gendergen, our agevârstă.
49
168250
5875
03:08
How is that happeninglucru?
50
176250
2268
Cum se întâmplă asta?
03:10
Now, imagineimagina an AIAI is helpingajutor
a hiringangajare manageradministrator
51
178542
3517
Imaginați-vă că I.A. ajută
un manager de recrutare
03:14
find the nextUrmător → techtech leaderlider in the companycompanie.
52
182083
2851
pentru a găsi următorul
lider al companiei.
03:16
So fardeparte, the manageradministrator
has been hiringangajare mostlyMai ales menbărbați.
53
184958
3101
Până în prezent, managerul
a angajat mai ales bărbați.
03:20
So the AIAI learnsînvaţă menbărbați are more likelyprobabil
to be programmersprogramatori than womenfemei.
54
188083
4750
Așa că I.A. învață că bărbații sunt
de cele mai multe ori programatori.
03:25
And it's a very shortmic de statura leapsalt from there to:
55
193542
2892
De aici e un pas mic în a crede
03:28
menbărbați make better programmersprogramatori than womenfemei.
56
196458
2042
că bărbații sunt mai buni programatori
decât femeile.
03:31
We have reinforcedarmat
our ownpropriu biaspărtinire into the AIAI.
57
199417
3726
Ne-am întărit
propriile noastre prejudecăți în I.A.
03:35
And now, it's screeningscreening- out
femaleFemeie candidatescandidaţi.
58
203167
3625
Și acum, aceasta exclude
candidatele de sex feminin.
03:40
HangStea on, if a humanuman
hiringangajare manageradministrator did that,
59
208917
3017
Dar dacă un manager uman ar face asta,
03:43
we'dne-am be outragedrevoltat, we wouldn'tnu ar fi allowpermite it.
60
211958
2351
am fi revoltați,
nu am permite acest lucru.
03:46
This kinddrăguț of gendergen
discriminationdiscriminare is not OK.
61
214333
3476
Acest tip de discriminare sexuală
nu e în regulă.
03:49
And yetinca somehowoarecum,
AIAI has becomedeveni abovede mai sus the lawlege,
62
217833
4518
Și totuși, într-un fel,
I.A. a ajuns mai presus de lege,
03:54
because a machinemaşină madefăcut the decisiondecizie.
63
222375
2083
pentru că o mașinărie a luat decizia.
03:57
That's not it.
64
225833
1518
Nu e numai asta.
03:59
We are alsode asemenea reinforcingconsolidarea our biaspărtinire
in how we interactinteracționa with AIAI.
65
227375
4875
Consolidăm prejudecățile noastre
în modul în care interacționăm cu I.A.
04:04
How oftende multe ori do you use a voicevoce assistantasistent
like SiriSiri, AlexaAlexa or even CortanaCortana?
66
232917
5976
Cât de des utilizați un asistent vocal
precum Siri, Alexa sau chiar Cortana?
04:10
They all have two things in commoncomun:
67
238917
2559
Toate au două lucruri în comun:
04:13
one, they can never get my nameNume right,
68
241500
3101
unu, nu vor putea niciodată
să-mi pronunțe numele corect,
04:16
and secondal doilea, they are all femaleFemeie.
69
244625
2667
și doi, sunt toate de sex feminin.
04:20
They are designedproiectat to be
our obedientascultători servantspublici,
70
248417
2767
Sunt concepute pentru a fi
servitoarele noastre supuse,
04:23
turningcotitură your lightslumini on and off,
orderingcomanda your shoppingcumpărături.
71
251208
3250
vă aprind și vă sting luminile,
vă comandă cumpărăturile.
04:27
You get malemasculin AIsAIs too,
but they tendtind to be more high-poweredde mare putere,
72
255125
3309
Sunt și I.A. de sex masculin,
dar tind să fie mai împuterniciți.
04:30
like IBMIBM WatsonWatson,
makingluare businessAfaceri decisionsdeciziile,
73
258458
3059
Cum ar fi IBM Watson,
care ia decizii de afaceri,
04:33
SalesforceSalesforce EinsteinEinstein
or ROSSRoss, the robotrobot lawyeravocat.
74
261541
3792
Salesforce Einstein sau ROSS,
avocatul robot.
04:38
So poorsărac robotsroboți, even they suffersuferi
from sexismsexismul in the workplacela locul de muncă.
75
266208
4060
Săracii roboți, chiar și ei suferă
de sexism la locul de muncă.
(Râsete)
04:42
(LaughterRâs)
76
270292
1125
04:44
Think about how these two things combinecombina
77
272542
2851
Gândiți-vă la modul în care
se combină aceste două lucruri
04:47
and affecta afecta a kidcopil growingcreştere up
in today'sastăzi worldlume around AIAI.
78
275417
5309
și afectează copiii care cresc
în zilele noastre înconjurați de I.A.
04:52
So they're doing some researchcercetare
for a schoolşcoală projectproiect
79
280750
2934
Ei fac niște cercetări
pentru un proiect școlar
04:55
and they GoogleGoogle imagesimagini of CEOCEO.
80
283708
3018
și caută pe Google imagini
cu un director general.
04:58
The algorithmAlgoritmul showsspectacole them
resultsrezultate of mostlyMai ales menbărbați.
81
286750
2893
Algoritmul le arată
rezultatele cu majoritatea bărbați.
05:01
And now, they GoogleGoogle personalpersonal assistantasistent.
82
289667
2559
Apoi caută pe Google asistent personal.
05:04
As you can guessghici,
it showsspectacole them mostlyMai ales femalesfemele.
83
292250
3434
După cum puteți ghici,
majoritatea sunt de sex feminin.
05:07
And then they want to put on some musicmuzică,
and maybe orderOrdin some foodalimente,
84
295708
3601
Apoi vor să pună niște muzică,
și poate să comande ceva de mâncare,
05:11
and now, they are barkingLatratul ordersordinele
at an obedientascultători femaleFemeie voicevoce assistantasistent.
85
299333
6584
iar acum, dau ordine unei ascultătoare
asistente vocale de sex feminin.
05:19
Some of our brighteststrălucitoare mindsminți
are creatingcrearea this technologytehnologie todayastăzi.
86
307542
5309
Unele dintre cele mai strălucitoare minți
creează în prezent această tehnologie.
05:24
TechnologyTehnologie that they could have createdcreată
in any way they wanted.
87
312875
4184
Tehnologie pe care ar fi putut-o crea
în orice fel ar fi vrut.
05:29
And yetinca, they have chosenales to createcrea it
in the stylestil of 1950s "MadNebun Man" secretarysecretar.
88
317083
5685
Și totuși, ei au ales să o creeze
în stilul unei secretare din anii '50.
05:34
YayYay!
89
322792
1500
Ura!
05:36
But OK, don't worryface griji,
90
324958
1310
Dar bine, nu vă faceți griji,
05:38
this is not going to endSfârşit
with me tellingspune you
91
326292
2059
nu se va termina cu mine spunându-vă
05:40
that we are all headingrubrică towardscătre
sexistsexiste, racistrasist machinesmaşini runningalergare the worldlume.
92
328375
3477
că lumea va fi condusă
de mașinării sexiste și rasiste.
05:44
The good newsștiri about AIAI
is that it is entirelyîn întregime withinîn our controlControl.
93
332792
5791
Vestea bună despre I.A. e că se află
în întregime sub controlul nostru.
05:51
We get to teacha preda the right valuesvalorile,
the right ethicsetica to AIAI.
94
339333
4000
Trebuie să învățăm I.A.
despre etica și despre valorile corecte.
05:56
So there are threeTrei things we can do.
95
344167
2184
Există trei lucruri pe care le putem face.
05:58
One, we can be awareconștient of our ownpropriu biasesdistorsiunilor
96
346375
3351
Unu, putem fi conștienți
de propriile noastre prejudecăți
06:01
and the biaspărtinire in machinesmaşini around us.
97
349750
2726
și de prejudecățile mașinăriilor
care ne înconjoară.
06:04
Two, we can make sure that diversedivers teamsechipe
are buildingclădire this technologytehnologie.
98
352500
4518
Doi, ne putem asigura că diverse
echipe construiesc aceste tehnologii.
06:09
And threeTrei, we have to give it
diversedivers experiencesexperiențe to learnînvăța from.
99
357042
4916
Și trei, trebuie să le oferim
diferite experiențe din care să învețe.
06:14
I can talk about the first two
from personalpersonal experienceexperienţă.
100
362875
3309
Pot vorbi despre primele două
din experiența personală.
06:18
When you work in technologytehnologie
101
366208
1435
Când lucrezi în tehnologie
06:19
and you don't look like
a MarkMark ZuckerbergZuckerberg or ElonElon MuskMosc,
102
367667
3392
și nu arăți ca Mark Zuckerberg
sau Elon Musk,
06:23
your life is a little bitpic difficultdificil,
your abilityabilitate getsdevine questionedsub semnul întrebării.
103
371083
3750
viața ta e un pic mai dificilă,
capacitățile îți sunt puse la îndoială.
06:27
Here'sAici este just one exampleexemplu.
104
375875
1393
Iată un exemplu.
06:29
Like mostcel mai developersdezvoltatorii,
I oftende multe ori joina adera onlinepe net techtech forumsForum
105
377292
3726
Ca majoritatea dezvoltatorilor,
particip la forumuri online de tehnologie
06:33
and shareacțiune my knowledgecunoştinţe to help othersalții.
106
381042
3226
și îmi împărtășesc cunoștințele
pentru a-i ajuta pe ceilalți.
06:36
And I've foundgăsite,
107
384292
1309
Ceea ce am descoperit
06:37
when I logButuruga on as myselfeu insumi,
with my ownpropriu photofotografie, my ownpropriu nameNume,
108
385625
3976
atunci când m-am conectat
cu propria fotografie și propriul nume,
06:41
I tendtind to get questionsîntrebări
or commentscomentarii like this:
109
389625
4601
au fost întrebări și comentarii de genul:
06:46
"What makesmărci you think
you're qualifiedcalificat to talk about AIAI?"
110
394250
3000
„Ce te face să crezi că ești în măsură
să vorbești despre I.A.?”
06:50
"What makesmărci you think
you know about machinemaşină learningînvăţare?"
111
398458
3476
„Ce te face să crezi că știi ceva
despre învățarea automată?“
06:53
So, as you do, I madefăcut a newnou profileprofilul,
112
401958
3435
Așa că mi-am făcut un nou profil.
06:57
and this time, insteadin schimb of my ownpropriu pictureimagine,
I chosea ales a catpisică with a jetavion packambalaj on it.
113
405417
4851
Și de această dată, în loc de poza mea,
am ales poza unei pisici cu un jetpack.
07:02
And I chosea ales a nameNume
that did not revealdezvălui my gendergen.
114
410292
2458
Și am ales un nume
care nu îmi dezvăluia sexul.
07:05
You can probablyprobabil guessghici
where this is going, right?
115
413917
2726
Puteți ghici ce s-a întâmplat, nu?
07:08
So, this time, I didn't get any of those
patronizingocrotitoare commentscomentarii about my abilityabilitate
116
416667
6392
De data aceasta, nu am primit niciun
comentariu arogant despre abilitățile mele
07:15
and I was ablecapabil to actuallyde fapt
get some work doneTerminat.
117
423083
3334
și am reușit să fac câte ceva.
07:19
And it suckse de rahat, guys.
118
427500
1851
E groaznic.
07:21
I've been buildingclădire robotsroboți sincede cand I was 15,
119
429375
2476
Construiesc roboți de când aveam 15 ani,
07:23
I have a fewpuțini degreesgrade in computercomputer scienceştiinţă,
120
431875
2268
am câteva titluri în informatică,
07:26
and yetinca, I had to hideascunde my gendergen
121
434167
2434
și totuși a trebuit să-mi ascund sexul
07:28
in orderOrdin for my work
to be takenluate seriouslySerios.
122
436625
2250
pentru ca munca mea
să fie luată în serios.
07:31
So, what's going on here?
123
439875
1893
Deci, ce se întâmplă?
07:33
Are menbărbați just better
at technologytehnologie than womenfemei?
124
441792
3208
Sunt bărbații pur și simplu
mai buni la tehnologie decât femeile?
07:37
AnotherUn alt studystudiu foundgăsite
125
445917
1559
Un alt studiu a constatat
07:39
that when womenfemei codersprogramatori on one platformplatformă
hidascuns theiral lor gendergen, like myselfeu insumi,
126
447500
4934
că atunci când femeile programatoare
își ascund sexul pe o platformă, ca mine,
07:44
theiral lor codecod was acceptedadmis
fourpatru percentla sută more than menbărbați.
127
452458
3250
codul lor e acceptat
cu 4% mai mult decât cel al bărbaților.
07:48
So this is not about the talenttalent.
128
456542
2916
Deci, acest lucru nu are legătură
cu talentul.
07:51
This is about an elitismelitismul in AIAI
129
459958
2893
E vorba despre un elitism în I.A.
07:54
that saysspune a programmerprogramator
needsare nevoie to look like a certainanumit personpersoană.
130
462875
2792
conform căruia un programator
trebuie să arate într-un fel anume.
07:59
What we really need to do
to make AIAI better
131
467375
3101
Pentru a îmbunătăți cu adevărat I.A.
trebuie să implicăm oameni
din diverse medii.
08:02
is bringaduce people
from all kindstipuri of backgroundsfundaluri.
132
470500
3042
Avem nevoie de oameni care pot
scrie și spune povești
08:06
We need people who can
writescrie and tell storiespovestiri
133
474542
2559
08:09
to help us createcrea personalitiespersonalități of AIAI.
134
477125
2167
pentru a putea crea personalități ale I.A.
08:12
We need people who can solverezolva problemsProbleme.
135
480208
2042
Avem nevoie de oameni
care pot rezolva probleme.
08:15
We need people
who facefață differentdiferit challengesprovocări
136
483125
3768
Avem nevoie de oameni
care se confruntă cu provocări diferite
08:18
and we need people who can tell us
what are the realreal issuesprobleme that need fixingfixare
137
486917
5351
și avem nevoie de oameni care să ne spună
ce probleme reale trebuie rezolvate
08:24
and help us find waysmoduri
that technologytehnologie can actuallyde fapt fixrepara it.
138
492292
3041
și să ne ajute să găsim modalități
prin care tehnologia să le rezolve.
08:29
Because, when people
from diversedivers backgroundsfundaluri come togetherîmpreună,
139
497833
3726
Pentru că, atunci când oamenii
din diverse medii se unesc,
08:33
when we buildconstrui things in the right way,
140
501583
2143
când construim lucrurile
folosind metoda potrivită,
08:35
the possibilitiesposibilităţi are limitlessnelimitate.
141
503750
2042
posibilitățile sunt nelimitate.
08:38
And that's what I want to endSfârşit
by talkingvorbind to you about.
142
506750
3309
Despre asta vreau să vă vorbesc
în încheiere.
08:42
LessMai puţin racistrasist robotsroboți, lessMai puțin machinesmaşini
that are going to take our jobslocuri de munca --
143
510083
4225
Mai puțin despre roboți rasiști
sau mașinării care ne vor lua
locurile de muncă
08:46
and more about what technologytehnologie
can actuallyde fapt achieveobține.
144
514332
3125
și mai mult despre ceea ce tehnologia
poate realiza.
08:50
So, yes, some of the energyenergie
in the worldlume of AIAI,
145
518292
3434
Deci, da, o parte din energiile
din lumea I.A.,
08:53
in the worldlume of technologytehnologie
146
521750
1393
din lumea tehnologiei,
08:55
is going to be about
what adsanunțuri you see on your streamcurent.
147
523167
4267
vor fi direcționate spre a decide
ce reclame veți vedea pe internet.
08:59
But a lot of it is going towardscătre
makingluare the worldlume so much better.
148
527458
5209
Dar multe din ele vor fi folosite
pentru a face lumea mai bună.
09:05
Think about a pregnantgravidă womanfemeie
in the DemocraticDemocratice RepublicRepublica of CongoCongo,
149
533500
3768
Gândiți-vă la o femeie gravidă
din Republica Democrată Congo,
09:09
who has to walkmers pe jos 17 hoursore
to her nearestcel mai apropiat ruralrural prenatalprenatale clinicclinică
150
537292
4184
care trebuie să meargă 17 ore până la
cea mai apropiată clinică prenatală
09:13
to get a checkupconsult.
151
541500
1851
pentru a face un control.
09:15
What if she could get diagnosisDiagnosticul
on her phonetelefon, insteadin schimb?
152
543375
2917
Dar dacă ar putea primi în schimb
un diagnostic folosind telefonul?
09:19
Or think about what AIAI could do
153
547750
1809
Sau gândiți-vă ce ar putea face I.A.
09:21
for those one in threeTrei womenfemei
in SouthSud AfricaAfrica
154
549583
2726
pentru o femeie din trei din Africa de Sud
09:24
who facefață domesticintern violenceviolenţă.
155
552333
2125
care se confruntă cu violența domestică.
09:27
If it wasn'tnu a fost safesigur to talk out loudtare,
156
555083
2726
Dacă nu ar fi în siguranță să vorbească,
09:29
they could get an AIAI serviceserviciu
to raisea ridica alarmalarma,
157
557833
2476
acestea ar putea accesa I.A.
pentru a trage un semnal de alarmă,
09:32
get financialfinanciar and legallegal advicesfat.
158
560333
2459
pentru a obține consiliere
financiară și juridică.
09:35
These are all realreal examplesexemple of projectsproiecte
that people, includinginclusiv myselfeu insumi,
159
563958
5018
Toate acestea sunt exemple de proiecte
la care unele persoane, inclusiv eu,
09:41
are workinglucru on right now, usingutilizând AIAI.
160
569000
2500
lucrează în acest moment folosind I.A.
09:45
So, I'm sure in the nextUrmător → couplecuplu of dayszi
there will be yetinca anothero alta newsștiri storypoveste
161
573542
3601
Sunt sigură că în următoarele zile
va apărea încă o știre
09:49
about the existentialexistențială riskrisc,
162
577167
2684
despre riscul existențial,
09:51
robotsroboți takingluare over
and comingvenire for your jobslocuri de munca.
163
579875
2434
despre roboții care preiau controlul
și care vă iau locurile de muncă.
09:54
(LaughterRâs)
164
582333
1018
(Râsete)
09:55
And when something like that happensse întâmplă,
165
583375
2309
Și când se va întâmpla asta,
09:57
I know I'll get the samela fel messagesmesaje
worryingîngrijorătoare about the futureviitor.
166
585708
3601
știu că voi primi aceleași mesaje
exprimând teama de viitor.
10:01
But I feel incrediblyincredibil positivepozitiv
about this technologytehnologie.
167
589333
3667
Dar am o părere incredibil de pozitivă
despre această tehnologie.
10:07
This is our chanceşansă to remakeremake-ul the worldlume
into a much more equalegal placeloc.
168
595458
5959
Aceasta e șansa noastră de a reconstrui
lumea într-un loc mult mai egal.
10:14
But to do that, we need to buildconstrui it
the right way from the get go.
169
602458
4000
Dar pentru a face asta trebuie
s-o construim de la început cum trebuie.
10:19
We need people of differentdiferit genderssexe,
racescurse, sexualitiessexualitati and backgroundsfundaluri.
170
607667
5083
Avem nevoie de oameni de sexe,
rase, sexualități și din medii diferite.
10:26
We need womenfemei to be the makersfactorii de decizie
171
614458
2476
Avem nevoie de femei
care să fie creatoare,
10:28
and not just the machinesmaşini
who do the makers'decizie biddinglicitare.
172
616958
3000
și nu doar niște mașinării
care să execute ordinele creatorilor.
10:33
We need to think very carefullycu grija
what we teacha preda machinesmaşini,
173
621875
3768
Trebuie să ne gândim foarte atent
ce învățăm mașinăriile,
10:37
what datadate we give them,
174
625667
1642
ce date le oferim,
10:39
so they don't just repeatrepeta
our ownpropriu pasttrecut mistakesgreșeli.
175
627333
3125
astfel încât să nu repete
propriile noastre greșeli din trecut.
10:44
So I hopesperanţă I leavepărăsi you
thinkinggândire about two things.
176
632125
3542
Sper că vă las două teme de gândire.
10:48
First, I hopesperanţă you leavepărăsi
thinkinggândire about biaspărtinire todayastăzi.
177
636542
4559
În primul rând, sper să vă gândiți
la prejudecățile din prezent.
10:53
And that the nextUrmător → time
you scrollsul pasttrecut an advertanunţ
178
641125
3184
Și data viitoare când veți da
peste o reclamă
10:56
that assumespresupune you are interestedinteresat
in fertilityfertilitate clinicsclinici
179
644333
2810
care presupune că vă interesează
clinicile de fertilitate
10:59
or onlinepe net bettingpariuri websitessite-uri web,
180
647167
2851
sau site-urile de pariuri online,
11:02
that you think and remembertine minte
181
650042
2017
să vă gândiți și să vă amintiți
11:04
that the samela fel technologytehnologie is assumingpresupunând
that a blacknegru man will reoffendrecidivează.
182
652083
4625
că aceeași tehnologie presupune
că o persoană de culoare va recidiva.
11:09
Or that a womanfemeie is more likelyprobabil
to be a personalpersonal assistantasistent than a CEOCEO.
183
657833
4167
Că e mult mai probabil ca o femeie să fie
asistent personal decât director general.
11:14
And I hopesperanţă that remindsreamintește you
that we need to do something about it.
184
662958
3709
Și sper să vă aduceți aminte că trebuie
să facem ceva în legătură cu asta.
11:20
And secondal doilea,
185
668917
1851
Și în al doilea rând,
11:22
I hopesperanţă you think about the factfapt
186
670792
1892
sper să vă gândiți la faptul
11:24
that you don't need to look a certainanumit way
187
672708
1976
că nu trebuie să arătați
într-un anumit fel
11:26
or have a certainanumit backgroundfundal
in engineeringInginerie or technologytehnologie
188
674708
3851
sau să aveți o anumită experiență
în domeniul ingineriei sau tehnologiei
11:30
to createcrea AIAI,
189
678583
1268
pentru a crea I.A.,
11:31
whichcare is going to be
a phenomenalfenomenal forceforta for our futureviitor.
190
679875
2875
ce va fi o forță fenomenală
în viitorul nostru.
11:36
You don't need to look
like a MarkMark ZuckerbergZuckerberg,
191
684166
2143
Nu trebuie să arătați ca Mark Zuckerberg,
11:38
you can look like me.
192
686333
1250
puteți arăta ca mine.
11:41
And it is up to all of us in this roomcameră
193
689250
2893
E de datoria noastră, a tuturor,
11:44
to convinceconvinge the governmentsguvernele
and the corporationscorporații
194
692167
2726
să convingem guvernele și corporațiile
11:46
to buildconstrui AIAI technologytehnologie for everyonetoata lumea,
195
694917
2892
să construiască tehnologia I.A.
pentru toată lumea,
11:49
includinginclusiv the edgemargine casescazuri.
196
697833
2393
inclusiv pentru minorități.
11:52
And for us all to get educationeducaţie
197
700250
2059
Și noi toți trebuie să ne informăm
11:54
about this phenomenalfenomenal
technologytehnologie in the futureviitor.
198
702333
2375
în legătură cu acestă fenomenală
tehnologie în viitor.
11:58
Because if we do that,
199
706167
2017
Pentru că dacă facem asta,
12:00
then we'vene-am only just scratchedzgâriat the surfacesuprafaţă
of what we can achieveobține with AIAI.
200
708208
4893
vom descoperi doar câteva lucruri
pe care le putem realiza cu I.A.
12:05
Thank you.
201
713125
1268
Vă mulțumesc!
12:06
(ApplauseAplauze)
202
714417
2708
(Aplauze)

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee