ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

Kriti Sharma: Comment préserver les IA de nos biais humains

Filmed:
2,050,106 views

Les algorithmes d'IA prennent des décisions importantes pour vous constamment : par exemple, combien vous devriez payer pour votre assurance auto, ou si oui ou non vous devriez obtenir cet entretien d'embauche. Mais que se passe-t-il lorsque ces machines sont construites avec des biais humains encodés dans leur système ? L'ingénieure Kriti Sharma nous montre comment le manque de diversité dans le monde de la technologie s'infiltre dans nos IA et nous offre trois solutions pour commencer à construire des algorithmes plus éthiques.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

Combien de décisions ont été
prises sur vous aujourd'hui,
00:12
How manybeaucoup decisionsles décisions
have been madefabriqué about you todayaujourd'hui,
0
875
3768
00:16
or this weekla semaine or this yearan,
1
4667
2601
cette semaine ou cette année,
00:19
by artificialartificiel intelligenceintelligence?
2
7292
1958
par intelligence artificielle ?
00:22
I buildconstruire AIAI for a livingvivant
3
10958
1685
Je gagne ma vie grâce à l'IA
00:24
so, fullplein disclosureDivulgation proactive, I'm kindgentil of a nerdnerd.
4
12667
3017
alors, spoiler, je suis un peu une geek.
00:27
And because I'm kindgentil of a nerdnerd,
5
15708
2393
Et parce que je suis un peu une geek,
00:30
whereverpartout où some newNouveau newsnouvelles storyrécit comesvient out
6
18125
2351
chaque fois qu'il y a un nouvel article
00:32
about artificialartificiel intelligenceintelligence
stealingvoler all our jobsemplois,
7
20500
3434
sur comment l'intelligence
artificielle vole nos emplois,
00:35
or robotsdes robots gettingobtenir citizenshipcitoyenneté
of an actualréel countryPays,
8
23958
4185
ou sur les robots obtenant
la citoyenneté dans un pays,
00:40
I'm the personla personne my friendscopains
and followersdisciples messagemessage
9
28167
3142
Je suis celle à qui mes amis et
abonnés envoient un message
00:43
freakingflipper out about the futureavenir.
10
31333
1542
paniqués par l'avenir.
00:45
We see this everywherepartout.
11
33833
2101
Nous voyons ça partout.
00:47
This mediamédias panicpanique that
our robotrobot overlordssuzerains are takingprise over.
12
35958
4893
Cette peur des médias que
les robots nous dominent.
00:52
We could blamefaire des reproches HollywoodHollywood for that.
13
40875
1917
Nous pourrions blâmer Hollywood pour ça.
00:56
But in realityréalité, that's not the problemproblème
we should be focusingse concentrer on.
14
44125
4125
Mais ce n'est pas le problème sur lequel
nous devrions nous concentrer.
01:01
There is a more pressingpressage dangerdanger,
a biggerplus gros riskrisque with AIAI,
15
49250
3643
Il y a un danger plus pressant,
un plus grand risque avec l'IA,
01:04
that we need to fixréparer first.
16
52917
1583
que nous devons résoudre d'abord.
01:07
So we are back to this questionquestion:
17
55417
2309
Nous revenons donc à cette question :
01:09
How manybeaucoup decisionsles décisions
have been madefabriqué about you todayaujourd'hui by AIAI?
18
57750
4708
Combien de décisions ont été prises
sur vous aujourd'hui par l'IA ?
01:15
And how manybeaucoup of these
19
63792
1976
Et combien de ces décisions
01:17
were basedbasé on your genderle genre,
your racecourse or your backgroundContexte?
20
65792
4500
étaient basées sur votre sexe,
votre origine ou votre milieu ?
01:24
AlgorithmsAlgorithmes are beingétant used all the time
21
72500
2768
Les algorithmes sont
utilisés tout le temps
01:27
to make decisionsles décisions about who we are
and what we want.
22
75292
3833
pour décider de qui nous sommes
et ce que nous voulons.
01:32
Some of the womenfemmes in this roomchambre
will know what I'm talkingparlant about
23
80208
3643
Quelques femmes dans cette salle
savent de quoi je parle
01:35
if you've been madefabriqué to sitasseoir throughpar
those pregnancygrossesse testtester advertsannonces on YouTubeYouTube
24
83875
3768
si vous avez vu passer des pubs pour
des tests de grossesse sur Youtube
01:39
like 1,000 timesfois.
25
87667
2059
environ 1 000 fois.
01:41
Or you've scrolleddéfile pastpassé advertsannonces
of fertilityla fertilité clinicscliniques
26
89750
2851
Ou vous avez vu des annonces
pour des cliniques de fertilité
01:44
on your FacebookFacebook feedalimentation.
27
92625
2042
sur votre mur Facebook.
01:47
Or in my caseCas, IndianIndien marriagemariage bureausbureaux de.
28
95625
2393
Ou comme moi, des agences
de mariage indiennes.
01:50
(LaughterRires)
29
98042
1267
(Rires)
01:51
But AIAI isn't just beingétant used
to make decisionsles décisions
30
99333
2976
Mais l'IA n'est pas juste utilisée
pour prendre des décisions
01:54
about what productsdes produits we want to buyacheter
31
102333
2601
sur les produits que nous consommons
01:56
or whichlequel showmontrer we want to bingecrise de boulimie watch nextprochain.
32
104958
2500
ou indiquer ce que nous
voulons binge watcher.
02:01
I wondermerveille how you'dtu aurais feel about someoneQuelqu'un
who thought things like this:
33
109042
5184
Que penseriez-vous de
quelqu'un qui penserait :
02:06
"A blacknoir or LatinoLatino personla personne
34
114250
1934
« Il y a moins de chances qu'une personne
02:08
is lessMoins likelyprobable than a whiteblanc personla personne
to payPayer off theirleur loanprêt on time."
35
116208
4125
noire ou latino rembourse son prêt à temps
par rapport à une personne blanche. »
02:13
"A personla personne calledappelé JohnJohn
makesfait du a better programmerprogrammeur
36
121542
2809
«John est un meilleur programmeur
02:16
than a personla personne calledappelé MaryMarie."
37
124375
1667
que Mary. »
02:19
"A blacknoir man is more likelyprobable to be
a repeatrépéter offenderauteur de l’infraction than a whiteblanc man."
38
127250
5083
« Un homme noir est plus susceptible
de récidiver qu'un homme blanc. »
02:26
You're probablyProbablement thinkingen pensant,
39
134958
1268
Vous pensez probablement :
02:28
"WowWow, that soundsdes sons like a prettyjoli sexistsexiste,
racistraciste personla personne," right?
40
136250
3750
« Waouh, cette personne est
sexiste et raciste, » n'est-ce pas ?
02:33
These are some realréal decisionsles décisions
that AIAI has madefabriqué very recentlyrécemment,
41
141000
4851
Pourtant ce sont des décisions que
des IA ont prises très récemment,
02:37
basedbasé on the biasesbiais
it has learnedappris from us,
42
145875
2934
basées sur les biais
qu'elle a appris de nous,
02:40
from the humanshumains.
43
148833
1250
des humains.
02:43
AIAI is beingétant used to help decidedécider
whetherqu'il s'agisse or not you get that jobemploi interviewentretien;
44
151750
4809
L'IA est utilisée pour décider de
si vous obtenez cet entretien d'embauche,
02:48
how much you payPayer for your carvoiture insuranceAssurance;
45
156583
2393
de combien vous payez
votre assurance auto,
02:51
how good your creditcrédit scoreBut is;
46
159000
1893
de votre cote de solvabilité,
02:52
and even what ratingcote you get
in your annualannuel performanceperformance reviewla revue.
47
160917
3125
et même de l'appréciation de
votre performance annuelle.
02:57
But these decisionsles décisions
are all beingétant filteredfiltrée throughpar
48
165083
3143
Mais ces décisions sont prises en faisant
03:00
its assumptionshypothèses about our identityidentité,
our racecourse, our genderle genre, our ageâge.
49
168250
5875
des hypothèses basées sur notre nom,
notre ethnie, notre sexe et notre âge.
03:08
How is that happeningévénement?
50
176250
2268
Comment ça se passe?
03:10
Now, imagineimaginer an AIAI is helpingportion
a hiringembauche managerdirecteur
51
178542
3517
Prenez une IA aidant un DRH
03:14
find the nextprochain techtechnologie leaderchef in the companycompagnie.
52
182083
2851
à trouver le prochain leader
high-tech de la société.
03:16
So farloin, the managerdirecteur
has been hiringembauche mostlyla plupart menHommes.
53
184958
3101
Jusqu'à présent, le gérant n'a
embauché que des hommes.
03:20
So the AIAI learnsapprend menHommes are more likelyprobable
to be programmersprogrammeurs than womenfemmes.
54
188083
4750
L'IA apprend donc que les hommes sont
plus souvent programmeurs que les femmes.
03:25
And it's a very shortcourt leapsaut from there to:
55
193542
2892
Et de là il n'y a qu'un pas vers :
03:28
menHommes make better programmersprogrammeurs than womenfemmes.
56
196458
2042
« Les hommes programment
mieux que les femmes. »
03:31
We have reinforcedrenforcé
our ownposséder biasbiais into the AIAI.
57
199417
3726
Nous avons introduit
nos propres biais dans l'IA.
03:35
And now, it's screeningdépistage out
femalefemelle candidatescandidats.
58
203167
3625
Et ensuite, elle élimine
les candidats féminins.
03:40
HangHang on, if a humanHumain
hiringembauche managerdirecteur did that,
59
208917
3017
Si un DRH humain faisait ça,
03:43
we'dmer be outragedindignés, we wouldn'tne serait pas allowpermettre it.
60
211958
2351
nous serions scandalisés,
ça ne passerait pas.
03:46
This kindgentil of genderle genre
discriminationdiscrimination is not OK.
61
214333
3476
Les discriminations sexistes
ne sont pas acceptables.
03:49
And yetencore somehowen quelque sorte,
AIAI has becomedevenir aboveau dessus the lawloi,
62
217833
4518
Et pourtant, l'IA est au-dessus des lois,
03:54
because a machinemachine madefabriqué the decisiondécision.
63
222375
2083
parce que la décision
est prise par une machine.
03:57
That's not it.
64
225833
1518
Ce n'est pas tout.
03:59
We are alsoaussi reinforcingd’armature our biasbiais
in how we interactinteragir with AIAI.
65
227375
4875
Nous renforçons également nos biais
à travers notre interaction avec l'IA.
04:04
How oftensouvent do you use a voicevoix assistantAssistant
like SiriSiri, AlexaAlexa or even CortanaCortana?
66
232917
5976
Combien de fois avez-vous utilisé un
assistant vocal comme Siri ou Alexa ?
04:10
They all have two things in commoncommun:
67
238917
2559
Ils ont tous deux choses en commun :
04:13
one, they can never get my nameprénom right,
68
241500
3101
ils ne prononcent jamais
correctement mon nom,
04:16
and secondseconde, they are all femalefemelle.
69
244625
2667
et deuxièmement, ce sont tous des femmes.
04:20
They are designedconçu to be
our obedientobéissants servantsserviteurs,
70
248417
2767
Ils ont été créés pour être
d'obéissants serviteurs,
04:23
turningtournant your lightslumières on and off,
orderingvous passez votre commande your shoppingachats.
71
251208
3250
allumant et éteignant la lumière,
passant des commandes.
04:27
You get malemâle AIsSIA too,
but they tendtendre to be more high-poweredtrès puissant,
72
255125
3309
Il y a aussi des IA homme mais ils ont
généralement plus de pouvoirs,
04:30
like IBMIBM WatsonWatson,
makingfabrication businessEntreprise decisionsles décisions,
73
258458
3059
par exemple, IBM Watson
qui prend des décisions commerciales,
04:33
SalesforceSalesforce EinsteinEinstein
or ROSSRoss, the robotrobot lawyeravocat.
74
261541
3792
Salesforce Einstein ou ROSS,
le robot avocat.
04:38
So poorpauvre robotsdes robots, even they suffersouffrir
from sexismsexisme in the workplacelieu de travail.
75
266208
4060
Ainsi, même ces pauvres robots souffrent
du sexisme dans le milieu du travail.
04:42
(LaughterRires)
76
270292
1125
(Rires)
04:44
Think about how these two things combinecombiner
77
272542
2851
Pensez à comment ces deux points combinés
04:47
and affectaffecter a kidenfant growingcroissance up
in today'saujourd'hui worldmonde around AIAI.
78
275417
5309
affectent un enfant grandissant
dans un monde baignant dans l'IA.
04:52
So they're doing some researchrecherche
for a schoolécole projectprojet
79
280750
2934
Imaginez qu'il fasse une recherche
pour un projet à l'école
04:55
and they GoogleGoogle imagesimages of CEOPRÉSIDENT-DIRECTEUR GÉNÉRAL.
80
283708
3018
et qu'il tape sur Google,
« images de PDG ».
04:58
The algorithmalgorithme de showsmontre them
resultsrésultats of mostlyla plupart menHommes.
81
286750
2893
L'algorithme ne lui montre
que des hommes.
05:01
And now, they GoogleGoogle personalpersonnel assistantAssistant.
82
289667
2559
Ensuite, il tape « assistant personnel ».
05:04
As you can guessdeviner,
it showsmontre them mostlyla plupart femalesfemelles.
83
292250
3434
Comme vous pouvez l'imaginez,
il n'y a pratiquement que des femmes.
05:07
And then they want to put on some musicla musique,
and maybe ordercommande some foodaliments,
84
295708
3601
Ensuite, il veut mettre de la musique
ou commander à manger,
05:11
and now, they are barkingaboyer ordersordres
at an obedientobéissants femalefemelle voicevoix assistantAssistant.
85
299333
6584
et pour cela il aboie des ordres
à une obéissante voix féminine.
05:19
Some of our brightestle plus brillant mindsesprits
are creatingcréer this technologyLa technologie todayaujourd'hui.
86
307542
5309
Ces technologies sont créées par
certains de nos plus brillants cerveaux.
05:24
TechnologyTechnologie that they could have createdcréé
in any way they wanted.
87
312875
4184
Ils pouvaient créer ces technologies
exactement comme ils le souhaitaient.
05:29
And yetencore, they have chosenchoisi to createcréer it
in the stylestyle of 1950s "MadMad Man" secretarysecrétaire.
88
317083
5685
Et ils ont choisi de les créer dans le
style secrétaire des « Mad Men ».
05:34
YayYay!
89
322792
1500
Super !
05:36
But OK, don't worryinquiéter,
90
324958
1310
Ne vous inquiétez pas,
05:38
this is not going to endfin
with me tellingrécit you
91
326292
2059
je ne vais pas finir en vous disant que
05:40
that we are all headingtitre towardsvers
sexistsexiste, racistraciste machinesmachines runningfonctionnement the worldmonde.
92
328375
3477
nous allons vers un monde dirigé
par des machines sexistes et racistes.
05:44
The good newsnouvelles about AIAI
is that it is entirelyentièrement withindans our controlcontrôle.
93
332792
5791
La bonne nouvelle est que les IA
sont entièrement sous notre contrôle.
05:51
We get to teachapprendre the right valuesvaleurs,
the right ethicsdéontologie to AIAI.
94
339333
4000
Nous pouvons leur enseigner
les bonnes valeurs, l'éthique.
05:56
So there are threeTrois things we can do.
95
344167
2184
Il y a trois choses
que nous pouvons faire.
05:58
One, we can be awareconscient of our ownposséder biasesbiais
96
346375
3351
Premièrement, nous pouvons avoir
conscience de nos propres biais
06:01
and the biasbiais in machinesmachines around us.
97
349750
2726
et des biais des machines
qui nous entourent.
06:04
Two, we can make sure that diversediverse teamséquipes
are buildingbâtiment this technologyLa technologie.
98
352500
4518
Ensuite, nous pouvons nous assurer que
des équipes mixtes construisent les IA.
06:09
And threeTrois, we have to give it
diversediverse experiencesexpériences to learnapprendre from.
99
357042
4916
Et enfin, les IA doivent apprendre
à partir d'expériences variées.
06:14
I can talk about the first two
from personalpersonnel experienceexpérience.
100
362875
3309
Je peux parler des deux premiers points
par expérience personnelle.
06:18
When you work in technologyLa technologie
101
366208
1435
Quand vous travaillez dans la technologie
06:19
and you don't look like
a MarkMark ZuckerbergZuckerberg or ElonElon MuskMusc,
102
367667
3392
sans ressembler à Mark Zuckerberg
ou Elon Musk,
06:23
your life is a little bitbit difficultdifficile,
your abilitycapacité getsobtient questionedremise en question.
103
371083
3750
votre vie est un peu difficile,
vos compétences sont remises en question.
06:27
Here'sVoici just one exampleExemple.
104
375875
1393
Voici un exemple.
06:29
Like mostles plus developersles développeurs,
I oftensouvent joinjoindre onlineen ligne techtechnologie forumsforums
105
377292
3726
Comme la plupart des programmeurs,
je participe sur des forums tech en ligne
06:33
and sharepartager my knowledgeconnaissance to help othersautres.
106
381042
3226
et partage mes connaissances
pour aider les autres.
06:36
And I've founda trouvé,
107
384292
1309
Et j'ai découvert
06:37
when I logbûche on as myselfmoi même,
with my ownposséder photophoto, my ownposséder nameprénom,
108
385625
3976
qu'en me connectant avec
ma vraie photo et mon vrai nom,
06:41
I tendtendre to get questionsdes questions
or commentscommentaires like this:
109
389625
4601
j'ai tendance à recevoir des questions
ou commentaires comme ceux-ci :
06:46
"What makesfait du you think
you're qualifiedqualifié to talk about AIAI?"
110
394250
3000
« Tu crois être qualifiée
pour parler d'IA ? »
06:50
"What makesfait du you think
you know about machinemachine learningapprentissage?"
111
398458
3476
« Qu'est-ce qui te fait penser que tu
t'y connais en machine learning ? »
06:53
So, as you do, I madefabriqué a newNouveau profileVoir le profil,
112
401958
3435
Je me suis donc créé un nouveau profil,
06:57
and this time, insteadau lieu of my ownposséder picturephoto,
I chosechoisi a catchat with a jetjet packpack on it.
113
405417
4851
avec à la place de ma photo,
un chat avec un jet pack.
07:02
And I chosechoisi a nameprénom
that did not revealrévéler my genderle genre.
114
410292
2458
J'ai choisi un nom qui
ne révélait pas mon genre.
07:05
You can probablyProbablement guessdeviner
where this is going, right?
115
413917
2726
Vous voyez où je veux en venir, non ?
07:08
So, this time, I didn't get any of those
patronizingune attitude condescendante commentscommentaires about my abilitycapacité
116
416667
6392
Cette foi, je n'ai reçu aucun commentaire
condescendant sur mes capacités
07:15
and I was ablecapable to actuallyréellement
get some work doneterminé.
117
423083
3334
et je pouvais travailler correctement.
07:19
And it suckssuce, guys.
118
427500
1851
Ça craint, les gars.
07:21
I've been buildingbâtiment robotsdes robots sincedepuis I was 15,
119
429375
2476
Je construis des robots depuis mes 15 ans,
07:23
I have a fewpeu degreesdegrés in computerordinateur sciencescience,
120
431875
2268
j'ai plusieurs diplômes en informatique,
07:26
and yetencore, I had to hidecacher my genderle genre
121
434167
2434
et pourtant, je dois cacher mon genre
07:28
in ordercommande for my work
to be takenpris seriouslysérieusement.
122
436625
2250
pour que mon travail soit pris au sérieux.
07:31
So, what's going on here?
123
439875
1893
Que se passe-t-il ?
07:33
Are menHommes just better
at technologyLa technologie than womenfemmes?
124
441792
3208
Les hommes sont-ils juste meilleurs
que les femmes en technologie ?
07:37
AnotherUn autre studyétude founda trouvé
125
445917
1559
Une autre étude a trouvé
07:39
that when womenfemmes coderscodeurs on one platformPlate-forme
hidcaché theirleur genderle genre, like myselfmoi même,
126
447500
4934
que quand les codeurs femmes cachaient,
comme moi, leur genre sur une plateforme,
07:44
theirleur codecode was acceptedaccepté
fourquatre percentpour cent more than menHommes.
127
452458
3250
leur code était accepté
4% de plus que celui des hommes.
07:48
So this is not about the talentTalent.
128
456542
2916
Donc ce n'est pas un problème de talent.
07:51
This is about an elitismélitisme in AIAI
129
459958
2893
C'est un problème d'élitisme
dans l'IA qui dit
07:54
that saysdit a programmerprogrammeur
needsBesoins to look like a certaincertain personla personne.
130
462875
2792
qu'un développeur doit
ressembler à une certaine personne.
07:59
What we really need to do
to make AIAI better
131
467375
3101
Ce que nous devons faire pour
rendre l'IA meilleure,
08:02
is bringapporter people
from all kindssortes of backgroundsarrière-plans.
132
470500
3042
c'est rassembler des gens
de toutes origines.
08:06
We need people who can
writeécrire and tell storieshistoires
133
474542
2559
Nous avons besoin de gens
pouvant écrire des histoires
08:09
to help us createcréer personalitiespersonnalités of AIAI.
134
477125
2167
pour créer des personnalités aux IA,
08:12
We need people who can solverésoudre problemsproblèmes.
135
480208
2042
pouvant résoudre des problèmes,
08:15
We need people
who facevisage differentdifférent challengesdéfis
136
483125
3768
pouvant faire face à différents défis
08:18
and we need people who can tell us
what are the realréal issuesproblèmes that need fixingfixation
137
486917
5351
et de personnes pouvant nous indiquer
les réels problèmes à résoudre
08:24
and help us find waysfaçons
that technologyLa technologie can actuallyréellement fixréparer it.
138
492292
3041
et les stratégies que les technologies
peuvent mettre en place.
08:29
Because, when people
from diversediverse backgroundsarrière-plans come togetherensemble,
139
497833
3726
Quand des personnes de
différentes origines se rassemblent,
08:33
when we buildconstruire things in the right way,
140
501583
2143
quand nous construisons correctement,
08:35
the possibilitiespossibilités are limitlesssans limites.
141
503750
2042
les possibilités sont infinies.
08:38
And that's what I want to endfin
by talkingparlant to you about.
142
506750
3309
C'est là-dessus que je veux finir.
08:42
LessMoins racistraciste robotsdes robots, lessMoins machinesmachines
that are going to take our jobsemplois --
143
510083
4225
Moins de robots racistes, de machines
qui vont nous voler nos emplois,
08:46
and more about what technologyLa technologie
can actuallyréellement achieveatteindre.
144
514332
3125
et plus de ce que les technologies
peuvent réellement faire.
08:50
So, yes, some of the energyénergie
in the worldmonde of AIAI,
145
518292
3434
Alors oui, une partie de l'énergie
dans le monde de l'IA,
08:53
in the worldmonde of technologyLa technologie
146
521750
1393
des technologies,
08:55
is going to be about
what adsles publicités you see on your streamcourant.
147
523167
4267
est dirigée pour décider de quelles
publicités vous sont proposées.
08:59
But a lot of it is going towardsvers
makingfabrication the worldmonde so much better.
148
527458
5209
Mais une grosse partie est orientée
pour rendre le monde meilleur.
09:05
Think about a pregnantEnceinte womanfemme
in the DemocraticDémocratique RepublicRépublique of CongoCongo,
149
533500
3768
Imaginez une femme enceinte en
République Démocratique du Congo,
09:09
who has to walkmarche 17 hoursheures
to her nearestla plus proche ruralrural prenatalprénatal clinicclinique
150
537292
4184
qui doit marcher 17 heures pour atteindre
la clinique prénatale la plus proche
09:13
to get a checkupbilan de santé.
151
541500
1851
et avoir une consultation.
09:15
What if she could get diagnosisdiagnostic
on her phonetéléphone, insteadau lieu?
152
543375
2917
Et si elle pouvait avoir un
diagnostic sur son téléphone ?
09:19
Or think about what AIAI could do
153
547750
1809
Imaginez ce que l'IA pourrait faire
09:21
for those one in threeTrois womenfemmes
in SouthSud AfricaL’Afrique
154
549583
2726
pour ces 1 femmes sur 3 en Afrique du Sud
09:24
who facevisage domesticnational violencela violence.
155
552333
2125
qui subissent des violences domestiques.
09:27
If it wasn'tn'était pas safesûr to talk out loudbruyant,
156
555083
2726
S'il est dangereux de
dénoncer à voix haute,
09:29
they could get an AIAI serviceun service
to raiseélever alarmalarme,
157
557833
2476
elles pourraient lancer
une alarme grâce à une IA,
09:32
get financialfinancier and legallégal adviceConseil.
158
560333
2459
ou avoir une aide
financière et judiciaire.
09:35
These are all realréal examplesexemples of projectsprojets
that people, includingcomprenant myselfmoi même,
159
563958
5018
Ce sont de vrais projets sur lesquels
des gens, moi y compris,
09:41
are workingtravail on right now, usingen utilisant AIAI.
160
569000
2500
travaillent en ce moment, avec l'IA.
09:45
So, I'm sure in the nextprochain couplecouple of daysjournées
there will be yetencore anotherun autre newsnouvelles storyrécit
161
573542
3601
Je suis certaine qu'il y aura
dans les prochains jours,
une histoire sur le risque
pour notre existence,
09:49
about the existentialexistentiel riskrisque,
162
577167
2684
09:51
robotsdes robots takingprise over
and comingvenir for your jobsemplois.
163
579875
2434
sur les robots nous dominant
et volant nos emplois.
09:54
(LaughterRires)
164
582333
1018
(Rires)
09:55
And when something like that happensarrive,
165
583375
2309
Quand quelque chose comme ça se produira,
09:57
I know I'll get the sameMême messagesmessages
worryinginquiétant about the futureavenir.
166
585708
3601
je sais que je recevrai les mêmes
messages s'inquiétant pour l'avenir.
10:01
But I feel incrediblyincroyablement positivepositif
about this technologyLa technologie.
167
589333
3667
Mais je suis très optimiste
à propos de cette technologie.
10:07
This is our chancechance to remakeremake the worldmonde
into a much more equalégal placeendroit.
168
595458
5959
C'est notre chance pour refaire
de ce monde, une place égale.
10:14
But to do that, we need to buildconstruire it
the right way from the get go.
169
602458
4000
Pour faire ça, nous devons la construire
correctement dès le départ.
10:19
We need people of differentdifférent genderssexes,
racescourses, sexualitiessexualités and backgroundsarrière-plans.
170
607667
5083
Nous avons besoin de personnes de divers
genres, ethnies, sexualités et origines.
10:26
We need womenfemmes to be the makersles décideurs
171
614458
2476
Nous avons de femmes développeurs
10:28
and not just the machinesmachines
who do the makers'décideurs biddingappel d’offres.
172
616958
3000
et pas seulement de machines
embauchant les développeurs.
10:33
We need to think very carefullysoigneusement
what we teachapprendre machinesmachines,
173
621875
3768
Il nous faut penser très soigneusement
à ce que nous enseignons aux machines,
10:37
what dataLes données we give them,
174
625667
1642
aux données que nous leur donnons,
10:39
so they don't just repeatrépéter
our ownposséder pastpassé mistakeserreurs.
175
627333
3125
pour qu'elles ne répètent pas
nos propres erreurs.
10:44
So I hopeespérer I leavelaisser you
thinkingen pensant about two things.
176
632125
3542
J'espère que je vous laisse
avec deux idées.
10:48
First, I hopeespérer you leavelaisser
thinkingen pensant about biasbiais todayaujourd'hui.
177
636542
4559
Premièrement, j'espère que vous
repartirez en pensant aux biais.
10:53
And that the nextprochain time
you scrollrouleau pastpassé an advertannonce
178
641125
3184
Et que la prochaine fois que vous
tomberez sur une publicité
10:56
that assumessuppose you are interestedintéressé
in fertilityla fertilité clinicscliniques
179
644333
2810
supposant que vous êtes intéressé
par une clinique de fertilité
10:59
or onlineen ligne bettingParis websitessites Internet,
180
647167
2851
ou un site de paris en ligne,
11:02
that you think and rememberrappelles toi
181
650042
2017
vous vous souviendrez
11:04
that the sameMême technologyLa technologie is assumingen supposant
that a blacknoir man will reoffendrécidive.
182
652083
4625
que ces mêmes technologies assument
qu'un homme noir récidivera.
11:09
Or that a womanfemme is more likelyprobable
to be a personalpersonnel assistantAssistant than a CEOPRÉSIDENT-DIRECTEUR GÉNÉRAL.
183
657833
4167
Ou qu'une femme a plus de chances
d'être assistant personnel que PDG.
11:14
And I hopeespérer that remindsrappelle you
that we need to do something about it.
184
662958
3709
Et j'espère que ça vous rappellera que
nous devons faire quelque chose.
11:20
And secondseconde,
185
668917
1851
Deuxièmement,
11:22
I hopeespérer you think about the factfait
186
670792
1892
j'espère que vous vous direz
11:24
that you don't need to look a certaincertain way
187
672708
1976
qu'il ne faut pas avoir une apparence
11:26
or have a certaincertain backgroundContexte
in engineeringingénierie or technologyLa technologie
188
674708
3851
ou un diplôme en particulier
en ingénierie ou technologie
11:30
to createcréer AIAI,
189
678583
1268
pour créer des IA,
11:31
whichlequel is going to be
a phenomenalphénoménal forceObliger for our futureavenir.
190
679875
2875
qui seront une force
phénoménale pour l'avenir.
11:36
You don't need to look
like a MarkMark ZuckerbergZuckerberg,
191
684166
2143
Inutile de ressembler à Mark Zuckerberg,
11:38
you can look like me.
192
686333
1250
vous pouvez me ressembler.
11:41
And it is up to all of us in this roomchambre
193
689250
2893
Et c'est à vous tous,
qui êtes dans cette pièce,
11:44
to convinceconvaincre the governmentsGouvernements
and the corporationssociétés
194
692167
2726
de convaincre les
gouvernements et les sociétés
11:46
to buildconstruire AIAI technologyLa technologie for everyonetoutes les personnes,
195
694917
2892
de construire des IA inclusives,
11:49
includingcomprenant the edgebord casescas.
196
697833
2393
prenant en compte les minorités.
11:52
And for us all to get educationéducation
197
700250
2059
Il faut aussi que nous nous éduquions tous
11:54
about this phenomenalphénoménal
technologyLa technologie in the futureavenir.
198
702333
2375
sur cette technologie phénoménale.
11:58
Because if we do that,
199
706167
2017
Parce que si nous le faisons,
12:00
then we'venous avons only just scratchedrayé the surfacesurface
of what we can achieveatteindre with AIAI.
200
708208
4893
nous aurons à peine effleuré la surface
de ce qui peut être accompli avec l'IA.
12:05
Thank you.
201
713125
1268
Merci.
12:06
(ApplauseApplaudissements)
202
714417
2708
(Applaudissements)
Translated by Julien Souliers
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee