ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

Kriti Sharma: Come tenere i pregiudizi fuori dalle IA

Filmed:
2,050,106 views

Gli algoritmi delle IA prendono costantemente delle decisioni importanti su di voi, ad esempio quanto dovete pagare l'assicurazione della macchina o se dovete o no sostenere quel colloquio di lavoro. Ma cosa succede quando queste tecnologie vengono costruite con pregiudizi umani programmati al loro interno? La tecnologa Kriti Sharma ha analizzato come la mancanza di diversità nella tecnologia si sta introducendo nelle IA e ci suggerisce tre modi attraverso cui possiamo iniziare a creare algoritmi più etici.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How manymolti decisionsdecisioni
have been madefatto about you todayoggi,
0
875
3768
Quante decisioni
sono state prese per voi oggi,
00:16
or this weeksettimana or this yearanno,
1
4667
2601
o questa settimana,
o quest'anno,
00:19
by artificialartificiale intelligenceintelligenza?
2
7292
1958
dalle intelligenze artificiali?
Il mio lavoro è costruire IA.
00:22
I buildcostruire AIAI for a livingvita
3
10958
1685
00:24
so, fullpieno disclosuredivulgazione, I'm kindgenere of a nerdnerd.
4
12667
3017
A dirla tutta sono una specie di nerd.
00:27
And because I'm kindgenere of a nerdnerd,
5
15708
2393
Dato che sono una specie di nerd,
00:30
whereverdovunque some newnuovo newsnotizia storystoria comesviene out
6
18125
2351
ovunque esca una notizia
00:32
about artificialartificiale intelligenceintelligenza
stealingrubando all our jobslavori,
7
20500
3434
sull'intelligenza artificiale
che ci rubano il lavoro,
00:35
or robotsrobot gettingottenere citizenshipcittadinanza
of an actualeffettivo countrynazione,
8
23958
4185
o di robot che acquisiscono
la cittadinanza in uno Stato,
00:40
I'm the personpersona my friendsamici
and followersseguaci messagemessaggio
9
28167
3142
gli amici e le persone
che mi seguono mi contattano
00:43
freakingimpazzendo out about the futurefuturo.
10
31333
1542
perché hanno paura del futuro.
00:45
We see this everywhereovunque.
11
33833
2101
Lo vediamo ovunque.
00:47
This mediamedia panicpanico that
our robotrobot overlordssorveglianti are takingpresa over.
12
35958
4893
La paura mediatica che i robot
possano prendere il sopravvento.
00:52
We could blamecolpa HollywoodHollywood for that.
13
40875
1917
Possiamo incolpare Hollywood per questo.
00:56
But in realityla realtà, that's not the problemproblema
we should be focusingmessa a fuoco on.
14
44125
4125
Ma in realtà, non è questo il problema
sul quale dovremmo concentrarci.
01:01
There is a more pressingurgente dangerPericolo,
a biggerpiù grande riskrischio with AIAI,
15
49250
3643
Esiste un problema più urgente,
un rischio più grande con le IA,
01:04
that we need to fixfissare first.
16
52917
1583
che dobbiamo prima definire.
01:07
So we are back to this questiondomanda:
17
55417
2309
Torniamo quindi a questa domanda.
01:09
How manymolti decisionsdecisioni
have been madefatto about you todayoggi by AIAI?
18
57750
4708
Quante decisioni
sono state prese per voi oggi dalle IA?
01:15
And how manymolti of these
19
63792
1976
Quante di queste
01:17
were basedbasato on your genderGenere,
your racegara or your backgroundsfondo?
20
65792
4500
sono basate sul vostro genere,
razza e origine?
01:24
AlgorithmsAlgoritmi are beingessere used all the time
21
72500
2768
Gli algoritmi vengono usati costantemente
01:27
to make decisionsdecisioni about who we are
and what we want.
22
75292
3833
per prendere decisioni
su chi siamo e cosa vogliamo.
01:32
Some of the womendonne in this roomcamera
will know what I'm talkingparlando about
23
80208
3643
Alcune donne in questa stanza
sanno di cosa sto parlando,
01:35
if you've been madefatto to sitsedersi throughattraverso
those pregnancygravidanza testTest advertsannunci on YouTubeYouTube
24
83875
3768
se hanno dovuto sorbirsi le pubblicità
dei test di gravidanza su YouTube
01:39
like 1,000 timesvolte.
25
87667
2059
almeno 1000 volte.
01:41
Or you've scrolledscorrere pastpassato advertsannunci
of fertilityfertilità clinicscliniche
26
89750
2851
O vi siete imbattute nelle pubblicità
sui centri della fertilità
01:44
on your FacebookFacebook feedalimentazione.
27
92625
2042
che appaiono su Facebook.
O, come nel mio caso,
agenzie matrimoniali indiane.
01:47
Or in my casecaso, IndianIndiano marriagematrimonio bureausuffici.
28
95625
2393
(Risate)
01:50
(LaughterRisate)
29
98042
1267
01:51
But AIAI isn't just beingessere used
to make decisionsdecisioni
30
99333
2976
Ma le IA non vengono usate
solo per prendere decisioni
01:54
about what productsprodotti we want to buyacquistare
31
102333
2601
sui prodotti che vogliamo comprare,
01:56
or whichquale showmostrare we want to bingebinge watch nextIl prossimo.
32
104958
2500
o i programmi che vogliamo guardare.
02:01
I wondermeravigliarsi how you'dfaresti feel about someonequalcuno
who thought things like this:
33
109042
5184
Mi chiedo cosa pensereste
di qualcuno che ritiene
02:06
"A blacknero or LatinoLatino personpersona
34
114250
1934
che "I neri e i latini
02:08
is lessDi meno likelyprobabile than a whitebianca personpersona
to paypagare off theirloro loanprestito on time."
35
116208
4125
sono meno propensi a pagare il mutuo
in tempo rispetto ai bianchi."
02:13
"A personpersona calledchiamato JohnJohn
makesfa a better programmerprogrammatore
36
121542
2809
"Una persona che si chiama John
è un miglior programmatore
02:16
than a personpersona calledchiamato MaryMaria."
37
124375
1667
rispetto a una che si chiama Mary."
02:19
"A blacknero man is more likelyprobabile to be
a repeatripetere offenderautore del reato than a whitebianca man."
38
127250
5083
"È più probabile che sia un uomo nero
ad essere recidivo rispetto a uno bianco."
02:26
You're probablyprobabilmente thinkingpensiero,
39
134958
1268
Starete pensando,
02:28
"WowWow, that soundssuoni like a prettybella sexistsessista,
racistrazzistA personpersona," right?
40
136250
3750
"Sembra una persona piuttosto
sessista e razzista." Vero?
02:33
These are some realvero decisionsdecisioni
that AIAI has madefatto very recentlyrecentemente,
41
141000
4851
Queste sono alcune decisioni vere
che le IA hanno preso recentemente.
02:37
basedbasato on the biasespregiudizi
it has learnedimparato from us,
42
145875
2934
Si basano sui pregiudizi
che hanno imparato da noi.
02:40
from the humansgli esseri umani.
43
148833
1250
Dagli esseri umani.
02:43
AIAI is beingessere used to help decidedecidere
whetherse or not you get that joblavoro interviewcolloquio;
44
151750
4809
Le IA vengono usate per aiutare a decidere
se avere o no un colloquio di lavoro.
02:48
how much you paypagare for your carauto insuranceassicurazione;
45
156583
2393
Quanto pagare per l'assicurazione
della macchina.
02:51
how good your creditcredito scorePunto is;
46
159000
1893
Quanto sia buona
l'affidabilità creditizia.
02:52
and even what ratingVoto you get
in your annualannuale performanceprestazione reviewrevisione.
47
160917
3125
Persino quale valutazione avrete
sui risultati annuali.
02:57
But these decisionsdecisioni
are all beingessere filteredfiltrati throughattraverso
48
165083
3143
Ma queste decisioni
vengono tutte filtrate attraverso
03:00
its assumptionsassunzioni about our identityidentità,
our racegara, our genderGenere, our ageetà.
49
168250
5875
deduzioni sulla nostra identità,
razza, genere ed età.
03:08
How is that happeningavvenimento?
50
176250
2268
Come avviene tutto ciò?
03:10
Now, imagineimmaginare an AIAI is helpingporzione
a hiringassumere managermanager
51
178542
3517
Ora immaginate un'IA che aiuta
un manager per le assunzioni
03:14
find the nextIl prossimo techTech leadercapo in the companyazienda.
52
182083
2851
a trovare il nuovo leader dell'azienda.
03:16
So farlontano, the managermanager
has been hiringassumere mostlysoprattutto menuomini.
53
184958
3101
Finora sono stati assunti
soprattutto uomini.
03:20
So the AIAI learnsImpara menuomini are more likelyprobabile
to be programmersprogrammatori than womendonne.
54
188083
4750
Le IA sanno che i programmatori
sono per lo più uomini che donne.
03:25
And it's a very shortcorto leapsalto from there to:
55
193542
2892
Da qui il passo è breve a pensare
03:28
menuomini make better programmersprogrammatori than womendonne.
56
196458
2042
che gli uomini sono
programmatori migliori.
03:31
We have reinforcedrinforzata
our ownproprio biaspregiudizio into the AIAI.
57
199417
3726
Abbiamo rinforzato i nostri pregiudizi
nelle intelligenze artificiali.
03:35
And now, it's screeningselezione out
femalefemmina candidatescandidati.
58
203167
3625
E ora queste scartano
le candidature femminili.
03:40
HangAppendere on, if a humanumano
hiringassumere managermanager did that,
59
208917
3017
Ma attenzione, se fosse un manager umano
a fare tutto questo,
03:43
we'dsaremmo be outragedindignato, we wouldn'tno allowpermettere it.
60
211958
2351
saremmo indignati,
non lo permetteremmo.
03:46
This kindgenere of genderGenere
discriminationdiscriminazione is not OK.
61
214333
3476
Questo tipo di discriminazione di genere
non andrebbe bene.
03:49
And yetancora somehowin qualche modo,
AIAI has becomediventare abovesopra the lawlegge,
62
217833
4518
In qualche modo le IA si ergono
al di sopra della legge
03:54
because a machinemacchina madefatto the decisiondecisione.
63
222375
2083
perché una macchina ha preso la decisione.
03:57
That's not it.
64
225833
1518
Non è solo questo.
03:59
We are alsoanche reinforcingdi rinforzo our biaspregiudizio
in how we interactinteragire with AIAI.
65
227375
4875
Rafforziamo i nostri pregiudizi anche
nel modo in cui interagiamo con le IA.
04:04
How oftenspesso do you use a voicevoce assistantAssistente
like SiriSiri, AlexaAlexa or even CortanaCortana?
66
232917
5976
Quante volte avete usato assistenti
vocali come Siri, Alexa o Cortana?
04:10
They all have two things in commonComune:
67
238917
2559
Hanno tutte due cose in comune.
04:13
one, they can never get my namenome right,
68
241500
3101
Uno, non sapranno mai pronunciare
correttamente il mio nome.
04:16
and secondsecondo, they are all femalefemmina.
69
244625
2667
Due, sono tutte femminili.
04:20
They are designedprogettato to be
our obedientobbediente servantsservi,
70
248417
2767
Sono state disegnate
per essere serve obbedienti.
04:23
turningsvolta your lightsluci on and off,
orderingl'ordinazione your shoppingshopping.
71
251208
3250
Ti accendono e spengono le luci,
ti ordinano la spesa.
04:27
You get malemaschio AIsAIs too,
but they tendtendere to be more high-poweredalta potenza,
72
255125
3309
Ci sono anche IA maschili,
ma generalmente sono più potenti.
04:30
like IBMIBM WatsonWatson,
makingfabbricazione businessattività commerciale decisionsdecisioni,
73
258458
3059
Come IBM Watson
che prende decisioni d'affari.
04:33
SalesforceSalesforce EinsteinEinstein
or ROSSRoss, the robotrobot lawyeravvocato.
74
261541
3792
Salesforce Einstein o ROSS,
l'avvocato robot.
04:38
So poorpovero robotsrobot, even they suffersoffrire
from sexismsessismo in the workplaceposto di lavoro.
75
266208
4060
Poveri robot, anche loro subiscono
sessismo sul posto di lavoro.
(Risate)
04:42
(LaughterRisate)
76
270292
1125
04:44
Think about how these two things combinecombinare
77
272542
2851
Pensate come queste due cose si combinano
04:47
and affectinfluenzare a kidragazzo growingin crescita up
in today'sdi oggi worldmondo around AIAI.
78
275417
5309
e influiscono sui bambini che crescono
nel mondo d'oggi circondati da IA.
04:52
So they're doing some researchricerca
for a schoolscuola projectprogetto
79
280750
2934
Fanno ricerche
per un progetto scolastico
04:55
and they GoogleGoogle imagesimmagini of CEOAMMINISTRATORE DELEGATO.
80
283708
3018
e cercano su Google immagini
di un amministratore delegato.
04:58
The algorithmalgoritmo showsSpettacoli them
resultsrisultati of mostlysoprattutto menuomini.
81
286750
2893
L'algoritmo mostrerà come risultati
per lo più uomini.
05:01
And now, they GoogleGoogle personalpersonale assistantAssistente.
82
289667
2559
Cercano su Google assistente personale.
05:04
As you can guessindovina,
it showsSpettacoli them mostlysoprattutto femalesfemmine.
83
292250
3434
Come potete immaginare
mostrerà per lo più donne.
05:07
And then they want to put on some musicmusica,
and maybe orderordine some foodcibo,
84
295708
3601
Poi vogliono mettere della musica,
o forse ordinare del cibo.
05:11
and now, they are barkingBarking ordersordini
at an obedientobbediente femalefemmina voicevoce assistantAssistente.
85
299333
6584
Così gridano ordini a un'obbediente
assistente vocale femminile.
05:19
Some of our brightestpiù brillante mindsmenti
are creatingla creazione di this technologytecnologia todayoggi.
86
307542
5309
Alcune delle più brillanti menti
stanno creando queste tecnologie oggi.
05:24
TechnologyTecnologia that they could have createdcreato
in any way they wanted.
87
312875
4184
Tecnologie che avrebbero potuto creare
in qualsiasi modo.
05:29
And yetancora, they have chosenscelto to createcreare it
in the stylestile of 1950s "MadPazzo Man" secretarysegretario.
88
317083
5685
Eppure hanno scelto di crearle
nello stile di una segretaria anni 50.
05:34
YayYay!
89
322792
1500
Evvai!
05:36
But OK, don't worrypreoccupazione,
90
324958
1310
Ma ok, non preoccupatevi.
05:38
this is not going to endfine
with me tellingraccontare you
91
326292
2059
Non finirà con io che vi dico
05:40
that we are all headingintestazione towardsin direzione
sexistsessista, racistrazzistA machinesmacchine runningin esecuzione the worldmondo.
92
328375
3477
che il mondo finirà per essere governato
da macchine sessiste e razziste.
05:44
The good newsnotizia about AIAI
is that it is entirelyinteramente withinentro our controlcontrollo.
93
332792
5791
La buona notizia riguardo le IA
è che sono sotto il nostro controllo.
05:51
We get to teachinsegnare the right valuesvalori,
the right ethicsetica to AIAI.
94
339333
4000
Dobbiamo insegnare alle IA
i valori giusti, la giusta etica.
05:56
So there are threetre things we can do.
95
344167
2184
Ci sono tre cose che possiamo fare.
05:58
One, we can be awareconsapevole of our ownproprio biasespregiudizi
96
346375
3351
Una, possiamo essere consapevoli
dei nostri pregiudizi
06:01
and the biaspregiudizio in machinesmacchine around us.
97
349750
2726
e dei pregiudizi delle macchine
che ci cicrondano.
06:04
Two, we can make sure that diversediverso teamssquadre
are buildingcostruzione this technologytecnologia.
98
352500
4518
Due, possiamo assicurarci che diversi
gruppi costruiscano queste tecnologie.
06:09
And threetre, we have to give it
diversediverso experiencesesperienze to learnimparare from.
99
357042
4916
Tre, dobbiamo dare loro diverse
esperienze da cui imparare.
06:14
I can talk about the first two
from personalpersonale experienceEsperienza.
100
362875
3309
Posso parlarvi delle prime due
per esperienza personale.
06:18
When you work in technologytecnologia
101
366208
1435
Quando lavori nella tecnologia
06:19
and you don't look like
a MarkMark ZuckerbergZuckerberg or ElonElon MuskMuschio,
102
367667
3392
e non assomigli
a Mark Zuckerberg o Elon Musk,
06:23
your life is a little bitpo difficultdifficile,
your abilitycapacità getsprende questionedinterrogato.
103
371083
3750
la tua vita è un po' difficile,
le tue abilità vengono messe in dubbio.
06:27
Here'sQui è just one exampleesempio.
104
375875
1393
Ecco un esempio.
06:29
Like mostmaggior parte developerssviluppatori,
I oftenspesso joinaderire onlinein linea techTech forumsforum
105
377292
3726
Come molti sviluppatori spesso partecipo
a forum online sulla tecnologia
06:33
and shareCondividere my knowledgeconoscenza to help othersaltri.
106
381042
3226
e condivido il mio sapere
per aiutare gli altri.
06:36
And I've foundtrovato,
107
384292
1309
Quello che ho trovato
06:37
when I logceppo on as myselfme stessa,
with my ownproprio photofoto, my ownproprio namenome,
108
385625
3976
quando ho effettuato l'accesso
con la mia foto e il mio nome,
06:41
I tendtendere to get questionsle domande
or commentsCommenti like this:
109
389625
4601
sono state domande e commenti come:
06:46
"What makesfa you think
you're qualifiedqualificato to talk about AIAI?"
110
394250
3000
"Cosa ti fa pensare di essere
qualificata per parlare di IA?"
06:50
"What makesfa you think
you know about machinemacchina learningapprendimento?"
111
398458
3476
"Cosa ti fa pensare di saperne
di apprendimento delle macchine?"
06:53
So, as you do, I madefatto a newnuovo profileprofilo,
112
401958
3435
Così ho creato un nuovo profilo.
06:57
and this time, insteadanziché of my ownproprio pictureimmagine,
I chosescelto a catgatto with a jetJet packpacco on it.
113
405417
4851
Invece della mia foto, ho scelto
quella di un gatto con un jet-pack.
07:02
And I chosescelto a namenome
that did not revealsvelare my genderGenere.
114
410292
2458
E ho scelto un nome
che non rivelasse il mio genere.
07:05
You can probablyprobabilmente guessindovina
where this is going, right?
115
413917
2726
Potete immaginare
cosa è accaduto, vero?
07:08
So, this time, I didn't get any of those
patronizingpaternalistico commentsCommenti about my abilitycapacità
116
416667
6392
Questa volta non ho avuto nessun commento
che mettesse in dubbio le mie abilità.
07:15
and I was ablecapace to actuallyin realtà
get some work donefatto.
117
423083
3334
E sono stata in grado
di concludere qualcosa.
07:19
And it sucksfa schifo, guys.
118
427500
1851
È terribile.
07:21
I've been buildingcostruzione robotsrobot sinceda I was 15,
119
429375
2476
Costruisco robot da quando
avevo 15 anni.
07:23
I have a fewpochi degreesgradi in computercomputer sciencescienza,
120
431875
2268
Ho delle lauree in scienze informatiche.
07:26
and yetancora, I had to hidenascondere my genderGenere
121
434167
2434
Eppure devo nascondere il mio genere
07:28
in orderordine for my work
to be takenprese seriouslysul serio.
122
436625
2250
per far sì che il mio lavoro
venga preso sul serio.
07:31
So, what's going on here?
123
439875
1893
Cosa sta succedendo?
07:33
Are menuomini just better
at technologytecnologia than womendonne?
124
441792
3208
Gli uomini sono migliori
nella tecnologia rispetto alle donne?
07:37
AnotherUn altro studystudia foundtrovato
125
445917
1559
Un altro studio ha scoperto
07:39
that when womendonne coderscodificatori on one platformpiattaforma
hidnascosto theirloro genderGenere, like myselfme stessa,
126
447500
4934
che quando le programmatrici nascondono
il loro genere su una piattaforma,
07:44
theirloro codecodice was acceptedaccettato
fourquattro percentper cento more than menuomini.
127
452458
3250
il loro codice viene accettato
il 4 per cento in più degli uomini.
07:48
So this is not about the talenttalento.
128
456542
2916
Quindi non è una questione di talento.
07:51
This is about an elitismelitismo in AIAI
129
459958
2893
È una questione di elitismo nelle IA
07:54
that saysdice a programmerprogrammatore
needsesigenze to look like a certaincerto personpersona.
130
462875
2792
secondo cui un programmatore
deve assomigliare a una certa persona.
07:59
What we really need to do
to make AIAI better
131
467375
3101
Quello di cui abbiamo veramente
bisogno per migliorare le IA
08:02
is bringportare people
from all kindstipi of backgroundssfondi.
132
470500
3042
è coinvolgere persone
da tutti i tipi di contesto.
Ci vogliono persone che sanno scrivere
e raccontare storie,
08:06
We need people who can
writeScrivi and tell storiesstorie
133
474542
2559
08:09
to help us createcreare personalitiespersonalità of AIAI.
134
477125
2167
che creino le personalità delle IA.
08:12
We need people who can solverisolvere problemsi problemi.
135
480208
2042
Ci vogliono persone che sanno
risolvere problemi.
08:15
We need people
who faceviso differentdiverso challengessfide
136
483125
3768
Ci vogliono persone
che affrontano sfide diverse.
08:18
and we need people who can tell us
what are the realvero issuesproblemi that need fixingfissaggio
137
486917
5351
Ci vogliono persone che ci dicano
quali problemi devono essere risolti
08:24
and help us find waysmodi
that technologytecnologia can actuallyin realtà fixfissare it.
138
492292
3041
e che ci aiutino a trovare il modo
di risolverli con la tecnologia.
08:29
Because, when people
from diversediverso backgroundssfondi come togetherinsieme,
139
497833
3726
Perché, quando persone
da diversi contesti si uniscono,
08:33
when we buildcostruire things in the right way,
140
501583
2143
quando costruiamo cose nel modo giusto,
08:35
the possibilitiespossibilità are limitlesssenza limiti.
141
503750
2042
ci sono infinite possibilità.
08:38
And that's what I want to endfine
by talkingparlando to you about.
142
506750
3309
E questo è quello di cui
vi voglio parlare per concludere.
08:42
LessMeno racistrazzistA robotsrobot, lessDi meno machinesmacchine
that are going to take our jobslavori --
143
510083
4225
Non tanto di robot razzisti o macchine
che ci stanno rubando il lavoro.
08:46
and more about what technologytecnologia
can actuallyin realtà achieveraggiungere.
144
514332
3125
Voglio parlavi di cosa la tecnologia
può realizzare.
08:50
So, yes, some of the energyenergia
in the worldmondo of AIAI,
145
518292
3434
Sì, alcune delle energie
nel mondo delle IA,
08:53
in the worldmondo of technologytecnologia
146
521750
1393
nel mondo della tecnologia,
08:55
is going to be about
what adsAnnunci you see on your streamruscello.
147
523167
4267
saranno spese per le pubblicità
che vedete su Internet.
08:59
But a lot of it is going towardsin direzione
makingfabbricazione the worldmondo so much better.
148
527458
5209
Ma molte saranno indirizzate
per migliorare il mondo.
09:05
Think about a pregnantincinta womandonna
in the DemocraticDemocratica RepublicRepubblica of CongoCongo,
149
533500
3768
Pensate a una donna incinta
nella Repubblica Democratica del Congo,
09:09
who has to walkcamminare 17 hoursore
to her nearestpiù vicino ruralrurale prenatalprenatale clinicclinica
150
537292
4184
che deve camminare 17 ore
per raggiungere la clinica più vicina
09:13
to get a checkupcheck-up.
151
541500
1851
per fare un controllo.
09:15
What if she could get diagnosisdiagnosi
on her phoneTelefono, insteadanziché?
152
543375
2917
E se potesse ottenere una diagnosi
sul suo telefono?
09:19
Or think about what AIAI could do
153
547750
1809
O pensate a cosa potrebbero fare le IA
09:21
for those one in threetre womendonne
in SouthSud AfricaAfrica
154
549583
2726
a una donna su tre che in Sudafrica
09:24
who faceviso domesticdomestico violenceviolenza.
155
552333
2125
subisce violenza domestica.
09:27
If it wasn'tnon era safesicuro to talk out loudforte,
156
555083
2726
Se fosse pericoloso parlare ad alta voce,
09:29
they could get an AIAI serviceservizio
to raiseaumentare alarmallarme,
157
557833
2476
si potrebbe avere un'IA che dia l'allarme,
09:32
get financialfinanziario and legallegale adviceconsigli.
158
560333
2459
che dia supporto legale e finanziario.
09:35
These are all realvero examplesesempi of projectsprogetti
that people, includingCompreso myselfme stessa,
159
563958
5018
Questi sono tutti esempi di progetti
su cui alcune persone, tra cui io,
09:41
are workinglavoro on right now, usingutilizzando AIAI.
160
569000
2500
stanno lavorando adesso usando le IA.
09:45
So, I'm sure in the nextIl prossimo couplecoppia of daysgiorni
there will be yetancora anotherun altro newsnotizia storystoria
161
573542
3601
Sono sicura che nei prossimi giorni
ci sarà un'altra storia nuova
09:49
about the existentialesistenziale riskrischio,
162
577167
2684
sui rischi esistenziali
09:51
robotsrobot takingpresa over
and comingvenuta for your jobslavori.
163
579875
2434
dei robot che vengono
a rubarvi il lavoro.
09:54
(LaughterRisate)
164
582333
1018
(Risate)
09:55
And when something like that happensaccade,
165
583375
2309
E quando questo avverrà,
09:57
I know I'll get the samestesso messagesmessaggi
worryingpreoccupante about the futurefuturo.
166
585708
3601
so che riceverò gli stessi messaggi
preoccupati per il futuro.
10:01
But I feel incrediblyincredibilmente positivepositivo
about this technologytecnologia.
167
589333
3667
Ma mi sento incredibilmente positiva
su questa tecnologia.
10:07
This is our chanceopportunità to remakeremake the worldmondo
into a much more equalpari placeposto.
168
595458
5959
È la nostra possibilità per rendere
il mondo un posto più uguale.
10:14
But to do that, we need to buildcostruire it
the right way from the get go.
169
602458
4000
Ma per farlo dobbiamo ricostruirlo
da capo nel modo giusto.
10:19
We need people of differentdiverso genderssessi,
racesGare, sexualitiessessualità and backgroundssfondi.
170
607667
5083
Ci vogliono persone di diversi generi,
razze, sessualità e contesti.
10:26
We need womendonne to be the makersmaker
171
614458
2476
Le donne devono essere creatrici,
10:28
and not just the machinesmacchine
who do the makers'produttori biddingofferta.
172
616958
3000
non solo macchine
che eseguono gli ordini dei creatori.
10:33
We need to think very carefullyaccuratamente
what we teachinsegnare machinesmacchine,
173
621875
3768
Dobbiamo pensare attentamente
a cosa insegniamo alle macchine.
10:37
what datadati we give them,
174
625667
1642
Ai dati che forniamo loro.
10:39
so they don't just repeatripetere
our ownproprio pastpassato mistakeserrori.
175
627333
3125
Così che non ripetano
i nostri errori del passato.
10:44
So I hopesperanza I leavepartire you
thinkingpensiero about two things.
176
632125
3542
Spero di avervi lasciato
due cose su cui pensare.
10:48
First, I hopesperanza you leavepartire
thinkingpensiero about biaspregiudizio todayoggi.
177
636542
4559
Primo, spero
che rifletterete sui pregiudizi.
10:53
And that the nextIl prossimo time
you scrollscorrere pastpassato an advertannuncio
178
641125
3184
E che la prossima volta
che incapperete in una pubblicità
10:56
that assumesassume you are interestedinteressato
in fertilityfertilità clinicscliniche
179
644333
2810
secondo cui siete interessati
a cliniche della fertilità,
10:59
or onlinein linea bettingscommesse websitessiti web,
180
647167
2851
o a siti di scommesse online,
11:02
that you think and rememberricorda
181
650042
2017
possiate pensare e ricordare
11:04
that the samestesso technologytecnologia is assumingsupponendo
that a blacknero man will reoffendrecidivi.
182
652083
4625
che la stessa tecnologia ritiene
che un uomo di colore sia recidivo.
11:09
Or that a womandonna is more likelyprobabile
to be a personalpersonale assistantAssistente than a CEOAMMINISTRATORE DELEGATO.
183
657833
4167
O che è più probabile che una donna sia
assistente che amministratore delegato.
11:14
And I hopesperanza that remindsricorda you
that we need to do something about it.
184
662958
3709
E spero che vi ricordi che dobbiamo
fare qualcosa a riguardo.
11:20
And secondsecondo,
185
668917
1851
Secondo,
11:22
I hopesperanza you think about the factfatto
186
670792
1892
spero che possiate pensare al fatto
11:24
that you don't need to look a certaincerto way
187
672708
1976
che non bisonga
apparire in un certo modo,
11:26
or have a certaincerto backgroundsfondo
in engineeringingegneria or technologytecnologia
188
674708
3851
o avere un certo background
nell'ingegneria o nella tecnologia
11:30
to createcreare AIAI,
189
678583
1268
per poter creare IA,
11:31
whichquale is going to be
a phenomenalfenomenale forcevigore for our futurefuturo.
190
679875
2875
che saranno delle forze fenomenali
per il nostro futuro.
11:36
You don't need to look
like a MarkMark ZuckerbergZuckerberg,
191
684166
2143
Non dovete assomigliare
a Mark Zuckerberg.
11:38
you can look like me.
192
686333
1250
Potete assomigliare a me.
11:41
And it is up to all of us in this roomcamera
193
689250
2893
E spetta a tutti noi in questa sala
11:44
to convinceconvincere the governmentsi governi
and the corporationsaziende
194
692167
2726
convincere i governi
e le aziende
11:46
to buildcostruire AIAI technologytecnologia for everyonetutti,
195
694917
2892
a costruire tecnologie per tutti.
11:49
includingCompreso the edgebordo casescasi.
196
697833
2393
Incluso i casi limite.
11:52
And for us all to get educationeducazione
197
700250
2059
E a ricevere un'istruzione
11:54
about this phenomenalfenomenale
technologytecnologia in the futurefuturo.
198
702333
2375
riguardo questa fenomenale
tecnologia del futuro.
11:58
Because if we do that,
199
706167
2017
Perché se facciamo questo,
12:00
then we'venoi abbiamo only just scratchedgraffiato the surfacesuperficie
of what we can achieveraggiungere with AIAI.
200
708208
4893
abbiamo solo grattato la superficie
di quel che possiamo ottenere con le IA.
12:05
Thank you.
201
713125
1268
Grazie.
12:06
(ApplauseApplausi)
202
714417
2708
(Applausi)
Translated by Marta Ancora
Reviewed by Anna Cristiana Minoli

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee