ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

Kriti Sharma: Cómo matener la inteligencia artifical al margen de prejuicios humanos

Filmed:
2,050,106 views

Los algoritmos toman decisiones sobre ustedes todo el tiempo, como por ejemplo, cuánto deberían pagar por el seguro del auto o que no reciban esa entrevista de trabajo. Pero, ¿qué ocurre cuando esas máquinas están construídas con prejuicios humanos codificados en sus sistemas? La tecnóloga Kriti Sharma explora cómo la falta de diversidad en la tecnología se está filtrando en nuestra IA, y nos ofrece tres modos en los que podemos comenzar a hacer algorritmos más éticos.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How manymuchos decisionsdecisiones
have been madehecho about you todayhoy,
0
875
3768
¿Cuántas decisiones sobre Uds.
han sido tomadas hoy,
00:16
or this weeksemana or this yearaño,
1
4667
2601
o esta semana, o este año,
00:19
by artificialartificial intelligenceinteligencia?
2
7292
1958
por la inteligencia artificial?
00:22
I buildconstruir AIAI for a livingvivo
3
10958
1685
Me gano la vida construyendo IA,
00:24
so, fullcompleto disclosurerevelación, I'm kindtipo of a nerdempollón.
4
12667
3017
así que, revelación total,
soy una especie de nerda.
00:27
And because I'm kindtipo of a nerdempollón,
5
15708
2393
Y como lo soy,
00:30
whereverdonde quiera some newnuevo newsNoticias storyhistoria comesproviene out
6
18125
2351
cada vez que sale una noticia
00:32
about artificialartificial intelligenceinteligencia
stealingrobando all our jobstrabajos,
7
20500
3434
sobre la inteligencia artificial
que nos roba nuestros trabajos
00:35
or robotsrobots gettingconsiguiendo citizenshipciudadanía
of an actualreal countrypaís,
8
23958
4185
o sobre robots que obtienen
la ciudadanía de un país real,
00:40
I'm the personpersona my friendsamigos
and followersseguidores messagemensaje
9
28167
3142
yo soy a quien mis amigos
y mis seguidores le mandan mensajes
00:43
freakingvolviendo loco out about the futurefuturo.
10
31333
1542
asustados por el futuro.
00:45
We see this everywhereen todos lados.
11
33833
2101
Lo vemos en todas partes:
00:47
This mediamedios de comunicación panicpánico that
our robotrobot overlordsseñores supremos are takingtomando over.
12
35958
4893
este pánico mediático en el que
nuestros amos robots toman el control.
00:52
We could blameculpa HollywoodHollywood for that.
13
40875
1917
Podríamos culpar de eso a Hollywood.
00:56
But in realityrealidad, that's not the problemproblema
we should be focusingenfoque on.
14
44125
4125
Pero en realidad, ese no es el problema
en el que nos debemos concentrar.
01:01
There is a more pressingprensado dangerpeligro,
a biggermás grande riskriesgo with AIAI,
15
49250
3643
Con la IA existe un problema
más urgente, un riesgo mayor
01:04
that we need to fixfijar first.
16
52917
1583
que debemos resolver primero.
01:07
So we are back to this questionpregunta:
17
55417
2309
Así que volvamos a esta pregunta:
01:09
How manymuchos decisionsdecisiones
have been madehecho about you todayhoy by AIAI?
18
57750
4708
¿Cuántas decisiones sobre Uds.
fueron tomadas hoy mediante la IA?
01:15
And how manymuchos of these
19
63792
1976
Y cuántas de estas
01:17
were basedbasado on your gendergénero,
your racecarrera or your backgroundfondo?
20
65792
4500
se han basado en su sexo,
su raza o su origen?
01:24
AlgorithmsAlgoritmos are beingsiendo used all the time
21
72500
2768
Los algoritmos se usan todo el tiempo
01:27
to make decisionsdecisiones about who we are
and what we want.
22
75292
3833
para tomar decisiones sobre
quiénes somos y qué queremos.
01:32
Some of the womenmujer in this roomhabitación
will know what I'm talkinghablando about
23
80208
3643
Algunas de las mujeres en esta sala
saben de lo que hablo
01:35
if you've been madehecho to sitsentar throughmediante
those pregnancyel embarazo testprueba advertsanuncios on YouTubeYoutube
24
83875
3768
si han sido expuestas a esos avisos
sobre pruebas de embarazo en YouTube
01:39
like 1,000 timesveces.
25
87667
2059
como unas 1000 veces.
01:41
Or you've scrolleddesplazado pastpasado advertsanuncios
of fertilityFertilidad clinicsclínicas
26
89750
2851
O han visto avisos pasados
sobre clínicas de fertilidad
01:44
on your FacebookFacebook feedalimentar.
27
92625
2042
en su página de Facebook.
01:47
Or in my casecaso, Indianindio marriagematrimonio bureausoficinas.
28
95625
2393
O, en mi caso, oficinas
indias de matrimonio.
01:50
(LaughterRisa)
29
98042
1267
(Risas)
01:51
But AIAI isn't just beingsiendo used
to make decisionsdecisiones
30
99333
2976
Pero la IA no solo se usa
para tomar decisiones
01:54
about what productsproductos we want to buycomprar
31
102333
2601
sobre los productos que queremos comprar
01:56
or whichcual showespectáculo we want to bingeborrachera watch nextsiguiente.
32
104958
2500
o el próximo programa de televisión
que queremos ver.
02:01
I wonderpreguntarse how you'dtu hubieras feel about someonealguien
who thought things like this:
33
109042
5184
Me pregunto qué sentirían ante alguien
que piensa cosas como esta:
02:06
"A blacknegro or LatinoLatino personpersona
34
114250
1934
"Una persona negra o latina
02:08
is lessMenos likelyprobable than a whiteblanco personpersona
to paypaga off theirsu loanpréstamo on time."
35
116208
4125
tiene menos probabilidad
de saldar a tiempo un préstamo
que una persona blanca".
02:13
"A personpersona calledllamado JohnJohn
makeshace a better programmerprogramador
36
121542
2809
"Una persona llamada Juan
es un mejor programador
02:16
than a personpersona calledllamado MaryMaría."
37
124375
1667
que una persona llamada María".
02:19
"A blacknegro man is more likelyprobable to be
a repeatrepetir offenderdelincuente than a whiteblanco man."
38
127250
5083
"Es más probable que una persona negra
sea reincidente que una persona blanca".
02:26
You're probablyprobablemente thinkingpensando,
39
134958
1268
Probablemente piensen:
02:28
"WowGuau, that soundssonidos like a prettybonita sexistsexista,
racistracista personpersona," right?
40
136250
3750
"Oh, eso suena como una persona
bastante sexista y racista", ¿no?
02:33
These are some realreal decisionsdecisiones
that AIAI has madehecho very recentlyrecientemente,
41
141000
4851
Estas son algunas de las decisiones reales
que ha tomado la IA muy recientemente,
02:37
basedbasado on the biasessesgos
it has learnedaprendido from us,
42
145875
2934
basada en los prejuicios
que ha aprendido de nosotros,
02:40
from the humanshumanos.
43
148833
1250
de los humanos.
02:43
AIAI is beingsiendo used to help decidedecidir
whethersi or not you get that jobtrabajo interviewentrevista;
44
151750
4809
La IA se usa para ayudar a decidir
si reciben o no esa entrevista de trabajo,
02:48
how much you paypaga for your carcoche insuranceseguro;
45
156583
2393
cuánto pagan por el seguro del auto,
02:51
how good your creditcrédito scorePuntuación is;
46
159000
1893
cuán bueno es su historial de crédito,
02:52
and even what ratingclasificación you get
in your annualanual performanceactuación reviewrevisión.
47
160917
3125
e incluso qué calificación reciben
en su revisión anual de desempeño.
02:57
But these decisionsdecisiones
are all beingsiendo filteredfiltrado throughmediante
48
165083
3143
Pero estas decisiones se filtran a través
03:00
its assumptionssuposiciones about our identityidentidad,
our racecarrera, our gendergénero, our ageaños.
49
168250
5875
de sus supuestos sobre nuestra identidad,
nuestra raza, nuestro sexo, nuestra edad.
03:08
How is that happeningsucediendo?
50
176250
2268
¿Cómo ocurre eso?
03:10
Now, imagineimagina an AIAI is helpingración
a hiringContratación managergerente
51
178542
3517
Ahora imaginen que la IA está ayudando
a un gerente de contrataciones
03:14
find the nextsiguiente techtecnología leaderlíder in the companyempresa.
52
182083
2851
a encontrar el siguiente líder
de tecnología para la compañía.
03:16
So farlejos, the managergerente
has been hiringContratación mostlyprincipalmente menhombres.
53
184958
3101
Hasta ahora el gerente ha estado
contratando mayormente hombres.
03:20
So the AIAI learnsaprende menhombres are more likelyprobable
to be programmersprogramadores than womenmujer.
54
188083
4750
Entonces, la IA aprende
que es más probable
que los programadores sean
hombres, en vez de mujeres.
03:25
And it's a very shortcorto leapsalto from there to:
55
193542
2892
Y de ahí hay un estrecho muy corto hasta:
03:28
menhombres make better programmersprogramadores than womenmujer.
56
196458
2042
"los hombres son mejores
programadores que las mujeres".
03:31
We have reinforcedreforzado
our ownpropio biasparcialidad into the AIAI.
57
199417
3726
Hemos reforzado nuestros
propios prejuicios en la IA.
03:35
And now, it's screeningcribado out
femalehembra candidatescandidatos.
58
203167
3625
Y ahora elimina a
las candidatas femeninas.
03:40
HangColgar on, if a humanhumano
hiringContratación managergerente did that,
59
208917
3017
Si un gerente de contratación
humano hiciera eso
03:43
we'dmie be outragedindignado, we wouldn'tno lo haría allowpermitir it.
60
211958
2351
estaríamos indignados,
no lo permitiríamos.
03:46
This kindtipo of gendergénero
discriminationdiscriminación is not OK.
61
214333
3476
Este tipo de discriminación
por el sexo no está bien.
03:49
And yettodavía somehowde algun modo,
AIAI has becomevolverse aboveencima the lawley,
62
217833
4518
Y, sin embargo, de algún modo,
la IA se ha situado sobre la ley,
03:54
because a machinemáquina madehecho the decisiondecisión.
63
222375
2083
ya que una máquina tomó la decisión.
03:57
That's not it.
64
225833
1518
No solo eso.
03:59
We are alsoademás reinforcingrefuerzo our biasparcialidad
in how we interactinteractuar with AIAI.
65
227375
4875
Estamos reforzando también nuestro
prejuicio en cómo interactuamos con la IA.
04:04
How oftena menudo do you use a voicevoz assistantasistente
like SiriSiri, AlexaAlexa or even CortanaCortana?
66
232917
5976
¿Cuán a menudo usan un asistente de
voz como Siri, Alexa o incluso Cortana?
04:10
They all have two things in commoncomún:
67
238917
2559
Ellos tienen dos cosas en común:
04:13
one, they can never get my namenombre right,
68
241500
3101
una, nunca pueden captar bien mi nombre,
04:16
and secondsegundo, they are all femalehembra.
69
244625
2667
y segundo, todas son femeninas.
04:20
They are designeddiseñado to be
our obedientobediente servantsservicio,
70
248417
2767
Están designadas para ser
nuestros sirvientes obedientes,
04:23
turningtorneado your lightsluces on and off,
orderingordenando your shoppingcompras.
71
251208
3250
que encienden y apagan nuestras luces,
que encargan nuestra compra.
04:27
You get malemasculino AIsAIs too,
but they tendtender to be more high-poweredde alta potencia,
72
255125
3309
También hay una IA masculina, pero
tiende a tener más poder,
04:30
like IBMIBM WatsonWatson,
makingfabricación businessnegocio decisionsdecisiones,
73
258458
3059
como IBM Watson, que toma
decisiones de negocios,
04:33
SalesforceSalesforce EinsteinEinstein
or ROSSRoss, the robotrobot lawyerabogado.
74
261541
3792
Salesforce Einstein o ROSS,
el robot abogado.
04:38
So poorpobre robotsrobots, even they suffersufrir
from sexismsexismo in the workplacelugar de trabajo.
75
266208
4060
Así que, pobres robots, incluso ellos
sufren el sexismo en el trabajo.
04:42
(LaughterRisa)
76
270292
1125
(Risas)
04:44
Think about how these two things combinecombinar
77
272542
2851
Piensen en cómo se combinan
estas dos cosas
04:47
and affectafectar a kidniño growingcreciente up
in today'shoy worldmundo around AIAI.
78
275417
5309
y en cómo afectan a un niño que crece
en el mundo de hoy, con la IA.
04:52
So they're doing some researchinvestigación
for a schoolcolegio projectproyecto
79
280750
2934
Por ejemplo, hacen una investigación
para un proyecto escolar
04:55
and they GoogleGoogle imagesimágenes of CEOCEO.
80
283708
3018
y buscan en Google imágenes
de directores generales.
04:58
The algorithmalgoritmo showsmuestra them
resultsresultados of mostlyprincipalmente menhombres.
81
286750
2893
El algoritmo les muestra una mayoría
de hombres como resultado.
05:01
And now, they GoogleGoogle personalpersonal assistantasistente.
82
289667
2559
Y ahora buscan en Google
"asistente personal".
05:04
As you can guessadivinar,
it showsmuestra them mostlyprincipalmente femaleshembras.
83
292250
3434
Como se imaginarán, les muestra
una mayoría de mujeres.
05:07
And then they want to put on some musicmúsica,
and maybe orderorden some foodcomida,
84
295708
3601
Y luego ellos quieren poner algo de música
y quizás encargar algo de comida,
05:11
and now, they are barkingladrido orderspedidos
at an obedientobediente femalehembra voicevoz assistantasistente.
85
299333
6584
y dan órdenes, gritando, a una
asistente de voz femenina.
05:19
Some of our brightestmás brillante mindsmentes
are creatingcreando this technologytecnología todayhoy.
86
307542
5309
Algunas de nuestras mentes más brillantes
están creando hoy en día esta tecnología.
05:24
TechnologyTecnología that they could have createdcreado
in any way they wanted.
87
312875
4184
Una tecnología que podrían haber
creado del modo que quisieran.
05:29
And yettodavía, they have chosenelegido to createcrear it
in the styleestilo of 1950s "MadEnojado Man" secretarysecretario.
88
317083
5685
Y, sin embargo, eligieron
crearla al estilo
de la secretaria de
"Mad Men" de los años 50.
05:34
YayHurra!
89
322792
1500
¡Yey!
05:36
But OK, don't worrypreocupación,
90
324958
1310
Pero no se preocupen,
05:38
this is not going to endfin
with me tellingnarración you
91
326292
2059
no voy a terminar diciéndoles
05:40
that we are all headingtítulo towardshacia
sexistsexista, racistracista machinesmáquinas runningcorriendo the worldmundo.
92
328375
3477
que vamos rumbo hacia que las máquinas
sexistas y racistas dominen el mundo.
05:44
The good newsNoticias about AIAI
is that it is entirelyenteramente withindentro our controlcontrolar.
93
332792
5791
La buena noticia sobre la IA es que está
completamente bajo nuestro control.
05:51
We get to teachenseñar the right valuesvalores,
the right ethicsética to AIAI.
94
339333
4000
Tenemos que enseñarle a la IA
los valores correctos, la ética correcta.
05:56
So there are threeTres things we can do.
95
344167
2184
Y podemos hacer tres cosas.
05:58
One, we can be awareconsciente of our ownpropio biasessesgos
96
346375
3351
Una, podemos ser conscientes
de nuestros propios prejuicios
06:01
and the biasparcialidad in machinesmáquinas around us.
97
349750
2726
y de los prejuicios en las máquinas
a nuestro alrededor.
06:04
Two, we can make sure that diversediverso teamsequipos
are buildingedificio this technologytecnología.
98
352500
4518
Dos, podemos asegurarnos de que equipos
heterogéneos construyan esta tecnología.
06:09
And threeTres, we have to give it
diversediverso experiencesexperiencias to learnaprender from.
99
357042
4916
Y tres, debemos brindarle experiencias
diferentes para que aprenda.
06:14
I can talk about the first two
from personalpersonal experienceexperiencia.
100
362875
3309
Desde mi experiencia personal
puedo hablar sobre las dos primeras.
06:18
When you work in technologytecnología
101
366208
1435
Cuando trabajas en tecnología
06:19
and you don't look like
a Markmarca ZuckerbergZuckerberg or ElonElon MuskAlmizcle,
102
367667
3392
y no te pareces
a Mark Zuckerberg o Elon Musk,
06:23
your life is a little bitpoco difficultdifícil,
your abilitycapacidad getsse pone questionedcuestionado.
103
371083
3750
tu vida es un poco difícil,
cuestionan tu capacidad.
06:27
Here'sAquí está just one exampleejemplo.
104
375875
1393
Este es un ejemplo.
06:29
Like mostmás developersdesarrolladores,
I oftena menudo joinunirse onlineen línea techtecnología forumsforos
105
377292
3726
Como muchos desarrolladores, a menudo
entro en foros tecnológicos en línea
06:33
and sharecompartir my knowledgeconocimiento to help othersotros.
106
381042
3226
y comparto mis conocimientos
para ayudar a otros.
06:36
And I've foundencontró,
107
384292
1309
Y he encontrado
06:37
when I logIniciar sesión on as myselfmí mismo,
with my ownpropio photofoto, my ownpropio namenombre,
108
385625
3976
que cuando accedo como yo,
con mi foto y mi nombre,
06:41
I tendtender to get questionspreguntas
or commentscomentarios like this:
109
389625
4601
tiendo a recibir preguntas
o comentarios como este:
06:46
"What makeshace you think
you're qualifiedcalificado to talk about AIAI?"
110
394250
3000
"¿Qué te hace pensar que estás
cualificada para hablar sobre IA?".
06:50
"What makeshace you think
you know about machinemáquina learningaprendizaje?"
111
398458
3476
"Qué te hace pensar que sabes
sobre el aprendizaje automático?".
06:53
So, as you do, I madehecho a newnuevo profileperfil,
112
401958
3435
Así que, como Uds. lo harían,
hice un nuevo perfil de Internet,
06:57
and this time, insteaden lugar of my ownpropio pictureimagen,
I choseElegir a catgato with a jetchorro packpaquete on it.
113
405417
4851
y esta vez, en lugar de mi foto, elegí
un gato con una mochila propulsora.
07:02
And I choseElegir a namenombre
that did not revealrevelar my gendergénero.
114
410292
2458
Y elegí un nombre que no revelara mi sexo.
07:05
You can probablyprobablemente guessadivinar
where this is going, right?
115
413917
2726
Pueden imaginarse a qué conduce esto, ¿no?
07:08
So, this time, I didn't get any of those
patronizingprotector commentscomentarios about my abilitycapacidad
116
416667
6392
Esta vez no recibí ninguno de estos
comentarios despectivos sobre mi capacidad
07:15
and I was ablepoder to actuallyactualmente
get some work donehecho.
117
423083
3334
y pude lograr algunas cosas.
07:19
And it sucksapesta, guys.
118
427500
1851
Y esto apesta, chicos.
07:21
I've been buildingedificio robotsrobots sinceya que I was 15,
119
429375
2476
He estado construyendo
robots desde los 15 años,
07:23
I have a fewpocos degreesgrados in computercomputadora scienceciencia,
120
431875
2268
tengo algunos títulos en informática
07:26
and yettodavía, I had to hideesconder my gendergénero
121
434167
2434
y, sin embargo, tengo que esconder mi sexo
07:28
in orderorden for my work
to be takentomado seriouslyseriamente.
122
436625
2250
para que tomen en serio mi trabajo.
07:31
So, what's going on here?
123
439875
1893
Entonces, ¿qué es lo que ocurre aquí?
07:33
Are menhombres just better
at technologytecnología than womenmujer?
124
441792
3208
¿Los hombres son mejores que
las mujeres en cuanto a la tecnología?
07:37
AnotherOtro studyestudiar foundencontró
125
445917
1559
Otro estudio descubrió
07:39
that when womenmujer coderscodificadores on one platformplataforma
hidescondido theirsu gendergénero, like myselfmí mismo,
126
447500
4934
que cuando las mujeres que hacen código en
una plataforma también ocultaron su sexo,
07:44
theirsu codecódigo was acceptedaceptado
fourlas cuatro percentpor ciento more than menhombres.
127
452458
3250
su código fue aceptado
un 4 % más que el de los hombres.
07:48
So this is not about the talenttalento.
128
456542
2916
Así que no es cuestión de talento.
07:51
This is about an elitismelitismo in AIAI
129
459958
2893
Se trata de un elitismo en la IA
07:54
that saysdice a programmerprogramador
needsnecesariamente to look like a certaincierto personpersona.
130
462875
2792
que dice que un programador
debe tener cierto aspecto.
07:59
What we really need to do
to make AIAI better
131
467375
3101
Lo que debemos hacer
realmente para mejorar la IA
08:02
is bringtraer people
from all kindsclases of backgroundsantecedentes.
132
470500
3042
es atraer a personas
con orígenes variados.
08:06
We need people who can
writeescribir and tell storiescuentos
133
474542
2559
Necesitamos gente que pueda
escribir y contar historias
08:09
to help us createcrear personalitiesalusiones personales of AIAI.
134
477125
2167
para ayudarnos a crear
las personalidades de la IA.
08:12
We need people who can solveresolver problemsproblemas.
135
480208
2042
Necesitamos gente capaz
de resolver problemas.
08:15
We need people
who facecara differentdiferente challengesdesafíos
136
483125
3768
Necesitamos gente que enfrente
desafíos diferentes
08:18
and we need people who can tell us
what are the realreal issuescuestiones that need fixingfijación
137
486917
5351
y que nos digan cuáles son los problemas
reales que necesitan resolverse
08:24
and help us find waysformas
that technologytecnología can actuallyactualmente fixfijar it.
138
492292
3041
y que nos ayuden a encontrar los modos
en que la tecnología puede resolverlos.
08:29
Because, when people
from diversediverso backgroundsantecedentes come togetherjuntos,
139
497833
3726
Porque cuando las personas
de distintos orígenes se unen,
08:33
when we buildconstruir things in the right way,
140
501583
2143
cuando construimos las cosas
del modo correcto,
08:35
the possibilitiesposibilidades are limitlesssin límites.
141
503750
2042
las posibilidades son ilimitadas.
08:38
And that's what I want to endfin
by talkinghablando to you about.
142
506750
3309
Y eso es de lo que finalmente
quiero hablarles.
08:42
LessMenos racistracista robotsrobots, lessMenos machinesmáquinas
that are going to take our jobstrabajos --
143
510083
4225
Menos robots racistas, menos máquinas
que tomarán nuestros trabajos...
08:46
and more about what technologytecnología
can actuallyactualmente achievelograr.
144
514332
3125
y más sobre lo que
la tecnología puede lograr.
08:50
So, yes, some of the energyenergía
in the worldmundo of AIAI,
145
518292
3434
Así que, sí, algo de la energía
en el mundo de la IA,
08:53
in the worldmundo of technologytecnología
146
521750
1393
en el mundo de la tecnología
08:55
is going to be about
what adsanuncios you see on your streamcorriente.
147
523167
4267
estará dirigida hacia la publicidad
que ven cuando están en Internet.
08:59
But a lot of it is going towardshacia
makingfabricación the worldmundo so much better.
148
527458
5209
Pero mucho de ella se dirigirá a hacer
que el mundo sea mucho mejor.
09:05
Think about a pregnantembarazada womanmujer
in the DemocraticDemocrático RepublicRepública of CongoCongo,
149
533500
3768
Piensen en una mujer embarazada
en la República Democrática del Congo,
09:09
who has to walkcaminar 17 hourshoras
to her nearestmás cercano ruralrural prenatalprenatal clinicclínica
150
537292
4184
que debe caminar 17 horas hasta la
clínica rural prenatal más cercana
09:13
to get a checkupchequeo.
151
541500
1851
para hacerse una revisión médica.
09:15
What if she could get diagnosisdiagnóstico
on her phoneteléfono, insteaden lugar?
152
543375
2917
¿Y si en lugar de eso ella pudiera
obtener un diagnóstico por teléfono?
09:19
Or think about what AIAI could do
153
547750
1809
O piensen en lo que la IA podría hacer
09:21
for those one in threeTres womenmujer
in SouthSur AfricaÁfrica
154
549583
2726
por esa mujer de cada tres en Sudáfrica
09:24
who facecara domesticnacional violenceviolencia.
155
552333
2125
que sufre la violencia doméstica.
09:27
If it wasn'tno fue safeseguro to talk out loudruidoso,
156
555083
2726
Si fuera peligroso hablar en voz alta,
ella podría tener un servicio
de IA para lanzar la alarma,
09:29
they could get an AIAI serviceServicio
to raiseaumento alarmalarma,
157
557833
2476
09:32
get financialfinanciero and legallegal adviceConsejo.
158
560333
2459
para obtener ayuda financiera y legal.
09:35
These are all realreal examplesejemplos of projectsproyectos
that people, includingincluso myselfmí mismo,
159
563958
5018
Estos son ejemplos de proyectos reales
que la gente, incluyéndome a mí,
09:41
are workingtrabajando on right now, usingutilizando AIAI.
160
569000
2500
está trabajando ahora, empleando la IA.
09:45
So, I'm sure in the nextsiguiente couplePareja of daysdías
there will be yettodavía anotherotro newsNoticias storyhistoria
161
573542
3601
Así que estoy segura de que en
los próximos días habrá otra noticia
09:49
about the existentialexistencial riskriesgo,
162
577167
2684
sobre el riesgo existencial,
09:51
robotsrobots takingtomando over
and comingviniendo for your jobstrabajos.
163
579875
2434
robots tomando el control
y tomando sus trabajos.
09:54
(LaughterRisa)
164
582333
1018
(Risas)
09:55
And when something like that happenssucede,
165
583375
2309
Y cuando pase algo como eso,
09:57
I know I'll get the samemismo messagesmensajes
worryingpreocupante about the futurefuturo.
166
585708
3601
se que recibiré los mismos mensajes
de preocupación con respecto al futuro.
10:01
But I feel incrediblyincreíblemente positivepositivo
about this technologytecnología.
167
589333
3667
Pero me siento muy positiva
con respecto a esta tecnología.
10:07
This is our chanceoportunidad to remakerehacer the worldmundo
into a much more equaligual placelugar.
168
595458
5959
Esta es nuestra oportunidad de hacer
el mundo un lugar más igualitario.
10:14
But to do that, we need to buildconstruir it
the right way from the get go.
169
602458
4000
Pero para hacerlo debemos construirlo
del modo correcto desde el principio.
10:19
We need people of differentdiferente gendersgéneros,
racescarreras, sexualitiessexualidades and backgroundsantecedentes.
170
607667
5083
Necesitamos personas de distintos
sexos, razas, sexualidades y orígenes.
10:26
We need womenmujer to be the makerscreadores
171
614458
2476
Necesitamos que las mujeres
sean hacedoras,
10:28
and not just the machinesmáquinas
who do the makers'creadores biddingofertas.
172
616958
3000
y no solo las máquinas que sigan
las órdenes de los hombres.
10:33
We need to think very carefullycuidadosamente
what we teachenseñar machinesmáquinas,
173
621875
3768
Debemos pensar muy cuidadosamente
lo que le enseñamos a las máquinas,
10:37
what datadatos we give them,
174
625667
1642
los datos que les damos,
10:39
so they don't just repeatrepetir
our ownpropio pastpasado mistakeserrores.
175
627333
3125
de modo que no repitan
nuestros errores pasados.
10:44
So I hopeesperanza I leavesalir you
thinkingpensando about two things.
176
632125
3542
Espero dejarlos pensando en dos cosas.
10:48
First, I hopeesperanza you leavesalir
thinkingpensando about biasparcialidad todayhoy.
177
636542
4559
Primero, espero dejarlos
pensando en los prejuicios.
10:53
And that the nextsiguiente time
you scrollvoluta pastpasado an advertanuncio
178
641125
3184
Y la próxima vez que vean
una publicidad en Internet
10:56
that assumesasume you are interestedinteresado
in fertilityFertilidad clinicsclínicas
179
644333
2810
que asume que están interesados
en clínicas de fertilidad
10:59
or onlineen línea bettingapuesta websitessitios web,
180
647167
2851
o en sitios web de apuestas en línea,
11:02
that you think and rememberrecuerda
181
650042
2017
que piensen y recuerden
11:04
that the samemismo technologytecnología is assumingasumiendo
that a blacknegro man will reoffendreincidir.
182
652083
4625
que la misma tecnología asume que
un hombre negro será reincidente;
11:09
Or that a womanmujer is more likelyprobable
to be a personalpersonal assistantasistente than a CEOCEO.
183
657833
4167
o que es más probable que una mujer sea
una asistente personal y no una directora.
11:14
And I hopeesperanza that remindsrecuerda you
that we need to do something about it.
184
662958
3709
Y espero que les recuerde que
debemos hacer algo sobre eso.
11:20
And secondsegundo,
185
668917
1851
Y segundo,
11:22
I hopeesperanza you think about the facthecho
186
670792
1892
espero que piensen sobre el hecho
11:24
that you don't need to look a certaincierto way
187
672708
1976
de que no necesitan
tener un cierto aspecto
11:26
or have a certaincierto backgroundfondo
in engineeringIngenieria or technologytecnología
188
674708
3851
o tener una cierta formación
en ingeniería o tecnología
11:30
to createcrear AIAI,
189
678583
1268
para crear IA,
11:31
whichcual is going to be
a phenomenalfenomenal forcefuerza for our futurefuturo.
190
679875
2875
lo que será una fuerza
fenomenal para nuestro futuro.
11:36
You don't need to look
like a Markmarca ZuckerbergZuckerberg,
191
684166
2143
No necesitan ser parecidos
a Mark Zuckerberg,
11:38
you can look like me.
192
686333
1250
pueden parecerse a mí.
11:41
And it is up to all of us in this roomhabitación
193
689250
2893
Y depende de todos Uds. en esta sala
11:44
to convinceconvencer the governmentsgobiernos
and the corporationscorporaciones
194
692167
2726
poder convencer a los gobiernos
y las corporaciones
11:46
to buildconstruir AIAI technologytecnología for everyonetodo el mundo,
195
694917
2892
para que construyan una IA para todos,
11:49
includingincluso the edgeborde casescasos.
196
697833
2393
incluso los casos marginales.
11:52
And for us all to get educationeducación
197
700250
2059
Y que todos nos eduquemos en el futuro
11:54
about this phenomenalfenomenal
technologytecnología in the futurefuturo.
198
702333
2375
sobre esta tecnología fenomenal.
11:58
Because if we do that,
199
706167
2017
Porque si hacemos eso,
12:00
then we'venosotros tenemos only just scratchedrayado the surfacesuperficie
of what we can achievelograr with AIAI.
200
708208
4893
habremos arañado la superficie de
lo que podemos lograr con la IA.
12:05
Thank you.
201
713125
1268
Gracias.
12:06
(ApplauseAplausos)
202
714417
2708
(Aplausos)
Translated by Maria Julia Galles
Reviewed by Silvina Katz

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee