ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: La inteligencia artificial hace que la moral humana sea más importante

Filmed:
1,648,711 views

La inteligencia artificial está aquí, y ya la estamos usando para tomar decisiones subjetivas. Pero la forma compleja en la que crece y mejora la inteligencia artificial hace que sea difícil de entender e incluso más difícil de controlar. En esta charla cautelosa, la tecnosocióloga Zeynep Tufekci explica cómo las máquinas inteligentes pueden fallar en formas que no encajan en los patrones del error humano y de maneras que no esperamos ni predecimos. "No podemos delegar nuestra responsabilidad a las máquinas", dice. "Debemos ajustarlas cada vez más a los valores humanos y a la ética humana".
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedempezado my first jobtrabajo
as a computercomputadora programmerprogramador
0
739
4122
Empecé mi primer trabajo
como programadora informática
00:16
in my very first yearaño of collegeUniversidad --
1
4885
1956
en mi primer año de universidad,
básicamente, siendo aún adolescente.
00:18
basicallybásicamente, as a teenageradolescente.
2
6865
1507
00:20
Soonpronto after I startedempezado workingtrabajando,
3
8889
1732
Poco después de empezar a trabajar,
programando software en una empresa,
00:22
writingescritura softwaresoftware in a companyempresa,
4
10645
1610
00:24
a managergerente who workedtrabajó at the companyempresa
camevino down to where I was,
5
12799
3635
un gerente que trabajaba en la compañía
bajó a donde yo estaba,
00:28
and he whisperedsusurrado to me,
6
16458
1268
y me dijo al oído:
00:30
"Can he tell if I'm lyingacostado?"
7
18229
2861
"¿Puede decir él si estoy mintiendo?"
00:33
There was nobodynadie elsemás in the roomhabitación.
8
21806
2077
No había nadie más en la habitación.
00:37
"Can who tell if you're lyingacostado?
And why are we whisperingsusurro?"
9
25032
4389
"¿Puede "quién" decir si está mintiendo?
¿Y por qué estamos susurrando?"
00:42
The managergerente pointedpuntiagudo
at the computercomputadora in the roomhabitación.
10
30266
3107
El gerente señaló a la computadora
en la habitación.
00:45
"Can he tell if I'm lyingacostado?"
11
33397
3096
"¿Puede ella decir si estoy mintiendo?"
00:49
Well, that managergerente was havingteniendo
an affairasunto with the receptionistrecepcionista.
12
37613
4362
Bueno, el gerente estaba teniendo
una aventura con la recepcionista.
00:53
(LaughterRisa)
13
41999
1112
(Risas)
00:55
And I was still a teenageradolescente.
14
43135
1766
Y yo todavía era adolescente.
00:57
So I whisper-shoutedsusurro-gritó back to him,
15
45447
2019
Por lo tanto, le susurro yo a él:
00:59
"Yes, the computercomputadora can tell
if you're lyingacostado."
16
47490
3624
"Sí, la computadora puede determinar
si Ud. está mintiendo".
01:03
(LaughterRisa)
17
51138
1806
(Risas)
01:04
Well, I laughedSe rió, but actuallyactualmente,
the laugh'sreír on me.
18
52968
2923
Bueno, me reí, pero,
en realidad, me reía de mí.
01:07
NowadaysHoy en día, there are computationalcomputacional systemssistemas
19
55915
3268
Hoy en día, existen sistemas informáticos
01:11
that can sussSuss out
emotionalemocional statesestados and even lyingacostado
20
59207
3548
que pueden detectar
estados emocionales e incluso mentir
a partir del procesamiento
de rostros humanos.
01:14
from processingtratamiento humanhumano facescaras.
21
62779
2044
01:17
AdvertisersAnunciantes and even governmentsgobiernos
are very interestedinteresado.
22
65248
4153
Los anunciantes, e incluso
hay gobiernos muy interesados.
Me había convertido en
programadora informática
01:22
I had becomevolverse a computercomputadora programmerprogramador
23
70319
1862
01:24
because I was one of those kidsniños
crazyloca about mathmates and scienceciencia.
24
72205
3113
porque yo era una de esas chicas
locas por las matemáticas y la ciencia.
Pero en algún lugar también había
aprendido sobre las armas nucleares,
01:27
But somewherealgun lado alonga lo largo the linelínea
I'd learnedaprendido about nuclearnuclear weaponsarmas,
25
75942
3108
01:31
and I'd gottenconseguido really concernedpreocupado
with the ethicsética of scienceciencia.
26
79074
2952
y había empezado a realmente a
preocuparme por la ética de la ciencia.
01:34
I was troubledpreocupado.
27
82050
1204
Yo estaba preocupada.
01:35
Howeversin embargo, because of familyfamilia circumstancescircunstancias,
28
83278
2641
Sin embargo,
por circunstancias familiares,
01:37
I alsoademás needednecesario to startcomienzo workingtrabajando
as soonpronto as possibleposible.
29
85943
3298
también debía empezar
a trabajar lo antes posible.
01:41
So I thought to myselfmí mismo, hey,
let me pickrecoger a technicaltécnico fieldcampo
30
89265
3299
Así que me dije, bueno,
vamos a elegir un campo técnico
donde poder conseguir un trabajo fácil
01:44
where I can get a jobtrabajo easilyfácilmente
31
92588
1796
01:46
and where I don't have to dealacuerdo
with any troublesomemolesto questionspreguntas of ethicsética.
32
94408
4018
y donde no tenga que lidiar
con preguntas molestas sobre ética.
01:51
So I pickedescogido computersordenadores.
33
99022
1529
Así que elegí las computadoras.
01:52
(LaughterRisa)
34
100575
1104
(Risas)
01:53
Well, hadecir ah, hadecir ah, hadecir ah!
All the laughsrisas are on me.
35
101703
3410
Bueno, ¡ja, ja, ja!
Todas las risas a mi costa.
01:57
NowadaysHoy en día, computercomputadora scientistscientíficos
are buildingedificio platformsplataformas
36
105137
2754
Hoy en día, los informáticos
construyen plataformas
01:59
that controlcontrolar what a billionmil millones
people see everycada day.
37
107915
4209
que controlan lo que millones
de personas ven todos los días.
02:05
They're developingdesarrollando carscarros
that could decidedecidir who to runcorrer over.
38
113052
3822
Están desarrollando automóviles que
podrían decidir a quién atropellar.
02:09
They're even buildingedificio machinesmáquinas, weaponsarmas,
39
117707
3213
Es más, están construyendo
máquinas, armas,
02:12
that mightpodría killmatar humanhumano beingsseres in warguerra.
40
120944
2285
que podrían matar
a seres humanos en la guerra.
02:15
It's ethicsética all the way down.
41
123253
2771
Esto es ética a fondo.
02:19
MachineMáquina intelligenceinteligencia is here.
42
127183
2058
La inteligencia artificial está aquí.
02:21
We're now usingutilizando computationcálculo
to make all sortordenar of decisionsdecisiones,
43
129823
3474
Estamos usando la computación
para tomar todo tipo de decisiones,
además de nuevos tipos de decisiones.
02:25
but alsoademás newnuevo kindsclases of decisionsdecisiones.
44
133321
1886
Planteamos preguntas a las computadoras
que no tienen respuestas
02:27
We're askingpreguntando questionspreguntas to computationcálculo
that have no singlesoltero right answersrespuestas,
45
135231
5172
correctas individuales,
por ser subjetivas
02:32
that are subjectivesubjetivo
46
140427
1202
02:33
and open-endedAbierto and value-ladencargado de valor.
47
141653
2325
e indefinidas y cargadas de valores.
02:36
We're askingpreguntando questionspreguntas like,
48
144002
1758
Planteamos preguntas como:
02:37
"Who should the companyempresa hirealquiler?"
49
145784
1650
"¿A quién debe contratar la empresa?"
02:40
"WhichCual updateactualizar from whichcual friendamigo
should you be shownmostrado?"
50
148096
2759
"¿Qué actualización de qué amigo
debe mostrarse?"
02:42
"WhichCual convictcondenar is more
likelyprobable to reoffendreincidir?"
51
150879
2266
"¿Qué convicto tiene
más probabilidades de reincidir?"
02:45
"WhichCual newsNoticias itemít or moviepelícula
should be recommendedrecomendado to people?"
52
153514
3054
"¿Qué artículo de noticias o película
se deben recomendar a la gente?"
02:48
Look, yes, we'venosotros tenemos been usingutilizando
computersordenadores for a while,
53
156592
3372
Miren, sí, hemos venido usando
computadoras hace tiempo,
02:51
but this is differentdiferente.
54
159988
1517
pero esto es diferente.
02:53
This is a historicalhistórico twistgiro,
55
161529
2067
Se trata de un giro histórico,
02:55
because we cannotno poder anchorancla computationcálculo
for suchtal subjectivesubjetivo decisionsdecisiones
56
163620
5337
porque no podemos anclar el cálculo
para este tipo de decisiones subjetivas
03:00
the way we can anchorancla computationcálculo
for flyingvolador airplanesaviones, buildingedificio bridgespuentes,
57
168981
5420
como anclamos el cálculo para
pilotar aviones, construir puentes
03:06
going to the moonLuna.
58
174425
1259
o ir a la luna.
03:08
Are airplanesaviones safermás seguro?
Did the bridgepuente swayinfluencia and fallotoño?
59
176449
3259
¿Son los aviones más seguros?
¿Se balanceó el puente y cayó?
03:11
There, we have agreed-uponacordado,
fairlybastante clearclaro benchmarkspuntos de referencia,
60
179732
4498
Ahí, hemos acordado puntos
de referencia bastante claros,
03:16
and we have lawsleyes of naturenaturaleza to guideguía us.
61
184254
2239
y tenemos leyes de
la naturaleza que nos guían.
03:18
We have no suchtal anchorsanclajes and benchmarkspuntos de referencia
62
186517
3394
Nosotros no tenemos tales anclas
y puntos de referencia
03:21
for decisionsdecisiones in messysucio humanhumano affairsasuntos.
63
189935
3963
para las decisiones sobre cuestiones
humanas desordenadas.
03:25
To make things more complicatedComplicado,
our softwaresoftware is gettingconsiguiendo more powerfulpoderoso,
64
193922
4237
Para complicar más las cosas,
nuestro software es cada vez más potente,
03:30
but it's alsoademás gettingconsiguiendo lessMenos
transparenttransparente and more complexcomplejo.
65
198183
3773
pero también es cada vez
menos transparente y más complejo.
03:34
RecentlyRecientemente, in the pastpasado decadedécada,
66
202542
2040
Recientemente, en la última década,
03:36
complexcomplejo algorithmsAlgoritmos
have madehecho great stridespasos.
67
204606
2729
algunos algoritmos complejos
han hecho grandes progresos.
03:39
They can recognizereconocer humanhumano facescaras.
68
207359
1990
Pueden reconocer rostros humanos.
03:41
They can decipherdescifrar handwritingescritura.
69
209985
2055
Pueden descifrar la letra.
Pueden detectar
el fraude de tarjetas de crédito
03:44
They can detectdetectar creditcrédito cardtarjeta fraudfraude
70
212436
2066
03:46
and blockbloquear spamcorreo no deseado
71
214526
1189
y bloquear el spam
03:47
and they can translatetraducir betweenEntre languagesidiomas.
72
215739
2037
y pueden traducir a otros idiomas.
03:49
They can detectdetectar tumorstumores in medicalmédico imagingimágenes.
73
217800
2574
Pueden detectar tumores
en imágenes médicas.
Puede vencer a los humanos
en el ajedrez y en el go.
03:52
They can beatgolpear humanshumanos in chessajedrez and Go.
74
220398
2205
03:55
Much of this progressProgreso comesproviene
from a methodmétodo calledllamado "machinemáquina learningaprendizaje."
75
223264
4504
Gran parte de este progreso viene de un
método llamado "aprendizaje automático".
El aprendizaje automático es
diferente a la programación tradicional,
04:00
MachineMáquina learningaprendizaje is differentdiferente
than traditionaltradicional programmingprogramación,
76
228175
3187
04:03
where you give the computercomputadora
detaileddetallado, exactexacto, painstakingesmerado instructionsinstrucciones.
77
231386
3585
donde se da al equipo instrucciones
exactas, detalladas y meticulosas.
04:07
It's more like you take the systemsistema
and you feedalimentar it lots of datadatos,
78
235378
4182
Es como si uno alimentara el sistema
con una gran cantidad de datos,
incluyendo los datos no estructurados,
04:11
includingincluso unstructureddesestructurado datadatos,
79
239584
1656
04:13
like the kindtipo we generategenerar
in our digitaldigital livesvive.
80
241264
2278
como los que generamos
en nuestras vidas digitales.
04:15
And the systemsistema learnsaprende
by churningrevolviendo throughmediante this datadatos.
81
243566
2730
Y el sistema aprende de esos datos.
04:18
And alsoademás, cruciallycrucialmente,
82
246669
1526
Y también, de manera crucial,
04:20
these systemssistemas don't operatefuncionar
underdebajo a single-answerrespuesta única logiclógica.
83
248219
4380
estos sistemas no funcionan
bajo una lógica de una sola respuesta.
04:24
They don't produceProduce a simplesencillo answerresponder;
it's more probabilisticprobabilístico:
84
252623
2959
No producen una respuesta sencilla;
es más probabilístico:
04:27
"This one is probablyprobablemente more like
what you're looking for."
85
255606
3483
"Esto es probablemente parecido
a lo que estás buscando".
La ventaja es que
este método es muy potente.
04:32
Now, the upsideboca arriba is:
this methodmétodo is really powerfulpoderoso.
86
260023
3070
El jefe de sistemas de inteligencia
artificial de Google lo llama:
04:35
The headcabeza of Google'sGoogle AIAI systemssistemas calledllamado it,
87
263117
2076
04:37
"the unreasonableirrazonable effectivenesseficacia of datadatos."
88
265217
2197
"la eficacia razonable de los datos".
04:39
The downsidedesventaja is,
89
267791
1353
La desventaja es que
04:41
we don't really understandentender
what the systemsistema learnedaprendido.
90
269738
3071
realmente no entendemos
lo que aprendió el sistema.
04:44
In facthecho, that's its powerpoder.
91
272833
1587
De hecho, ese es su poder.
04:46
This is lessMenos like givingdando
instructionsinstrucciones to a computercomputadora;
92
274946
3798
Esto no se parece a dar instrucciones
a una computadora;
04:51
it's more like trainingformación
a puppy-machine-creaturecachorro-máquina-criatura
93
279200
4064
se parece más a la formación
de una criatura cachorro máquina
04:55
we don't really understandentender or controlcontrolar.
94
283288
2371
que realmente no entendemos o controlamos.
Así que este es nuestro problema;
un problema cuando el sistema
04:58
So this is our problemproblema.
95
286362
1551
05:00
It's a problemproblema when this artificialartificial
intelligenceinteligencia systemsistema getsse pone things wrongincorrecto.
96
288427
4262
de inteligencia artificial
hace cosas erróneas.
05:04
It's alsoademás a problemproblema
when it getsse pone things right,
97
292713
3540
Es también un problema
cuando hace bien las cosas,
porque ni siquiera sabemos qué es qué
cuando se trata de un problema subjetivo.
05:08
because we don't even know whichcual is whichcual
when it's a subjectivesubjetivo problemproblema.
98
296277
3628
05:11
We don't know what this thing is thinkingpensando.
99
299929
2339
No sabemos qué está pensando esta cosa.
05:15
So, considerconsiderar a hiringContratación algorithmalgoritmo --
100
303493
3683
Por lo tanto, piensen en
un algoritmo de contratación,
05:20
a systemsistema used to hirealquiler people,
usingutilizando machine-learningaprendizaje automático systemssistemas.
101
308123
4311
un sistema usado para contratar,
usa sistemas de aprendizaje automático.
05:25
SuchTal a systemsistema would have been trainedentrenado
on previousanterior employees'empleados' datadatos
102
313052
3579
un sistema así habría sido entrenado
con anteriores datos de empleados
05:28
and instructedinstruido to find and hirealquiler
103
316655
2591
y tiene la instrucción
de encontrar y contratar
05:31
people like the existingexistente
highalto performersejecutantes in the companyempresa.
104
319270
3038
personas como las de alto rendimiento
existentes en la empresa.
05:34
SoundsSonidos good.
105
322814
1153
Suena bien.
05:35
I onceuna vez attendedatendido a conferenceconferencia
106
323991
1999
Una vez asistí a una conferencia
que reunió a los responsables
de recursos humanos y ejecutivos,
05:38
that broughttrajo togetherjuntos
humanhumano resourcesrecursos managersgerentes and executivesejecutivos,
107
326014
3125
las personas de alto nivel,
05:41
high-levelnivel alto people,
108
329163
1206
que usaban estos sistemas
en la contratación.
05:42
usingutilizando suchtal systemssistemas in hiringContratación.
109
330393
1559
05:43
They were supersúper excitedemocionado.
110
331976
1646
Estaban muy emocionados.
05:45
They thought that this would make hiringContratación
more objectiveobjetivo, lessMenos biasedparcial,
111
333646
4653
Pensaban que esto haría la contratación
más objetiva, menos tendenciosa,
05:50
and give womenmujer
and minoritiesminorías a better shotDisparo
112
338323
3000
para dar a las mujeres y a las minorías
mejores oportunidades
05:53
againsten contra biasedparcial humanhumano managersgerentes.
113
341347
2188
contra los administradores
humanos tendenciosos.
05:55
And look -- humanhumano hiringContratación is biasedparcial.
114
343559
2843
La contratación humana es tendenciosa.
05:59
I know.
115
347099
1185
Lo sé.
06:00
I mean, in one of my earlytemprano jobstrabajos
as a programmerprogramador,
116
348308
3005
Es decir, en uno de mis primeros
trabajos como programadora,
06:03
my immediateinmediato managergerente would sometimesa veces
come down to where I was
117
351337
3868
mi jefa a veces venía
allí donde yo estaba
06:07
really earlytemprano in the morningMañana
or really latetarde in the afternoontarde,
118
355229
3753
muy temprano en la mañana
o muy tarde por la tarde,
06:11
and she'dcobertizo say, "ZeynepZeynep,
let's go to lunchalmuerzo!"
119
359006
3062
y decía: "Zeynep, ¡vayamos a comer!"
Me dejaba perpleja por el
momento extraño de preguntar.
06:14
I'd be puzzledperplejo by the weirdextraño timingsincronización.
120
362724
2167
06:16
It's 4pmpm. LunchAlmuerzo?
121
364915
2129
Son las 16. ¿Almuerzo?
06:19
I was brokerompió, so freegratis lunchalmuerzo. I always wentfuimos.
122
367068
3094
Estaba en la ruina, así que,
ante un almuerzo gratis, siempre fui.
Más tarde me di cuenta
de lo que estaba ocurriendo.
06:22
I laterluego realizeddio cuenta what was happeningsucediendo.
123
370618
2067
06:24
My immediateinmediato managersgerentes
had not confessedconfesado to theirsu higher-upssuperiores
124
372709
4546
Mis jefes inmediatos no habían
confesado a sus altos mandos
que el programador contratado para
un trabajo serio era una adolescente
06:29
that the programmerprogramador they hiredcontratado
for a seriousgrave jobtrabajo was a teenadolescente girlniña
125
377279
3113
06:32
who worellevaba jeanspantalones and sneakerszapatillas to work.
126
380416
3930
que llevaba pantalones vaqueros
y zapatillas de deporte en el trabajo.
Yo hacía un buen trabajo,
solo que no encajaba
06:37
I was doing a good jobtrabajo,
I just lookedmirado wrongincorrecto
127
385174
2202
por la edad y por el sexo equivocado.
06:39
and was the wrongincorrecto ageaños and gendergénero.
128
387400
1699
06:41
So hiringContratación in a gender-género- and race-blindciego a la carrera way
129
389123
3346
Así que contratar a ciegas
independiente del género y de la raza
06:44
certainlyciertamente soundssonidos good to me.
130
392493
1865
ciertamente me parece bien.
06:47
But with these systemssistemas,
it is more complicatedComplicado, and here'saquí está why:
131
395031
3341
Sin embargo, con estos sistemas,
es más complicado, y he aquí por qué:
06:50
CurrentlyActualmente, computationalcomputacional systemssistemas
can inferinferir all sortstipo of things about you
132
398968
5791
Hoy los sistemas informáticos pueden
deducir todo tipo de cosas sobre Uds.
06:56
from your digitaldigital crumbsmigas,
133
404783
1872
a partir de sus pistas digitales,
06:58
even if you have not
disclosedrevelado those things.
134
406679
2333
incluso si no las han dado a conocer.
07:01
They can inferinferir your sexualsexual orientationorientación,
135
409506
2927
Pueden inferir su orientación sexual,
07:04
your personalitypersonalidad traitsrasgos,
136
412994
1306
sus rasgos de personalidad,
07:06
your politicalpolítico leaningsinclinaciones.
137
414859
1373
sus inclinaciones políticas.
07:08
They have predictiveprofético powerpoder
with highalto levelsniveles of accuracyexactitud.
138
416830
3685
Tienen poder predictivo
con altos niveles de precisión.
Recuerden, por cosas que
ni siquiera han dado a conocer.
07:13
RememberRecuerda -- for things
you haven'tno tiene even disclosedrevelado.
139
421362
2578
07:15
This is inferenceinferencia.
140
423964
1591
Esta es la inferencia.
07:17
I have a friendamigo who developeddesarrollado
suchtal computationalcomputacional systemssistemas
141
425579
3261
Tengo una amiga que desarrolló
este tipo de sistemas informáticos
07:20
to predictpredecir the likelihoodprobabilidad
of clinicalclínico or postpartumpostparto depressiondepresión
142
428864
3641
para predecir la probabilidad
de depresión clínica o posparto
07:24
from socialsocial mediamedios de comunicación datadatos.
143
432529
1416
a partir de datos de medios sociales.
07:26
The resultsresultados are impressiveimpresionante.
144
434676
1427
Los resultados son impresionantes.
07:28
Her systemsistema can predictpredecir
the likelihoodprobabilidad of depressiondepresión
145
436492
3357
Su sistema puede predecir
la probabilidad de depresión
07:31
monthsmeses before the onsetcomienzo of any symptomssíntomas --
146
439873
3903
meses antes de la aparición
de cualquier síntoma,
07:35
monthsmeses before.
147
443800
1373
meses antes.
07:37
No symptomssíntomas, there's predictionpredicción.
148
445197
2246
No hay síntomas, sí hay predicción.
07:39
She hopesesperanzas it will be used
for earlytemprano interventionintervención. Great!
149
447467
4812
Ella espera que se use para
la intervención temprana. ¡Estupendo!
Pero ahora pongan esto en el
contexto de la contratación.
07:44
But now put this in the contextcontexto of hiringContratación.
150
452911
2040
07:48
So at this humanhumano resourcesrecursos
managersgerentes conferenceconferencia,
151
456027
3046
Así que en esa conferencia
de recursos humanos,
07:51
I approachedacercado a high-levelnivel alto managergerente
in a very largegrande companyempresa,
152
459097
4709
me acerqué a una gerenta de alto nivel
de una empresa muy grande,
07:55
and I said to her, "Look,
what if, unbeknownstDesconocido to you,
153
463830
4578
y le dije: "Mira, ¿qué pasaría si,
sin su conocimiento,
08:00
your systemsistema is weedingdeshierbe out people
with highalto futurefuturo likelihoodprobabilidad of depressiondepresión?
154
468432
6549
el sistema elimina a las personas con
alta probabilidad futura de la depresión?
08:07
They're not depressedDeprimido now,
just maybe in the futurefuturo, more likelyprobable.
155
475761
3376
No están deprimidos ahora, solo
quizá en el futuro, sea probable.
¿Y si elimina a las mujeres con más
probabilidades de estar embarazadas
08:11
What if it's weedingdeshierbe out womenmujer
more likelyprobable to be pregnantembarazada
156
479923
3406
en el próximo año o dos,
pero no está embarazada ahora?
08:15
in the nextsiguiente yearaño or two
but aren'tno son pregnantembarazada now?
157
483353
2586
08:18
What if it's hiringContratación aggressiveagresivo people
because that's your workplacelugar de trabajo culturecultura?"
158
486844
5636
¿Y si contratamos a personas agresivas,
porque esa es su cultura de trabajo?"
08:25
You can't tell this by looking
at gendergénero breakdownsaverías.
159
493173
2691
No se puede saber esto
mirando un desglose por sexos.
Estos pueden ser equilibrados.
08:27
Those maymayo be balancedequilibrado.
160
495888
1502
Y como esto es aprendizaje automático,
no la programación tradicional,
08:29
And sinceya que this is machinemáquina learningaprendizaje,
not traditionaltradicional codingcodificación,
161
497414
3557
08:32
there is no variablevariable there
labeledetiquetado "highermayor riskriesgo of depressiondepresión,"
162
500995
4907
no hay una variable etiquetada
como "mayor riesgo de depresión",
08:37
"highermayor riskriesgo of pregnancyel embarazo,"
163
505926
1833
"mayor riesgo de embarazo",
08:39
"aggressiveagresivo guy scaleescala."
164
507783
1734
"escala de chico agresivo".
08:41
Not only do you not know
what your systemsistema is selectingseleccionando on,
165
509995
3679
Ud. no solo no sabe lo que
su sistema selecciona,
08:45
you don't even know
where to beginempezar to look.
166
513698
2323
sino que ni siquiera sabe
por dónde empezar a buscar.
Es una caja negra.
08:48
It's a blacknegro boxcaja.
167
516045
1246
08:49
It has predictiveprofético powerpoder,
but you don't understandentender it.
168
517315
2807
Tiene capacidad de predicción,
pero uno no lo entiende.
08:52
"What safeguardssalvaguardias," I askedpreguntó, "do you have
169
520486
2369
"¿Qué salvaguardia", pregunté,
08:54
to make sure that your blacknegro boxcaja
isn't doing something shadysombreado?"
170
522879
3673
"puede asegurar que la caja negra
no hace algo perjudicial?"
09:00
She lookedmirado at me as if I had
just steppedcaminado on 10 puppyperrito tailscruz.
171
528863
3878
Ella me miró como si acabara
de romper algo valioso.
09:04
(LaughterRisa)
172
532765
1248
(Risas)
09:06
She staredmiró at me and she said,
173
534037
2041
Me miró y dijo:
09:08
"I don't want to hearoír
anotherotro wordpalabra about this."
174
536556
4333
"No quiero oír ni una palabra de esto".
09:13
And she turnedconvertido around and walkedcaminado away.
175
541458
2034
Dio la vuelta y se alejó.
09:16
MindMente you -- she wasn'tno fue rudegrosero.
176
544064
1486
Eso sí, ella no fue grosera.
09:17
It was clearlyclaramente: what I don't know
isn't my problemproblema, go away, deathmuerte staremirar fijamente.
177
545574
6308
Era claramente: lo que no sé, no es
mi problema, vete, encara la muerte.
09:23
(LaughterRisa)
178
551906
1246
(Risas)
Un sistema de este tipo
puede ser incluso menos sesgado
09:25
Look, suchtal a systemsistema
maymayo even be lessMenos biasedparcial
179
553862
3839
que los administradores humanos
en algunos aspectos.
09:29
than humanhumano managersgerentes in some waysformas.
180
557725
2103
09:31
And it could make monetarymonetario sensesentido.
181
559852
2146
Y podría tener sentido monetario.
09:34
But it could alsoademás leaddirigir
182
562573
1650
Pero también podría llevar
09:36
to a steadyestable but stealthycauteloso
shuttingcerrando out of the jobtrabajo marketmercado
183
564247
4748
a un cierre constante pero sigiloso
del mercado de trabajo
09:41
of people with highermayor riskriesgo of depressiondepresión.
184
569019
2293
a las personas
con mayor riesgo de depresión.
¿Es este el tipo de sociedad
la que queremos construir,
09:43
Is this the kindtipo of societysociedad
we want to buildconstruir,
185
571753
2596
09:46
withoutsin even knowingconocimiento we'venosotros tenemos donehecho this,
186
574373
2285
sin siquiera saber que lo hemos hecho,
09:48
because we turnedconvertido decision-makingToma de decisiones
to machinesmáquinas we don't totallytotalmente understandentender?
187
576682
3964
porque nos movemos en torno a decisiones
de máquinas que no entendemos totalmente?
09:53
AnotherOtro problemproblema is this:
188
581265
1458
Otro problema es el siguiente:
09:55
these systemssistemas are oftena menudo trainedentrenado
on datadatos generatedgenerado by our actionscomportamiento,
189
583314
4452
estos sistemas son a menudo
entrenados con datos generados
por nuestras acciones,
por huellas humanas.
09:59
humanhumano imprintsimpresiones.
190
587790
1816
10:02
Well, they could just be
reflectingreflejando our biasessesgos,
191
590188
3808
Podrían pues estar reflejando
nuestros prejuicios,
10:06
and these systemssistemas
could be pickingcosecha up on our biasessesgos
192
594020
3593
y estos sistemas podrían dar cuenta
de nuestros prejuicios
10:09
and amplifyingamplificando them
193
597637
1313
y la amplificación de ellos
10:10
and showingdemostración them back to us,
194
598974
1418
volviendo a nosotros,
10:12
while we're tellingnarración ourselvesNosotros mismos,
195
600416
1462
mientras que decimos:
10:13
"We're just doing objectiveobjetivo,
neutralneutral computationcálculo."
196
601902
3117
"Somos objetivos, es el cómputo neutral".
10:18
ResearchersInvestigadores foundencontró that on GoogleGoogle,
197
606314
2677
Los investigadores encontraron
que en Google las mujeres tienen
10:22
womenmujer are lessMenos likelyprobable than menhombres
to be shownmostrado jobtrabajo adsanuncios for high-payingde alto sueldo jobstrabajos.
198
610134
5313
menos probabilidades que los hombres
de que les aparezcan anuncios
de trabajo bien remunerados.
10:28
And searchingbuscando for African-AmericanAfroamericano namesnombres
199
616463
2530
Y buscando nombres afroestadounidenses
10:31
is more likelyprobable to bringtraer up adsanuncios
suggestingsugerencia criminalcriminal historyhistoria,
200
619017
4706
es más probable que aparezcan anuncios
que sugieren antecedentes penales,
10:35
even when there is noneninguna.
201
623747
1567
incluso cuando no existan.
10:38
SuchTal hiddenoculto biasessesgos
and black-boxcaja negra algorithmsAlgoritmos
202
626693
3549
Estos sesgos ocultos
y algoritmos de la caja negra
10:42
that researchersinvestigadores uncoverdescubrir sometimesa veces
but sometimesa veces we don't know,
203
630266
3973
que descubren los investigadores
a veces, pero a veces no,
10:46
can have life-alteringalterar la vida consequencesConsecuencias.
204
634263
2661
pueden tener consecuencias
que cambian la vida.
10:49
In WisconsinWisconsin, a defendantacusado
was sentencedsentenciado to sixseis yearsaños in prisonprisión
205
637958
4159
En Wisconsin, un acusado
fue condenado a seis años de prisión
10:54
for evadingevadiendo the policepolicía.
206
642141
1355
por escaparse de la policía.
Quizá no lo sepan, pero los algoritmos
se usan cada vez más
10:56
You maymayo not know this,
207
644824
1186
10:58
but algorithmsAlgoritmos are increasinglycada vez más used
in parolelibertad condicional and sentencingsentencia decisionsdecisiones.
208
646034
3998
en las decisiones de
libertad condicional y de sentencia.
11:02
He wanted to know:
How is this scorePuntuación calculatedcalculado?
209
650056
2955
El acusado quiso saber:
¿Cómo se calcula la puntuación?
11:05
It's a commercialcomercial blacknegro boxcaja.
210
653795
1665
Es una caja negra comercial.
11:07
The companyempresa refusedrechazado to have its algorithmalgoritmo
be challengedDesafiado in openabierto courtCorte.
211
655484
4205
La empresa se negó a que se cuestionara
su algoritmo en audiencia pública.
Pero ProPublica, organización
no lucrativa de investigación,
11:12
But ProPublicaProPublica, an investigativeinvestigador
nonprofitsin ánimo de lucro, auditedauditado that very algorithmalgoritmo
212
660396
5532
auditó precisamente ese algoritmo
con los datos públicos que encontró,
11:17
with what publicpúblico datadatos they could find,
213
665952
2016
11:19
and foundencontró that its outcomesresultados were biasedparcial
214
667992
2316
y descubrió que sus resultados
estaban sesgados
11:22
and its predictiveprofético powerpoder
was dismaltriste, barelyapenas better than chanceoportunidad,
215
670332
3629
y su capacidad de predicción era pésima,
apenas mejor que el azar,
11:25
and it was wronglyerróneamente labelingetiquetado
blacknegro defendantsacusados as futurefuturo criminalscriminales
216
673985
4416
y se etiquetaban erróneamente
acusados ​​negros como futuros criminales
11:30
at twicedos veces the ratetarifa of whiteblanco defendantsacusados.
217
678425
3895
con una tasa del doble
que a los acusados ​​blancos.
Piensen en este caso:
11:35
So, considerconsiderar this casecaso:
218
683891
1564
11:38
This womanmujer was latetarde
pickingcosecha up her godsisterbuena hermana
219
686103
3852
Esta mujer llegó tarde a
recoger a la hija de su madrina
11:41
from a schoolcolegio in BrowardBroward CountyCondado, FloridaFlorida,
220
689979
2075
de una escuela en
el condado de Broward, Florida,
11:44
runningcorriendo down the streetcalle
with a friendamigo of herssuyo.
221
692757
2356
iba corriendo por la calle con una amiga.
11:47
They spottedmanchado an unlockeddesbloqueado kid'sniño bikebicicleta
and a scooterscooter on a porchporche
222
695137
4099
Vieron la bicicleta de un niño sin candado
y una moto en un porche
11:51
and foolishlyneciamente jumpedsaltó on it.
223
699260
1632
y tontamente saltó sobre ella.
11:52
As they were speedingexceso de velocidad off,
a womanmujer camevino out and said,
224
700916
2599
A medida que aceleraban,
una mujer salió y dijo,
11:55
"Hey! That's my kid'sniño bikebicicleta!"
225
703539
2205
"¡Eh, esa es la bicicleta de mi hijo!"
11:57
They droppedcaído it, they walkedcaminado away,
but they were arresteddetenido.
226
705768
3294
Se bajaron, se alejaron,
pero fueron detenidas.
12:01
She was wrongincorrecto, she was foolishtonto,
but she was alsoademás just 18.
227
709086
3637
Estaba equivocada, fue una tontería,
pero también tenía solo 18 años.
12:04
She had a couplePareja of juvenilejuvenil misdemeanorsdelitos menores.
228
712747
2544
Tenía un par de faltas menores.
12:07
Meanwhilemientras tanto, that man had been arresteddetenido
for shopliftinghurto in Home Depotdeposito --
229
715808
5185
Mientras tanto, detenían al hombre
por hurto en Home Depot,
12:13
85 dollars'dólares worthvalor of stuffcosas,
a similarsimilar pettypequeño crimecrimen.
230
721017
2924
por un valor de USD 85,
un delito menor similar.
12:16
But he had two prioranterior
armedarmado robberyrobo convictionsconvicciones.
231
724766
4559
Pero él tenía dos condenas anteriores
por robo a mano armada.
12:21
But the algorithmalgoritmo scoredanotado her
as highalto riskriesgo, and not him.
232
729955
3482
Sin embargo, el algoritmo la anotó
a ella como de alto riesgo, y no a él.
Dos años más tarde, ProPublica descubrió
que ella no había vuelto a delinquir.
12:26
Two yearsaños laterluego, ProPublicaProPublica foundencontró
that she had not reoffendedreincidido.
233
734746
3874
Pero le era difícil conseguir un trabajo
con sus antecedentes registrados.
12:30
It was just harddifícil to get a jobtrabajo
for her with her recordgrabar.
234
738644
2550
12:33
He, on the other handmano, did reoffendreincidir
235
741218
2076
Él, por el contrario, era reincidente
12:35
and is now servingservicio an eight-yearocho años
prisonprisión termtérmino for a laterluego crimecrimen.
236
743318
3836
y ahora cumple una pena de ocho años
de prisión por un delito posterior.
12:40
ClearlyClaramente, we need to auditauditoría our blacknegro boxescajas
237
748088
3369
Es evidente que necesitamos
auditar nuestras cajas negras
12:43
and not have them have
this kindtipo of uncheckeddesenfrenado powerpoder.
238
751481
2615
para no tener
este tipo de poder sin control.
12:46
(ApplauseAplausos)
239
754120
2879
(Aplausos)
12:50
AuditsAuditorias are great and importantimportante,
but they don't solveresolver all our problemsproblemas.
240
758087
4242
Las auditorías son grandes e importantes,
pero no resuelven todos los problemas.
12:54
Take Facebook'sFacebook powerfulpoderoso
newsNoticias feedalimentar algorithmalgoritmo --
241
762353
2748
Tomemos el potente algoritmo
de noticias de Facebook,
12:57
you know, the one that ranksrangos everything
and decidesdecide what to showespectáculo you
242
765125
4843
ese que sabe todo y decide qué mostrarles
13:01
from all the friendsamigos and pagespáginas you followseguir.
243
769992
2284
de las páginas de los amigos que siguen.
13:04
Should you be shownmostrado anotherotro babybebé pictureimagen?
244
772898
2275
¿Debería mostrarles otra imagen de bebé?
13:07
(LaughterRisa)
245
775197
1196
(Risas)
13:08
A sullenhosco noteNota from an acquaintanceconocido?
246
776417
2596
¿Una nota deprimente de un conocido?
13:11
An importantimportante but difficultdifícil newsNoticias itemít?
247
779449
1856
¿Una noticia importante pero difícil?
13:13
There's no right answerresponder.
248
781329
1482
No hay una respuesta correcta.
13:14
FacebookFacebook optimizesoptimiza
for engagementcompromiso on the sitesitio:
249
782835
2659
Facebook optimiza para
que se participe en el sitio:
13:17
likesgustos, sharesComparte, commentscomentarios.
250
785518
1415
con Me gusta, Compartir
y con Comentarios.
13:20
In Augustagosto of 2014,
251
788168
2696
En agosto de 2014,
13:22
protestsprotestas brokerompió out in FergusonFerguson, MissouriMisuri,
252
790888
2662
estallaron protestas
en Ferguson, Missouri,
13:25
after the killingasesinato of an African-AmericanAfroamericano
teenageradolescente by a whiteblanco policepolicía officeroficial,
253
793574
4417
tras la muerte de un adolescente
afroestadounidense por un policía blanco,
13:30
underdebajo murkyturbio circumstancescircunstancias.
254
798015
1570
en circunstancias turbias.
13:31
The newsNoticias of the protestsprotestas was all over
255
799974
2007
La noticia de las protestas llegaron
13:34
my algorithmicallyalgorítmicamente
unfilteredsin filtro TwitterGorjeo feedalimentar,
256
802005
2685
en mi cuenta de Twitter
algorítmicamente sin filtrar
13:36
but nowhereen ninguna parte on my FacebookFacebook.
257
804714
1950
pero en ninguna parte en mi Facebook.
¿Y qué pasaba con mis amigos de Facebook?
13:39
Was it my FacebookFacebook friendsamigos?
258
807182
1734
13:40
I disableddiscapacitado Facebook'sFacebook algorithmalgoritmo,
259
808940
2032
Desactivé el algoritmo de Facebook,
lo cual es difícil ya que Facebook
quiere seguir manteniéndonos
13:43
whichcual is harddifícil because FacebookFacebook
keepsmantiene wantingfalto to make you
260
811472
2848
13:46
come underdebajo the algorithm'sAlgoritmo controlcontrolar,
261
814344
2036
bajo el control del algoritmo,
13:48
and saw that my friendsamigos
were talkinghablando about it.
262
816404
2238
y vi que mis amigos
estaban hablando de ello.
13:50
It's just that the algorithmalgoritmo
wasn'tno fue showingdemostración it to me.
263
818666
2509
Pero el algoritmo no me lo mostraba.
13:53
I researchedinvestigado this and foundencontró
this was a widespreadextendido problemproblema.
264
821199
3042
He investigado esto y encontré
que era un problema generalizado.
13:56
The storyhistoria of FergusonFerguson
wasn'tno fue algorithm-friendlyAlgoritmo amigable.
265
824265
3813
La historia de Ferguson no era
compatible con el algoritmo.
14:00
It's not "likableagradable."
266
828102
1171
No es "gustable".
14:01
Who'sQuién es going to clickhacer clic on "like?"
267
829297
1552
¿Quién va a hacer clic en "Me gusta"?
14:03
It's not even easyfácil to commentcomentario on.
268
831500
2206
Ni siquiera es fácil de comentar.
14:05
WithoutSin likesgustos and commentscomentarios,
269
833730
1371
Sin Me gusta y sin comentarios,
14:07
the algorithmalgoritmo was likelyprobable showingdemostración it
to even fewermenos people,
270
835125
3292
el algoritmo era probable de
mostrarse a aún menos personas,
así que no tuvimos
oportunidad de ver esto.
14:10
so we didn't get to see this.
271
838441
1542
14:12
InsteadEn lugar, that weeksemana,
272
840946
1228
En cambio, esa semana,
14:14
Facebook'sFacebook algorithmalgoritmo highlightedresaltado this,
273
842198
2298
el algoritmo de Facebook destacó esto,
14:16
whichcual is the ALSALS IceHielo BucketCangilón ChallengeReto.
274
844520
2226
el ALS que era
el desafío del cubo de hielo.
14:18
WorthyDigno causeporque; dumptugurio icehielo wateragua,
donatedonar to charitycaridad, fine.
275
846770
3742
Noble causa; verter agua con hielo,
donar a la caridad, bien.
14:22
But it was supersúper algorithm-friendlyAlgoritmo amigable.
276
850536
1904
Esa causa era súper compatible
con el algoritmo.
14:25
The machinemáquina madehecho this decisiondecisión for us.
277
853219
2613
La máquina tomó
esta decisión por nosotros.
14:27
A very importantimportante
but difficultdifícil conversationconversacion
278
855856
3497
Una conversación
muy importante pero difícil
14:31
mightpodría have been smotheredsofocado,
279
859377
1555
podría haber sido silenciada
14:32
had FacebookFacebook been the only channelcanal.
280
860956
2696
si Facebook hubiese sido el único canal.
14:36
Now, finallyfinalmente, these systemssistemas
can alsoademás be wrongincorrecto
281
864117
3797
Ahora, por fin, estos sistemas
pueden también equivocarse
14:39
in waysformas that don't resembleparecerse a humanhumano systemssistemas.
282
867938
2736
de formas que no se parecen a los humanos.
¿Se acuerdan de Watson, el sistema
de inteligencia artificial de IBM
14:42
Do you guys rememberrecuerda WatsonWatson,
IBM'sIBM machine-intelligenceinteligencia de máquina systemsistema
283
870698
2922
14:45
that wipedlimpiado the floorpiso
with humanhumano contestantsconcursantes on JeopardyPeligro?
284
873644
3128
que arrasó con los concursantes
humanos en Jeopardy?
14:49
It was a great playerjugador.
285
877131
1428
Fue un gran jugador.
Pero entonces, para la final de Jeopardy,
a Watson se le hizo esta pregunta:
14:50
But then, for FinalFinal JeopardyPeligro,
WatsonWatson was askedpreguntó this questionpregunta:
286
878583
3569
"Su mayor aeropuerto lleva el nombre
de un héroe de la 2ª Guerra Mundial,
14:54
"Its largestmás grande airportaeropuerto is namedllamado
for a WorldMundo WarGuerra IIII herohéroe,
287
882659
2932
14:57
its second-largestEl segundo mas largo
for a WorldMundo WarGuerra IIII battlebatalla."
288
885615
2252
la 2ª batalla más grande
de la 2ª Guerra Mundial".
14:59
(HumsHums FinalFinal JeopardyPeligro musicmúsica)
289
887891
1378
(Música final de Jeopardy)
15:01
ChicagoChicago.
290
889582
1182
Chicago.
15:02
The two humanshumanos got it right.
291
890788
1370
Los dos humanos lo hicieron bien.
15:04
WatsonWatson, on the other handmano,
answeredcontestada "TorontoToronto" --
292
892697
4348
Watson, por otra parte,
respondió "Toronto"
15:09
for a US cityciudad categorycategoría!
293
897069
1818
para una categoría de ciudad de EE.UU.
15:11
The impressiveimpresionante systemsistema alsoademás madehecho an errorerror
294
899596
2901
El impresionante sistema
también cometió un error
15:14
that a humanhumano would never make,
a second-graderestudiante de segundo grado wouldn'tno lo haría make.
295
902521
3651
que un humano nunca cometería, que
un estudiante de segundo grado tampoco.
15:18
Our machinemáquina intelligenceinteligencia can failfallar
296
906823
3109
La inteligencia artificial puede fallar
en formas que no se ajustan a
los patrones de error de los humanos,
15:21
in waysformas that don't fitajuste
errorerror patternspatrones of humanshumanos,
297
909956
3100
15:25
in waysformas we won'tcostumbre expectesperar
and be preparedpreparado for.
298
913080
2950
de maneras que no esperamos
y para las que no estamos preparados.
15:28
It'dHubiera be lousymalísimo not to get a jobtrabajo
one is qualifiedcalificado for,
299
916054
3638
Sería pésimo no conseguir trabajo,
una vez que uno se cualifica para ello,
15:31
but it would tripletriple suckchupar
if it was because of stackapilar overflowrebosar
300
919716
3727
pero sería el triple de pésimo
si fue por un desbordamiento de pila
15:35
in some subroutinesubrutina.
301
923467
1432
en algunas subrutinas.
15:36
(LaughterRisa)
302
924923
1579
(Risas)
15:38
In MayMayo of 2010,
303
926526
2786
En mayo del 2010
15:41
a flashdestello crashchoque on Wallpared StreetCalle
fueledalimentado by a feedbackrealimentación looplazo
304
929336
4044
un flash crash de Wall Street alimentado
por un circuito de retroalimentación
15:45
in Wallpared Street'sStreet's "sellvender" algorithmalgoritmo
305
933404
3028
por el algoritmo de "venta" de Wall Street
15:48
wipedlimpiado a trilliontrillón dollarsdólares
of valuevalor in 36 minutesminutos.
306
936456
4184
borró un billón de dólares en 36 minutos.
Yo no quiero ni pensar
lo que significa "error"
15:53
I don't even want to think
what "errorerror" meansmedio
307
941722
2187
15:55
in the contextcontexto of lethalletal
autonomousautónomo weaponsarmas.
308
943933
3589
en el contexto de
las armas autónomas letales.
16:01
So yes, humanshumanos have always madehecho biasessesgos.
309
949894
3790
Los humanos siempre
hemos tenido prejuicios.
16:05
DecisionDecisión makerscreadores and gatekeepersguardianes,
310
953708
2176
Los que toman decisiones y los guardias,
16:07
in courtstribunales, in newsNoticias, in warguerra ...
311
955908
3493
en los tribunales,
en la actualidad, en la guerra...
16:11
they make mistakeserrores;
but that's exactlyexactamente my pointpunto.
312
959425
3038
cometen errores; pero ese
es exactamente mi tema.
16:14
We cannotno poder escapeescapar
these difficultdifícil questionspreguntas.
313
962487
3521
No podemos escapar
a estas preguntas difíciles.
16:18
We cannotno poder outsourcesubcontratar
our responsibilitiesresponsabilidades to machinesmáquinas.
314
966596
3516
No podemos delegar nuestra
responsabilidad a las máquinas.
16:22
(ApplauseAplausos)
315
970676
4208
(Aplausos)
16:29
ArtificialArtificial intelligenceinteligencia does not give us
a "Get out of ethicsética freegratis" cardtarjeta.
316
977089
4447
La inteligencia artificial
no nos da una tarjeta libre de ética.
El experto en datos Fred Benenson lo
llama "mathwashing" o lavado matemático.
16:34
DataDatos scientistcientífico FredFred BenensonBenenson
callsllamadas this math-washinglavado de matemática.
317
982742
3381
16:38
We need the oppositeopuesto.
318
986147
1389
Necesitamos lo contrario.
16:39
We need to cultivatecultivar algorithmalgoritmo suspicionsospecha,
scrutinyescrutinio and investigationinvestigación.
319
987560
5388
Necesitamos fomentar un algoritmo
de sospecha, escrutinio e investigación.
16:45
We need to make sure we have
algorithmicalgorítmico accountabilityresponsabilidad,
320
993380
3198
Tenemos que asegurarnos de tener
responsabilidad algorítmica,
16:48
auditingrevisión de cuentas and meaningfulsignificativo transparencytransparencia.
321
996602
2445
auditoría y transparencia significativa.
16:51
We need to acceptaceptar
that bringingtrayendo mathmates and computationcálculo
322
999380
3234
Tenemos que aceptar que llevar
las matemáticas y la computación
16:54
to messysucio, value-ladencargado de valor humanhumano affairsasuntos
323
1002638
2970
a los asuntos humanos,
desordenados y cargados de valores
16:57
does not bringtraer objectivityobjetividad;
324
1005632
2384
no conlleva a la objetividad;
17:00
rathermás bien, the complexitycomplejidad of humanhumano affairsasuntos
invadesinvade the algorithmsAlgoritmos.
325
1008040
3633
más bien, la complejidad de los asuntos
humanos invaden los algoritmos.
17:04
Yes, we can and we should use computationcálculo
326
1012148
3487
Sí, podemos y debemos
usar la computación
17:07
to help us make better decisionsdecisiones.
327
1015659
2014
para ayudar a tomar mejores decisiones.
17:09
But we have to ownpropio up
to our moralmoral responsibilityresponsabilidad to judgmentjuicio,
328
1017697
5332
Pero tenemos que apropiarnos de
nuestra responsabilidad moral de juicio,
17:15
and use algorithmsAlgoritmos withindentro that frameworkmarco de referencia,
329
1023053
2818
y usar algoritmos dentro de ese marco,
17:17
not as a meansmedio to abdicateabdicar
and outsourcesubcontratar our responsibilitiesresponsabilidades
330
1025895
4935
no como un medio para abdicar
y delegar nuestras responsabilidades
17:22
to one anotherotro as humanhumano to humanhumano.
331
1030854
2454
el uno al otro, como de humano a humano.
17:25
MachineMáquina intelligenceinteligencia is here.
332
1033807
2609
La inteligencia artificial está aquí.
17:28
That meansmedio we mustdebe holdsostener on ever tightermás apretado
333
1036440
3421
Eso significa que hay que
ajustarla cada vez más
17:31
to humanhumano valuesvalores and humanhumano ethicsética.
334
1039885
2147
a los valores humanos y a la ética humana.
17:34
Thank you.
335
1042056
1154
Gracias.
(Aplausos)
17:35
(ApplauseAplausos)
336
1043234
5020

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee