ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: A inteligência de máquina ressalta a importância da moral humana

Filmed:
1,648,711 views

A inteligência de máquina está aí, e está sendo usada para a tomada de decisões subjetivas. Mas a forma complexa como a inteligência artificial (IA) se desenvolve e se aperfeiçoa, torna difícil entendê-la e mais difícil ainda controlá-la. Nesta palestra de alerta, a tecno-socióloga Zeynep Tufekci explica como as máquinas inteligentes podem falhar de maneiras que não se encaixam nos padrões dos erros humanos -- e de maneiras que não esperamos e para as quais não estamos preparados. "Não podemos terceirizar nossas responsabilidades para as máquinas", ela afirma. "Precisamos nos agarrar de forma bem firme aos valores e à ética humanos."
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I started my first job
as a computer programmer
0
739
4122
Meu primeiro emprego na vida foi
como programadora de computador
já no primeiro ano de faculdade,
00:16
in my very first year of college --
1
4885
1956
00:18
basically, as a teenager.
2
6865
1507
praticamente uma adolescente.
00:20
Soon after I started working,
3
8889
1732
Logo que comecei a trabalhar,
00:22
writing software in a company,
4
10645
1610
escrevendo software numa empresa,
00:24
a manager who worked at the company
came down to where I was,
5
12799
3635
um gerente que trabalhava lá
se aproximou de mim
00:28
and he whispered to me,
6
16458
1268
e começou a sussurrar:
00:30
"Can he tell if I'm lying?"
7
18229
2861
"Ele consegue dizer se estou mentindo?"
00:33
There was nobody else in the room.
8
21806
2077
Não havia mais ninguém na sala.
(Risos)
00:37
"Can who tell if you're lying?
And why are we whispering?"
9
25032
4389
"Quem consegue dizer se você está
mentindo? E por que estamos sussurrando?"
00:42
The manager pointed
at the computer in the room.
10
30266
3107
O gerente apontou
para o computador na sala.
00:45
"Can he tell if I'm lying?"
11
33397
3096
"Ele consegue dizer se estou mentindo?"
00:49
Well, that manager was having
an affair with the receptionist.
12
37613
4362
Bem, aquele gerente estava tendo
um caso com a recepcionista.
00:53
(Laughter)
13
41999
1112
(Risos)
00:55
And I was still a teenager.
14
43135
1766
E eu ainda era uma adolescente.
00:57
So I whisper-shouted back to him,
15
45447
2019
Assim, gritei sussurrando de volta:
00:59
"Yes, the computer can tell
if you're lying."
16
47490
3624
"Sim, o computador sabe
se você está mentindo".
01:03
(Laughter)
17
51138
1806
(Risos)
01:04
Well, I laughed, but actually,
the laugh's on me.
18
52968
2923
Eu ri, mas, na verdade,
estava rindo de mim mesma.
01:07
Nowadays, there are computational systems
19
55915
3268
Atualmente, há sistemas computacionais
01:11
that can suss out
emotional states and even lying
20
59207
3548
que conseguem perceber
estados emocionais e até mentiras
01:14
from processing human faces.
21
62779
2044
ao processar rostos humanos.
01:17
Advertisers and even governments
are very interested.
22
65248
4153
Anunciantes e até governos
estão muito interessados nisso.
01:22
I had become a computer programmer
23
70319
1862
Tornei-me programadora de computador,
01:24
because I was one of those kids
crazy about math and science.
24
72205
3113
pois era uma dessas crianças
loucas por matemática e ciências.
01:27
But somewhere along the line
I'd learned about nuclear weapons,
25
75942
3108
Mas, a uma certa altura,
descobri as armas nucleares
01:31
and I'd gotten really concerned
with the ethics of science.
26
79074
2952
e passei a me preocupar
com a ética da ciência.
01:34
I was troubled.
27
82050
1204
Aquilo me perturbou.
01:35
However, because of family circumstances,
28
83278
2641
No entanto, devido
a circunstâncias familiares,
01:37
I also needed to start working
as soon as possible.
29
85943
3298
eu também precisava começar
a trabalhar o mais rápido possível.
01:41
So I thought to myself, hey,
let me pick a technical field
30
89265
3299
Assim, pensei comigo mesma:
"Ei, vou escolher a área técnica,
onde posso conseguir
um emprego facilmente
01:44
where I can get a job easily
31
92588
1796
01:46
and where I don't have to deal
with any troublesome questions of ethics.
32
94408
4018
e não tenho de lidar com quaisquer
questões éticas perturbadoras".
01:51
So I picked computers.
33
99022
1529
Então escolhi os computadores.
01:52
(Laughter)
34
100575
1104
(Risos)
01:53
Well, ha, ha, ha!
All the laughs are on me.
35
101703
3410
Bem, ha, ha, ha! Eu virei a piada.
01:57
Nowadays, computer scientists
are building platforms
36
105137
2754
Hoje, os cientistas da computação
constroem plataformas
01:59
that control what a billion
people see every day.
37
107915
4209
que controlam o que um bilhão
de pessoas veem todos os dias.
02:05
They're developing cars
that could decide who to run over.
38
113052
3822
Eles estão desenvolvendo carros
que poderiam decidir quem atropelar.
(Risos)
02:09
They're even building machines, weapons,
39
117707
3213
Estão construindo até mesmo
máquinas e armas
02:12
that might kill human beings in war.
40
120944
2285
que podem matar seres humanos na guerra.
02:15
It's ethics all the way down.
41
123253
2771
É ética o tempo todo.
02:19
Machine intelligence is here.
42
127183
2058
A inteligência de máquina chegou.
02:21
We're now using computation
to make all sort of decisions,
43
129823
3474
Hoje em dia usamos a computação
para tomar todo tipo de decisão,
02:25
but also new kinds of decisions.
44
133321
1886
mas também novos tipos de decisão.
02:27
We're asking questions to computation
that have no single right answers,
45
135231
5172
Perguntamos aos computadores coisas
que não têm apenas uma resposta correta,
02:32
that are subjective
46
140427
1202
que são subjetivas, abertas
e que envolvem julgamento de valor.
02:33
and open-ended and value-laden.
47
141653
2325
02:36
We're asking questions like,
48
144002
1758
Perguntamos coisas do tipo:
"Quem a empresa deve contratar?"
02:37
"Who should the company hire?"
49
145784
1650
02:40
"Which update from which friend
should you be shown?"
50
148096
2759
"Que atualização de qual amigo
deve ser mostrada?"
02:42
"Which convict is more
likely to reoffend?"
51
150879
2266
"Qual condenado tem mais chance
de reincidir num crime?"
02:45
"Which news item or movie
should be recommended to people?"
52
153514
3054
"Quais notícias ou filmes devem
ser recomendados às pessoas?"
02:48
Look, yes, we've been using
computers for a while,
53
156592
3372
Sim, temos usado os computadores
já faz um bom tempo,
02:51
but this is different.
54
159988
1517
mas isso é diferente.
02:53
This is a historical twist,
55
161529
2067
Essa é uma virada histórica,
02:55
because we cannot anchor computation
for such subjective decisions
56
163620
5337
pois não podemos confiar na computação
para essas decisões subjetivas
03:00
the way we can anchor computation
for flying airplanes, building bridges,
57
168981
5420
da mesma forma que podemos confiar
na computação para pilotar aviões,
construir pontes, ir à Lua.
03:06
going to the moon.
58
174425
1259
Os aviões estão mais seguros?
A ponte balançou e caiu?
03:08
Are airplanes safer?
Did the bridge sway and fall?
59
176449
3259
03:11
There, we have agreed-upon,
fairly clear benchmarks,
60
179732
4498
Nesses casos, concordamos de forma
bem clara com os parâmetros,
03:16
and we have laws of nature to guide us.
61
184254
2239
e temos as leis da natureza como baliza.
03:18
We have no such anchors and benchmarks
62
186517
3394
Nós não temos tais âncoras ou marcos
03:21
for decisions in messy human affairs.
63
189935
3963
para a tomada de decisões
em negócios humanos confusos.
03:25
To make things more complicated,
our software is getting more powerful,
64
193922
4237
Para complicar ainda mais as coisas,
nosso software está ficando mais poderoso,
03:30
but it's also getting less
transparent and more complex.
65
198183
3773
mas também menos transparente
e mais complexo.
03:34
Recently, in the past decade,
66
202542
2040
Recentemente, na década passada,
03:36
complex algorithms
have made great strides.
67
204606
2729
algoritmos complexos deram passos enormes.
03:39
They can recognize human faces.
68
207359
1990
Eles conseguem reconhecer rostos humanos.
03:41
They can decipher handwriting.
69
209985
2055
Eles conseguem decifrar caligrafia.
03:44
They can detect credit card fraud
70
212436
2066
Eles conseguem detectar fraude
de cartão de crédito, bloquear spam,
03:46
and block spam
71
214526
1189
03:47
and they can translate between languages.
72
215739
2037
conseguem traduzir línguas
03:49
They can detect tumors in medical imaging.
73
217800
2574
e detectar tumores em exames de imagem.
03:52
They can beat humans in chess and Go.
74
220398
2205
Conseguem vencer humanos
em jogos de xadrez e Go.
03:55
Much of this progress comes
from a method called "machine learning."
75
223264
4504
Muito desse progresso vem de um método
chamado "aprendizado de máquina".
04:00
Machine learning is different
than traditional programming,
76
228175
3187
O aprendizado de máquina é diferente
da programação tradicional
04:03
where you give the computer
detailed, exact, painstaking instructions.
77
231386
3585
em que instruções detalhadas, exatas
e meticulosas são dadas ao computador.
04:07
It's more like you take the system
and you feed it lots of data,
78
235378
4182
É mais como pegar um sistema
e alimentá-lo com montes de dados,
04:11
including unstructured data,
79
239584
1656
incluindo dados não estruturados,
04:13
like the kind we generate
in our digital lives.
80
241264
2278
como os que geramos
em nossas vidas digitais.
04:15
And the system learns
by churning through this data.
81
243566
2730
E o sistema aprende revirando esses dados.
04:18
And also, crucially,
82
246669
1526
Além disso, fundamentalmente,
04:20
these systems don't operate
under a single-answer logic.
83
248219
4380
esses sistemas não operam
sob a lógica de uma resposta única.
04:24
They don't produce a simple answer;
it's more probabilistic:
84
252623
2959
Eles não produzem uma resposta
simples; é mais probabilidade:
04:27
"This one is probably more like
what you're looking for."
85
255606
3483
"É provável que isto aqui seja
o que você está procurando".
04:32
Now, the upside is:
this method is really powerful.
86
260023
3070
Bem, a vantagem é que esse método
é realmente poderoso.
04:35
The head of Google's AI systems called it,
87
263117
2076
O responsável pela IA do Google o chamou
04:37
"the unreasonable effectiveness of data."
88
265217
2197
de "a eficácia irracional dos dados".
04:39
The downside is,
89
267791
1353
O lado negativo é
04:41
we don't really understand
what the system learned.
90
269738
3071
não sabermos realmente
o que o sistema aprendeu.
Na realidade, é aí que está seu poder.
04:44
In fact, that's its power.
91
272833
1587
04:46
This is less like giving
instructions to a computer;
92
274946
3798
Isso tem pouco a ver com dar
instruções a um computador;
04:51
it's more like training
a puppy-machine-creature
93
279200
4064
é mais como adestrar uma máquina-filhote
04:55
we don't really understand or control.
94
283288
2371
que não controlamos
ou conhecemos de verdade.
(Risos)
04:58
So this is our problem.
95
286362
1551
Então, este é o nosso problema.
05:00
It's a problem when this artificial
intelligence system gets things wrong.
96
288427
4262
É um problema
quando esse sistema de inteligência
artificial entende as coisas errado.
05:04
It's also a problem
when it gets things right,
97
292713
3540
Também é um problema
quando ele entende certo,
05:08
because we don't even know which is which
when it's a subjective problem.
98
296277
3628
pois não sabemos distinguir os dois
quando se trata de um problema subjetivo.
05:11
We don't know what this thing is thinking.
99
299929
2339
Não sabemos o que esta coisa
está pensando.
05:15
So, consider a hiring algorithm --
100
303493
3683
Por exemplo, vamos imaginar
um algoritmo de contratação,
05:20
a system used to hire people,
using machine-learning systems.
101
308123
4311
um sistema usado para contratar pessoas,
usando o aprendizado de máquina.
05:25
Such a system would have been trained
on previous employees' data
102
313052
3579
Tal sistema teria sido treinado
em dados prévios dos empregados
05:28
and instructed to find and hire
103
316655
2591
e treinado para encontrar e contratar
05:31
people like the existing
high performers in the company.
104
319270
3038
pessoas como os atuais empregados
com alto desempenho na empresa.
05:34
Sounds good.
105
322814
1153
Parece uma coisa boa.
05:35
I once attended a conference
106
323991
1999
Uma vez, fui a um seminário
05:38
that brought together
human resources managers and executives,
107
326014
3125
que reuniu gerentes e executivos
da área de recursos humanos,
05:41
high-level people,
108
329163
1206
pessoas de alto nível,
usando tais sistemas para contratar.
05:42
using such systems in hiring.
109
330393
1559
05:43
They were super excited.
110
331976
1646
Eles estavam muito empolgados.
05:45
They thought that this would make hiring
more objective, less biased,
111
333646
4653
Achavam que isso tornaria a contratação
mais objetiva, menos parcial,
05:50
and give women
and minorities a better shot
112
338323
3000
e daria a mulheres e minorias
uma melhor oportunidade
05:53
against biased human managers.
113
341347
2188
versus gerentes humanos tendenciosos.
05:55
And look -- human hiring is biased.
114
343559
2843
Pois vejam: a contratação
humana é tendenciosa.
05:59
I know.
115
347099
1185
Sei bem disso.
06:00
I mean, in one of my early jobs
as a programmer,
116
348308
3005
Quero dizer, num dos meus primeiros
empregos como programadora,
06:03
my immediate manager would sometimes
come down to where I was
117
351337
3868
minha gerente imediata
às vezes vinha ao meu setor
06:07
really early in the morning
or really late in the afternoon,
118
355229
3753
bem cedinho pela manhã
ou bem no final da tarde,
06:11
and she'd say, "Zeynep,
let's go to lunch!"
119
359006
3062
e me chamava: "Zeynep, vamos almoçar!"
06:14
I'd be puzzled by the weird timing.
120
362724
2167
Eu ficava atônita com o horário estranho.
06:16
It's 4pm. Lunch?
121
364915
2129
Eram quatro da tarde. Almoço?
06:19
I was broke, so free lunch. I always went.
122
367068
3094
Eu não tinha grana, então,
almoço grátis, eu sempre ia.
Só mais tarde percebi
o que estava acontecendo.
06:22
I later realized what was happening.
123
370618
2067
06:24
My immediate managers
had not confessed to their higher-ups
124
372709
4546
Meus gerentes imediatos não tinham
confessado a seus superiores
06:29
that the programmer they hired
for a serious job was a teen girl
125
377279
3113
que a programadora que tinham contratado
para um emprego sério era uma adolescente
06:32
who wore jeans and sneakers to work.
126
380416
3930
que vinha trabalhar de jeans e tênis.
Eu trabalhava direito, só parecia errada,
06:37
I was doing a good job,
I just looked wrong
127
385174
2202
06:39
and was the wrong age and gender.
128
387400
1699
e tinha a idade e o gênero errados.
06:41
So hiring in a gender- and race-blind way
129
389123
3346
Assim, contratar independente
da raça e do gênero
06:44
certainly sounds good to me.
130
392493
1865
certamente me parece uma coisa boa.
06:47
But with these systems,
it is more complicated, and here's why:
131
395031
3341
Mas, com esses sistemas,
é mais complicado, e eis a razão:
06:50
Currently, computational systems
can infer all sorts of things about you
132
398968
5791
hoje, sistemas de computador podem
inferir todo tipo de coisas sobre nós
06:56
from your digital crumbs,
133
404783
1872
por meio de nossas pegadas digitais,
06:58
even if you have not
disclosed those things.
134
406679
2333
mesmo coisas que não tivermos revelado.
07:01
They can infer your sexual orientation,
135
409506
2927
Eles podem inferir
nossa orientação sexual,
07:04
your personality traits,
136
412994
1306
os traços de nossa personalidade,
07:06
your political leanings.
137
414859
1373
nossas tendências políticas.
07:08
They have predictive power
with high levels of accuracy.
138
416830
3685
Eles têm poder preditivo
com altos níveis de precisão.
07:13
Remember -- for things
you haven't even disclosed.
139
421362
2578
Vejam bem, para coisas
que não revelamos: isso é inferência.
07:15
This is inference.
140
423964
1591
07:17
I have a friend who developed
such computational systems
141
425579
3261
Tenho uma amiga que desenvolveu
um sistema de computador
07:20
to predict the likelihood
of clinical or postpartum depression
142
428864
3641
para predizer a probabilidade
de depressão clínica pós-parto
07:24
from social media data.
143
432529
1416
com base em dados de mídia social.
07:26
The results are impressive.
144
434676
1427
Os resultados são impressionantes.
07:28
Her system can predict
the likelihood of depression
145
436492
3357
O sistema dela prevê
a probabilidade de depressão
07:31
months before the onset of any symptoms --
146
439873
3903
meses antes do surgimento
de quaisquer sintomas,
07:35
months before.
147
443800
1373
meses antes.
07:37
No symptoms, there's prediction.
148
445197
2246
Mesmo sem sintomas, ele prevê.
07:39
She hopes it will be used
for early intervention. Great!
149
447467
4812
Ela espera que isso seja usado
para intervenção precoce.
Ótimo!
07:44
But now put this in the context of hiring.
150
452911
2040
Mas coloque isso
no contexto da contratação.
07:48
So at this human resources
managers conference,
151
456027
3046
Então, nesse seminário
de gerentes de recursos humanos,
07:51
I approached a high-level manager
in a very large company,
152
459097
4709
eu me aproximei de uma gerente
com alto cargo numa grande empresa,
07:55
and I said to her, "Look,
what if, unbeknownst to you,
153
463830
4578
e perguntei a ela: "Olhe,
e se, sem seu conhecimento,
08:00
your system is weeding out people
with high future likelihood of depression?
154
468432
6549
seu sistema estiver cortando pessoas
com probabilidade de depressão futura?
08:07
They're not depressed now,
just maybe in the future, more likely.
155
475761
3376
Elas não estão deprimidas agora,
mas, no futuro, bem provavelmente.
08:11
What if it's weeding out women
more likely to be pregnant
156
479923
3406
E se estiver cortando mulheres
com maior probabilidade de engravidar
08:15
in the next year or two
but aren't pregnant now?
157
483353
2586
dentro de um ou dois anos,
mas que não estejam grávidas agora?
08:18
What if it's hiring aggressive people
because that's your workplace culture?"
158
486844
5636
E se contratar pessoas agressivas
por causa da cultura da empresa?
08:25
You can't tell this by looking
at gender breakdowns.
159
493173
2691
Não se pode saber isso
com análises de gênero.
Isso pode estar equacionado.
08:27
Those may be balanced.
160
495888
1502
08:29
And since this is machine learning,
not traditional coding,
161
497414
3557
E, como isso é aprendizado de máquina,
não é codificação tradicional,
08:32
there is no variable there
labeled "higher risk of depression,"
162
500995
4907
não há uma variável chamada
'alto risco de depressão',
08:37
"higher risk of pregnancy,"
163
505926
1833
'maior risco de gravidez',
08:39
"aggressive guy scale."
164
507783
1734
'pessoa altamente agressiva'.
08:41
Not only do you not know
what your system is selecting on,
165
509995
3679
Não só você não sabe o que
seu sistema está selecionando,
08:45
you don't even know
where to begin to look.
166
513698
2323
como também não sabe onde começar a olhar.
08:48
It's a black box.
167
516045
1246
É uma caixa-preta.
08:49
It has predictive power,
but you don't understand it.
168
517315
2807
Ele tem poder preditivo,
mas você não o entende.
08:52
"What safeguards," I asked, "do you have
169
520486
2369
Que salvaguardas", perguntei, "você teria
08:54
to make sure that your black box
isn't doing something shady?"
170
522879
3673
para se assegurar de que sua caixa-preta
não está fazendo algo suspeito?"
09:00
She looked at me as if I had
just stepped on 10 puppy tails.
171
528863
3878
Ela olhou para mim como se eu tivesse
pisado no rabo de dez cachorrinhos.
09:04
(Laughter)
172
532765
1248
(Risos)
09:06
She stared at me and she said,
173
534037
2041
Ela olhou bem pra mim e falou:
09:08
"I don't want to hear
another word about this."
174
536556
4333
"Eu não quero ouvir
nem mais uma palavra sobre isso".
09:13
And she turned around and walked away.
175
541458
2034
E virou as costas e foi embora.
09:16
Mind you -- she wasn't rude.
176
544064
1486
Vejam bem, ela não foi rude.
09:17
It was clearly: what I don't know
isn't my problem, go away, death stare.
177
545574
6308
Era claramente:
"O que eu não sei não é problema meu,
vai embora, agourenta".
09:23
(Laughter)
178
551906
1246
(Risos)
09:25
Look, such a system
may even be less biased
179
553862
3839
Vejam, tal sistema pode até
ser menos tendencioso
09:29
than human managers in some ways.
180
557725
2103
do que gerentes humanos de alguma forma.
09:31
And it could make monetary sense.
181
559852
2146
E poderia fazer sentido financeiramente.
09:34
But it could also lead
182
562573
1650
Mas também poderia levar
09:36
to a steady but stealthy
shutting out of the job market
183
564247
4748
a um constante mas sorrateiro
fechamento do mercado de trabalho
09:41
of people with higher risk of depression.
184
569019
2293
para pessoas com alto risco de depressão.
09:43
Is this the kind of society
we want to build,
185
571753
2596
É esse tipo de sociedade
que queremos construir,
09:46
without even knowing we've done this,
186
574373
2285
sem nem sequer saber que fizemos isso,
09:48
because we turned decision-making
to machines we don't totally understand?
187
576682
3964
por termos dado às máquinas um poder
de decisão que não entendemos totalmente?
09:53
Another problem is this:
188
581265
1458
Outro problema é o seguinte:
09:55
these systems are often trained
on data generated by our actions,
189
583314
4452
esses sistemas normalmente são treinados
com dados gerados pelas nossas ações,
09:59
human imprints.
190
587790
1816
vestígios humanos.
10:02
Well, they could just be
reflecting our biases,
191
590188
3808
Bem, eles poderiam estar apenas
refletindo nossas tendências,
10:06
and these systems
could be picking up on our biases
192
594020
3593
e esses sistemas poderiam
estar pegando nossas tendências,
10:09
and amplifying them
193
597637
1313
amplificando-as e devolvendo-as para nós,
enquanto dizemos a nós mesmos:
10:10
and showing them back to us,
194
598974
1418
10:12
while we're telling ourselves,
195
600416
1462
"Estamos fazendo apenas
computação objetiva e neutra".
10:13
"We're just doing objective,
neutral computation."
196
601902
3117
10:18
Researchers found that on Google,
197
606314
2677
Pesquisadores descobriram que, no Google,
10:22
women are less likely than men
to be shown job ads for high-paying jobs.
198
610134
5313
são mostrados menos anúncios de empregos
bem pagos às mulheres do que aos homens.
10:28
And searching for African-American names
199
616463
2530
E, numa pesquisa de nomes afro-americanos,
10:31
is more likely to bring up ads
suggesting criminal history,
200
619017
4706
é provável que nos sejam mostrados
anúncios sugerindo história criminal,
10:35
even when there is none.
201
623747
1567
mesmo quando não há nenhuma.
10:38
Such hidden biases
and black-box algorithms
202
626693
3549
Tais tendências escondidas
e algoritmos caixas-pretas,
10:42
that researchers uncover sometimes
but sometimes we don't know,
203
630266
3973
que os pesquisadores às vezes revelam,
mas às vezes desconhecemos,
10:46
can have life-altering consequences.
204
634263
2661
podem afetar a vida das pessoas.
10:49
In Wisconsin, a defendant
was sentenced to six years in prison
205
637958
4159
Em Wisconsin, um réu foi sentenciado
a seis anos de prisão
10:54
for evading the police.
206
642141
1355
por fugir da polícia.
Talvez não saibam disso,
10:56
You may not know this,
207
644824
1186
10:58
but algorithms are increasingly used
in parole and sentencing decisions.
208
646034
3998
mas os algoritmos estão sendo cada vez
mais usados em decisões judiciais.
11:02
He wanted to know:
How is this score calculated?
209
650056
2955
E o réu quis saber:
como esse número foi calculado?
11:05
It's a commercial black box.
210
653795
1665
É uma caixa-preta comercial.
11:07
The company refused to have its algorithm
be challenged in open court.
211
655484
4205
A empresa se recusou a ter
seu algoritmo exposto no tribunal.
11:12
But ProPublica, an investigative
nonprofit, audited that very algorithm
212
660396
5532
Mas a ProPublica, uma organização
investigativa sem fins lucrativos,
auditou esse algoritmo com os dados
públicos que conseguiu encontrar
11:17
with what public data they could find,
213
665952
2016
11:19
and found that its outcomes were biased
214
667992
2316
e descobriu que os resultados
eram tendenciosos,
11:22
and its predictive power
was dismal, barely better than chance,
215
670332
3629
e seu poder preditivo era deplorável,
apenas um pouco melhor do que o acaso,
11:25
and it was wrongly labeling
black defendants as future criminals
216
673985
4416
e estava rotulando erroneamente
réus negros como futuros criminosos
11:30
at twice the rate of white defendants.
217
678425
3895
duas vezes mais do que os réus brancos.
11:35
So, consider this case:
218
683891
1564
Vejam por exemplo este caso:
11:38
This woman was late
picking up her godsister
219
686103
3852
esta mulher se atrasou
para buscar sua parente
11:41
from a school in Broward County, Florida,
220
689979
2075
numa escola no Condado
de Broward, na Flórida.
11:44
running down the street
with a friend of hers.
221
692757
2356
Correndo pela rua com uma amiga,
11:47
They spotted an unlocked kid's bike
and a scooter on a porch
222
695137
4099
elas viram uma bicicleta sem cadeado
e uma lambreta numa varanda
11:51
and foolishly jumped on it.
223
699260
1632
e, impensadamente, pularam nela.
11:52
As they were speeding off,
a woman came out and said,
224
700916
2599
Quando estavam indo embora,
uma mulher saiu e falou:
"Ei! Esta é a bicicleta do meu filho!"
11:55
"Hey! That's my kid's bike!"
225
703539
2205
11:57
They dropped it, they walked away,
but they were arrested.
226
705768
3294
Elas largaram a bicicleta,
fugiram, mas foram presas.
12:01
She was wrong, she was foolish,
but she was also just 18.
227
709086
3637
Ela errou, foi infantil,
mas tinha apenas 18 anos.
12:04
She had a couple of juvenile misdemeanors.
228
712747
2544
Ela tinha algumas contravenções juvenis.
12:07
Meanwhile, that man had been arrested
for shoplifting in Home Depot --
229
715808
5185
Enquanto isso, aquele homem
tinha sido preso por furtar na Home Depot
12:13
85 dollars' worth of stuff,
a similar petty crime.
230
721017
2924
bens no valor de US$ 85,
um crime pequeno similar.
12:16
But he had two prior
armed robbery convictions.
231
724766
4559
Mas ele tinha duas condenações
prévias por roubo à mão armada.
No entanto, o algoritmo a classificou
como sendo de alto risco, e ele não.
12:21
But the algorithm scored her
as high risk, and not him.
232
729955
3482
Dois anos depois, a ProPublica descobriu
que ela não tinha reincidido em crime.
12:26
Two years later, ProPublica found
that she had not reoffended.
233
734746
3874
E foi muito difícil conseguir
um emprego com esse histórico.
12:30
It was just hard to get a job
for her with her record.
234
738644
2550
12:33
He, on the other hand, did reoffend
235
741218
2076
Ele, por outro lado, reincidiu no crime
12:35
and is now serving an eight-year
prison term for a later crime.
236
743318
3836
e agora está cumprindo oito anos
de prisão por um crime posterior.
12:40
Clearly, we need to audit our black boxes
237
748088
3369
Claramente, precisamos
auditar nossas caixas-pretas
12:43
and not have them have
this kind of unchecked power.
238
751481
2615
e não deixá-las ter esse tipo
de poder sem controle.
12:46
(Applause)
239
754120
2879
(Aplausos)
12:50
Audits are great and important,
but they don't solve all our problems.
240
758087
4242
Auditorias são ótimas e importantes,
mas não resolvem todos os problemas.
12:54
Take Facebook's powerful
news feed algorithm --
241
762353
2748
Peguem o poderoso algoritmo do Facebook.
12:57
you know, the one that ranks everything
and decides what to show you
242
765125
4843
Sabe aquele que escolhe o que nos mostrar
13:01
from all the friends and pages you follow.
243
769992
2284
entre todos os amigos
e páginas que seguimos?
Será que deveriam lhe mostrar
uma outra foto de bebê?
13:04
Should you be shown another baby picture?
244
772898
2275
13:07
(Laughter)
245
775197
1196
(Risos)
13:08
A sullen note from an acquaintance?
246
776417
2596
Um comentário estranho de um conhecido?
13:11
An important but difficult news item?
247
779449
1856
Uma notícia importante, mas difícil?
13:13
There's no right answer.
248
781329
1482
Não existe resposta certa.
13:14
Facebook optimizes
for engagement on the site:
249
782835
2659
O Facebook o aperfeiçoa pelo uso do site:
13:17
likes, shares, comments.
250
785518
1415
curtidas, compartilhamentos, comentários.
13:20
In August of 2014,
251
788168
2696
Em agosto de 2014,
13:22
protests broke out in Ferguson, Missouri,
252
790888
2662
houve uma onda de protestos
em Ferguson, no Missouri,
13:25
after the killing of an African-American
teenager by a white police officer,
253
793574
4417
depois do assassinato de um adolescente
afro-americano por um policial branco,
13:30
under murky circumstances.
254
798015
1570
sob circunstâncias nebulosas.
Notícias sobre os protestos
estavam por toda parte
13:31
The news of the protests was all over
255
799974
2007
13:34
my algorithmically
unfiltered Twitter feed,
256
802005
2685
no "feed" do meu Twitter
sem algoritmo de filtragem,
13:36
but nowhere on my Facebook.
257
804714
1950
mas em nenhum lugar no meu Facebook.
13:39
Was it my Facebook friends?
258
807182
1734
Seriam meus amigos no Facebook?
13:40
I disabled Facebook's algorithm,
259
808940
2032
Eu desabilitei o algoritmo do Facebook,
13:43
which is hard because Facebook
keeps wanting to make you
260
811472
2848
o que é difícil,
pois o Facebook espera que nós
13:46
come under the algorithm's control,
261
814344
2036
fiquemos sob o controle do algoritmo,
13:48
and saw that my friends
were talking about it.
262
816404
2238
e vi que meus amigos
estavam falando sobre o assunto.
13:50
It's just that the algorithm
wasn't showing it to me.
263
818666
2509
Mas o algoritmo
simplesmente não mostrava.
Fui pesquisar e descobri
que era um problema geral.
13:53
I researched this and found
this was a widespread problem.
264
821199
3042
13:56
The story of Ferguson
wasn't algorithm-friendly.
265
824265
3813
A história de Ferguson não
era compatível com o algoritmo.
14:00
It's not "likable."
266
828102
1171
Não era "curtível";
quem ia "curtir" aquilo?
14:01
Who's going to click on "like?"
267
829297
1552
14:03
It's not even easy to comment on.
268
831500
2206
Não era fácil nem mesmo
comentar sobre o assunto.
14:05
Without likes and comments,
269
833730
1371
Sem curtidas e comentários,
14:07
the algorithm was likely showing it
to even fewer people,
270
835125
3292
era provável que o algoritmo mostrasse
isso para cada vez menos pessoas,
14:10
so we didn't get to see this.
271
838441
1542
assim, não pudemos ver isto.
14:12
Instead, that week,
272
840946
1228
Em seu lugar, naquela semana,
o algoritmo do Facebook priorizou isto:
14:14
Facebook's algorithm highlighted this,
273
842198
2298
o desafio do balde da ELA,
esclerose lateral amiotrófica.
14:16
which is the ALS Ice Bucket Challenge.
274
844520
2226
14:18
Worthy cause; dump ice water,
donate to charity, fine.
275
846770
3742
Causa importante: jogar água gelada,
doar para caridade, tudo bem.
14:22
But it was super algorithm-friendly.
276
850536
1904
Mas era supercompatível com o algoritmo.
A máquina tomou essa decisão por nós.
14:25
The machine made this decision for us.
277
853219
2613
14:27
A very important
but difficult conversation
278
855856
3497
Uma conversa muito importante,
mas muito difícil,
14:31
might have been smothered,
279
859377
1555
teria sido atenuada,
14:32
had Facebook been the only channel.
280
860956
2696
caso o Facebook fosse o único canal.
14:36
Now, finally, these systems
can also be wrong
281
864117
3797
Finalmente, esses sistemas
também podem errar
14:39
in ways that don't resemble human systems.
282
867938
2736
de maneiras diferentes
dos sistemas humanos.
Lembram-se do Watson, o sistema
de inteligência de máquina da IBM
14:42
Do you guys remember Watson,
IBM's machine-intelligence system
283
870698
2922
14:45
that wiped the floor
with human contestants on Jeopardy?
284
873644
3128
que sempre ganhava, competindo
com seres humanos num show de TV?
14:49
It was a great player.
285
877131
1428
Ele era um ótimo jogador.
14:50
But then, for Final Jeopardy,
Watson was asked this question:
286
878583
3569
Mas então, na final, foi feita
a seguinte pergunta a Watson:
"Seu maior aeroporto possui o nome
de um herói da Segunda Guerra,
14:54
"Its largest airport is named
for a World War II hero,
287
882659
2932
14:57
its second-largest
for a World War II battle."
288
885615
2252
a maior grande batalha da Segunda Guerra".
14:59
(Hums Final Jeopardy music)
289
887891
1378
(Cantarola música do show)
15:01
Chicago.
290
889582
1182
"Chicago."
15:02
The two humans got it right.
291
890788
1370
Os dois seres humanos acertaram.
15:04
Watson, on the other hand,
answered "Toronto" --
292
892697
4348
Watson, por sua vez, respondeu "Toronto"
na categoria "cidade dos EUA"!
15:09
for a US city category!
293
897069
1818
15:11
The impressive system also made an error
294
899596
2901
O incrível sistema também cometeu um erro
15:14
that a human would never make,
a second-grader wouldn't make.
295
902521
3651
que um humano jamais faria,
uma criança não cometeria.
Nossa inteligência artifical pode falhar
15:18
Our machine intelligence can fail
296
906823
3109
15:21
in ways that don't fit
error patterns of humans,
297
909956
3100
de formas que não se encaixam
nos padrões de erros humanos,
de formas que não esperamos
e para as quais não estamos preparados.
15:25
in ways we won't expect
and be prepared for.
298
913080
2950
15:28
It'd be lousy not to get a job
one is qualified for,
299
916054
3638
Seria péssimo não conseguir um emprego
para o qual se está qualificado,
15:31
but it would triple suck
if it was because of stack overflow
300
919716
3727
mas seria triplamente péssimo
se fosse por causa de um "stack overflow"
15:35
in some subroutine.
301
923467
1432
em alguma sub-rotina.
15:36
(Laughter)
302
924923
1579
(Risos)
15:38
In May of 2010,
303
926526
2786
Em maio de 2010,
15:41
a flash crash on Wall Street
fueled by a feedback loop
304
929336
4044
uma baixa repentina em Wall Street,
alimentada pelo sistema de autoajuste
15:45
in Wall Street's "sell" algorithm
305
933404
3028
do algoritmo de "venda",
15:48
wiped a trillion dollars
of value in 36 minutes.
306
936456
4184
varreu US$ 1 trilhão em 36 minutos.
15:53
I don't even want to think
what "error" means
307
941722
2187
Não quero nem pensar
no que significaria "erro"
15:55
in the context of lethal
autonomous weapons.
308
943933
3589
no contexto de armas letais autônomas.
16:01
So yes, humans have always made biases.
309
949894
3790
Então, sim, os seres humanos
sempre foram tendenciosos.
16:05
Decision makers and gatekeepers,
310
953708
2176
Tomadores de decisão e controladores,
16:07
in courts, in news, in war ...
311
955908
3493
em tribunais, na mídia, na guerra...
16:11
they make mistakes;
but that's exactly my point.
312
959425
3038
eles cometem erros;
mas esse é exatamente meu ponto.
16:14
We cannot escape
these difficult questions.
313
962487
3521
Não podemos fugir
dessas questões difíceis.
16:18
We cannot outsource
our responsibilities to machines.
314
966596
3516
Não podemos terceirizar
nossas responsabilidades para as máquinas.
16:22
(Applause)
315
970676
4208
(Aplausos) (Vivas)
16:29
Artificial intelligence does not give us
a "Get out of ethics free" card.
316
977089
4447
A inteligência artificial não nos dá
um passe para a "zona livre de ética".
16:34
Data scientist Fred Benenson
calls this math-washing.
317
982742
3381
O cientista de dados Fred Benenson
chama isso de "mathwashing".
16:38
We need the opposite.
318
986147
1389
Precisamos fazer o contrário.
16:39
We need to cultivate algorithm suspicion,
scrutiny and investigation.
319
987560
5388
Precisamos cultivar o escrutínio,
a suspeita e investigação dos algoritmos.
16:45
We need to make sure we have
algorithmic accountability,
320
993380
3198
Precisamos nos assegurar de que temos
responsabilidade algorítmica,
16:48
auditing and meaningful transparency.
321
996602
2445
auditoria e transparência relevante.
16:51
We need to accept
that bringing math and computation
322
999380
3234
Precisamos aceitar que trazer
a matemática e a computação
16:54
to messy, value-laden human affairs
323
1002638
2970
para negócios humanos confusos,
envolvendo julgamento de valor,
16:57
does not bring objectivity;
324
1005632
2384
não traz objetividade;
17:00
rather, the complexity of human affairs
invades the algorithms.
325
1008040
3633
mas que, ao contrário, a complexidade
dos negócios humanos invade os algoritmos.
17:04
Yes, we can and we should use computation
326
1012148
3487
Sim, podemos e devemos usar a computação
17:07
to help us make better decisions.
327
1015659
2014
para nos ajudar a tomar decisões melhores.
17:09
But we have to own up
to our moral responsibility to judgment,
328
1017697
5332
Mas temos de reconhecer
nossa responsabilidade moral para julgar,
17:15
and use algorithms within that framework,
329
1023053
2818
e usar os algoritmos
dentro desse espectro,
17:17
not as a means to abdicate
and outsource our responsibilities
330
1025895
4935
não como uma forma de abdicar de nossas
responsabilidades ou terceirizá-las,
17:22
to one another as human to human.
331
1030854
2454
como se fosse de um ser humano para outro.
17:25
Machine intelligence is here.
332
1033807
2609
A inteligência artificial está aí.
17:28
That means we must hold on ever tighter
333
1036440
3421
Isso significa que vamos
ter de nos agarrar firmemente
17:31
to human values and human ethics.
334
1039885
2147
aos valores e à ética humanos.
17:34
Thank you.
335
1042056
1154
Obrigada.
17:35
(Applause)
336
1043234
5020
(Aplausos) (Vivas)
Translated by Raissa Mendes
Reviewed by Ruy Lopes Pereira

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com