ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Cathy O'Neil: A era da fé cega nos "big data" tem de acabar

Filmed:
1,391,460 views

Os algoritmos decidem a quem é concedido um empréstimo, quem é chamado para uma entrevista de emprego, a quem é atribuído um seguro, e muito mais — mas não tornam as coisas justas automaticamente. A matemática e o cientista de dados Cathy O'Neil cunhou um termo para os algoritmos que são secretos, importantes e prejudiciais: "armas de destruição matemática". Saiba mais sobre os sumários escondidos por detrás das fórmulas.
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
AlgorithmsAlgoritmos are everywhereem toda parte.
0
975
1596
Os algoritmos estão em todo o lado.
00:16
They sortordenar and separateseparado
the winnersvencedores from the losersperdedores.
1
4111
3125
Eles classificam e separam
os vencedores dos perdedores.
00:20
The winnersvencedores get the jobtrabalho
2
8019
2264
Os vencedores ficam com o emprego
ou uma boa oferta
para o cartão de crédito.
00:22
or a good creditcrédito cardcartão offeroferta.
3
10307
1743
00:24
The losersperdedores don't even get an interviewentrevista
4
12074
2651
Os que perdem nem sequer vão à entrevista
00:27
or they paypagamento more for insuranceseguro.
5
15590
1777
mas pagam mais pelo seguro.
00:30
We're beingser scoredmarcou with secretsegredo formulasfórmulas
that we don't understandCompreendo
6
18197
3549
Estamos a ser marcados
com fórmulas secretas que não entendemos
00:34
that oftenfrequentemente don't have systemssistemas of appealrecurso.
7
22675
3217
e que, muitas vezes,
não têm sistemas de recurso.
00:39
That begsimplora the questionquestão:
8
27240
1296
Isto traz-nos a pergunta:
00:40
What if the algorithmsalgoritmos are wrongerrado?
9
28560
2913
E se os algoritmos estão errados?
00:45
To buildconstruir an algorithmalgoritmo de you need two things:
10
33100
2040
Para criar um algoritmo é preciso:
00:47
you need datadados, what happenedaconteceu in the pastpassado,
11
35164
1981
dados — o que aconteceu no passado;
00:49
and a definitiondefinição of successsucesso,
12
37169
1561
e uma definição de sucesso,
00:50
the thing you're looking for
and oftenfrequentemente hopingna esperança for.
13
38754
2457
aquilo de que estamos à procura
e que queremos atingir.
00:53
You traintrem an algorithmalgoritmo de
by looking, figuringfigurando out.
14
41235
5037
Um algoritmo treina-se
com a procura, com a descoberta.
00:58
The algorithmalgoritmo de figuresfiguras out
what is associatedassociado with successsucesso.
15
46296
3419
O algoritmo descobre
o que está associado ao sucesso.
01:01
What situationsituação leadsconduz to successsucesso?
16
49739
2463
Qual a situação que leva ao sucesso?
01:04
ActuallyNa verdade, everyonetodos usesusa algorithmsalgoritmos.
17
52881
1762
Na verdade, todos usam algoritmos.
01:06
They just don't formalizeformalizar them
in writtenescrito codecódigo.
18
54667
2718
Só que as pessoas não os formalizam
em código escrito.
01:09
Let me give you an exampleexemplo.
19
57409
1348
Deixem-me dar um exemplo.
01:10
I use an algorithmalgoritmo de everycada day
to make a mealrefeição for my familyfamília.
20
58781
3316
Eu uso um algoritmo todos os dias
para cozinhar para a minha família.
01:14
The datadados I use
21
62121
1476
Os dados que eu uso
01:16
is the ingredientsingredientes in my kitchencozinha,
22
64394
1659
são os ingredientes que tenho,
01:18
the time I have,
23
66077
1527
o tempo disponível,
01:19
the ambitionambição I have,
24
67628
1233
a minha ambição,
01:20
and I curatecoadjutor that datadados.
25
68885
1709
e junto esses dados todos.
01:22
I don't countcontagem those little packagespacotes
of ramenramen noodlesmacarrão as foodComida.
26
70618
4251
Não contabilizo aqueles pacotes pequenos
de "noodles" como comida.
01:26
(LaughterRiso)
27
74893
1869
(Risos)
01:28
My definitiondefinição of successsucesso is:
28
76786
1845
A minha definição de sucesso é:
01:30
a mealrefeição is successfulbem sucedido
if my kidsfilhos eatcomer vegetableslegumes.
29
78655
2659
a refeição é conseguida
se os filhos comerem vegetais.
01:34
It's very differentdiferente
from if my youngestmais jovens sonfilho were in chargecarregar.
30
82181
2854
Seria diferente se o meu filho
mais novo fosse o responsável.
01:37
He'dEle teria say successsucesso is if
he getsobtém to eatcomer lots of NutellaNutella.
31
85059
2788
Ele diria que o sucesso
seria ele comer muita Nutella.
01:41
But I get to chooseescolher successsucesso.
32
89179
2226
Mas eu posso escolher o sucesso.
01:43
I am in chargecarregar. My opinionopinião mattersimporta.
33
91429
2707
Sou eu a responsável.
A minha opinião conta.
01:46
That's the first ruleregra of algorithmsalgoritmos.
34
94160
2675
Essa é a primeira regra
dos algoritmos.
01:48
AlgorithmsAlgoritmos are opinionsopiniões embeddedembutido in codecódigo.
35
96859
3180
Os algoritmos são opiniões
embutidas em código.
01:53
It's really differentdiferente from what you think
mosta maioria people think of algorithmsalgoritmos.
36
101562
3663
É muito diferente daquilo que muitos
pensam sobre este assunto.
01:57
They think algorithmsalgoritmos are objectiveobjetivo
and trueverdade and scientificcientífico.
37
105249
4504
As pessoas pensam que os algoritmos
são objetivos, verdadeiros e científicos.
02:02
That's a marketingmarketing tricktruque.
38
110387
1699
Isso é um truque de "marketing".
02:05
It's alsoAlém disso a marketingmarketing tricktruque
39
113269
2125
O que também é um truque
02:07
to intimidateintimidar you with algorithmsalgoritmos,
40
115418
3154
é o facto de os algoritmos
nos intimidarem,
02:10
to make you trustConfiar em and fearmedo algorithmsalgoritmos
41
118596
3661
para nos fazer ter confiança
e medo deles,
02:14
because you trustConfiar em and fearmedo mathematicsmatemática.
42
122281
2018
porque confiamos
e receamos a matemática.
02:17
A lot can go wrongerrado when we put
blindcego faith in biggrande datadados.
43
125567
4830
Muita coisa pode correr mal
se confiarmos cegamente nos "big data".
02:23
This is KiriKiri SoaresSoares.
She's a highAlto schoolescola principalDiretor in BrooklynBrooklyn.
44
131684
3373
Esta é Kiri Soares e é diretora
de uma escola secundária em Brooklyn.
02:27
In 2011, she told me
her teachersprofessores were beingser scoredmarcou
45
135081
2586
Em 2011, ela disse-me que
os professores eram avaliados
02:29
with a complexcomplexo, secretsegredo algorithmalgoritmo de
46
137691
2727
com um algoritmo secreto e complexo
02:32
calledchamado the "value-addedvalor acrescentado modelmodelo."
47
140442
1489
chamado "modelo de valor acrescentado".
02:34
I told her, "Well, figurefigura out
what the formulaFórmula is, showexposição it to me.
48
142505
3092
Eu disse-lhe:
"Bem, se descobrir a fórmula, mostre-ma".
02:37
I'm going to explainexplicar it to you."
49
145621
1541
"Eu explico-lha".
02:39
She said, "Well, I triedtentou
to get the formulaFórmula,
50
147186
2141
Ela respondeu: "Bom, eu tentei obtê-la"
02:41
but my DepartmentDepartamento of EducationEducação contactcontato
told me it was mathmatemática
51
149351
2772
"mas o Departamento de Educação
disse que era matemática"
02:44
and I wouldn'tnão seria understandCompreendo it."
52
152147
1546
"e que eu não iria entendê-la".
02:47
It getsobtém worsepior.
53
155266
1338
E ainda é pior.
02:48
The NewNovo YorkYork PostPostar filedArquivado
a FreedomLiberdade of InformationInformações ActAto requestsolicitação de,
54
156628
3530
O jornal "The New York Post" invocou
a lei da Liberdade de Informação,
02:52
got all the teachers'dos professores namesnomes
and all theirdeles scorespontuações
55
160182
2959
reuniu os nomes de todos os professores
e os seus resultados
02:55
and they publishedPublicados them
as an actAja of teacher-shamingProfessor-envergonhando.
56
163165
2782
e publicou todas essas informações
como forma de envergonhar os professores.
02:59
When I triedtentou to get the formulasfórmulas,
the sourcefonte codecódigo, throughatravés the samemesmo meanssignifica,
57
167084
3860
Quando tentei aceder às fórmulas,
ao código-fonte, através dos mesmos meios,
03:02
I was told I couldn'tnão podia.
58
170968
2149
disseram-me que não podia fazê-lo.
03:05
I was deniednegado.
59
173141
1236
Foi-me negado.
03:06
I latermais tarde foundencontrado out
60
174401
1174
Mais tarde, descobri
03:07
that nobodyninguém in NewNovo YorkYork CityCidade
had accessAcesso to that formulaFórmula.
61
175599
2866
que ninguém em Nova Iorque
teve acesso a essa fórmula.
03:10
No one understoodEntendido it.
62
178489
1305
Ninguém a percebia.
03:13
Then someonealguém really smartinteligente
got involvedenvolvido, GaryGary RubensteinRubenstein.
63
181929
3224
Então, envolveu-se um tipo
muito inteligente: Gary Rubenstein.
03:17
He foundencontrado 665 teachersprofessores
from that NewNovo YorkYork PostPostar datadados
64
185177
3621
Ele descobriu 665 professores,
através dos dados publicados no jornal,
03:20
that actuallyna realidade had two scorespontuações.
65
188822
1866
que tiveram dois resultados diferentes.
03:22
That could happenacontecer if they were teachingensino
66
190712
1881
Podia acontecer
se estivessem a lecionar
03:24
seventhsétimo gradegrau mathmatemática and eighthoitavo gradegrau mathmatemática.
67
192617
2439
matemática de sétimo
e matemática de oitavo ano.
03:27
He decideddecidiu to plotenredo them.
68
195080
1538
Decidiu representá-los graficamente
03:28
EachCada dotponto representsrepresenta a teacherprofessor.
69
196642
1993
em que cada ponto representa
um professor.
03:31
(LaughterRiso)
70
199104
2379
(Risos)
03:33
What is that?
71
201507
1521
O que é isto?
03:35
(LaughterRiso)
72
203052
1277
(Risos)
03:36
That should never have been used
for individualIndividual assessmentavaliação.
73
204353
3446
Isto nunca poderia ter sido usado
para uma avaliação individual.
03:39
It's almostquase a randomaleatória numbernúmero generatorgerador.
74
207823
1926
É como um gerador
de números aleatórios.
03:41
(ApplauseAplausos)
75
209773
2946
(Aplausos)
03:44
But it was.
76
212743
1162
Mas foi utilizado.
03:45
This is SarahSarah WysockiWysocki.
77
213929
1176
Esta é Sarah Wysocki.
03:47
She got fireddisparamos, alongao longo
with 205 other teachersprofessores,
78
215129
2175
Foi despedida,
juntamente com 205 professores
03:49
from the WashingtonWashington, DCDC schoolescola districtdistrito,
79
217328
2662
de escolas do distrito de Washington, DC,
03:52
even thoughApesar she had great
recommendationsrecomendações from her principalDiretor
80
220014
2909
embora tivesse excelentes
recomendações do seu diretor
03:54
and the parentsparentes of her kidsfilhos.
81
222947
1428
e dos pais dos seus alunos.
Sei o que muitos estão a pensar,
03:57
I know what a lot
of you guys are thinkingpensando,
82
225390
2032
sobretudo os cientistas de dados
especialistas em Inteligência Artificial.
03:59
especiallyespecialmente the datadados scientistscientistas,
the AIAI expertsespecialistas here.
83
227446
2487
04:01
You're thinkingpensando, "Well, I would never make
an algorithmalgoritmo de that inconsistentinconsistente."
84
229957
4226
Estão a pensar: "Eu nunca faria
um algoritmo tão inconsistente".
04:06
But algorithmsalgoritmos can go wrongerrado,
85
234853
1683
Mas os algoritmos podem correr mal,
04:08
even have deeplyprofundamente destructivedestrutivo effectsefeitos
with good intentionsintenções.
86
236560
4598
chegando a ter efeitos profundamente
destrutivos, cheios de boas intenções.
04:14
And whereasenquanto que an airplaneavião
that's designedprojetado badlyseriamente
87
242531
2379
Enquanto que um avião
que é mal arquitetado
04:16
crashesfalhas to the earthterra and everyonetodos sees it,
88
244934
2001
se despenha e todos veem,
04:18
an algorithmalgoritmo de designedprojetado badlyseriamente
89
246959
1850
um algoritmo mal projetado
04:22
can go on for a long time,
silentlyem silêncio wreakingwreaking havocHavoc.
90
250245
3865
pode ser utilizado durante muito tempo,
causando estragos silenciosamente.
04:27
This is RogerRoger AilesAiles.
91
255748
1570
Este é Roger Ailes.
04:29
(LaughterRiso)
92
257342
2000
(Risos)
04:32
He foundedfundado FoxFox NewsNotícias in 1996.
93
260524
2388
Fundou a Fox News em 1996.
04:35
More than 20 womenmulheres complainedqueixou-se
about sexualsexual harassmentassédio.
94
263436
2581
Mais de 20 mulheres
queixaram-se de assédio sexual.
04:38
They said they weren'tnão foram allowedpermitido
to succeedter sucesso at FoxFox NewsNotícias.
95
266041
3235
Diziam que, na Fox News,
não lhes era permitido terem sucesso.
04:41
He was ousteddeposto last yearano,
but we'venós temos seenvisto recentlyrecentemente
96
269300
2520
Ailes foi despedido no ano passado,
mas, recentemente,
04:43
that the problemsproblemas have persistedpersistentes.
97
271844
2670
temos visto que os problemas persistem.
04:47
That begsimplora the questionquestão:
98
275654
1400
Isto leva-nos a perguntar:
04:49
What should FoxFox NewsNotícias do
to turnvirar over anotheroutro leaffolha?
99
277078
2884
O que é que a Fox News deveria fazer
para virar a página?
04:53
Well, what if they replacedsubstituído
theirdeles hiringcontratação processprocesso
100
281245
3041
E se tivessem substituído
o seu processo de recrutamento
por um algoritmo
de aprendizagem automática?
04:56
with a machine-learningaprendizado de máquina algorithmalgoritmo de?
101
284310
1654
04:57
That soundssoa good, right?
102
285988
1595
Parece-vos bem, não é?
04:59
Think about it.
103
287607
1300
Pensem nisso.
05:00
The datadados, what would the datadados be?
104
288931
2105
Que dados poderiam ser?
05:03
A reasonablerazoável choiceescolha would be the last
21 yearsanos of applicationsaplicações to FoxFox NewsNotícias.
105
291060
4947
Uma escolha razoável seriam os currículos
recebidos nos últimos 21 anos.
05:08
ReasonableRazoável.
106
296031
1502
Razoável.
05:09
What about the definitiondefinição of successsucesso?
107
297557
1938
E qual seria a definição de sucesso?
05:11
ReasonableRazoável choiceescolha would be,
108
299921
1324
A escolha razoável seria...
05:13
well, who is successfulbem sucedido at FoxFox NewsNotícias?
109
301269
1778
Bem, quem tem sucesso na Fox News?
05:15
I guessacho someonealguém who, say,
stayedfiquei there for fourquatro yearsanos
110
303071
3580
Eu diria alguém que lá trabalhou
durante quatro anos
05:18
and was promotedpromovido at leastpelo menos onceuma vez.
111
306675
1654
e que foi promovido, pelo menos, uma vez.
05:20
SoundsSons reasonablerazoável.
112
308816
1561
Parece razoável.
05:22
And then the algorithmalgoritmo de would be trainedtreinado.
113
310401
2354
E aí, o algoritmo seria treinado.
05:24
It would be trainedtreinado to look for people
to learnaprender what led to successsucesso,
114
312779
3877
Seria treinado para procurar pessoas
e perceber o que levava ao sucesso,
05:29
what kindtipo of applicationsaplicações
historicallyhistoricamente led to successsucesso
115
317219
4318
que tipo de currículos
eram propícios a isso,
05:33
by that definitiondefinição.
116
321561
1294
seguindo essa definição.
05:36
Now think about what would happenacontecer
117
324200
1775
Pensem no que poderia acontecer
05:37
if we appliedaplicado that
to a currentatual poolpiscina of applicantscandidatos.
118
325999
2555
se o aplicássemos
ao conjunto atual de candidaturas.
05:41
It would filterfiltro out womenmulheres
119
329119
1629
Filtraria as mulheres,
05:43
because they do not look like people
who were successfulbem sucedido in the pastpassado.
120
331663
3930
porque não foram as pessoas
que tiveram sucesso no passado.
05:51
AlgorithmsAlgoritmos don't make things fairjusto
121
339752
2537
Os algoritmos não são justos,
05:54
if you just blithelyalegremente,
blindlycegamente applyAplique algorithmsalgoritmos.
122
342313
2694
se os aplicarmos
de ânimo leve e às cegas.
05:57
They don't make things fairjusto.
123
345031
1482
Eles não agem com justiça.
05:58
They repeatrepetir our pastpassado practicespráticas,
124
346537
2128
Eles repetem o que fizemos no passado,
06:00
our patternspadrões.
125
348689
1183
os nossos padrões.
06:01
They automateautomatizar the statusstatus quoquo.
126
349896
1939
Eles automatizam o "status quo".
06:04
That would be great
if we had a perfectperfeito worldmundo,
127
352718
2389
Isso seria incrível
se o mundo fosse perfeito.
06:07
but we don't.
128
355905
1312
Mas não é.
06:09
And I'll addadicionar that mosta maioria companiesempresas
don't have embarrassingembaraçoso lawsuitsações judiciais,
129
357241
4102
E digo-vos mais: a maioria das empresas
não têm processos legais em curso,
06:14
but the datadados scientistscientistas in those companiesempresas
130
362446
2588
mas essas empresas dizem
aos seus cientistas de dados
06:17
are told to followSegue the datadados,
131
365058
2189
para seguirem os dados,
06:19
to focusfoco on accuracyprecisão.
132
367271
2143
para se focarem na precisão.
06:22
Think about what that meanssignifica.
133
370273
1381
Pensem no que isso significa.
06:23
Because we all have biasviés,
it meanssignifica they could be codifyinga codificação sexismsexismo
134
371678
4027
Como todos temos preconceitos,
eles podiam codificar o sexismo
06:27
or any other kindtipo of bigotryintolerância.
135
375729
1836
ou qualquer outro tipo de sectarismo.
06:31
Thought experimentexperimentar,
136
379488
1421
Um exercício intelectual,
06:32
because I like them:
137
380933
1509
porque gosto de fazer isso:
06:35
an entirelyinteiramente segregatedsegregado societysociedade --
138
383574
2975
uma sociedade inteiramente segregada
06:40
raciallyracialmente segregatedsegregado, all townscidades,
all neighborhoodsbairros
139
388247
3328
— todas as cidades, os bairros,
tudo segregado racialmente —
06:43
and where we sendenviar the policepolícia
only to the minorityminoria neighborhoodsbairros
140
391599
3037
e onde só enviamos a polícia
a bairros minoritários
06:46
to look for crimecrime.
141
394660
1193
para combater o crime.
06:48
The arrestprender datadados would be very biasedtendencioso.
142
396451
2219
Os dados sobre os detidos
seriam tendenciosos.
06:51
What if, on toptopo of that,
we foundencontrado the datadados scientistscientistas
143
399851
2575
E se tivéssemos cientistas de dados
para esta situação
06:54
and paidpago the datadados scientistscientistas to predictprever
where the nextPróximo crimecrime would occurocorrer?
144
402450
4161
e lhes pagássemos para preverem
onde iria ocorrer o crime seguinte?
06:59
MinorityMinoria neighborhoodVizinhança.
145
407275
1487
Num bairro minoritário.
07:01
Or to predictprever who the nextPróximo
criminalCriminoso would be?
146
409285
3125
Ou para preverem quem seria
o criminoso seguinte?
07:04
A minorityminoria.
147
412888
1395
Alguém da minoria.
07:07
The datadados scientistscientistas would bragme gabar
about how great and how accuratepreciso
148
415949
3541
Os cientistas de dados iriam vangloriar-se
da eficiência e precisão do seu modelo
07:11
theirdeles modelmodelo would be,
149
419514
1297
07:12
and they'deles be right.
150
420835
1299
e teriam razão.
07:15
Now, realityrealidade isn't that drasticdrásticas,
but we do have severegrave segregationssegregações
151
423951
4615
A realidade não é tão drástica,
mas temos segregações graves
07:20
in manymuitos citiescidades and townscidades,
152
428590
1287
em várias cidades e vilas,
07:21
and we have plentyabundância of evidenceevidência
153
429901
1893
e existem inúmeras provas
07:23
of biasedtendencioso policingpoliciamento
and justicejustiça systemsistema datadados.
154
431818
2688
de que os dados do sistema de justiça
são tendenciosos.
07:27
And we actuallyna realidade do predictprever hotspotspontos de acesso,
155
435632
2815
E nós prevemos lugares críticos,
07:30
placeslocais where crimescrimes will occurocorrer.
156
438471
1530
locais onde irão ocorrer crimes.
07:32
And we do predictprever, in factfacto,
the individualIndividual criminalityincriminação,
157
440401
3866
E prevemos a criminalidade individual,
07:36
the criminalityincriminação of individualsindivíduos.
158
444291
1770
a criminalidade de indivíduos.
07:38
The newsnotícia organizationorganização ProPublicaProPublica
recentlyrecentemente lookedolhou into
159
446972
3963
A agência de notícias ProPublica
analisou recentemente
07:42
one of those "recidivismreincidência riskrisco" algorithmsalgoritmos,
160
450959
2024
um algoritmo de "risco de reincidência",
07:45
as they're calledchamado,
161
453007
1163
como lhe chamam,
07:46
beingser used in FloridaFlorida
duringdurante sentencingsentença by judgesjuízes.
162
454194
3194
que os júris usam na Flórida,
durante os julgamentos.
07:50
BernardBernard, on the left, the blackPreto man,
was scoredmarcou a 10 out of 10.
163
458411
3585
À esquerda, temos Bernard, de cor negra,
que teve uma pontuação de 10 em 10.
Dylan, à direita,
teve uma pontuação de 3 em 10.
07:55
DylanDylan, on the right, 3 out of 10.
164
463179
2007
07:57
10 out of 10, highAlto riskrisco.
3 out of 10, lowbaixo riskrisco.
165
465210
2501
10 em 10 é risco elevado.
3 em 10 é risco reduzido.
08:00
They were bothambos broughttrouxe in
for drugdroga possessionposse.
166
468598
2385
Foram ambos a julgamento
por posse de droga.
08:03
They bothambos had recordsregistros,
167
471007
1154
Ambos tinham cadastro,
08:04
but DylanDylan had a felonycrime
168
472185
2806
mas Dylan já tinha cometido
um assalto à mão armada
08:07
but BernardBernard didn't.
169
475015
1176
e o Bernard não.
08:09
This mattersimporta, because
the highersuperior scorePonto you are,
170
477818
3066
Isto é importante, porque,
quanto mais alta é a pontuação,
08:12
the more likelyprovável you're beingser givendado
a longermais longo sentencesentença.
171
480908
3473
maior a probabilidade
de a sentença ser mais longa.
08:18
What's going on?
172
486294
1294
O que está a acontecer?
08:20
DataDados launderinglavagem de.
173
488526
1332
Lavagem de dados.
08:22
It's a processprocesso by whichqual
technologiststecnólogos hideocultar uglyfeio truthsverdades
174
490930
4427
É um processo em que os tecnólogos
escondem verdades muito graves
08:27
insidedentro blackPreto boxcaixa algorithmsalgoritmos
175
495381
1821
dentro de algoritmos de caixa negra
08:29
and call them objectiveobjetivo;
176
497226
1290
e chamam-lhes objetivos;
08:31
call them meritocraticmeritocrático.
177
499320
1568
chamam-lhes meritocráticos.
08:35
When they're secretsegredo,
importantimportante and destructivedestrutivo,
178
503118
2385
Quando são secretos,
importantes e destrutivos
08:37
I've coinedcunhou a termprazo for these algorithmsalgoritmos:
179
505527
2487
eu chamo-lhes da seguinte maneira:
08:40
"weaponsarmas of mathmatemática destructiondestruição."
180
508038
1999
"armas de destruição maciça".
08:42
(LaughterRiso)
181
510061
1564
(Risos)
08:43
(ApplauseAplausos)
182
511649
3054
(Aplausos)
08:46
They're everywhereem toda parte,
and it's not a mistakeerro.
183
514727
2354
Estão por todo o lado
e não são um erro.
08:49
These are privateprivado companiesempresas
buildingconstrução privateprivado algorithmsalgoritmos
184
517695
3723
São empresas privadas que estão
a criar algoritmos privados
08:53
for privateprivado endstermina.
185
521442
1392
para objetivos privados.
08:55
Even the onesuns I talkedfalou about
for teachersprofessores and the publicpúblico policepolícia,
186
523214
3214
Mesmo os que mencionei aqui
para os professores e a polícia,
08:58
those were builtconstruído by privateprivado companiesempresas
187
526452
1869
foram criados por empresas privadas
09:00
and soldvendido to the governmentgoverno institutionsinstituições.
188
528345
2231
e vendidos a instituições governamentais.
09:02
They call it theirdeles "secretsegredo saucemolho" --
189
530600
1873
Chamam-lhes o seu "molho secreto"
09:04
that's why they can't tell us about it.
190
532497
2128
— é por isso que não nos podem contar.
09:06
It's alsoAlém disso privateprivado powerpoder.
191
534649
2220
Trata-se, também, de poder privado.
09:09
They are profitinglucrando for wieldingempunhando
the authorityautoridade of the inscrutableinescrutável.
192
537924
4695
Estão a lucrar para dominarem
a autoridade do inescrutável.
09:17
Now you mightpoderia think,
sinceDesde a all this stuffcoisa is privateprivado
193
545114
2934
Agora, vocês podem pensar:
se tudo isto é privado
e existe concorrência,
09:20
and there's competitionconcorrência,
194
548072
1158
09:21
maybe the freelivre marketmercado
will solveresolver this problemproblema.
195
549254
2306
talvez o mercado livre
corrija este problema.
09:23
It won'tnão vai.
196
551584
1249
Não, não o fará.
09:24
There's a lot of moneydinheiro
to be madefeito in unfairnessinjustiça.
197
552857
3120
Pode fazer-se muito dinheiro
com a injustiça.
09:29
AlsoTambém, we're not economiceconômico rationalracional agentsagentes.
198
557127
3369
Além disso, nós não somos
agentes económicos racionais.
09:33
We all are biasedtendencioso.
199
561031
1292
Somos todos tendenciosos.
09:34
We're all racistracista and bigotedintolerante
in waysmaneiras that we wishdesejo we weren'tnão foram,
200
562960
3377
Somos racistas e intolerantes
em proporções horríveis,
09:38
in waysmaneiras that we don't even know.
201
566361
2019
em proporções que nem nós sabemos.
09:41
We know this, thoughApesar, in aggregateagregar,
202
569352
3081
Mas sabemos que isto acontece
em níveis agregados,
09:44
because sociologistssociólogos
have consistentlyconsistentemente demonstrateddemonstrado this
203
572457
3220
porque os sociólogos
têm vindo a demonstrá-lo,
através de experiências,
09:47
with these experimentsexperiências they buildconstruir,
204
575701
1665
em que se enviam vários currículos
em resposta a anúncios,
09:49
where they sendenviar a bunchgrupo
of applicationsaplicações to jobsempregos out,
205
577390
2568
igualmente qualificados,
mas alguns com nomes caucasianos
09:51
equallyigualmente qualifiedqualificada but some
have white-soundingbranco-som namesnomes
206
579982
2501
09:54
and some have black-soundingpreto-som namesnomes,
207
582507
1706
e outros com nomes de raça negra,
09:56
and it's always disappointingdecepcionantes,
the resultsresultados -- always.
208
584237
2694
e os resultados são sempre
desconcertantes... Sempre!
09:59
So we are the onesuns that are biasedtendencioso,
209
587510
1771
Somos nós que somos tendenciosos
10:01
and we are injectinginjetando those biasestendências
into the algorithmsalgoritmos
210
589305
3429
e estamos a colocar
esses preconceitos nos algoritmos,
10:04
by choosingescolhendo what datadados to collectrecolher,
211
592758
1812
ao escolhermos os dados,
10:06
like I choseescolheu not to think
about ramenramen noodlesmacarrão --
212
594594
2743
tal como eu decidi
em relação aos "noodles"
10:09
I decideddecidiu it was irrelevantirrelevante.
213
597361
1625
— decidi que eram irrelevantes.
10:11
But by trustingconfiando em the datadados that's actuallyna realidade
pickingescolhendo up on pastpassado practicespráticas
214
599010
5684
Mas, ao confiarmos em dados
que têm, por base, acontecimentos passados
10:16
and by choosingescolhendo the definitiondefinição of successsucesso,
215
604718
2014
e ao escolhermos a definição de sucesso,
10:18
how can we expectEspero the algorithmsalgoritmos
to emergeemergem unscathedileso?
216
606756
3983
como é que podemos esperar
que os algoritmos saiam ilesos?
10:22
We can't. We have to checkVerifica them.
217
610763
2356
Não podemos. Temos de os verificar.
10:26
We have to checkVerifica them for fairnessJustiça.
218
614165
1709
Temos de ver o nível de justiça.
10:27
The good newsnotícia is,
we can checkVerifica them for fairnessJustiça.
219
615898
2711
A boa notícia é que podemos fazer isso.
10:30
AlgorithmsAlgoritmos can be interrogatedinterrogado,
220
618633
3352
Os algoritmos podem ser questionados
10:34
and they will tell us
the truthverdade everycada time.
221
622009
2034
e as respostas são sempre verdadeiras.
10:36
And we can fixconsertar them.
We can make them better.
222
624067
2493
Podemos corrigi-los.
Podemos torná-los melhores.
10:38
I call this an algorithmicalgorítmica auditauditoria,
223
626584
2375
Posso chamar-lhe "auditoria algorítmica"
10:40
and I'll walkandar you throughatravés it.
224
628983
1679
e explico-vos em que consiste.
10:42
First, datadados integrityintegridade checkVerifica.
225
630686
2196
Primeiro, verificar
a integridade dos dados.
10:46
For the recidivismreincidência riskrisco
algorithmalgoritmo de I talkedfalou about,
226
634132
2657
Em relação ao risco de reincidência
de que já vos falei,
10:49
a datadados integrityintegridade checkVerifica would mean
we'dqua have to come to termstermos with the factfacto
227
637582
3573
verificar a integridade dos dados
significa que concordamos com o facto
10:53
that in the US, whitesbrancos and blacksnegros
smokefumaça potmaconha at the samemesmo ratetaxa
228
641179
3526
de que, nos EUA, tanto os brancos
como os negros fumam erva,
mas os negros têm
maior probabilidade de ser detidos
10:56
but blacksnegros are farlonge more likelyprovável
to be arrestedpreso --
229
644729
2485
10:59
fourquatro or fivecinco timesvezes more likelyprovável,
dependingdependendo on the areaárea.
230
647238
3184
— quatro ou cinco vezes mais
probabilidades, dependendo da zona.
11:03
What is that biasviés looking like
in other crimecrime categoriescategorias,
231
651317
2826
Como é que se comporta
esta tendência, noutros crimes
11:06
and how do we accountconta for it?
232
654167
1451
e como é que lidamos com isso?
11:08
SecondSegundo, we should think about
the definitiondefinição of successsucesso,
233
656162
3039
Segundo, devemos pensar
na definição de sucesso,
11:11
auditauditoria that.
234
659225
1381
rever esse conceito.
11:12
RememberLembre-se -- with the hiringcontratação
algorithmalgoritmo de? We talkedfalou about it.
235
660630
2752
Lembrem-se do algoritmo
de contratação de que já falámos.
Alguém que fica na empresa
durante quatro anos e é promovido uma vez?
11:15
SomeoneAlguém who staysfica for fourquatro yearsanos
and is promotedpromovido onceuma vez?
236
663406
3165
11:18
Well, that is a successfulbem sucedido employeeempregado,
237
666595
1769
É um trabalhador bem-sucedido,
11:20
but it's alsoAlém disso an employeeempregado
that is supportedapoiado by theirdeles culturecultura.
238
668388
3079
mas também é alguém
que apoia a cultura da empresa.
Assim, vemos que também
é muito tendencioso.
11:24
That said, alsoAlém disso it can be quitebastante biasedtendencioso.
239
672089
1926
É necessário separar estas duas coisas.
11:26
We need to separateseparado those two things.
240
674039
2065
11:28
We should look to
the blindcego orchestraOrquestra auditionaudição
241
676128
2426
Tomemos como exemplo
uma audição às cegas
de uma orquestra
11:30
as an exampleexemplo.
242
678578
1196
11:31
That's where the people auditioningum teste
are behindatrás a sheetFolha.
243
679798
2756
As pessoas que fazem a audição
escondem-se atrás duma cortina.
11:34
What I want to think about there
244
682946
1931
O que é importante reter
11:36
is the people who are listeningouvindo
have decideddecidiu what's importantimportante
245
684901
3417
é que as pessoas que estão a ouvir
decidiram o que é importante
11:40
and they'veeles têm decideddecidiu what's not importantimportante,
246
688342
2029
e o que não é importante,
11:42
and they're not gettingobtendo
distracteddistraído by that.
247
690395
2059
e não se deixam distrair.
11:44
When the blindcego orchestraOrquestra
auditionsaudições startedcomeçado,
248
692961
2749
Quando as audições às cegas começaram,
11:47
the numbernúmero of womenmulheres in orchestrasorquestras
wentfoi up by a factorfator of fivecinco.
249
695734
3444
o número de mulheres em orquestras
aumentou cinco vezes.
11:52
NextNa próxima, we have to considerconsiderar accuracyprecisão.
250
700253
2015
Em seguida, temos de considerar
a precisão.
11:55
This is where the value-addedvalor acrescentado modelmodelo
for teachersprofessores would failfalhou immediatelyimediatamente.
251
703233
3734
É aqui que falharia o "modelo de valor
acrescentado" dos professores.
11:59
No algorithmalgoritmo de is perfectperfeito, of coursecurso,
252
707578
2162
Claro que nenhum algoritmo é perfeito,
12:02
so we have to considerconsiderar
the errorserros of everycada algorithmalgoritmo de.
253
710620
3605
é por isso que temos de considerar
os erros de cada um.
12:06
How oftenfrequentemente are there errorserros,
and for whomo qual does this modelmodelo failfalhou?
254
714836
4359
Com que frequência existem erros
e com quem é que este modelo falha?
12:11
What is the costcusto of that failurefalha?
255
719850
1718
Qual é o custo desta falha?
12:14
And finallyfinalmente, we have to considerconsiderar
256
722434
2207
Por último, temos de considerar
12:17
the long-termlongo prazo effectsefeitos of algorithmsalgoritmos,
257
725973
2186
os efeitos a longo prazo dos algoritmos,
12:20
the feedbackcomentários loopsloops de that are engenderingengendrando.
258
728866
2207
o "feedback" que está programado.
12:23
That soundssoa abstractabstrato,
259
731586
1236
Isto parece abstrato,
12:24
but imagineImagine if FacebookFacebook engineersengenheiros
had consideredconsiderado that
260
732846
2664
mas imaginem se os engenheiros
do Facebook consideravam
12:28
before they decideddecidiu to showexposição us
only things that our friendsamigos had postedpostou.
261
736270
4855
mostrar-nos apenas
o que os nossos amigos publicam.
12:33
I have two more messagesmensagens,
one for the datadados scientistscientistas out there.
262
741761
3234
Tenho mais duas mensagens,
uma delas para os cientistas de dados.
12:37
DataDados scientistscientistas: we should
not be the arbitersÁrbitros of truthverdade.
263
745450
3409
Cientistas de dados: nós não
devemos ser os árbitros da verdade.
12:41
We should be translatorstradutores
of ethicalético discussionsdiscussões that happenacontecer
264
749520
3783
Devemos ser tradutores
de discussões éticas
que acontecem em sociedades mais amplas.
12:45
in largermaior societysociedade.
265
753327
1294
12:47
(ApplauseAplausos)
266
755579
2133
(Aplausos)
12:49
And the restdescansar of you,
267
757736
1556
E aos restantes,
aos que não são cientistas de dados:
12:52
the non-datasem dados scientistscientistas:
268
760011
1396
12:53
this is not a mathmatemática testteste.
269
761431
1498
isto não é um teste matemático.
12:55
This is a politicalpolítico fightluta.
270
763632
1348
É uma luta política.
12:58
We need to demandexigem accountabilityprestação de contas
for our algorithmicalgorítmica overlordssenhores feudais.
271
766587
3907
Precisamos de exigir a responsabilização
dos soberanos dos nossos algoritmos.
13:04
(ApplauseAplausos)
272
772118
1499
(Aplausos)
13:05
The eraera of blindcego faith
in biggrande datadados mustdevo endfim.
273
773641
4225
A era da fé cega nos "big data"
tem de acabar.
13:09
Thank you very much.
274
777890
1167
Muito obrigada.
13:11
(ApplauseAplausos)
275
779081
5303
(Aplausos)
Translated by Marta Sousa
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com