ABOUT THE SPEAKER
Anne Milgram - Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime.

Why you should listen

Anne Milgram is focused on reforming systems through smart data, analytics and technology. She is currently a Professor of Practice and Distinguished Scholar in Residence at New York University School of Law, where she is building a Criminal Justice Innovation Lab, dedicated to using data and technology to transform the American criminal justice system. She also teaches seminars on criminal justice policy and human trafficking. Milgram began her career as a criminal prosecutor, serving in state, local and federal prosecution offices.  She then became the Attorney General of the State of New Jersey, where she served as the Chief Law Enforcement Officer for the State and oversaw the Camden Police Department.

Though her work, Milgram seeks to bring the best of the modern world -- data, technology and analytics -- to bear in an effort to transform outdated systems and practices. Milgram is centered on creating a paradigm shift in how we think about innovation and reform in the criminal justice system and beyond.

Milgram graduated summa cum laude from Rutgers University and holds a Master of Philosophy in social and political theory from the University of Cambridge. She received her law degree from New York University School of Law.

More profile about the speaker
Anne Milgram | Speaker | TED.com
TED@BCG San Francisco

Anne Milgram: Why smart statistics are the key to fighting crime

Anne Milgram: Porque é que o uso de estatísticas inteligentes é a chave na luta contra o crime

Filmed:
1,034,735 views

Quando se tornou procuradora-geral em Nova Jersey no ano de 2007, Anne Milgram descobriu rapidamente vários factos alarmantes: não só que a sua equipa não sabia realmente quem andava a prender, como não tinha forma de perceber se as suas decisões estavam realmente a beneficiar a segurança pública. Então começou a sua busca inspirada para introduzir a análise de dados e a estatística no sistema de justiça criminal dos EUA.
- Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime. Full bio

Double-click the English transcript below to play the video.

00:12
In 2007, I becamepassou a ser the attorneyadvogado generalgeral
0
843
2591
Em 2007, passei a procuradora-geral
00:15
of the stateEstado of NewNovo JerseyJersey.
1
3434
1725
do estado de Nova Jersey.
00:17
Before that, I'd been a criminalCriminoso prosecutorMinistério público,
2
5159
2280
Antes disso, era procuradora da República,
00:19
first in the ManhattanManhattan districtdistrito attorney'sdo advogado officeescritório,
3
7439
2681
primeiro na promotoria
distrital de Manhattan
00:22
and then at the UnitedUnidos StatesEstados-Membros DepartmentDepartamento of JusticeJustiça.
4
10120
2650
e depois no Departamento de Justiça
dos Estados Unidos.
00:24
But when I becamepassou a ser the attorneyadvogado generalgeral,
5
12770
2201
Quando passei a procuradora-geral,
aconteceram duas coisas
00:26
two things happenedaconteceu that changedmudou
the way I see criminalCriminoso justicejustiça.
6
14971
3895
que mudaram a forma como vejo
o sistema criminal de justiça.
00:30
The first is that I askedperguntei what I thought
7
18866
2030
A primeira foi pôr em dúvida
o que eu pensava
00:32
were really basicbásico questionsquestões.
8
20896
2186
que eram perguntas básicas.
00:35
I wanted to understandCompreendo who we were arrestinga prender,
9
23082
2856
Queria perceber quem estávamos a prender,
00:37
who we were chargingcobrando,
10
25938
1664
quem estávamos a acusar
00:39
and who we were puttingcolocando in our nation'sa nação jailsprisões
11
27602
2128
e quem estávamos a colocar
00:41
and prisonsprisões.
12
29730
1416
nas cadeias e prisões nacionais.
00:43
I alsoAlém disso wanted to understandCompreendo
13
31146
1648
Também queria perceber
00:44
if we were makingfazer decisionsdecisões
14
32794
1329
se estávamos a tomar decisões
00:46
in a way that madefeito us safermais segura.
15
34123
2518
de forma a sentirmo-nos mais seguros.
00:48
And I couldn'tnão podia get this informationem formação out.
16
36641
3252
Não consegui encontrar essas informações.
00:51
It turnedvirou out that mosta maioria biggrande criminalCriminoso justicejustiça agenciesagências
17
39893
3357
Descobri que a maior parte
das agências de Justiça criminal,
00:55
like my ownpróprio
18
43250
1302
como a minha,
00:56
didn't trackpista the things that matterimportam.
19
44552
2382
não acompanhava as coisas
realmente importantes.
00:58
So after about a monthmês of beingser incrediblyincrivelmente frustratedfrustrado,
20
46934
3318
Um mês depois de me sentir
terrivelmente frustrada,
01:02
I walkedcaminhou down into a conferenceconferência roomquarto
21
50252
1971
entrei numa sala de conferências
01:04
that was filledpreenchidas with detectivesdetetives
22
52223
1890
que estava cheia de agentes da polícia
01:06
and stackspilhas and stackspilhas of casecaso filesarquivos,
23
54113
2782
e pilhas e pilhas de arquivos.
01:08
and the detectivesdetetives were sittingsentado there
24
56895
1176
Os agentes da polícia estavam sentados
01:10
with yellowamarelo legallegal padsalmofadas takinglevando notesnotas.
25
58071
2234
a tomar notas.
01:12
They were tryingtentando to get the informationem formação
26
60305
1586
Estavam a tentar obter as informações
01:13
I was looking for
27
61891
1218
que eu procurava,
01:15
by going throughatravés casecaso by casecaso
28
63109
2045
analisando caso a caso
01:17
for the pastpassado fivecinco yearsanos.
29
65154
1898
dos últimos cinco anos.
01:19
And as you can imagineImagine,
30
67052
1653
Como podem imaginar,
01:20
when we finallyfinalmente got the resultsresultados, they weren'tnão foram good.
31
68705
2643
quando por fim tivemos
os resultados, não eram bons.
01:23
It turnedvirou out that we were doing
32
71348
1655
Acontece que estivemos a trabalhar
01:25
a lot of low-levelbaixo nível de drugdroga casescasos
33
73003
2020
em muitos casos de droga insignificantes,
01:27
on the streetsruas just around the cornercanto
34
75023
1475
nas ruas, ao virar da esquina
01:28
from our officeescritório in TrentonTrenton.
35
76498
2268
do nosso escritório em Trenton.
01:30
The secondsegundo thing that happenedaconteceu
36
78766
1467
A segunda coisa que aconteceu
01:32
is that I spentgasto the day in the CamdenCamden,
NewNovo JerseyJersey policepolícia departmentdepartamento.
37
80233
3674
é que passei o dia em Camden,
no departamento da policia de Nova Jersey.
01:35
Now, at that time, CamdenCamden, NewNovo JerseyJersey,
38
83907
1887
Naquela altura, Camden, em Nova Jersey,
01:37
was the mosta maioria dangerousperigoso citycidade in AmericaAmérica.
39
85794
2652
era a cidade mais perigosa dos EUA.
01:40
I rancorreu the CamdenCamden PolicePolícia
DepartmentDepartamento because of that.
40
88446
3827
Era por isso que eu dirigia
o departamento da polícia de Camden.
01:44
I spentgasto the day in the policepolícia departmentdepartamento,
41
92273
2112
Passava o dia no departamento de polícia
01:46
and I was takenocupado into a roomquarto
with seniorSenior policepolícia officialsfuncionários,
42
94385
2726
e levavam-me para uma sala
com agentes da polícia veteranos
01:49
all of whomo qual were workingtrabalhando hardDifícil
43
97111
1675
que estavam a trabalhar arduamente
01:50
and tryingtentando very hardDifícil to reducereduzir crimecrime in CamdenCamden.
44
98786
3257
e se esforçavam por reduzir
o crime em Camden.
01:54
And what I saw in that roomquarto,
45
102043
1826
O que eu vi nessa sala,
01:55
as we talkedfalou about how to reducereduzir crimecrime,
46
103869
2245
enquanto falávamos sobre
como reduzir o crime,
01:58
were a seriesSeries of officersoficiais with a
lot of little yellowamarelo stickypegajoso notesnotas.
47
106114
3859
foi uma série de policias
com muitos "post-it" amarelos.
02:01
And they would take a yellowamarelo stickypegajoso
and they would writeEscreva something on it
48
109973
2846
Pegavam num "post-it", anotavam algo
02:04
and they would put it up on a boardborda.
49
112823
1799
e colocavam-no num quadro.
02:06
And one of them said,
"We had a robberyroubo two weekssemanas agoatrás.
50
114622
2171
Um deles disse:
"Tivemos um assalto há duas semanas.
02:08
We have no suspectssuspeitos."
51
116793
1711
"Não temos suspeitos."
02:10
And anotheroutro said, "We had a shootingtiroteio in this neighborhoodVizinhança last weeksemana. We have no suspectssuspeitos."
52
118504
5027
Outro disse: "Houve um tiroteio
neste bairro na semana passada.
"Não temos suspeitos."
02:15
We weren'tnão foram usingusando data-drivenorientado a dados policingpoliciamento.
53
123531
2583
Não estávamos a usar policiamento
motivado pelos dados.
02:18
We were essentiallyessencialmente tryingtentando to fightluta crimecrime
54
126114
2042
Estávamos a tentar lutar contra o crime
02:20
with yellowamarelo Post-itPost-it notesnotas.
55
128156
2527
com notas em "post-it" amarelos.
02:22
Now, bothambos of these things madefeito me realizeperceber
56
130683
2135
Estas duas coisas fizeram-me
chegar à conclusão
02:24
fundamentallyfundamentalmente that we were failingfalhando.
57
132818
3251
que, basicamente, estávamos a falhar.
02:28
We didn't even know who was
in our criminalCriminoso justicejustiça systemsistema,
58
136069
3123
Não sabíamos quem estava
no nosso sistema de justiça criminal.
02:31
we didn't have any datadados about
the things that matteredimportava,
59
139192
3235
Não tínhamos dados nenhuns
sobre o que realmente interessava.
02:34
and we didn't sharecompartilhar datadados or use analyticsAnalytics
60
142427
2568
Não partilhávamos dados
nem usávamos a análise
02:36
or toolsFerramentas to help us make better decisionsdecisões
61
144995
2151
nem ferramentas para nos ajudar
a melhores decisões
02:39
and to reducereduzir crimecrime.
62
147146
2003
e reduzir o crime.
02:41
And for the first time, I startedcomeçado to think
63
149149
2224
Pela primeira vez comecei a pensar
02:43
about how we madefeito decisionsdecisões.
64
151373
1910
sobre como tomávamos decisões.
02:45
When I was an assistantAssistente D.A.,
65
153283
1397
Quando era promotora distrital,
02:46
and when I was a federalFederal prosecutorMinistério público,
66
154680
1870
e procuradora federal,
02:48
I lookedolhou at the casescasos in frontfrente of me,
67
156550
1746
observava os processos à minha frente
02:50
and I generallygeralmente madefeito decisionsdecisões basedSediada on my instinctinstinto
68
158296
2626
e tomava decisões baseadas no meu instinto
02:52
and my experienceexperiência.
69
160922
1692
e na minha experiência.
02:54
When I becamepassou a ser attorneyadvogado generalgeral,
70
162614
1659
Quando passei a procuradora-geral,
02:56
I could look at the systemsistema as a wholetodo,
71
164273
1639
olhava para o sistema como um todo.
02:57
and what surprisedsurpreso me is that I foundencontrado
72
165912
1818
O que me surpreendeu foi que descobri
02:59
that that was exactlyexatamente how we were doing it
73
167730
1905
que estávamos a fazer exatamente o mesmo
03:01
acrossatravés the entireinteira systemsistema --
74
169635
2303
em todo o sistema
03:03
in policepolícia departmentsdepartamentos, in prosecutors'sdo Ministério público officesescritórios,
75
171938
2401
— nos departamentos da polícia,
promotorias públicas,
03:06
in courtstribunais and in jailsprisões.
76
174339
2800
nos tribunais e nas cadeias.
03:09
And what I learnedaprendido very quicklyrapidamente
77
177139
2197
E o que aprendi rapidamente
03:11
is that we weren'tnão foram doing a good jobtrabalho.
78
179336
3633
foi que não estávamos
a fazer um bom trabalho.
Queria fazer as coisas de forma diferente.
03:14
So I wanted to do things differentlydiferente.
79
182969
2016
03:16
I wanted to introduceintroduzir datadados and analyticsAnalytics
80
184985
2197
Queria introduzir dados e análise
03:19
and rigorousrigoroso statisticalestatística analysisanálise
81
187182
2049
e análise estatística rigorosa
03:21
into our work.
82
189231
1400
no nosso trabalho.
03:22
In shortcurto, I wanted to moneyballMoneyball criminalCriminoso justicejustiça.
83
190631
2970
Queria uma gestão analítica
na justiça criminal.
03:25
Now, moneyballMoneyball, as manymuitos of you know,
84
193601
2027
Agora, essa gestão analítica, como sabem,
03:27
is what the OaklandOakland A'sA. did,
85
195628
1569
foi o que os "Oakland A" fizeram.
03:29
where they used smartinteligente datadados and statisticsEstatisticas
86
197197
1973
Usaram dados inteligentes e estatisticas
03:31
to figurefigura out how to pickescolher playersjogadoras
87
199170
1622
para conseguir selecionar jogadores
03:32
that would help them winganhar gamesjogos,
88
200792
1521
que iriam ajudar a ganhar jogos.
03:34
and they wentfoi from a systemsistema that
was basedSediada on baseballbaseball scoutsescoteiros
89
202313
2980
E abandonaram um sistema
baseado em olheiros de basebol,
03:37
who used to go out and watch playersjogadoras
90
205293
1860
que iam ver jogos e escolhiam jogadores
03:39
and use theirdeles instinctinstinto and experienceexperiência,
91
207153
1637
usando o seu instinto
03:40
the scouts'Scouts instinctsinstintos and experienceexperiência,
92
208790
1743
e a experiência dos olheiros.
03:42
to pickescolher playersjogadoras, from one to use
93
210533
1713
Passaram a escolher jogadores
03:44
smartinteligente datadados and rigorousrigoroso statisticalestatística analysisanálise
94
212246
2822
usando uma análise de dados
inteligentes e estatísticas rigorosas
03:47
to figurefigura out how to pickescolher playersjogadoras
that would help them winganhar gamesjogos.
95
215068
3371
para descobrir jogadores
que os ajudariam a ganhar jogos.
03:50
It workedtrabalhou for the OaklandOakland A'sA.,
96
218439
1798
Funcionou para os "Oakland A",
03:52
and it workedtrabalhou in the stateEstado of NewNovo JerseyJersey.
97
220237
2219
e funcionou para o estado de Nova Jersey.
03:54
We tooktomou CamdenCamden off the toptopo of the listLista
98
222456
2073
Tirámos Camden do topo da lista
03:56
as the mosta maioria dangerousperigoso citycidade in AmericaAmérica.
99
224529
2171
como a cidade mais perigosa dos EUA.
03:58
We reducedreduzido murdersassassinatos there by 41 percentpor cento,
100
226700
3155
Reduzimos os homicídios em 41%,
04:01
whichqual actuallyna realidade meanssignifica 37 livesvidas were savedsalvou.
101
229855
2982
o que significa que se pouparam 37 vidas.
04:04
And we reducedreduzido all crimecrime in the citycidade by 26 percentpor cento.
102
232837
3740
Reduzimos todos os crimes
na cidade em 26%.
04:08
We alsoAlém disso changedmudou the way
we did criminalCriminoso prosecutionsprocedimentos penais.
103
236577
3239
Também mudámos a forma
de executar os processos criminais.
04:11
So we wentfoi from doing low-levelbaixo nível de drugdroga crimescrimes
104
239816
2005
Deixámos de tratar apenas de
pequenos crimes de droga
04:13
that were outsidelado de fora our buildingconstrução
105
241821
1642
que ocorriam junto de nós
04:15
to doing casescasos of statewideem todo o estado importanceimportância,
106
243463
2342
e passámos a fazer processos
importantes em todo o estado:
04:17
on things like reducingreduzindo violenceviolência
with the mosta maioria violentviolento offendersinfratores,
107
245805
3158
reduzir a violência
entre os criminosos mais violentos,
04:20
prosecutingProcessando streetrua gangsgangues,
108
248963
1858
processando gangues de rua,
04:22
gunarma de fogo and drugdroga traffickingtráfico, and politicalpolítico corruptioncorrupção.
109
250821
3408
tráfico de armas e droga
e corrupção política.
04:26
And all of this mattersimporta greatlymuito,
110
254229
2502
Tudo isto é de grande importância,
04:28
because publicpúblico safetysegurança to me
111
256731
1945
porque, para mim, a segurança pública
04:30
is the mosta maioria importantimportante functionfunção of governmentgoverno.
112
258676
2536
é a função mais importante do governo.
04:33
If we're not safeseguro, we can't be educatededucado,
113
261212
2298
Se não estamos seguros,
não podemos ser educados,
04:35
we can't be healthysaudável,
114
263510
1348
não podemos ser saudáveis,
04:36
we can't do any of the other things
we want to do in our livesvidas.
115
264858
2945
Não podemos fazer nada
do que queremos fazer na vida.
04:39
And we liveviver in a countrypaís todayhoje
116
267803
1701
E presentemente vivemos num país
04:41
where we facecara seriousgrave criminalCriminoso justicejustiça problemsproblemas.
117
269504
3134
em que existem graves
problemas de justiça criminal.
04:44
We have 12 millionmilhão arrestsdetenções everycada singlesolteiro yearano.
118
272638
3661
Temos 12 milhões de detenções
todos os anos.
04:48
The vastgrande majoritymaioria of those arrestsdetenções
119
276299
2043
A grande maioria destas detenções
04:50
are for low-levelbaixo nível de crimescrimes, like misdemeanorspequenos delitos,
120
278342
3012
são crimes menores, delitos leves,
04:53
70 to 80 percentpor cento.
121
281354
1734
70 a 80 por cento.
04:55
LessMenos than fivecinco percentpor cento of all arrestsdetenções
122
283088
1991
Menos de 5% de todas as detenções
04:57
are for violentviolento crimecrime.
123
285079
1895
são por crimes violentos.
04:58
YetAinda we spendgastar 75 billionbilhão,
124
286974
2055
Mas gastamos 75 mil milhões,
05:01
that's b for billionbilhão,
125
289029
1418
— mil milhões —
05:02
dollarsdólares a yearano on stateEstado and locallocal correctionscorreções costscusta.
126
290447
4127
de dólares por ano em custos
de correção estatal e local.
05:06
Right now, todayhoje, we have 2.3 millionmilhão people
127
294574
2841
Neste momento, hoje,
existem 2,3 milhões de pessoas
05:09
in our jailsprisões and prisonsprisões.
128
297415
1900
nas nossas cadeias e prisões.
05:11
And we facecara unbelievableinacreditável publicpúblico safetysegurança challengesdesafios
129
299315
2796
E enfrentamos desafios incríveis
de segurança pública
05:14
because we have a situationsituação
130
302111
1939
porque temos uma situação
05:16
in whichqual two thirdsterços of the people in our jailsprisões
131
304050
2898
em que dois terços das pessoas
nas nossas cadeias
05:18
are there waitingesperando for trialtentativas.
132
306948
1754
estão à espera de serem julgadas.
05:20
They haven'tnão tem yetainda been convictedcondenado of a crimecrime.
133
308702
2135
Ainda não foram condenadas
por nenhum crime.
05:22
They're just waitingesperando for theirdeles day in courtquadra.
134
310837
2119
Estão apenas à espera do
dia do julgamento.
05:24
And 67 percentpor cento of people come back.
135
312956
3548
E 67% das pessoas voltam para lá.
05:28
Our recidivismreincidência ratetaxa is amongstentre
the highestmais alto in the worldmundo.
136
316504
3028
A nossa taxa de reincidência
está entre as mais altas do mundo.
05:31
AlmostQuase sevenSete in 10 people who are releasedliberado
137
319532
2103
Quase 7 em 10 pessoas que são
libertadas da prisão
05:33
from prisonprisão will be rearrestedalforriado
138
321635
1651
serão presas novamente,
05:35
in a constantconstante cycleciclo of crimecrime and incarcerationencarceramento.
139
323286
3955
num ciclo de crime
e encarceramento constante.
05:39
So when I startedcomeçado my jobtrabalho at the ArnoldArnold FoundationFundação,
140
327241
2582
Quando comecei o meu trabalho
na Fundação Arnold,
05:41
I cameveio back to looking at a lot of these questionsquestões,
141
329823
2736
comecei a analisar muitas dessas questões
05:44
and I cameveio back to thinkingpensando about how
142
332559
1654
e voltei a pensar em como
05:46
we had used datadados and analyticsAnalytics to transformtransformar
143
334213
2383
tínhamos usado dados e análise
para transformar
05:48
the way we did criminalCriminoso justicejustiça in NewNovo JerseyJersey.
144
336596
2584
a forma como executávamos a justiça
em Nova Jersey.
05:51
And when I look at the criminalCriminoso justicejustiça systemsistema
145
339180
2144
Quando olho para o sistema
de justiça criminal
05:53
in the UnitedUnidos StatesEstados-Membros todayhoje,
146
341324
1656
nos Estados Unidos, atualmente,
05:54
I feel the exactexato samemesmo way that I did
147
342980
1639
sinto-me da mesma forma que me sentia
05:56
about the stateEstado of NewNovo JerseyJersey when I startedcomeçado there,
148
344619
2466
no estado de Nova Jersey,
quando para lá fui.
05:59
whichqual is that we absolutelyabsolutamente have to do better,
149
347085
3228
Era preciso fazer melhor
06:02
and I know that we can do better.
150
350313
1923
e sei que podemos fazer melhor.
06:04
So I decideddecidiu to focusfoco
151
352236
1705
Assim, decidi concentrar-me
06:05
on usingusando datadados and analyticsAnalytics
152
353941
2217
no uso de dados e na análise
06:08
to help make the mosta maioria criticalcrítico decisiondecisão
153
356158
2361
para ajudar a tomar as decisões mais criticas
06:10
in publicpúblico safetysegurança,
154
358519
1606
na área da segurança pública.
06:12
and that decisiondecisão is the determinationdeterminação
155
360125
2021
Essa decisão é determinar,
06:14
of whetherse, when someonealguém has been arrestedpreso,
156
362146
2535
quando alguém é preso,
06:16
whetherse they posepose a riskrisco to publicpúblico safetysegurança
157
364681
1915
se apresenta risco
para a segurança pública,
06:18
and should be detaineddetido,
158
366596
1526
e deve ser detido,
06:20
or whetherse they don't posepose a riskrisco to publicpúblico safetysegurança
159
368122
2356
ou se não apresenta risco
para a segurança pública
06:22
and should be releasedliberado.
160
370478
1637
e deve ser libertado.
06:24
Everything that happensacontece in criminalCriminoso casescasos
161
372115
1919
Tudo o que acontece em processos criminais
06:26
comesvem out of this one decisiondecisão.
162
374034
1772
é feito com base nesta decisão.
06:27
It impactsimpactos everything.
163
375806
1496
E tem impacto em tudo.
06:29
It impactsimpactos sentencingsentença.
164
377302
1350
Tem impacto nas sentenças.
06:30
It impactsimpactos whetherse someonealguém getsobtém drugdroga treatmenttratamento.
165
378652
1901
Tem impacto se alguém faz
uma desintoxicação.
06:32
It impactsimpactos crimecrime and violenceviolência.
166
380553
2323
Tem impacto no crime e violência.
06:34
And when I talk to judgesjuízes around the UnitedUnidos StatesEstados-Membros,
167
382876
1937
Quando falo com os juízes nos EUA,
06:36
whichqual I do all the time now,
168
384813
1928
— o que agora estou sempre a fazer —
06:38
they all say the samemesmo thing,
169
386741
1837
todos dizem a mesma coisa:
06:40
whichqual is that we put dangerousperigoso people in jailcadeia,
170
388578
3107
"Nós colocamos as pessoas perigosas
na cadeia,
06:43
and we let non-dangerousNão é perigoso, nonviolentnão-violenta people out.
171
391685
3525
"e deixamos sair as pessoas
que não são perigosas nem violentas".
06:47
They mean it and they believe it.
172
395210
2233
Dizem-no a sério e acreditam nisso.
06:49
But when you startcomeçar to look at the datadados,
173
397443
1733
Mas, quando começamos a ver os dados,
06:51
whichqual, by the way, the judgesjuízes don't have,
174
399176
2464
uma coisa que, a propósito,
os juízes não têm,
06:53
when we startcomeçar to look at the datadados,
175
401640
1612
quando começamos a olhar para os dados,
06:55
what we find time and time again,
176
403252
2418
o que estamos sempre a encontrar
06:57
is that this isn't the casecaso.
177
405670
1982
é o contrário.
06:59
We find low-riskbaixo risco offendersinfratores,
178
407652
1681
Encontramos criminosos de baixo risco,
07:01
whichqual makesfaz com que up 50 percentpor cento of our
entireinteira criminalCriminoso justicejustiça populationpopulação,
179
409333
3714
que constituem 50% da população
criminal inteira da justiça criminal.
07:05
we find that they're in jailcadeia.
180
413047
2399
e descobrimos que estão na cadeia.
07:07
Take LeslieLeslie ChewMastigar, who was a TexasTexas man
181
415446
2486
Por exemplo, Leslie Chew,
um homem do Texas
07:09
who stoleroubou fourquatro blanketscobertores on a coldfrio winterinverno night.
182
417932
2884
que roubou quatro cobertores
numa fria noite de inverno.
07:12
He was arrestedpreso, and he was keptmanteve in jailcadeia
183
420816
2595
Foi preso e ficou na prisão.
07:15
on 3,500 dollarsdólares bailfiança,
184
423411
2053
A fiança era de 3 500 dólares,
07:17
an amountmontante that he could not affordproporcionar to paypagamento.
185
425464
2776
uma quantia que ele não podia pagar.
07:20
And he stayedfiquei in jailcadeia for eightoito monthsmeses
186
428240
2588
E assim ficou preso durante oito meses
07:22
untilaté his casecaso cameveio up for trialtentativas,
187
430828
2065
até que o seu caso foi julgado.
07:24
at a costcusto to taxpayerscontribuintes of more than 9,000 dollarsdólares.
188
432893
3905
Custou aos contribuintes
mais de 9 000 dólares!
07:28
And at the other endfim of the spectrumespectro,
189
436798
1997
E do outro lado do espetro,
07:30
we're doing an equallyigualmente terribleterrivel jobtrabalho.
190
438795
2282
estamos a fazer um trabalho
igualmente terrivel.
07:33
The people who we find
191
441077
1572
As pessoas que encontramos
07:34
are the highest-riskmais alto-risco offendersinfratores,
192
442649
2019
são os criminosos de maior perigo,
07:36
the people who we think have the highestmais alto likelihoodprobabilidade
193
444668
2497
as pessoas que julgamos
ter a maior hipótese
07:39
of committingcometendo a newNovo crimecrime if they're releasedliberado,
194
447165
1952
de praticarem um novo crime,
se forem libertados.
07:41
we see nationallynacionalmente that 50 percentpor cento of those people
195
449117
2950
Vemos que 50% dessas pessoas,
a nível nacional,
07:44
are beingser releasedliberado.
196
452067
1974
estão a ser libertadas.
07:46
The reasonrazão for this is the way we make decisionsdecisões.
197
454041
3174
A razão é a forma como tomamos decisões.
07:49
JudgesJuízes have the bestmelhor intentionsintenções
198
457215
1709
Os juízes têm as melhores das intenções
07:50
when they make these decisionsdecisões about riskrisco,
199
458924
1952
quando tomam decisões que envolvem risco.
07:52
but they're makingfazer them subjectivelysubjetivamente.
200
460876
2484
Mas tomam essas decisões subjetivamente.
07:55
They're like the baseballbaseball scoutsescoteiros 20 yearsanos agoatrás
201
463360
2146
Como os olheiros de basebol,
há 20 anos atrás
07:57
who were usingusando theirdeles instinctinstinto and theirdeles experienceexperiência
202
465506
2131
que usavam o seu instinto
e a sua experiência,
07:59
to try to decidedecidir what riskrisco someonealguém posesposes.
203
467637
2679
para tentar decidir qual o risco
que alguém apresenta.
08:02
They're beingser subjectivesubjetivo,
204
470316
1530
Estão a ser subjetivos.
08:03
and we know what happensacontece
with subjectivesubjetivo decisiondecisão makingfazer,
205
471846
3060
Todos sabemos o que acontece
com tomadas de decisões subjetivas,
08:06
whichqual is that we are oftenfrequentemente wrongerrado.
206
474906
2743
que é estarmos muitas vezes errados.
08:09
What we need in this spaceespaço
207
477649
1383
O que precisamos neste espaço
08:11
are strongForte datadados and analyticsAnalytics.
208
479032
2552
são dados robustos e análise.
08:13
What I decideddecidiu to look for
209
481584
1747
O que eu decidi procurar
08:15
was a strongForte datadados and analyticanalítico riskrisco assessmentavaliação toolferramenta,
210
483331
2836
foi uma ferramenta de avaliação
analítica de risco de dados.
08:18
something that would let judgesjuízes actuallyna realidade understandCompreendo
211
486167
2764
algo que possa ajudar os juízes
a perceber,
08:20
with a scientificcientífico and objectiveobjetivo way
212
488931
2259
de uma forma objetiva e científica,
08:23
what the riskrisco was that was posedposou
213
491190
1647
qual seria o risco representado
08:24
by someonealguém in frontfrente of them.
214
492837
1610
pela pessoa à sua frente.
08:26
I lookedolhou all over the countrypaís,
215
494447
1649
Procurei por todo o país
08:28
and I foundencontrado that betweenentre fivecinco and 10 percentpor cento
216
496096
1942
e descobri que, entre 5 a 10%
08:30
of all U.S. jurisdictionsjurisdições
217
498038
1329
de todas as jurisdições dos EUA
08:31
actuallyna realidade use any typetipo of riskrisco assessmentavaliação toolferramenta,
218
499367
2978
não usam nenhum tipo de ferramenta
de avaliação de risco,
08:34
and when I lookedolhou at these toolsFerramentas,
219
502345
1625
e quando vi essas ferramentas
08:35
I quicklyrapidamente realizedpercebi why.
220
503970
1860
percebi logo porquê.
08:37
They were unbelievablyinacreditavelmente expensivecaro to administeradministrar,
221
505830
2690
Eram incrivelmente difíceis de gerir,
08:40
they were time-consumingdemorada,
222
508520
1528
eram lentas,
08:42
they were limitedlimitado to the locallocal jurisdictionjurisdição
223
510048
2107
estavam limitadas à jurisdição local
08:44
in whichqual they'deles been createdcriada.
224
512155
1430
na qual tinham sido criadas.
08:45
So basicallybasicamente, they couldn'tnão podia be scaledescalado
225
513585
1793
Não podiam ser ajustadas
08:47
or transferredtransferido to other placeslocais.
226
515378
2209
ou transferidas para outros locais.
08:49
So I wentfoi out and builtconstruído a phenomenalfenomenal teamequipe
227
517587
2237
Então, organizei uma equipa fantástica
08:51
of datadados scientistscientistas and researcherspesquisadores
228
519824
2044
de cientistas e investigadores de dados
08:53
and statisticiansestatísticos
229
521868
1626
e de estatísticos
08:55
to buildconstruir a universaluniversal riskrisco assessmentavaliação toolferramenta,
230
523494
2845
para construir uma ferramenta
universal de avaliação de risco,
08:58
so that everycada singlesolteiro judgejuiz in
the UnitedUnidos StatesEstados-Membros of AmericaAmérica
231
526339
2393
para que todos os juízes nos EUA
09:00
can have an objectiveobjetivo, scientificcientífico measurea medida of riskrisco.
232
528732
4324
possam ter uma medida de risco,
objetiva e científica.
09:05
In the toolferramenta that we'venós temos builtconstruído,
233
533056
1658
Nessa ferramenta que construímos
09:06
what we did was we collectedcoletado 1.5 millionmilhão casescasos
234
534714
2868
colecionámos um milhão e meio de casos
09:09
from all around the UnitedUnidos StatesEstados-Membros,
235
537582
1698
de toda a parte dos EUA,
09:11
from citiescidades, from countiescondados,
236
539280
1644
de cidades, de municípios,
09:12
from everycada singlesolteiro stateEstado in the countrypaís,
237
540924
1511
de cada um dos estados do país,
09:14
the federalFederal districtsdistritos.
238
542435
1746
dos distritos federais.
09:16
And with those 1.5 millionmilhão casescasos,
239
544181
2189
Nesse milhão e meio de casos,
09:18
whichqual is the largestmaiores datadados setconjunto on pretrialpré-julgamento
240
546370
1940
o maior conjunto de dados organizados
na instrução,
09:20
in the UnitedUnidos StatesEstados-Membros todayhoje,
241
548310
1805
atualmente nos EUA,
09:22
we were ablecapaz to basicallybasicamente find that there were
242
550115
1865
conseguimos descobrir que havia
09:23
900-plus-mais riskrisco factorsfatores that we could look at
243
551980
3322
900 ou mais fatores de risco
que podíamos analisar
09:27
to try to figurefigura out what matteredimportava mosta maioria.
244
555302
2866
para tentar calcular
o que era mais importante.
09:30
And we foundencontrado that there were ninenove specificespecífico things
245
558168
2081
Descobrimos que havia
nove coisas específicas
09:32
that matteredimportava all acrossatravés the countrypaís
246
560249
2235
que tinham a mesma importância
por todo o país
09:34
and that were the mosta maioria highlyaltamente predictivepreditiva of riskrisco.
247
562484
2977
e que eram os fatores mais previsíveis
de alto risco.
09:37
And so we builtconstruído a universaluniversal riskrisco assessmentavaliação toolferramenta.
248
565461
3705
Construímos uma ferramenta
universal de avaliação de risco.
09:41
And it looksparece like this.
249
569166
1445
Tem este aspeto.
09:42
As you'llvocê vai see, we put some informationem formação in,
250
570611
2612
Como podem ver, colocamos
aqui algumas informações,
09:45
but mosta maioria of it is incrediblyincrivelmente simplesimples,
251
573223
2013
mas a maioria é incrivelmente simples
09:47
it's easyfácil to use,
252
575236
1432
e fácil de usar.
09:48
it focusesfoca on things like the
defendant'sdo réu prioranterior convictionsconvicções,
253
576668
2969
Concentra-se em coisas
como condenações prévias do acusado,
09:51
whetherse they'veeles têm been sentencedcondenado to incarcerationencarceramento,
254
579637
1979
se foram condenados a prisão,
09:53
whetherse they'veeles têm engagedacionado in violenceviolência before,
255
581616
2264
se se envolveram em violência no passado,
09:55
whetherse they'veeles têm even failedfalhou to come back to courtquadra.
256
583880
2393
se não compareceram no tribunal.
09:58
And with this toolferramenta, we can predictprever threetrês things.
257
586273
2500
Com esta ferramenta,
podemos prever três coisas.
10:00
First, whetherse or not someonealguém will commitcometer
258
588773
1853
Primeiro, se alguém vai ou não praticar
10:02
a newNovo crimecrime if they're releasedliberado.
259
590626
1565
um novo crime depois de ser libertado.
10:04
SecondSegundo, for the first time,
260
592191
1664
Segundo, pela primeira vez,
10:05
and I think this is incrediblyincrivelmente importantimportante,
261
593855
1861
e penso que isto é muito importante,
10:07
we can predictprever whetherse someonealguém will commitcometer
262
595716
1923
Podemos prever se alguém praticará
10:09
an actAja of violenceviolência if they're releasedliberado.
263
597639
1834
um ato de violência depois de libertado.
10:11
And that's the singlesolteiro mosta maioria importantimportante thing
264
599473
1887
E isso é a coisa mais importante
10:13
that judgesjuízes say when you talk to them.
265
601360
1807
que os juízes dizem
quando falamos com eles.
10:15
And thirdterceiro, we can predictprever whetherse someonealguém
266
603167
1828
Em terceiro lugar,
podemos prever se alguém
10:16
will come back to courtquadra.
267
604995
1990
voltará ao tribunal.
10:18
And everycada singlesolteiro judgejuiz in the
UnitedUnidos StatesEstados-Membros of AmericaAmérica can use it,
268
606985
3033
E todos os juízes dos EUA podem usá-la,
10:22
because it's been createdcriada on a universaluniversal datadados setconjunto.
269
610018
3812
porque foi criada com base
num grupo de dados universais.
10:25
What judgesjuízes see if they runcorre the riskrisco assessmentavaliação toolferramenta
270
613830
2609
Quando os juízes utilizam
a ferramenta de avaliação de risco
10:28
is this -- it's a dashboardpainel de controle.
271
616439
2120
veem isto — um painel.
10:30
At the toptopo, you see the NewNovo CriminalCriminoso ActivityAtividade ScorePontuação,
272
618559
2848
No topo, vemos a
Pontuação de Atividade Criminal,
10:33
sixseis of coursecurso beingser the highestmais alto,
273
621407
1929
em que "6" são os mais perigosos,
10:35
and then in the middlemeio you
see, "ElevatedElevados riskrisco of violenceviolência."
274
623336
2403
e no meio vemos
"Risco elevado de violência."
10:37
What that saysdiz is that this personpessoa
275
625739
1746
O que isso revela é que essa pessoa
10:39
is someonealguém who has an elevatedelevado riskrisco of violenceviolência
276
627485
2060
tem um risco elevado de violência
10:41
that the judgejuiz should look twiceduas vezes at.
277
629545
1885
que um juiz deve ponderar.
10:43
And then, towardsem direção the bottominferior,
278
631430
1336
Mais abaixo,
10:44
you see the FailureFalha to AppearAparecem ScorePontuação,
279
632766
1968
vemos a Pontuação por Falta de Comparência
10:46
whichqual again is the likelihoodprobabilidade
280
634734
1392
o que representa a probabilidade
10:48
that someonealguém will come back to courtquadra.
281
636126
3013
de alguém voltar a
comparecer perante o tribunal.
10:51
Now I want to say something really importantimportante.
282
639139
2213
Quero dizer uma coisa muito importante.
10:53
It's not that I think we should be eliminatingeliminando
283
641352
2727
Não penso que devemos eliminar
10:56
the judge'sdo juiz instinctinstinto and experienceexperiência
284
644079
2244
o instinto e a experiência do juiz
10:58
from this processprocesso.
285
646323
1604
nestes processos.
10:59
I don't.
286
647927
1058
Nada disso.
11:00
I actuallyna realidade believe the problemproblema that we see
287
648985
2007
Creio que o problema que enfrentamos
11:02
and the reasonrazão that we have
these incredibleincrível systemsistema errorserros,
288
650992
2854
e a razão por que temos
estes incríveis erros no sistema,
11:05
where we're incarceratingencarcerando
low-levelbaixo nível de, nonviolentnão-violenta people
289
653846
3087
em que estamos a encarcerar
pessoas que não são violentas
11:08
and we're releasingliberando high-riskalto risco, dangerousperigoso people,
290
656933
3172
e estamos a libertar
pessoas altamente perigosas,
11:12
is that we don't have an objectiveobjetivo measurea medida of riskrisco.
291
660105
2723
é porque não temos
uma medida objetiva de risco.
11:14
But what I believe should happenacontecer
292
662828
1300
Mas acredito que o que deve acontecer
11:16
is that we should take that
data-drivenorientado a dados riskrisco assessmentavaliação
293
664128
2800
é pegar nessa avaliação de risco
baseada em dados
11:18
and combinecombinar that with the
judge'sdo juiz instinctinstinto and experienceexperiência
294
666928
3041
e juntá-la ao instinto
e experiência dos juízes
11:21
to leadconduzir us to better decisiondecisão makingfazer.
295
669969
2958
para nos levar a melhores
tomadas de decisões.
11:24
The toolferramenta wentfoi statewideem todo o estado in KentuckyKentucky on JulyJulho 1,
296
672927
3303
A ferramenta espalhou-se por
todo o Kentucky no dia 1 de julho.
11:28
and we're about to go up in a
numbernúmero of other U.S. jurisdictionsjurisdições.
297
676230
3351
Estamos a ponto de entrar
numa série de jurisdições dos EUA.
11:31
Our goalobjetivo, quitebastante simplysimplesmente, is that everycada singlesolteiro judgejuiz
298
679581
2591
O nosso objetivo, simplesmente,
é que cada juiz
11:34
in the UnitedUnidos StatesEstados-Membros will use a data-drivenorientado a dados riskrisco toolferramenta
299
682172
2192
nos EUA use uma ferramenta
de risco baseada em dados
11:36
withindentro the nextPróximo fivecinco yearsanos.
300
684364
2091
nos próximos cinco anos.
11:38
We're now workingtrabalhando on riskrisco toolsFerramentas
301
686455
1352
Estamos a trabalhar
em ferramentas de risco
11:39
for prosecutorsmagistrados do Ministério público and for policepolícia officersoficiais as well,
302
687807
3284
para procuradores e também para polícias,
11:43
to try to take a systemsistema that runscorre todayhoje
303
691091
2700
para tentar eliminar
um sistema que funciona hoje
11:45
in AmericaAmérica the samemesmo way it did 50 yearsanos agoatrás,
304
693791
2796
nos EUA, da mesma forma
que funcionava há 50 anos,
11:48
basedSediada on instinctinstinto and experienceexperiência,
305
696587
2097
baseado no instinto e experiência,
11:50
and make it into one that runscorre
306
698684
1855
e transformá-lo em algo que funcione
11:52
on datadados and analyticsAnalytics.
307
700539
2469
com dados e análise.
11:55
Now, the great newsnotícia about all this,
308
703008
1921
A grande novidade nisto tudo,
11:56
and we have a tontonelada of work left to do,
309
704929
1617
— e temos muito trabalho por fazer,
11:58
and we have a lot of culturecultura to changemudança,
310
706546
1857
e temos que mudar a mentalidade
em relação a isso —
12:00
but the great newsnotícia about all of it
311
708403
1746
a grande novidade nisto tudo
12:02
is that we know it workstrabalho.
312
710149
1868
é que sabemos que funciona.
12:04
It's why GoogleGoogle is GoogleGoogle,
313
712017
2153
É por isso que o Google é o Google.
É por isso que todas essas
equipas de basebol
12:06
and it's why all these baseballbaseball teamsequipes use moneyballMoneyball
314
714170
2462
usam a gestão analítica para ganhar jogos.
12:08
to winganhar gamesjogos.
315
716632
1781
12:10
The great newsnotícia for us as well
316
718413
1737
Para nós, a grande novidade
12:12
is that it's the way that we can transformtransformar
317
720150
1896
é que é a forma como podemos transformar
12:14
the AmericanAmericana criminalCriminoso justicejustiça systemsistema.
318
722046
2321
o sistema de justiça criminal
norte-americano.
12:16
It's how we can make our streetsruas safermais segura,
319
724367
2357
É como podemos tornar
as nossas ruas mais seguras,
12:18
we can reducereduzir our prisonprisão costscusta,
320
726724
2299
podemos reduzir os custos
das nossas prisões,
12:21
and we can make our systemsistema much fairermais justa
321
729023
2067
e podemos tornar o nosso
sistema mais transparente
12:23
and more just.
322
731090
1725
e mais justo.
12:24
Some people call it datadados scienceCiência.
323
732815
2162
Algumas pessoas chamam-lhe
ciência de dados.
12:26
I call it moneyballingmoneyballing criminalCriminoso justicejustiça.
324
734977
2301
Eu chamo-lhe gestão analítica
na justiça criminal.
12:29
Thank you.
325
737278
1804
Obrigada.
12:31
(ApplauseAplausos)
326
739082
4093
(Aplausos)
Translated by Romy Leite
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Anne Milgram - Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime.

Why you should listen

Anne Milgram is focused on reforming systems through smart data, analytics and technology. She is currently a Professor of Practice and Distinguished Scholar in Residence at New York University School of Law, where she is building a Criminal Justice Innovation Lab, dedicated to using data and technology to transform the American criminal justice system. She also teaches seminars on criminal justice policy and human trafficking. Milgram began her career as a criminal prosecutor, serving in state, local and federal prosecution offices.  She then became the Attorney General of the State of New Jersey, where she served as the Chief Law Enforcement Officer for the State and oversaw the Camden Police Department.

Though her work, Milgram seeks to bring the best of the modern world -- data, technology and analytics -- to bear in an effort to transform outdated systems and practices. Milgram is centered on creating a paradigm shift in how we think about innovation and reform in the criminal justice system and beyond.

Milgram graduated summa cum laude from Rutgers University and holds a Master of Philosophy in social and political theory from the University of Cambridge. She received her law degree from New York University School of Law.

More profile about the speaker
Anne Milgram | Speaker | TED.com