ABOUT THE SPEAKER
Anne Milgram - Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime.

Why you should listen

Anne Milgram is focused on reforming systems through smart data, analytics and technology. She is currently a Professor of Practice and Distinguished Scholar in Residence at New York University School of Law, where she is building a Criminal Justice Innovation Lab, dedicated to using data and technology to transform the American criminal justice system. She also teaches seminars on criminal justice policy and human trafficking. Milgram began her career as a criminal prosecutor, serving in state, local and federal prosecution offices.  She then became the Attorney General of the State of New Jersey, where she served as the Chief Law Enforcement Officer for the State and oversaw the Camden Police Department.

Though her work, Milgram seeks to bring the best of the modern world -- data, technology and analytics -- to bear in an effort to transform outdated systems and practices. Milgram is centered on creating a paradigm shift in how we think about innovation and reform in the criminal justice system and beyond.

Milgram graduated summa cum laude from Rutgers University and holds a Master of Philosophy in social and political theory from the University of Cambridge. She received her law degree from New York University School of Law.

More profile about the speaker
Anne Milgram | Speaker | TED.com
TED@BCG San Francisco

Anne Milgram: Why smart statistics are the key to fighting crime

Anne Milgram: Por que estatísticas inteligentes são a chave para combater o crime

Filmed:
1,034,735 views

Quando ela se tornou procuradora-geral de Nova Jersey em 2007, Anne Milgram rapidamente descobriu alguns fatos surpreendentes: não apenas sua equipe não sabia quem eles estavam colocando na prisão, mas também não possuíam meios para entender se suas decisões estavam realmente deixando a população mais segura. Assim começou sua missão inspiradora para trazer análises de dados e estatísticas para o sistema de justiça criminal dos Estados Unidos.
- Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime. Full bio

Double-click the English transcript below to play the video.

00:12
In 2007, I became the attorney general
0
843
2591
Em 2007, eu me tornei procuradora-geral
00:15
of the state of New Jersey.
1
3434
1725
do estado de Nova Jersey.
00:17
Before that, I'd been a criminal prosecutor,
2
5159
2280
Antes disso, fui promotora criminal,
primeiro, no escritório
da procuradoria de Manhattan,
00:19
first in the Manhattan district attorney's office,
3
7439
2681
e depois no Departamento
de Justiça dos EUA.
00:22
and then at the United States Department of Justice.
4
10120
2650
00:24
But when I became the attorney general,
5
12770
2201
Mas, quando me tornei procuradora-geral,
00:26
two things happened that changed
the way I see criminal justice.
6
14971
3895
duas coisas aconteceram e mudaram
a forma como vejo a justiça criminal.
00:30
The first is that I asked what I thought
7
18866
2030
Primeiro, perguntei o que, para mim,
00:32
were really basic questions.
8
20896
2186
eram questões bastante simples.
00:35
I wanted to understand who we were arresting,
9
23082
2856
Eu queria entender
quem estávamos prendendo
00:37
who we were charging,
10
25938
1664
quem estávamos acusando
00:39
and who we were putting in our nation's jails
11
27602
2128
e quem estávamos colocando
em nossas cadeias
00:41
and prisons.
12
29730
1416
e presídios.
00:43
I also wanted to understand
13
31146
1648
Eu também queria entender
00:44
if we were making decisions
14
32794
1329
se estávamos tomando decisões
00:46
in a way that made us safer.
15
34123
2518
de modo que ficássemos mais seguros.
00:48
And I couldn't get this information out.
16
36641
3252
E eu não conseguia obter essas respostas.
00:51
It turned out that most big criminal justice agencies
17
39893
3357
Acontece que a maior parte
das agências de justiça criminal,
00:55
like my own
18
43250
1302
como a minha,
00:56
didn't track the things that matter.
19
44552
2382
não rastreavam as coisas importantes.
00:58
So after about a month of being incredibly frustrated,
20
46934
3318
Então, após quase um mês
com uma frustração incrível,
01:02
I walked down into a conference room
21
50252
1971
eu fui até uma sala de conferências
01:04
that was filled with detectives
22
52223
1890
que estava cheia de detetives
01:06
and stacks and stacks of case files,
23
54113
2782
e muitas pilhas de arquivos de casos,
e os detetives estavam lá
01:08
and the detectives were sitting there
24
56895
1176
01:10
with yellow legal pads taking notes.
25
58071
2234
com blocos amarelos, fazendo anotações.
Eles tentavam obter as respostas
que eu estava buscando,
01:12
They were trying to get the information
26
60305
1586
01:13
I was looking for
27
61891
1218
01:15
by going through case by case
28
63109
2045
investigando caso por caso
01:17
for the past five years.
29
65154
1898
dos últimos cinco anos.
01:19
And as you can imagine,
30
67052
1653
E como vocês podem imaginar,
01:20
when we finally got the results, they weren't good.
31
68705
2643
quando vimos os resultados,
eles não eram bons.
01:23
It turned out that we were doing
32
71348
1655
Acontece que estávamos fazendo
01:25
a lot of low-level drug cases
33
73003
2020
muitos casos de drogas de baixo nível
01:27
on the streets just around the corner
34
75023
1475
nas ruas ali perto
01:28
from our office in Trenton.
35
76498
2268
do nosso prédio em Trenton.
A segunda coisa que aconteceu
01:30
The second thing that happened
36
78766
1467
01:32
is that I spent the day in the Camden,
New Jersey police department.
37
80233
3674
foi que passei o dia no Departamento
de Polícia de Camden, Nova Jersey.
01:35
Now, at that time, Camden, New Jersey,
38
83907
1887
Naquela época, Camden, em Nova Jersey,
01:37
was the most dangerous city in America.
39
85794
2652
era a cidade mais perigosa
dos Estados Unidos.
01:40
I ran the Camden Police
Department because of that.
40
88446
3827
Eu chefiei o Departamento
de Polícia de Camden por causa disso.
Eu passei o dia naquele
departamento de polícia,
01:44
I spent the day in the police department,
41
92273
2112
01:46
and I was taken into a room
with senior police officials,
42
94385
2726
e fui levada a uma sala
com oficiais superiores da polícia,
01:49
all of whom were working hard
43
97111
1675
todos trabalhando duro,
01:50
and trying very hard to reduce crime in Camden.
44
98786
3257
e tentando reduzir
a criminalidade em Camden.
01:54
And what I saw in that room,
45
102043
1826
O que eu vi naquela sala,
enquanto discutíamos
a redução da criminalidade,
01:55
as we talked about how to reduce crime,
46
103869
2245
01:58
were a series of officers with a
lot of little yellow sticky notes.
47
106114
3859
foram oficiais com muitos
blocos amarelos de notas adesivas.
02:01
And they would take a yellow sticky
and they would write something on it
48
109973
2846
Eles pegavam uma nota adesiva
e escreviam algo nela
02:04
and they would put it up on a board.
49
112823
1799
e a grudavam em um quadro.
02:06
And one of them said,
"We had a robbery two weeks ago.
50
114622
2171
E um deles disse: “Tivemos
um assalto duas semanas atrás.
02:08
We have no suspects."
51
116793
1711
Não temos suspeitos.”
02:10
And another said, "We had a shooting in this neighborhood last week. We have no suspects."
52
118504
5027
E outro disse: “Houve um tiroteio neste
bairro semana passada. Não há suspeitos.”
02:15
We weren't using data-driven policing.
53
123531
2583
Não estávamos fazendo policiamento
com base em dados.
02:18
We were essentially trying to fight crime
54
126114
2042
Estávamos tentando combater o crime
02:20
with yellow Post-it notes.
55
128156
2527
com post-its amarelos.
02:22
Now, both of these things made me realize
56
130683
2135
Essas duas coisas me fizeram perceber
02:24
fundamentally that we were failing.
57
132818
3251
fundamentalmente que estávamos falhando.
02:28
We didn't even know who was
in our criminal justice system,
58
136069
3123
Sequer sabíamos quem estava
no nosso sistema de justiça criminal,
02:31
we didn't have any data about
the things that mattered,
59
139192
3235
não possuíamos qualquer dado
sobre as coisas importantes,
02:34
and we didn't share data or use analytics
60
142427
2568
não compartilhávamos dados
nem usávamos análises
02:36
or tools to help us make better decisions
61
144995
2151
ou ferramentas para nos ajudar
a tomar decisões melhores
02:39
and to reduce crime.
62
147146
2003
e reduzir a criminalidade.
02:41
And for the first time, I started to think
63
149149
2224
Pela primeira vez, eu comecei a refletir
02:43
about how we made decisions.
64
151373
1910
sobre como tomávamos decisões.
Quando eu era assistente da promotoria,
02:45
When I was an assistant D.A.,
65
153283
1397
02:46
and when I was a federal prosecutor,
66
154680
1870
e quando era promotora pública federal,
02:48
I looked at the cases in front of me,
67
156550
1746
eu olhava os casos na minha frente
02:50
and I generally made decisions based on my instinct
68
158296
2626
e normalmente tomava decisões
baseadas no meu instinto
02:52
and my experience.
69
160922
1692
e minha experiência.
02:54
When I became attorney general,
70
162614
1659
Quando me tornei procuradora-geral,
02:56
I could look at the system as a whole,
71
164273
1639
pude ver o sistema como um todo,
02:57
and what surprised me is that I found
72
165912
1818
e o que me surpreendeu foi que descobri
02:59
that that was exactly how we were doing it
73
167730
1905
que era exatamente
assim que fazíamos
03:01
across the entire system --
74
169635
2303
por todo o sistema --
03:03
in police departments, in prosecutors's offices,
75
171938
2401
nos departamentos de polícia,
nos escritórios de procuradoria,
03:06
in courts and in jails.
76
174339
2800
nos tribunais e nos presídios.
03:09
And what I learned very quickly
77
177139
2197
E o que aprendi rapidamente
03:11
is that we weren't doing a good job.
78
179336
3633
foi que não estávamos fazendo
um bom trabalho.
03:14
So I wanted to do things differently.
79
182969
2016
Então, eu queria fazer diferente.
03:16
I wanted to introduce data and analytics
80
184985
2197
Eu queria introduzir dados e análises
03:19
and rigorous statistical analysis
81
187182
2049
e análises de estatísticas rigorosas
03:21
into our work.
82
189231
1400
para o nosso trabalho.
03:22
In short, I wanted to moneyball criminal justice.
83
190631
2970
Em resumo, eu queria fazer
moneyball na justiça criminal.
03:25
Now, moneyball, as many of you know,
84
193601
2027
Moneyball, como muitos de vocês sabem,
foi o que o Oakland A’s fez,
03:27
is what the Oakland A's did,
85
195628
1569
utilizando dados
inteligentes e estatísticas
03:29
where they used smart data and statistics
86
197197
1973
03:31
to figure out how to pick players
87
199170
1622
para escolher os jogadores
03:32
that would help them win games,
88
200792
1521
que os ajudariam a vencer,
03:34
and they went from a system that
was based on baseball scouts
89
202313
2980
e de um sistema baseado
em olheiros de beisebol
03:37
who used to go out and watch players
90
205293
1860
que iam assistir aos jogadores
03:39
and use their instinct and experience,
91
207153
1637
e usar seu instinto e experiência,
03:40
the scouts' instincts and experience,
92
208790
1743
o instinto e experiência dos olheiros,
03:42
to pick players, from one to use
93
210533
1713
para escolher jogadores, para utilizar
03:44
smart data and rigorous statistical analysis
94
212246
2822
dados inteligentes e estatísticas
de análises rigorosas
03:47
to figure out how to pick players
that would help them win games.
95
215068
3371
para entender quais jogadores
os ajudariam a vencer os jogos.
03:50
It worked for the Oakland A's,
96
218439
1798
Funcionou para os Oakland A’s,
03:52
and it worked in the state of New Jersey.
97
220237
2219
e funcionou no estado de Nova Jersey.
03:54
We took Camden off the top of the list
98
222456
2073
Nós retiramos Camden do topo da lista
03:56
as the most dangerous city in America.
99
224529
2171
das cidades mais perigosas dos EUA.
03:58
We reduced murders there by 41 percent,
100
226700
3155
Reduzimos os assassinatos em 41%,
04:01
which actually means 37 lives were saved.
101
229855
2982
o que significa que 37 vidas foram salvas.
04:04
And we reduced all crime in the city by 26 percent.
102
232837
3740
E reduzimos toda a criminalidade
na cidade em 26%.
04:08
We also changed the way
we did criminal prosecutions.
103
236577
3239
Também mudamos a maneira
como conduzíamos as ações penais.
04:11
So we went from doing low-level drug crimes
104
239816
2005
Passamos de crimes baixo nível de drogas,
04:13
that were outside our building
105
241821
1642
que aconteciam do lado do nosso prédio,
04:15
to doing cases of statewide importance,
106
243463
2342
para casos de importância estadual,
04:17
on things like reducing violence
with the most violent offenders,
107
245805
3158
por exemplo, reduzir a violência
dos criminosos mais violentos,
04:20
prosecuting street gangs,
108
248963
1858
processar gangues de rua,
04:22
gun and drug trafficking, and political corruption.
109
250821
3408
tráfico de armas e drogas,
e corrupção política.
04:26
And all of this matters greatly,
110
254229
2502
Tudo isso tem extrema importância,
04:28
because public safety to me
111
256731
1945
porque, para mim, a segurança pública
04:30
is the most important function of government.
112
258676
2536
é a função mais importante do governo.
Se não estivermos seguros,
não podemos receber educação,
04:33
If we're not safe, we can't be educated,
113
261212
2298
04:35
we can't be healthy,
114
263510
1348
não podemos ter saúde,
04:36
we can't do any of the other things
we want to do in our lives.
115
264858
2945
não podemos fazer nada mais
que fazemos em nossas vidas.
04:39
And we live in a country today
116
267803
1701
E, hoje moramos em um país
04:41
where we face serious criminal justice problems.
117
269504
3134
onde enfrentamos problemas
sérios na justiça criminal.
04:44
We have 12 million arrests every single year.
118
272638
3661
Temos 12 milhões de detenções a cada ano.
04:48
The vast majority of those arrests
119
276299
2043
A grande maioria dessas detenções
04:50
are for low-level crimes, like misdemeanors,
120
278342
3012
são por crimes leves, como contravenções,
04:53
70 to 80 percent.
121
281354
1734
de 70% a 80%.
04:55
Less than five percent of all arrests
122
283088
1991
Menos de 5% de todas as detenções
04:57
are for violent crime.
123
285079
1895
são por crimes violentos.
04:58
Yet we spend 75 billion,
124
286974
2055
Mesmo assim, gastamos 75 bilhões,
05:01
that's b for billion,
125
289029
1418
com um “b” de bilhões,
05:02
dollars a year on state and local corrections costs.
126
290447
4127
de dólares por ano
em correções locais e estatais.
05:06
Right now, today, we have 2.3 million people
127
294574
2841
Neste momento,
temos 2,3 milhões de pessoas
05:09
in our jails and prisons.
128
297415
1900
nas nossas cadeias e presídios.
05:11
And we face unbelievable public safety challenges
129
299315
2796
E enfrentamos desafios
de segurança pública inacreditáveis,
05:14
because we have a situation
130
302111
1939
porque temos uma situação
05:16
in which two thirds of the people in our jails
131
304050
2898
na qual dois terços
das pessoas nas prisões
05:18
are there waiting for trial.
132
306948
1754
estão aguardando julgamento.
05:20
They haven't yet been convicted of a crime.
133
308702
2135
Eles sequer ainda foram condenados.
05:22
They're just waiting for their day in court.
134
310837
2119
Estão apenas aguardando
pelo julgamento.
05:24
And 67 percent of people come back.
135
312956
3548
E 67% das pessoas retornam.
05:28
Our recidivism rate is amongst
the highest in the world.
136
316504
3028
Nossa taxa de reincidência
é uma das maiores do mundo.
05:31
Almost seven in 10 people who are released
137
319532
2103
Quase 7 a cada 10 pessoas que são soltas
05:33
from prison will be rearrested
138
321635
1651
da prisão serão presas novamente,
05:35
in a constant cycle of crime and incarceration.
139
323286
3955
em um ciclo constante
de crime e encarceramento.
05:39
So when I started my job at the Arnold Foundation,
140
327241
2582
Quando comecei meu trabalho
na Arnold Foundation,
05:41
I came back to looking at a lot of these questions,
141
329823
2736
eu voltei a refletir
sobre muitas dessas questões,
05:44
and I came back to thinking about how
142
332559
1654
e voltei a pensar
05:46
we had used data and analytics to transform
143
334213
2383
em como havíamos utilizado
dados e análises para transformar
05:48
the way we did criminal justice in New Jersey.
144
336596
2584
a maneira como conduzíamos
a justiça criminal em Nova Jersey.
05:51
And when I look at the criminal justice system
145
339180
2144
Quando olho o sistema de justiça criminal
05:53
in the United States today,
146
341324
1656
hoje em dia nos Estados Unidos,
eu me sinto exatamente como me senti
05:54
I feel the exact same way that I did
147
342980
1639
05:56
about the state of New Jersey when I started there,
148
344619
2466
a respeito do estado
de Nova Jersey quando comecei lá:
05:59
which is that we absolutely have to do better,
149
347085
3228
precisamos absolutamente
fazer algo melhor,
06:02
and I know that we can do better.
150
350313
1923
e eu sei que podemos fazer melhor.
06:04
So I decided to focus
151
352236
1705
Então, decidir focar
06:05
on using data and analytics
152
353941
2217
a utilização de dados e análises
06:08
to help make the most critical decision
153
356158
2361
para ajudar a tomar
as decisões mais críticas
06:10
in public safety,
154
358519
1606
sobre segurança pública,
06:12
and that decision is the determination
155
360125
2021
e essa decisão é a determinação
06:14
of whether, when someone has been arrested,
156
362146
2535
de que quando alguém for preso,
se ele representa
um risco à segurança pública
06:16
whether they pose a risk to public safety
157
364681
1915
06:18
and should be detained,
158
366596
1526
e precisa ser detido,
06:20
or whether they don't pose a risk to public safety
159
368122
2356
ou não representa
um risco à segurança pública
06:22
and should be released.
160
370478
1637
e deve ser solto.
06:24
Everything that happens in criminal cases
161
372115
1919
Tudo o que acontece nos casos criminais
06:26
comes out of this one decision.
162
374034
1772
surge dessa única decisão.
06:27
It impacts everything.
163
375806
1496
Ela influencia tudo.
06:29
It impacts sentencing.
164
377302
1350
Influencia o julgamento,
06:30
It impacts whether someone gets drug treatment.
165
378652
1901
se vai receber tratamento
contra as drogas.
06:32
It impacts crime and violence.
166
380553
2323
Influencia a criminalidade e violência.
06:34
And when I talk to judges around the United States,
167
382876
1937
E quando converso com juízes pelos EUA,
06:36
which I do all the time now,
168
384813
1928
algo que faço o tempo todo agora,
06:38
they all say the same thing,
169
386741
1837
todos dizem a mesma coisa,
06:40
which is that we put dangerous people in jail,
170
388578
3107
que colocamos pessoas perigosas na prisão,
06:43
and we let non-dangerous, nonviolent people out.
171
391685
3525
e deixamos pessoas não violentas livres.
06:47
They mean it and they believe it.
172
395210
2233
Eles falam sério e acreditam nisso.
06:49
But when you start to look at the data,
173
397443
1733
Mas quando olhamos os dados,
06:51
which, by the way, the judges don't have,
174
399176
2464
que, a propósito, os juízes não os têm,
06:53
when we start to look at the data,
175
401640
1612
quando começamos a olhar os dados,
06:55
what we find time and time again,
176
403252
2418
o que sempre descobrimos
06:57
is that this isn't the case.
177
405670
1982
é que não acontece assim.
06:59
We find low-risk offenders,
178
407652
1681
Encontramos criminosos de baixo risco,
07:01
which makes up 50 percent of our
entire criminal justice population,
179
409333
3714
que compõem 50% da nossa população
da justiça criminal,
07:05
we find that they're in jail.
180
413047
2399
e descobrimos que estão presos.
07:07
Take Leslie Chew, who was a Texas man
181
415446
2486
Por exemplo Leslie Chew,
que era um homem do Texas
07:09
who stole four blankets on a cold winter night.
182
417932
2884
que roubou quatro cobertores
numa noite fria de inverno.
07:12
He was arrested, and he was kept in jail
183
420816
2595
Ele foi preso, e foi mantido na prisão,
07:15
on 3,500 dollars bail,
184
423411
2053
sob a fiança de 3.500 dólares,
07:17
an amount that he could not afford to pay.
185
425464
2776
um valor que ele não tinha
condições de pagar.
07:20
And he stayed in jail for eight months
186
428240
2588
E ele ficou na prisão por oito meses,
07:22
until his case came up for trial,
187
430828
2065
até seu caso ir a julgamento,
07:24
at a cost to taxpayers of more than 9,000 dollars.
188
432893
3905
sob o custo de mais
de 9 mil dólares aos contribuintes.
07:28
And at the other end of the spectrum,
189
436798
1997
E, por outro lado,
07:30
we're doing an equally terrible job.
190
438795
2282
estamos fazendo um trabalho
igualmente terrível.
07:33
The people who we find
191
441077
1572
As pessoas que achamos
07:34
are the highest-risk offenders,
192
442649
2019
que são os criminosos de maior risco,
07:36
the people who we think have the highest likelihood
193
444668
2497
as pessoas que achamos
que têm a maior probabilidade
07:39
of committing a new crime if they're released,
194
447165
1952
de cometer um novo crime se forem soltos,
07:41
we see nationally that 50 percent of those people
195
449117
2950
vemos, nacionalmente,
que 50% dessas pessoas
07:44
are being released.
196
452067
1974
estão sendo soltas.
07:46
The reason for this is the way we make decisions.
197
454041
3174
A razão para isso é a maneira
como tomamos as decisões.
Os juízes têm a melhor das intenções
07:49
Judges have the best intentions
198
457215
1709
07:50
when they make these decisions about risk,
199
458924
1952
quando tomam essas decisões sobre riscos,
07:52
but they're making them subjectively.
200
460876
2484
mas eles estão fazendo
isso de maneira subjetiva.
07:55
They're like the baseball scouts 20 years ago
201
463360
2146
São como os olheiros
de beisebol há 20 anos,
07:57
who were using their instinct and their experience
202
465506
2131
que utilizavam
seu instinto e experiência
07:59
to try to decide what risk someone poses.
203
467637
2679
para tentar decidir quais riscos
um jogador apresenta.
08:02
They're being subjective,
204
470316
1530
Eles estão sendo subjetivos,
08:03
and we know what happens
with subjective decision making,
205
471846
3060
e sabemos o que acontece com decisões
tomadas subjetivamente:
08:06
which is that we are often wrong.
206
474906
2743
geralmente estão erradas.
08:09
What we need in this space
207
477649
1383
O que precisamos nesta área
08:11
are strong data and analytics.
208
479032
2552
são dados e análises sólidos.
08:13
What I decided to look for
209
481584
1747
O que eu decidi buscar
08:15
was a strong data and analytic risk assessment tool,
210
483331
2836
foi uma ferramenta de dados e análises
para avaliação de risco,
08:18
something that would let judges actually understand
211
486167
2764
algo que permitiria aos juízes entenderem,
08:20
with a scientific and objective way
212
488931
2259
com base científica e objetiva,
08:23
what the risk was that was posed
213
491190
1647
qual é o risco apresentado
08:24
by someone in front of them.
214
492837
1610
pelo réu a sua frente.
08:26
I looked all over the country,
215
494447
1649
Eu olhei por todo o país
08:28
and I found that between five and 10 percent
216
496096
1942
e descobri que entre 5% e 10%
de todas as jurisdições dos EUA
08:30
of all U.S. jurisdictions
217
498038
1329
08:31
actually use any type of risk assessment tool,
218
499367
2978
utilizam algum tipo de ferramenta
de avaliação de risco,
08:34
and when I looked at these tools,
219
502345
1625
e quando olhei para essas ferramentas,
08:35
I quickly realized why.
220
503970
1860
rapidamente entendi o motivo.
08:37
They were unbelievably expensive to administer,
221
505830
2690
Elas eram incrivelmente
caras para administrar,
08:40
they were time-consuming,
222
508520
1528
consumiam muito tempo,
08:42
they were limited to the local jurisdiction
223
510048
2107
e estavam limitadas às jurisdições locais
08:44
in which they'd been created.
224
512155
1430
onde foram criadas.
08:45
So basically, they couldn't be scaled
225
513585
1793
Então, basicamente,
não poderiam ser expandidas
08:47
or transferred to other places.
226
515378
2209
ou transferidas para outros lugares.
08:49
So I went out and built a phenomenal team
227
517587
2237
Então, eu saí e montei
uma equipe excepcional
08:51
of data scientists and researchers
228
519824
2044
de cientistas de dados,
pesquisadores e estatísticos
08:53
and statisticians
229
521868
1626
08:55
to build a universal risk assessment tool,
230
523494
2845
para montar uma ferramenta
de avaliação de risco universal,
08:58
so that every single judge in
the United States of America
231
526339
2393
para que cada juiz nos EUA
09:00
can have an objective, scientific measure of risk.
232
528732
4324
possa ter um parâmetro
de risco objetivo e científico.
09:05
In the tool that we've built,
233
533056
1658
Na ferramenta que construímos,
09:06
what we did was we collected 1.5 million cases
234
534714
2868
o que fizemos foi coletar
1,5 milhões de casos
09:09
from all around the United States,
235
537582
1698
em todo os Estados Unidos,
09:11
from cities, from counties,
236
539280
1644
das cidades, dos municípios,
09:12
from every single state in the country,
237
540924
1511
de cada estado do país,
09:14
the federal districts.
238
542435
1746
e dos distritos federais.
09:16
And with those 1.5 million cases,
239
544181
2189
E com esses 1,5 milhões de casos,
que é o maior conjunto
de dados em pré-processo
09:18
which is the largest data set on pretrial
240
546370
1940
09:20
in the United States today,
241
548310
1805
nos Estados Unidos hoje,
09:22
we were able to basically find that there were
242
550115
1865
pudemos, basicamente, descobrir que havia
09:23
900-plus risk factors that we could look at
243
551980
3322
mais de 900 fatores de risco
que poderíamos avaliar
09:27
to try to figure out what mattered most.
244
555302
2866
para tentar entender
o que era mais importante.
09:30
And we found that there were nine specific things
245
558168
2081
E descobrimos que havia
nove elementos específicos
09:32
that mattered all across the country
246
560249
2235
que eram importantes em todo o país
09:34
and that were the most highly predictive of risk.
247
562484
2977
e que eram os fatores
que melhor previam o risco.
09:37
And so we built a universal risk assessment tool.
248
565461
3705
Então, construímos uma ferramenta
de avaliação de risco universal.
09:41
And it looks like this.
249
569166
1445
E se parece com isso.
09:42
As you'll see, we put some information in,
250
570611
2612
Como podem ver, colocamos
algumas informações,
09:45
but most of it is incredibly simple,
251
573223
2013
mas a maioria é muito simples,
09:47
it's easy to use,
252
575236
1432
é fácil de usar,
09:48
it focuses on things like the
defendant's prior convictions,
253
576668
2969
concentra-se em fatos
como condenações anteriores do réu,
09:51
whether they've been sentenced to incarceration,
254
579637
1979
se foram sentenciados à prisão,
09:53
whether they've engaged in violence before,
255
581616
2264
se já se envolveram com violência antes,
09:55
whether they've even failed to come back to court.
256
583880
2393
até se já deixaram
de comparecer ao tribunal.
09:58
And with this tool, we can predict three things.
257
586273
2500
E com esta ferramenta,
podemos prever três coisas:
10:00
First, whether or not someone will commit
258
588773
1853
primeiro, se alguém vai ou não cometer
10:02
a new crime if they're released.
259
590626
1565
um novo crime se for solto.
10:04
Second, for the first time,
260
592191
1664
Segundo, pela primeira vez,
10:05
and I think this is incredibly important,
261
593855
1861
e eu acho isso extremamente importante,
10:07
we can predict whether someone will commit
262
595716
1923
podemos prever se alguém vai cometer
10:09
an act of violence if they're released.
263
597639
1834
um ato de violência, se for solto.
10:11
And that's the single most important thing
264
599473
1887
E esse é o fator mais importante
10:13
that judges say when you talk to them.
265
601360
1807
que os juízes dizem.
10:15
And third, we can predict whether someone
266
603167
1828
E terceiro, podemos prever se alguém
10:16
will come back to court.
267
604995
1990
vai voltar ao tribunal.
10:18
And every single judge in the
United States of America can use it,
268
606985
3033
E cada juiz nos EUA
pode utilizar essa ferramenta,
10:22
because it's been created on a universal data set.
269
610018
3812
porque foi criada baseada
em dados universais.
O que os juízes veem quando abrem
a ferramenta de avaliação de risco
10:25
What judges see if they run the risk assessment tool
270
613830
2609
10:28
is this -- it's a dashboard.
271
616439
2120
é isso, um painel.
10:30
At the top, you see the New Criminal Activity Score,
272
618559
2848
No topo, vemos o parâmetro
de novas atividades criminais,
10:33
six of course being the highest,
273
621407
1929
obviamente o seis é o máximo,
10:35
and then in the middle you
see, "Elevated risk of violence."
274
623336
2403
e, no meio, está
“Risco elevado de violência”.
10:37
What that says is that this person
275
625739
1746
Isso quer dizer que esta pessoa
10:39
is someone who has an elevated risk of violence
276
627485
2060
é alguém que possui
um risco elevado de violência
10:41
that the judge should look twice at.
277
629545
1885
e que o juiz deve pensar duas vezes.
10:43
And then, towards the bottom,
278
631430
1336
Então, na parte de baixo,
10:44
you see the Failure to Appear Score,
279
632766
1968
vemos o parâmetro de ausência,
10:46
which again is the likelihood
280
634734
1392
que é a probabilidade
10:48
that someone will come back to court.
281
636126
3013
de que alguém volte aos tribunais.
10:51
Now I want to say something really important.
282
639139
2213
Agora, quero dizer algo muito importante.
10:53
It's not that I think we should be eliminating
283
641352
2727
Eu não acho que devamos eliminar
10:56
the judge's instinct and experience
284
644079
2244
o instinto e a experiência dos juízes
10:58
from this process.
285
646323
1604
a partir deste processo.
10:59
I don't.
286
647927
1058
Não acho.
11:00
I actually believe the problem that we see
287
648985
2007
Eu acredito que o problema que vemos
11:02
and the reason that we have
these incredible system errors,
288
650992
2854
e o motivo para termos
tantos erros no sistema,
no qual estamos detendo
pessoas de baixo risco e não violentas
11:05
where we're incarcerating
low-level, nonviolent people
289
653846
3087
11:08
and we're releasing high-risk, dangerous people,
290
656933
3172
e estamos libertando
pessoas perigosas e de alto risco,
11:12
is that we don't have an objective measure of risk.
291
660105
2723
é que não temos um parâmetro
objetivo de medida de risco.
11:14
But what I believe should happen
292
662828
1300
Acredito que devia acontecer
11:16
is that we should take that
data-driven risk assessment
293
664128
2800
é que devíamos pegar
essas avaliações de risco por dados
11:18
and combine that with the
judge's instinct and experience
294
666928
3041
e combinar com o instinto
e experiência dos juízes,
11:21
to lead us to better decision making.
295
669969
2958
para nos guiar a tomar decisões melhores.
11:24
The tool went statewide in Kentucky on July 1,
296
672927
3303
A ferramenta saiu no estado
de Kentucky, em 1º de Julho,
11:28
and we're about to go up in a
number of other U.S. jurisdictions.
297
676230
3351
e estamos prestes a expandir
por outras jurisdições dos EUA.
11:31
Our goal, quite simply, is that every single judge
298
679581
2591
Nosso objetivo
é simplesmente que cada juiz
nos Estados Unidos use
uma ferramenta de risco por dados
11:34
in the United States will use a data-driven risk tool
299
682172
2192
11:36
within the next five years.
300
684364
2091
dentro dos próximos cinco anos.
11:38
We're now working on risk tools
301
686455
1352
Estamos trabalhando
em ferramentas de risco
11:39
for prosecutors and for police officers as well,
302
687807
3284
para procuradores
e também oficiais da polícia,
11:43
to try to take a system that runs today
303
691091
2700
para pegar o sistema que existe hoje
11:45
in America the same way it did 50 years ago,
304
693791
2796
nos Estados Unidos
do mesmo jeito que há 50 anos,
11:48
based on instinct and experience,
305
696587
2097
baseado em instinto e experiência,
11:50
and make it into one that runs
306
698684
1855
e transformá-lo
em um sistema que se baseia
11:52
on data and analytics.
307
700539
2469
em dados e análises.
11:55
Now, the great news about all this,
308
703008
1921
Agora, a boa notícia sobre isso tudo,
11:56
and we have a ton of work left to do,
309
704929
1617
e temos ainda muito trabalho,
11:58
and we have a lot of culture to change,
310
706546
1857
e temos muita cultura para mudar,
12:00
but the great news about all of it
311
708403
1746
mas a boa notícia sobre isso
12:02
is that we know it works.
312
710149
1868
é que sabemos que funciona.
12:04
It's why Google is Google,
313
712017
2153
É por isso que o Google é o Google,
12:06
and it's why all these baseball teams use moneyball
314
714170
2462
e por isso que os times
de beisebol usam o moneyball
12:08
to win games.
315
716632
1781
para ganhar os jogos.
12:10
The great news for us as well
316
718413
1737
A boa notícia para nós também
12:12
is that it's the way that we can transform
317
720150
1896
é que assim podemos transformar
12:14
the American criminal justice system.
318
722046
2321
o sistema de justiça criminal americano.
12:16
It's how we can make our streets safer,
319
724367
2357
É como vamos deixar as ruas mais seguras,
12:18
we can reduce our prison costs,
320
726724
2299
reduzir os custos dos presídios,
12:21
and we can make our system much fairer
321
729023
2067
e deixar o nosso sistema mais razoável
12:23
and more just.
322
731090
1725
e mais justo.
12:24
Some people call it data science.
323
732815
2162
Alguns chamam isso de ciência de dados.
12:26
I call it moneyballing criminal justice.
324
734977
2301
Eu chamo de fazer um moneyball
na justiça criminal.
12:29
Thank you.
325
737278
1804
Obrigada.
12:31
(Applause)
326
739082
4093
(Aplausos)
Translated by Jessica Ranft
Reviewed by Gustavo Rocha

▲Back to top

ABOUT THE SPEAKER
Anne Milgram - Criminal justice reformer
Anne Milgram is committed to using data and analytics to fight crime.

Why you should listen

Anne Milgram is focused on reforming systems through smart data, analytics and technology. She is currently a Professor of Practice and Distinguished Scholar in Residence at New York University School of Law, where she is building a Criminal Justice Innovation Lab, dedicated to using data and technology to transform the American criminal justice system. She also teaches seminars on criminal justice policy and human trafficking. Milgram began her career as a criminal prosecutor, serving in state, local and federal prosecution offices.  She then became the Attorney General of the State of New Jersey, where she served as the Chief Law Enforcement Officer for the State and oversaw the Camden Police Department.

Though her work, Milgram seeks to bring the best of the modern world -- data, technology and analytics -- to bear in an effort to transform outdated systems and practices. Milgram is centered on creating a paradigm shift in how we think about innovation and reform in the criminal justice system and beyond.

Milgram graduated summa cum laude from Rutgers University and holds a Master of Philosophy in social and political theory from the University of Cambridge. She received her law degree from New York University School of Law.

More profile about the speaker
Anne Milgram | Speaker | TED.com