ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Cathy O'Neil: L'era della fede cieca nelle grandi masse di dati deve finire

Filmed:
1,391,460 views

Gli algoritmi stabiliscono a chi spetta un prestito, chi ottiene un colloquio di lavoro, chi ottiene un'assicurazione e molto altro -- ma non rendono le cose automaticamente giuste. La matematica e analista di dati Cathy O'Neil ha coniato un termine per gli algoritmi segreti, importanti e dannosi: "armi di distruzione matematica". Scoprite di più sulle intenzioni nascoste dietro le formule.
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
AlgorithmsAlgoritmi are everywhereovunque.
0
975
1596
Gli algoritmi sono ovunque.
00:16
They sortordinare and separateseparato
the winnersvincitori from the losersperdenti.
1
4111
3125
Selezionano e separano
i vincitori dai perdenti.
00:20
The winnersvincitori get the joblavoro
2
8019
2264
I vincitori ottengono il lavoro
o l'offerta di una buona
carta di credito.
00:22
or a good creditcredito cardcarta offeroffrire.
3
10307
1743
00:24
The losersperdenti don't even get an interviewcolloquio
4
12074
2651
I perdenti non ottengono
neanche un colloquio di lavoro
00:27
or they paypagare more for insuranceassicurazione.
5
15590
1777
o pagano di più per l'assicurazione.
00:30
We're beingessere scoredavuto un punteggio di with secretsegreto formulasformule
that we don't understandcapire
6
18197
3549
Siamo valutati da formule segrete
che non comprendiamo
00:34
that oftenspesso don't have systemssistemi of appealappello.
7
22675
3217
che spesso non prevedono
sistemi cui poter fare ricorso.
Questo solleva la domanda:
00:39
That begsimplora the questiondomanda:
8
27240
1296
00:40
What if the algorithmsalgoritmi are wrongsbagliato?
9
28560
2913
e se gli algoritmi si sbagliano?
Per creare algoritmi servono due cose:
00:45
To buildcostruire an algorithmalgoritmo you need two things:
10
33100
2040
servono dati, cos'è avvenuto in passato,
00:47
you need datadati, what happenedè accaduto in the pastpassato,
11
35164
1981
e una definizione di successo,
00:49
and a definitiondefinizione of successsuccesso,
12
37169
1561
00:50
the thing you're looking for
and oftenspesso hopingsperando for.
13
38754
2457
ciò che state cercando
e spesso sperando di ottenere.
00:53
You traintreno an algorithmalgoritmo
by looking, figuringcapire out.
14
41235
5037
L'algoritmo si verifica
cercando, risolvendo.
Gli algoritmi chiariscono con precisione
ciò che è associato al successo,
00:58
The algorithmalgoritmo figuresfigure out
what is associatedassociato with successsuccesso.
15
46296
3419
01:01
What situationsituazione leadsconduce to successsuccesso?
16
49739
2463
quale situazione porta al successo.
01:04
ActuallyIn realtà, everyonetutti usesusi algorithmsalgoritmi.
17
52881
1762
In realtà, tutti usano algoritmi.
01:06
They just don't formalizeformalizzare them
in writtenscritto codecodice.
18
54667
2718
Solo che non li formalizzano
attraverso un codice scritto.
Vi faccio un esempio.
01:09
Let me give you an exampleesempio.
19
57409
1348
Io uso un algoritmo ogni giorno
per cucinare per la mia famiglia.
01:10
I use an algorithmalgoritmo everyogni day
to make a mealpasto for my familyfamiglia.
20
58781
3316
I dati che uso
01:14
The datadati I use
21
62121
1476
01:16
is the ingredientsingredienti in my kitchencucina,
22
64394
1659
sono ingredienti della mia cucina,
01:18
the time I have,
23
66077
1527
il tempo che ho,
01:19
the ambitionambizione I have,
24
67628
1233
l'ambizione che ho,
01:20
and I curatecurato that datadati.
25
68885
1709
e curo quei dati.
01:22
I don't countcontare those little packagesPacchetti
of ramenramen noodlestagliatelle as foodcibo.
26
70618
4251
Non considero cibo quei
pacchettini di noodles istantanei.
(Risate)
01:26
(LaughterRisate)
27
74893
1869
La mia definizione di successo é:
01:28
My definitiondefinizione of successsuccesso is:
28
76786
1845
01:30
a mealpasto is successfulriuscito
if my kidsbambini eatmangiare vegetablesverdure.
29
78655
2659
un pasto è ben riuscito
se i miei figli mangiano verdure.
Sarebbe molto diverso se fosse
mio figlio più piccolo a decidere.
01:34
It's very differentdiverso
from if my youngestminore sonfiglio were in chargecarica.
30
82181
2854
Lui direbbe che il successo
è mangiare tanta Nutella.
01:37
He'dEgli avrebbe say successsuccesso is if
he getsprende to eatmangiare lots of NutellaNutella.
31
85059
2788
Ma sono io a scegliere
cos'è il successo.
01:41
But I get to choosescegliere successsuccesso.
32
89179
2226
Comando io.
È la mia opinione che conta.
01:43
I am in chargecarica. My opinionopinione mattersquestioni.
33
91429
2707
01:46
That's the first ruleregola of algorithmsalgoritmi.
34
94160
2675
Questa è la prima regola degli algoritmi.
01:48
AlgorithmsAlgoritmi are opinionsopinioni embeddedinserito in codecodice.
35
96859
3180
Gli algoritmi sono opinioni
racchiuse in codici.
È molto diverso da ciò che pensate,
01:53
It's really differentdiverso from what you think
mostmaggior parte people think of algorithmsalgoritmi.
36
101562
3663
che la maggior parte della gente
pensa degli algoritmi.
01:57
They think algorithmsalgoritmi are objectiveobbiettivo
and truevero and scientificscientifico.
37
105249
4504
Si pensa che gli algoritmi siano
oggettivi e realistici e scientifici.
02:02
That's a marketingmarketing tricktrucco.
38
110387
1699
È un inganno del marketing.
02:05
It's alsoanche a marketingmarketing tricktrucco
39
113269
2125
È un inganno del marketing anche
02:07
to intimidateintimidire you with algorithmsalgoritmi,
40
115418
3154
quello di minacciarvi con gli algoritmi,
02:10
to make you trustfiducia and fearpaura algorithmsalgoritmi
41
118596
3661
per convincervi a fidarvi
degli algoritmi e a temerli
02:14
because you trustfiducia and fearpaura mathematicsmatematica.
42
122281
2018
perché vi fidate e avete paura
delle scienze matematiche.
02:17
A lot can go wrongsbagliato when we put
blindcieco faithfede in biggrande datadati.
43
125567
4830
Si può sbagliare tanto se riponiamo
una fiducia cieca in grandi masse di dati.
02:23
This is KiriKiri SoaresSoares.
She's a highalto schoolscuola principalPrincipal in BrooklynBrooklyn.
44
131684
3373
Lei è Kiri Soares. È preside
in una scuola superiore di Brooklyn.
Nel 2011, mi disse che
i suoi docenti erano valutati
02:27
In 2011, she told me
her teachersinsegnanti were beingessere scoredavuto un punteggio di
45
135081
2586
con un complicato e segreto algoritmo
02:29
with a complexcomplesso, secretsegreto algorithmalgoritmo
46
137691
2727
chiamato "modello di valore aggiunto".
02:32
calledchiamato the "value-addeda valore aggiunto modelmodello."
47
140442
1489
02:34
I told her, "Well, figurefigura out
what the formulaformula is, showmostrare it to me.
48
142505
3092
Le ho detto: "Trova qual è
la formula e mostramela.
Così te la spiego."
02:37
I'm going to explainspiegare it to you."
49
145621
1541
Mi disse: "Ho provato
ad avere la formula,
02:39
She said, "Well, I triedprovato
to get the formulaformula,
50
147186
2141
ma il referente del mio Dipartimento
ha detto che era matematica
02:41
but my DepartmentDipartimento of EducationFormazione contactcontatto
told me it was mathmatematica
51
149351
2772
02:44
and I wouldn'tno understandcapire it."
52
152147
1546
e non l'avrei capita".
Le cose peggiorano.
02:47
It getsprende worsepeggio.
53
155266
1338
Il New York Post ha fatto una richiesta
secondo il Freedom of Information Act,
02:48
The NewNuovo YorkYork PostInserisci filedArchiviato
a FreedomLibertà of InformationInformazioni ActAtto requestrichiesta,
54
156628
3530
ha preso i nomi di tutti
gli insegnanti e i loro punteggi
02:52
got all the teachers'degli insegnanti namesnomi
and all theirloro scorespunteggi
55
160182
2959
02:55
and they publishedpubblicato them
as an actatto of teacher-shaminginsegnante-shaming.
56
163165
2782
e li ha divulgati esponendo
gli insegnanti alla pubblica gogna.
Quando ho chiesto le formule,
il codice sorgente,
02:59
When I triedprovato to get the formulasformule,
the sourcefonte codecodice, throughattraverso the samestesso meanssi intende,
57
167084
3860
attraverso gli stessi canali,
03:02
I was told I couldn'tnon poteva.
58
170968
2149
mi è stato detto
che non potevo averle.
Mi è stato negato.
03:05
I was deniednegato.
59
173141
1236
03:06
I laterdopo foundtrovato out
60
174401
1174
Poi ho scoperto
03:07
that nobodynessuno in NewNuovo YorkYork CityCittà
had accessaccesso to that formulaformula.
61
175599
2866
che nessuno a New York
aveva accesso a quella formula.
03:10
No one understoodinteso it.
62
178489
1305
Nessuno la capiva.
03:13
Then someonequalcuno really smartinteligente
got involvedcoinvolti, GaryGary RubensteinRubenstein.
63
181929
3224
Poi qualcuno molto intelligente
è stato coinvolto, Gary Rubenstein.
03:17
He foundtrovato 665 teachersinsegnanti
from that NewNuovo YorkYork PostInserisci datadati
64
185177
3621
Ha scoperto che 665 insegnanti
presenti nei dati del New York Post
in realtà avevano due punteggi.
03:20
that actuallyin realtà had two scorespunteggi.
65
188822
1866
03:22
That could happenaccadere if they were teachinginsegnamento
66
190712
1881
Questo può accadere se insegnano
matematica in seconda e in terza media.
03:24
seventhsettimo gradegrado mathmatematica and eighthottavo gradegrado mathmatematica.
67
192617
2439
Decise di rappresentarli graficamente.
03:27
He decideddeciso to plottracciare them.
68
195080
1538
03:28
EachOgni dotpunto representsrappresenta a teacherinsegnante.
69
196642
1993
Ogni punto rappresenta un insegnante.
03:31
(LaughterRisate)
70
199104
2379
(Risate)
Cos'è questo?
03:33
What is that?
71
201507
1521
03:35
(LaughterRisate)
72
203052
1277
(Risate)
Non avrebbero mai dovuto usarlo
per una valutazione individuale.
03:36
That should never have been used
for individualindividuale assessmentvalutazione.
73
204353
3446
Sembra un generatore casuale di numeri.
03:39
It's almostquasi a randomcasuale numbernumero generatorGeneratore.
74
207823
1926
03:41
(ApplauseApplausi)
75
209773
2946
(Applauso)
E lo era.
03:44
But it was.
76
212743
1162
Lei è Sarah Wysocki.
03:45
This is SarahSarah WysockiWysocki.
77
213929
1176
È stata licenziata
con altri 205 insegnanti
03:47
She got firedlicenziato, alonglungo
with 205 other teachersinsegnanti,
78
215129
2175
dal distretto scolastico
di Washington DC,
03:49
from the WashingtonWashington, DCDC schoolscuola districtquartiere,
79
217328
2662
nonostante le referenze
altamente positive da parte del preside
03:52
even thoughanche se she had great
recommendationsraccomandazioni from her principalPrincipal
80
220014
2909
03:54
and the parentsgenitori of her kidsbambini.
81
222947
1428
e da parte dei genitori dei suoi alunni.
So a cosa stanno pensando molti di voi,
03:57
I know what a lot
of you guys are thinkingpensiero,
82
225390
2032
soprattutto analisti, gli esperti
di Intelligenza Artificiale.
03:59
especiallyparticolarmente the datadati scientistsscienziati,
the AIAI expertsesperti here.
83
227446
2487
04:01
You're thinkingpensiero, "Well, I would never make
an algorithmalgoritmo that inconsistentincoerente."
84
229957
4226
State pensando: "Io non farei mai
degli algoritmi così incoerenti".
04:06
But algorithmsalgoritmi can go wrongsbagliato,
85
234853
1683
Ma gli algoritmi possono sbagliare,
04:08
even have deeplyprofondamente destructivedistruttivo effectseffetti
with good intentionsintenzioni.
86
236560
4598
perfino causare effetti disastrosi
nonostante le buone intenzioni.
04:14
And whereasmentre an airplaneaereo
that's designedprogettato badlymale
87
242531
2379
E mentre un aeroplano progettato male
precipita e può essere visto da tutti,
04:16
crashessi blocca to the earthterra and everyonetutti seesvede it,
88
244934
2001
04:18
an algorithmalgoritmo designedprogettato badlymale
89
246959
1850
un algoritmo progettato male
04:22
can go on for a long time,
silentlyin silenzio wreakingseminando havocHavoc.
90
250245
3865
può essere utilizzato per molto tempo
creando silenziosamente il caos.
04:27
This is RogerRoger AilesAiles.
91
255748
1570
Lui è Roger Ailes.
04:29
(LaughterRisate)
92
257342
2000
(Risate)
04:32
He foundedfondato FoxFox NewsNotizie in 1996.
93
260524
2388
Ha fondato Fox News nel 1996.
Più di 20 donne lo hanno
accusato di molestie sessuali.
04:35
More than 20 womendonne complainedsi è lamentato
about sexualsessuale harassmentmolestie.
94
263436
2581
04:38
They said they weren'tnon erano allowedpermesso
to succeedavere successo at FoxFox NewsNotizie.
95
266041
3235
Hanno detto che a loro non era permesso
fare carriera a Fox News.
04:41
He was oustedspodestato last yearanno,
but we'venoi abbiamo seenvisto recentlyrecentemente
96
269300
2520
È stato cacciato l'anno scorso,
ma di recente abbiamo visto
04:43
that the problemsi problemi have persistedha persistito.
97
271844
2670
che i problemi sono continuati.
04:47
That begsimplora the questiondomanda:
98
275654
1400
Questo solleva la domanda:
04:49
What should FoxFox NewsNotizie do
to turnturno over anotherun altro leaffoglia?
99
277078
2884
cosa dovrebbe fare Fox News
per voltare veramente pagina?
04:53
Well, what if they replacedsostituito
theirloro hiringassumere processprocesso
100
281245
3041
E se sostituissero
il loro sistema di assunzione
con un algoritmo intelligente?
04:56
with a machine-learningapprendimento automatico algorithmalgoritmo?
101
284310
1654
04:57
That soundssuoni good, right?
102
285988
1595
Sembra una buona idea, giusto?
04:59
Think about it.
103
287607
1300
Pensateci.
I dati, come sarebbero i dati?
05:00
The datadati, what would the datadati be?
104
288931
2105
05:03
A reasonableragionevole choicescelta would be the last
21 yearsanni of applicationsapplicazioni to FoxFox NewsNotizie.
105
291060
4947
Una scelta ragionevole potrebbe essere
gli ultimi 21 anni di domande
di assunzione a Fox News.
05:08
ReasonableRagionevole.
106
296031
1502
Ragionevole.
05:09
What about the definitiondefinizione of successsuccesso?
107
297557
1938
E come definire il successo?
Una scelta ragionevole sarebbe:
05:11
ReasonableRagionevole choicescelta would be,
108
299921
1324
05:13
well, who is successfulriuscito at FoxFox NewsNotizie?
109
301269
1778
chi ha avuto successo a Fox News?
05:15
I guessindovina someonequalcuno who, say,
stayedrimasto there for fourquattro yearsanni
110
303071
3580
Ad esempio qualcuno che è stato lì,
diciamo, per quattro anni
05:18
and was promotedpromossa at leastmeno onceuna volta.
111
306675
1654
ed è stato promosso
almeno una volta.
05:20
SoundsSuoni reasonableragionevole.
112
308816
1561
Sembra ragionevole.
05:22
And then the algorithmalgoritmo would be trainedallenato.
113
310401
2354
E dopo l'algoritmo
dovrebbe essere preparato.
05:24
It would be trainedallenato to look for people
to learnimparare what led to successsuccesso,
114
312779
3877
Sarebbe preparato a cercare le persone,
capire cosa conduce al successo,
05:29
what kindgenere of applicationsapplicazioni
historicallystoricamente led to successsuccesso
115
317219
4318
che tipi di candidature hanno
storicamente portato al successo
05:33
by that definitiondefinizione.
116
321561
1294
secondo quella definizione.
Ora pensate a cosa succederebbe
05:36
Now think about what would happenaccadere
117
324200
1775
se applicassimo questo
a un attuale campione di candidati.
05:37
if we appliedapplicato that
to a currentattuale poolpiscina of applicantscandidati.
118
325999
2555
05:41
It would filterfiltro out womendonne
119
329119
1629
Verrebbero escluse le donne
05:43
because they do not look like people
who were successfulriuscito in the pastpassato.
120
331663
3930
perché non rappresentano le persone
che hanno avuto successo in passato.
05:51
AlgorithmsAlgoritmi don't make things fairgiusto
121
339752
2537
Gli algoritmi non rendono le cose giuste
05:54
if you just blithelyallegramente,
blindlyciecamente applyapplicare algorithmsalgoritmi.
122
342313
2694
se vengono applicati
allegramente e ciecamente.
Non rendono le cose giuste.
05:57
They don't make things fairgiusto.
123
345031
1482
Ripetono le nostre prassi del passato,
05:58
They repeatripetere our pastpassato practicespratiche,
124
346537
2128
i nostri modelli.
06:00
our patternsmodelli.
125
348689
1183
Automatizzano lo status quo.
06:01
They automateautomatizzare the statusstato quoquo.
126
349896
1939
06:04
That would be great
if we had a perfectperfezionare worldmondo,
127
352718
2389
Sarebbero straordinari
se vivessimo in un mondo perfetto,
06:07
but we don't.
128
355905
1312
ma non lo abbiamo.
06:09
And I'll addInserisci that mostmaggior parte companiesaziende
don't have embarrassingimbarazzante lawsuitsazioni legali,
129
357241
4102
Aggiungo che gran parte delle aziende
non ha cause legali imbarazzanti,
ma agli analisti di quelle aziende
06:14
but the datadati scientistsscienziati in those companiesaziende
130
362446
2588
06:17
are told to followSeguire the datadati,
131
365058
2189
viene detto di seguire i dati,
di focalizzarsi sull'accuratezza del dato.
06:19
to focusmessa a fuoco on accuracyprecisione.
132
367271
2143
06:22
Think about what that meanssi intende.
133
370273
1381
Pensate a cosa significa.
Poiché tutti abbiamo pregiudizi, significa
che potrebbero codificare il sessismo
06:23
Because we all have biaspregiudizio,
it meanssi intende they could be codifyingcodificazione sexismsessismo
134
371678
4027
o qualsiasi altro tipo di intolleranza.
06:27
or any other kindgenere of bigotrybigottismo.
135
375729
1836
06:31
Thought experimentsperimentare,
136
379488
1421
Conduco ricerche,
perché mi piacciono:
06:32
because I like them:
137
380933
1509
06:35
an entirelyinteramente segregatedsegregati societysocietà --
138
383574
2975
una società interamente segregata,
06:40
raciallyrazziale segregatedsegregati, all townscittà,
all neighborhoodsquartieri
139
388247
3328
segregazione razziale,
tutte le città, tutti i quartieri,
06:43
and where we sendinviare the policepolizia
only to the minorityminoranza neighborhoodsquartieri
140
391599
3037
dove si manda la polizia
solo nei quartieri periferici
06:46
to look for crimecrimine.
141
394660
1193
a cercare il crimine.
06:48
The arrestarresto datadati would be very biasedparziale.
142
396451
2219
I dati degli arresti sarebbero
intrisi di pregiudizi.
Cosa succederebbe se,
oltretutto, trovassimo gli analisti
06:51
What if, on topsuperiore of that,
we foundtrovato the datadati scientistsscienziati
143
399851
2575
06:54
and paidpagato the datadati scientistsscienziati to predictpredire
where the nextIl prossimo crimecrimine would occursi verificano?
144
402450
4161
e li pagassimo per prevedere
dove si verificherà il prossimo crimine?
Quartieri periferici
abitati dalle minoranze.
06:59
MinorityMinoranza neighborhoodQuartiere.
145
407275
1487
07:01
Or to predictpredire who the nextIl prossimo
criminalpenale would be?
146
409285
3125
O per prevedere chi
sarà il prossimo criminale?
07:04
A minorityminoranza.
147
412888
1395
Uno della minoranza.
07:07
The datadati scientistsscienziati would bragBrag
about how great and how accuratepreciso
148
415949
3541
Gli analisti si vanterebbero
di quanto straordinari e accurati
sono i loro modelli,
07:11
theirloro modelmodello would be,
149
419514
1297
e avrebbero ragione.
07:12
and they'davevano be right.
150
420835
1299
07:15
Now, realityla realtà isn't that drasticdrastica,
but we do have severegrave segregationssegregazioni
151
423951
4615
La realtà non è così drastica,
ma esistono gravi segregazioni
in molte città grandi e piccole,
07:20
in manymolti citiescittà and townscittà,
152
428590
1287
07:21
and we have plentyabbondanza of evidenceprova
153
429901
1893
e abbiamo ampia evidenza
di sistemi di dati investigativi
e giudiziari basati su pregiudizi.
07:23
of biasedparziale policingattività di polizia
and justicegiustizia systemsistema datadati.
154
431818
2688
In realtà siamo anche in grado
di anticipare i luoghi critici,
07:27
And we actuallyin realtà do predictpredire hotspotshotspot,
155
435632
2815
07:30
placesposti where crimescrimini will occursi verificano.
156
438471
1530
in cui si verificheranno i crimini.
07:32
And we do predictpredire, in factfatto,
the individualindividuale criminalitycriminalità,
157
440401
3866
Noi prevediamo, di fatto,
la criminalità individuale,
07:36
the criminalitycriminalità of individualsindividui.
158
444291
1770
la criminalità dei singoli individui.
07:38
The newsnotizia organizationorganizzazione ProPublicaProPublica
recentlyrecentemente lookedguardato into
159
446972
3963
La nuova organizzazione ProPublica
ha recentemente esaminato
uno degli algoritmi
sul "rischio recidiva",
07:42
one of those "recidivismrecidività riskrischio" algorithmsalgoritmi,
160
450959
2024
07:45
as they're calledchiamato,
161
453007
1163
come vengono chiamati,
07:46
beingessere used in FloridaFlorida
duringdurante sentencingcondanna by judgesgiudici.
162
454194
3194
usati dai giudici in Florida
durante le sentenze.
07:50
BernardBernard, on the left, the blacknero man,
was scoredavuto un punteggio di a 10 out of 10.
163
458411
3585
Bernard, l'uomo di colore a sinistra,
ha avuto un punteggio di 10 su 10.
07:55
DylanDylan, on the right, 3 out of 10.
164
463179
2007
Dylan, sulla destra, 3 su 10.
07:57
10 out of 10, highalto riskrischio.
3 out of 10, lowBasso riskrischio.
165
465210
2501
10 su 10, rischio elevato.
3 su 10, rischio basso.
08:00
They were bothentrambi broughtportato in
for drugdroga possessionpossesso.
166
468598
2385
Erano entrambi processati
per possesso di droga.
Conosciuti dalla polizia,
08:03
They bothentrambi had recordsrecord,
167
471007
1154
08:04
but DylanDylan had a felonycrimine
168
472185
2806
ma Dylan aveva commesso un reato,
08:07
but BernardBernard didn't.
169
475015
1176
mentre Bernard no.
08:09
This mattersquestioni, because
the higherpiù alto scorePunto you are,
170
477818
3066
Questo è importante, perché
più il vostro punteggio è alto,
08:12
the more likelyprobabile you're beingessere givendato
a longerpiù a lungo sentencefrase.
171
480908
3473
più è probabile che
la vostra condanna sia lunga.
08:18
What's going on?
172
486294
1294
Cosa sta succedendo?
08:20
DataDati launderingriciclaggio di.
173
488526
1332
Riciclaggio di dati.
08:22
It's a processprocesso by whichquale
technologiststecnologi hidenascondere uglybrutta truthsverità
174
490930
4427
È un processo con cui gli esperti
di tecnologia nascondono tremende verità
08:27
insidedentro blacknero boxscatola algorithmsalgoritmi
175
495381
1821
dentro la scatola nera degli algoritmi
08:29
and call them objectiveobbiettivo;
176
497226
1290
e la definiscono oggettività;
08:31
call them meritocraticmeritocratica.
177
499320
1568
la definiscono meritocrazia.
08:35
When they're secretsegreto,
importantimportante and destructivedistruttivo,
178
503118
2385
Quando sono segreti,
importanti e distruttivi,
ho coniato un termine
per questi algoritmi:
08:37
I've coinedconiato a termtermine for these algorithmsalgoritmi:
179
505527
2487
08:40
"weaponsArmi of mathmatematica destructiondistruzione."
180
508038
1999
"Armi di distruzione matematica."
08:42
(LaughterRisate)
181
510061
1564
(Risata)
08:43
(ApplauseApplausi)
182
511649
3054
(Applauso)
08:46
They're everywhereovunque,
and it's not a mistakesbaglio.
183
514727
2354
Sono ovunque e non per errore.
08:49
These are privateprivato companiesaziende
buildingcostruzione privateprivato algorithmsalgoritmi
184
517695
3723
Sono aziende private
che costruiscono algoritmi privati
08:53
for privateprivato endsestremità.
185
521442
1392
per scopi privati.
08:55
Even the onesquelli I talkedparlato about
for teachersinsegnanti and the publicpubblico policepolizia,
186
523214
3214
Persino quelli di cui ho parlato
per gli insegnanti e la polizia
08:58
those were builtcostruito by privateprivato companiesaziende
187
526452
1869
sono stati creati da compagnie private
09:00
and soldvenduto to the governmentgoverno institutionsistituzioni.
188
528345
2231
e venduti alle istituzioni governative.
Li chiamano il loro
"ingrediente segreto",
09:02
They call it theirloro "secretsegreto saucesalsa" --
189
530600
1873
09:04
that's why they can't tell us about it.
190
532497
2128
ecco perché non possono parlarcene.
09:06
It's alsoanche privateprivato powerenergia.
191
534649
2220
È anche un potere privato.
09:09
They are profitingprofitto for wieldingmaneggiando
the authorityautorità of the inscrutableimperscrutabile.
192
537924
4695
Ne stanno traendo vantaggio per esercitare
l'autorità dell'imperscrutabile.
09:17
Now you mightpotrebbe think,
sinceda all this stuffcose is privateprivato
193
545114
2934
Ora potreste pensare che,
visto che è tutto privato
09:20
and there's competitionconcorrenza,
194
548072
1158
e c'è la concorrenza,
09:21
maybe the freegratuito marketmercato
will solverisolvere this problemproblema.
195
549254
2306
forse il mercato libero
risolverà il problema.
09:23
It won'tnon lo farà.
196
551584
1249
Invece no.
09:24
There's a lot of moneyi soldi
to be madefatto in unfairnessslealtà.
197
552857
3120
Ci sono un sacco di soldi
da fare in modo scorretto.
09:29
AlsoAnche, we're not economiceconomico rationalrazionale agentsagenti.
198
557127
3369
Inoltre, noi non siamo
agenti economici razionali.
Abbiamo tutti dei pregiudizi.
09:33
We all are biasedparziale.
199
561031
1292
09:34
We're all racistrazzistA and bigotedbigotto
in waysmodi that we wishdesiderio we weren'tnon erano,
200
562960
3377
Siamo tutti razzisti e faziosi
in modi che preferiremmo non essere,
09:38
in waysmodi that we don't even know.
201
566361
2019
in modi che neanche immaginiamo.
09:41
We know this, thoughanche se, in aggregateaggregato,
202
569352
3081
Ma lo sappiamo grazie
al complesso dei dati,
09:44
because sociologistssociologi
have consistentlymodo coerente demonstrateddimostrato this
203
572457
3220
perché i sociologi lo hanno dimostrato
09:47
with these experimentsesperimenti they buildcostruire,
204
575701
1665
con gli esperimenti che fanno,
in cui mandano in giro
un mucchio di richieste di lavoro,
09:49
where they sendinviare a bunchmazzo
of applicationsapplicazioni to jobslavori out,
205
577390
2568
09:51
equallyugualmente qualifiedqualificato but some
have white-soundingbianco-suono namesnomi
206
579982
2501
con uguali qualifiche,
ma alcune con nomi da bianchi,
09:54
and some have black-soundingnero-suono namesnomi,
207
582507
1706
altre con nomi da afro-americani,
09:56
and it's always disappointingdeludente,
the resultsrisultati -- always.
208
584237
2694
e il risultato è sempre
deludente. Sempre.
Quindi, siamo noi ad avere pregiudizi,
09:59
So we are the onesquelli that are biasedparziale,
209
587510
1771
10:01
and we are injectingl'iniezione those biasespregiudizi
into the algorithmsalgoritmi
210
589305
3429
e stiamo iniettando
quei pregiudizi negli algoritmi,
decidendo quali dati raccogliere,
10:04
by choosingscegliendo what datadati to collectraccogliere,
211
592758
1812
10:06
like I chosescelto not to think
about ramenramen noodlestagliatelle --
212
594594
2743
come ho scelto di non pensare
a quei noodles istantanei,
10:09
I decideddeciso it was irrelevantnon pertinente.
213
597361
1625
ho deciso che era irrilevante.
10:11
But by trustingconfidando the datadati that's actuallyin realtà
pickingscelta up on pastpassato practicespratiche
214
599010
5684
Lo facciamo fidandoci di dati che
si riferiscono a prassi del passato
e scegliendo gli indicatori
per valutare il successo
10:16
and by choosingscegliendo the definitiondefinizione of successsuccesso,
215
604718
2014
10:18
how can we expectaspettarsi the algorithmsalgoritmi
to emergeemergere unscathedindenne?
216
606756
3983
Come possiamo aspettarci
che gli algoritmi ne escano indenni?
10:22
We can't. We have to checkdai un'occhiata them.
217
610763
2356
Non possiamo. Dobbiamo controllarli.
Dobbiamo controllarli
per garantirne l'imparzialità.
10:26
We have to checkdai un'occhiata them for fairnessequità.
218
614165
1709
La buona notizia è che possiamo
verificarne l'imparzialità.
10:27
The good newsnotizia is,
we can checkdai un'occhiata them for fairnessequità.
219
615898
2711
10:30
AlgorithmsAlgoritmi can be interrogatedinterrogato,
220
618633
3352
Gli algoritmi possono essere interrogati,
e ci diranno la verità ogni volta.
10:34
and they will tell us
the truthverità everyogni time.
221
622009
2034
Possiamo sistemarli.
Possiamo renderli migliori.
10:36
And we can fixfissare them.
We can make them better.
222
624067
2493
Lo definisco un audit algoritmico,
10:38
I call this an algorithmicalgoritmico auditRevisione contabile,
223
626584
2375
e ve lo illustro.
10:40
and I'll walkcamminare you throughattraverso it.
224
628983
1679
10:42
First, datadati integrityintegrità checkdai un'occhiata.
225
630686
2196
Primo, controllo dell'integrità dei dati.
10:46
For the recidivismrecidività riskrischio
algorithmalgoritmo I talkedparlato about,
226
634132
2657
Per il rischio di recidività
degli algoritmi di cui ho parlato,
10:49
a datadati integrityintegrità checkdai un'occhiata would mean
we'dsaremmo have to come to termscondizioni with the factfatto
227
637582
3573
un controllo dell'integrità dei dati
significherebbe constatare il fatto
10:53
that in the US, whitesbianchi and blacksneri
smokefumo potpentola at the samestesso rateVota
228
641179
3526
che negli US, la percentuale di bianchi
e neri che fumano erba è uguale
ma i neri hanno molte più
probabilità di essere arrestati,
10:56
but blacksneri are farlontano more likelyprobabile
to be arrestedarrestato --
229
644729
2485
10:59
fourquattro or fivecinque timesvolte more likelyprobabile,
dependingdipendente on the areala zona.
230
647238
3184
da 4 o 5 volte di più,
a seconda della zona.
Che forma assume quel pregiudizio
in altre categorie criminologiche,
11:03
What is that biaspregiudizio looking like
in other crimecrimine categoriescategorie,
231
651317
2826
e come possiamo tenerne conto?
11:06
and how do we accountaccount for it?
232
654167
1451
Secondo, dovremmo considerare
la definizione di successo,
11:08
SecondSecondo, we should think about
the definitiondefinizione of successsuccesso,
233
656162
3039
sottoporla a verifica.
11:11
auditRevisione contabile that.
234
659225
1381
11:12
RememberRicordate -- with the hiringassumere
algorithmalgoritmo? We talkedparlato about it.
235
660630
2752
Ricordate l'algoritmo
delle assunzioni che ho illustrato?
Uno che mantiene il lavoro per quattro
anni ed è promosso una volta?
11:15
SomeoneQualcuno who stayssoggiorni for fourquattro yearsanni
and is promotedpromossa onceuna volta?
236
663406
3165
11:18
Well, that is a successfulriuscito employeedipendente,
237
666595
1769
Quello è un impiegato di successo,
ma è anche un impiegato
sostenuto dalla loro cultura.
11:20
but it's alsoanche an employeedipendente
that is supportedsupportato by theirloro culturecultura.
238
668388
3079
Detto questo, può esserci
anche un lieve pregiudizio.
11:24
That said, alsoanche it can be quiteabbastanza biasedparziale.
239
672089
1926
Dobbiamo distinguere questi due aspetti.
11:26
We need to separateseparato those two things.
240
674039
2065
Dovremmo prendere
le audizioni d'orchestra alla cieca
11:28
We should look to
the blindcieco orchestraOrchestra auditionprovino
241
676128
2426
11:30
as an exampleesempio.
242
678578
1196
come esempio.
11:31
That's where the people auditioningun provino
are behinddietro a a sheetfoglio.
243
679798
2756
Quelle in cui chi fa il provino
sta dietro uno schermo.
11:34
What I want to think about there
244
682946
1931
Quello a cui voglio pensare
11:36
is the people who are listeningascoltando
have decideddeciso what's importantimportante
245
684901
3417
è che le persone che stanno ascoltando
hanno deciso cosa sia importante
e cosa non lo è,
11:40
and they'veessi hanno decideddeciso what's not importantimportante,
246
688342
2029
11:42
and they're not gettingottenere
distracteddistratto by that.
247
690395
2059
e non si lasceranno distrarre.
11:44
When the blindcieco orchestraOrchestra
auditionsaudizioni startediniziato,
248
692961
2749
da quando le audizioni d'orchestra
alla cieca sono iniziate,
11:47
the numbernumero of womendonne in orchestrasorchestre
wentandato up by a factorfattore of fivecinque.
249
695734
3444
il numero di donne
nelle orchestre è quintuplicato.
11:52
NextSuccessivo, we have to considerprendere in considerazione accuracyprecisione.
250
700253
2015
Poi dobbiamo considerare l'accuratezza.
11:55
This is where the value-addeda valore aggiunto modelmodello
for teachersinsegnanti would failfallire immediatelysubito.
251
703233
3734
È qui che il "modello di valore aggiunto"
per insegnanti fallisce immediatamente.
11:59
No algorithmalgoritmo is perfectperfezionare, of coursecorso,
252
707578
2162
Nessun algoritmo è perfetto, certo,
12:02
so we have to considerprendere in considerazione
the errorserrori of everyogni algorithmalgoritmo.
253
710620
3605
quindi dobbiamo considerare
gli errori di ogni algoritmo.
12:06
How oftenspesso are there errorserrori,
and for whomchi does this modelmodello failfallire?
254
714836
4359
Quanto spesso ci sono errori
e per chi fallisce questo modello?
12:11
What is the costcosto of that failurefallimento?
255
719850
1718
Qual è il prezzo di quel fallimento?
12:14
And finallyfinalmente, we have to considerprendere in considerazione
256
722434
2207
Infine, dobbiamo considerare
12:17
the long-termlungo termine effectseffetti of algorithmsalgoritmi,
257
725973
2186
gli effetti a lungo termine
degli algoritmi,
12:20
the feedbackrisposta loopsloop that are engenderingEngendering.
258
728866
2207
i cicli di feedback
che stanno generando.
Può sembrarvi un'astrazione,
12:23
That soundssuoni abstractastratto,
259
731586
1236
ma immaginate se i tecnici di Facebook
lo avessero considerato
12:24
but imagineimmaginare if FacebookFacebook engineersingegneri
had consideredconsiderato that
260
732846
2664
12:28
before they decideddeciso to showmostrare us
only things that our friendsamici had postedpostato.
261
736270
4855
prima di decidere di mostrarci solo
le cose pubblicate dai nostri amici.
Ho altre due raccomandazioni,
una per gli analisti di dati là fuori.
12:33
I have two more messagesmessaggi,
one for the datadati scientistsscienziati out there.
262
741761
3234
12:37
DataDati scientistsscienziati: we should
not be the arbitersarbitri of truthverità.
263
745450
3409
Analisti: non dovremmo
essere gli arbitri della verità.
12:41
We should be translatorstraduttori
of ethicaletico discussionsdiscussioni that happenaccadere
264
749520
3783
Dovremmo essere i traduttori
delle discussioni etiche che accadono
nella società.
12:45
in largerpiù grandi societysocietà.
265
753327
1294
12:47
(ApplauseApplausi)
266
755579
2133
(Applausi)
12:49
And the restriposo of you,
267
757736
1556
E per tutti gli altri,
12:52
the non-datanon di dati scientistsscienziati:
268
760011
1396
i non-analisti di dati:
12:53
this is not a mathmatematica testTest.
269
761431
1498
questo non è un esame di matematica.
12:55
This is a politicalpolitico fightcombattimento.
270
763632
1348
Questa è una lotta politica.
12:58
We need to demandrichiesta accountabilityresponsabilità
for our algorithmicalgoritmico overlordssorveglianti.
271
766587
3907
Dobbiamo pretendere più trasparenza
dai signori degli algoritmi.
(Applausi)
13:04
(ApplauseApplausi)
272
772118
1499
13:05
The eraera of blindcieco faithfede
in biggrande datadati mustdovere endfine.
273
773641
4225
L'era della fede cieca
nelle masse di dati deve finire.
Vi ringrazio molto.
13:09
Thank you very much.
274
777890
1167
13:11
(ApplauseApplausi)
275
779081
5303
(Applausi)
Translated by Gabriella Patricola
Reviewed by Silvia Fornasiero

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com