ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Cathy O'Neil: Vessünk véget a big datába vetett vakhit korszakának!

Filmed:
1,391,460 views

Algoritmusok döntik el, ki kap hitelt, ki jut el a fölvételi interjúig, ki kap biztosítást és még sok mást is, de ettől a dolgok nem válnak automatikusan tisztességessé. Cathy O'Neil matematikus és adattudós fogalmat alkotott a titkos, fontos és kártékony algoritmusokra: "a matematikai tömegpusztítás fegyverei". Tudjunk meg többet róla, milyen szándékok rejlenek a képletek mögött!
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
AlgorithmsAlgoritmusok are everywheremindenhol.
0
975
1596
Algoritmusok mindenhol vannak.
00:16
They sortfajta and separatekülönálló
the winnersnyertesek from the losersvesztesek.
1
4111
3125
Azok rendezik és különítik el
a győzteseket a vesztesektől.
00:20
The winnersnyertesek get the jobmunka
2
8019
2264
A győztesek kapják az állásokat
s a jó hitelkártya-ajánlatokat.
00:22
or a good credithitel cardkártya offerajánlat.
3
10307
1743
00:24
The losersvesztesek don't even get an interviewinterjú
4
12074
2651
A vesztesek még az interjúig sem jutnak,
00:27
or they payfizetés more for insurancebiztosítás.
5
15590
1777
és a biztosítás is drágább nekik.
00:30
We're beinglény scoredgól with secrettitok formulasképletek
that we don't understandmegért
6
18197
3549
Titkos, érthetetlen képletekkel
pontoznak minket,
00:34
that oftengyakran don't have systemsrendszerek of appealfellebbezés.
7
22675
3217
amelyek ellen gyakran nincs fellebbezés.
00:39
That begskönyörög the questionkérdés:
8
27240
1296
Fölvetődik a kérdés:
00:40
What if the algorithmsalgoritmusok are wrongrossz?
9
28560
2913
mi van, ha az algoritmusok hibásak?
00:45
To buildépít an algorithmalgoritmus you need two things:
10
33100
2040
Algoritmus kialakításához két dolog kell:
00:47
you need dataadat, what happenedtörtént in the pastmúlt,
11
35164
1981
múltról szóló adatok
00:49
and a definitionmeghatározás of successsiker,
12
37169
1561
meg a keresett s gyakorta remélt
00:50
the thing you're looking for
and oftengyakran hopingremélve for.
13
38754
2457
siker meghatározása.
00:53
You trainvonat an algorithmalgoritmus
by looking, figuringösszeadás out.
14
41235
5037
Idomítjuk az algoritmust,
közben figyeljük, számolgatunk.
00:58
The algorithmalgoritmus figuresszámadatok out
what is associatedtársult with successsiker.
15
46296
3419
Az algoritmus kiszámolja,
mi minősül sikernek.
01:01
What situationhelyzet leadsvezet to successsiker?
16
49739
2463
Milyen helyzet vezet sikerre?
01:04
ActuallyValójában, everyonemindenki usesfelhasználások algorithmsalgoritmusok.
17
52881
1762
Mindenki használ algoritmust,
01:06
They just don't formalizeformálissá them
in writtenírott codekód.
18
54667
2718
csak nem formalizálja
leírt kód alakjában.
01:09
Let me give you an examplepélda.
19
57409
1348
Mondok egy példát.
01:10
I use an algorithmalgoritmus everyminden day
to make a mealétkezés for my familycsalád.
20
58781
3316
Naponta algoritmust használok,
amikor főzök a családomnak.
01:14
The dataadat I use
21
62121
1476
A fölhasznált adatok:
01:16
is the ingredientsösszetevők in my kitchenkonyha,
22
64394
1659
hozzávalók a konyhában,
01:18
the time I have,
23
66077
1527
a rendelkezésre álló idő,
01:19
the ambitionnagyravágyás I have,
24
67628
1233
milyen kedvem van.
01:20
and I curateClapham-társaság egyik that dataadat.
25
68885
1709
Ezeket az adatokat rendszerezem.
01:22
I don't countszámol those little packagescsomagok
of ramenramen noodlesmetélt as foodélelmiszer.
26
70618
4251
A zacskós leveseket nem tartom ételnek.
01:26
(LaughterNevetés)
27
74893
1869
(Nevetés)
01:28
My definitionmeghatározás of successsiker is:
28
76786
1845
A sikert így határozom meg:
01:30
a mealétkezés is successfulsikeres
if my kidsgyerekek eateszik vegetableszöldségek.
29
78655
2659
sikeres az étel, ha srácaim
esznek zöldséget.
01:34
It's very differentkülönböző
from if my youngestlegfiatalabb sonfiú were in chargedíj.
30
82181
2854
Legkisebb fiam szerint
más a siker mércéje.
01:37
He'dŐ say successsiker is if
he getsjelentkeznek to eateszik lots of NutellaNutellás.
31
85059
2788
Szerinte az, ha sok Nutellát ehetne.
01:41
But I get to chooseválaszt successsiker.
32
89179
2226
De én választom meg a sikert.
01:43
I am in chargedíj. My opinionvélemény mattersügyek.
33
91429
2707
Én döntök. Az én véleményem mérvadó.
01:46
That's the first ruleszabály of algorithmsalgoritmusok.
34
94160
2675
Ez az algoritmusok első szabálya.
01:48
AlgorithmsAlgoritmusok are opinionsvélemények embeddedbeágyazott in codekód.
35
96859
3180
Az algoritmusok kódba ágyazott vélemények.
01:53
It's really differentkülönböző from what you think
mosta legtöbb people think of algorithmsalgoritmusok.
36
101562
3663
Eltér attól, amit önök, a legtöbben
az algoritmusról gondolnak.
01:57
They think algorithmsalgoritmusok are objectivecélkitűzés
and trueigaz and scientifictudományos.
37
105249
4504
Azt hiszik, hogy az algoritmus
objektív, igaz és tudományos jószág.
02:02
That's a marketingértékesítés tricktrükk.
38
110387
1699
Ez csak marketingfogás.
02:05
It's alsois a marketingértékesítés tricktrükk
39
113269
2125
Az is marketingfogás,
hogy algoritmusokkal riogatják önöket,
02:07
to intimidatemegfélemlít you with algorithmsalgoritmusok,
40
115418
3154
02:10
to make you trustbizalom and fearfélelem algorithmsalgoritmusok
41
118596
3661
hogy bízzanak bennük, és féljenek tőlük,
02:14
because you trustbizalom and fearfélelem mathematicsmatematika.
42
122281
2018
mert önök bíznak
a matekban, s félnek tőle.
02:17
A lot can go wrongrossz when we put
blindvak faithhit in bignagy dataadat.
43
125567
4830
Sokuk hibásnak bizonyulhat,
ha vakon hiszünk a big datában.
02:23
This is KiriKiri SoaresSoares.
She's a highmagas schooliskola principal in BrooklynBrooklyn.
44
131684
3373
Ő Kiri Soares, középiskolai
igazgató Brooklynban.
02:27
In 2011, she told me
her teacherstanárok were beinglény scoredgól
45
135081
2586
2011-ben elmondta nekem, hogy tanárait
02:29
with a complexösszetett, secrettitok algorithmalgoritmus
46
137691
2727
komplex, titkos algoritmussal
ún. "hozzáadott érték
modell"-lel pontozták,
02:32
calledhívott the "value-addedhozzáadott érték modelmodell."
47
140442
1489
02:34
I told her, "Well, figureábra out
what the formulaképlet is, showelőadás it to me.
48
142505
3092
"Nézz utána a képletnek,
mutasd meg nekem,
majd elmagyarázom" – feleltem.
02:37
I'm going to explainmegmagyarázni it to you."
49
145621
1541
"Próbáltam megszerezni,
02:39
She said, "Well, I triedmegpróbálta
to get the formulaképlet,
50
147186
2141
de az oktatási minisztériumi ember
azt mondta, hogy az matek,
02:41
but my DepartmentOsztály of EducationOktatás contactkapcsolatba lépni
told me it was mathmatematikai
51
149351
2772
02:44
and I wouldn'tnem understandmegért it."
52
152147
1546
és úgysem érteném" – válaszolta.
02:47
It getsjelentkeznek worserosszabb.
53
155266
1338
De ez még semmi!
Az információszabadsági törvény alapján
a New York Post kérvényt nyújtott be,
02:48
The NewÚj YorkYork PostPost filedIktatott
a FreedomSzabadság of InformationInformációk ActTörvény requestkérelem,
54
156628
3530
02:52
got all the teachers'tanári namesnevek
and all theirazok scorespontszámok
55
160182
2959
megszerezte a tanárok nevét és pontszámát,
02:55
and they publishedközzétett them
as an acttörvény of teacher-shamingtanár-megszégyenítés.
56
163165
2782
és a tanárok megszégyenítéséül közzétette.
02:59
When I triedmegpróbálta to get the formulasképletek,
the sourceforrás codekód, throughkeresztül the sameazonos meanseszközök,
57
167084
3860
Amikor ugyanezzel a módszerrel meg akartam
szerezni a képletet, a forráskódot,
03:02
I was told I couldn'tnem tudott.
58
170968
2149
azt mondták, nem lehet.
03:05
I was deniedtiltott.
59
173141
1236
Megtagadták.
Később megtudtam,
03:06
I latera későbbiekben foundtalál out
60
174401
1174
03:07
that nobodysenki in NewÚj YorkYork CityVáros
had accesshozzáférés to that formulaképlet.
61
175599
2866
hogy senkinek sincs meg
a képlet New Yorkban.
03:10
No one understoodmegértett it.
62
178489
1305
Senki sem ismerte.
03:13
Then someonevalaki really smartOkos
got involvedrészt, GaryGary RubensteinRubenstein.
63
181929
3224
Aztán Gary Rubenstein, egy okos
ember, elkezdett vele foglalkozni.
03:17
He foundtalál 665 teacherstanárok
from that NewÚj YorkYork PostPost dataadat
64
185177
3621
A New York Post adataiban
talált 665 tanárt,
03:20
that actuallytulajdonképpen had two scorespontszámok.
65
188822
1866
akiknek két különböző pontjuk volt.
03:22
That could happentörténik if they were teachingtanítás
66
190712
1881
Ez úgy lehet, ha a tanárok
03:24
seventhhetedik gradefokozat mathmatematikai and eighthnyolcadik gradefokozat mathmatematikai.
67
192617
2439
hetedikes és nyolcadikas
matekot is tanítottak.
03:27
He decidedhatározott to plotcselekmény them.
68
195080
1538
Úgy döntött, hogy ábrát készít.
03:28
EachMinden dotpont representsjelentése a teachertanár.
69
196642
1993
Minden pötty egy tanárnak felel meg.
03:31
(LaughterNevetés)
70
199104
2379
(Nevetés)
03:33
What is that?
71
201507
1521
Mi ez?
03:35
(LaughterNevetés)
72
203052
1277
(Nevetés)
03:36
That should never have been used
for individualEgyedi assessmentértékelés.
73
204353
3446
Egyéni értékelés esetén
ilyen sohasem történt volna.
03:39
It's almostmajdnem a randomvéletlen numberszám generatorgenerátor.
74
207823
1926
Majdhogynem egy véletlenszám-generátor.
(Taps)
03:41
(ApplauseTaps)
75
209773
2946
03:44
But it was.
76
212743
1162
Az is volt.
Ő Sarah Wysocki.
03:45
This is SarahSarah WysockiWysocki.
77
213929
1176
Kirúgták 205 tanártársával együtt
03:47
She got firedkirúgott, alongmentén
with 205 other teacherstanárok,
78
215129
2175
03:49
from the WashingtonWashington, DCDC schooliskola districtkerület,
79
217328
2662
a washingtoni iskolakörzetből,
03:52
even thoughbár she had great
recommendationsajánlások from her principal
80
220014
2909
bár kitűnő véleménye
volt róla az igazgatójának,
03:54
and the parentsszülők of her kidsgyerekek.
81
222947
1428
a szülőknek és a gyerekeknek.
Tudom, a jelenlévők mire gondolnak,
03:57
I know what a lot
of you guys are thinkinggondolkodás,
82
225390
2032
különösen az adattudósok
és az MI-szakértők.
03:59
especiallykülönösen the dataadat scientiststudósok,
the AIAI expertsszakértők here.
83
227446
2487
Erre: "Én aztán soha nem csinálnék
olyan következetlen algoritmust!"
04:01
You're thinkinggondolkodás, "Well, I would never make
an algorithmalgoritmus that inconsistentkövetkezetlen."
84
229957
4226
04:06
But algorithmsalgoritmusok can go wrongrossz,
85
234853
1683
De az algoritmusok hibázhatnak,
04:08
even have deeplymélyen destructiveromboló effectshatások
with good intentionsszándékok.
86
236560
4598
és erős romboló hatásuk is
lehet jó szándékból adódóan.
04:14
And whereasmivel an airplanerepülőgép
that's designedtervezett badlyrosszul
87
242531
2379
Egy rosszul tervezett repülő
04:16
crashesösszeomlik to the earthföld and everyonemindenki seeslát it,
88
244934
2001
földre zuhan mindenki szeme láttára,
04:18
an algorithmalgoritmus designedtervezett badlyrosszul
89
246959
1850
de egy rosszul tervezett algoritmus
04:22
can go on for a long time,
silentlynémán wreakingwreaking havocpusztítást.
90
250245
3865
sokáig működhet, csöndes rombolást okozva.
04:27
This is RogerRoger AilesAiles.
91
255748
1570
Ő Roger Ailes.
04:29
(LaughterNevetés)
92
257342
2000
(Nevetés)
04:32
He foundedalapított FoxFox NewsHírek in 1996.
93
260524
2388
1996-ban ő alapította a Fox Newst.
04:35
More than 20 womennők complainedpanaszkodott
about sexualszexuális harassmentzaklatás.
94
263436
2581
Több mint 20 nő panaszkodott
szexuális zaklatás miatt.
04:38
They said they weren'tnem voltak allowedengedélyezett
to succeedsikerül at FoxFox NewsHírek.
95
266041
3235
Mondták, hogy nem számíthattak
sikerre a Fox Newsnál.
04:41
He was oustedtávozását last yearév,
but we'vevoltunk seenlátott recentlymostanában
96
269300
2520
2016-ban Ailest kirúgták, de látható,
04:43
that the problemsproblémák have persistedmegmaradt.
97
271844
2670
hogy a helyzet nem változik.
04:47
That begskönyörög the questionkérdés:
98
275654
1400
Adódik a kérdés:
04:49
What should FoxFox NewsHírek do
to turnfordulat over anotheregy másik leaflevél növényen?
99
277078
2884
Mit kell a Fox Newsnak tennie,
hogy a helyzet javuljon?
04:53
Well, what if they replacedhelyébe
theirazok hiringbérlés processfolyamat
100
281245
3041
Mi lenne, ha felvételi rendszerüket
gépi tanulási algoritmusra cserélnék le?
04:56
with a machine-learninggép-tanulás algorithmalgoritmus?
101
284310
1654
Jól hangzik, ugye?
04:57
That soundshangok good, right?
102
285988
1595
De gondoljunk bele!
04:59
Think about it.
103
287607
1300
Milyen adatok állnak rendelkezésre?
05:00
The dataadat, what would the dataadat be?
104
288931
2105
05:03
A reasonableésszerű choiceválasztás would be the last
21 yearsévek of applicationsalkalmazások to FoxFox NewsHírek.
105
291060
4947
Az észszerű választás az utóbbi 21 évben
a Fox Newshoz beadott jelentkezési lapok.
05:08
ReasonableÉsszerű.
106
296031
1502
Észszerű.
05:09
What about the definitionmeghatározás of successsiker?
107
297557
1938
Mi van a siker meghatározásával?
05:11
ReasonableÉsszerű choiceválasztás would be,
108
299921
1324
Az észszerű válasz ez lenne:
05:13
well, who is successfulsikeres at FoxFox NewsHírek?
109
301269
1778
aki sikeres volt a Fox Newsnál?
05:15
I guessTaláld ki someonevalaki who, say,
stayedtartózkodott there for fournégy yearsévek
110
303071
3580
Mondjuk, aki négy évet ott töltött,
05:18
and was promotedtámogatni at leastlegkevésbé onceegyszer.
111
306675
1654
és legalább egyszer előléptették.
05:20
SoundsHangok reasonableésszerű.
112
308816
1561
Észszerűnek hangzik.
05:22
And then the algorithmalgoritmus would be trainedkiképzett.
113
310401
2354
Aztán idomítjuk az algoritmust arra,
05:24
It would be trainedkiképzett to look for people
to learntanul what led to successsiker,
114
312779
3877
hogy olyanokat keressen,
akik sikeresnek bizonyultak,
hogy megtudjuk, idővel
mely jelentkezők lettek sikeresek
05:29
what kindkedves of applicationsalkalmazások
historicallytörténelmileg led to successsiker
115
317219
4318
05:33
by that definitionmeghatározás.
116
321561
1294
meghatározásunk szerint.
05:36
Now think about what would happentörténik
117
324200
1775
De gondoljunk most arra, mi lenne,
ha ezt alkalmaznánk
a mostani jelentkezőkre,
05:37
if we appliedalkalmazott that
to a currentjelenlegi poolmedence of applicantspályázók.
118
325999
2555
05:41
It would filterszűrő out womennők
119
329119
1629
és kiszűrnénk a nőket,
05:43
because they do not look like people
who were successfulsikeres in the pastmúlt.
120
331663
3930
mert a nők nem voltak sikeresek a múltban?
05:51
AlgorithmsAlgoritmusok don't make things fairbecsületes
121
339752
2537
Az algoritmusoktól a dolgok
nem válnak korrektté,
05:54
if you just blithelyvidáman,
blindlyvakon applyalkalmaz algorithmsalgoritmusok.
122
342313
2694
ha gondatlanul, vakon alkalmazzuk őket.
Tőlük semmi sem válik korrektté.
05:57
They don't make things fairbecsületes.
123
345031
1482
05:58
They repeatismétlés our pastmúlt practicesgyakorlatok,
124
346537
2128
A múlt gyakorlatát ismétlik,
06:00
our patternsminták.
125
348689
1183
a mi sémáinkat,
06:01
They automateautomatizálása the statusállapot quoquo.
126
349896
1939
Automatizálják a status quót.
06:04
That would be great
if we had a perfecttökéletes worldvilág,
127
352718
2389
Tökéletes világban ez nagyszerű is lenne,
06:07
but we don't.
128
355905
1312
de a világ nem olyan.
06:09
And I'll addhozzáad that mosta legtöbb companiesvállalatok
don't have embarrassingkínos lawsuitsperek,
129
357241
4102
Hozzáteszem, hogy a legtöbb
cégnek nincsenek kínos perei,
06:14
but the dataadat scientiststudósok in those companiesvállalatok
130
362446
2588
de azoknál a cégeknél
az adattudósoknak azt mondják,
06:17
are told to followkövesse the dataadat,
131
365058
2189
hogy tartsák magukat az adatokhoz,
06:19
to focusfókusz on accuracypontosság.
132
367271
2143
a precizitás minden előtt.
06:22
Think about what that meanseszközök.
133
370273
1381
Mit jelent ez?
Mivel mindannyian elfogultak vagyunk,
ezért esetleg szexizmust
06:23
Because we all have biasElfogultság,
it meanseszközök they could be codifyingkodifikálja sexismszexizmus
134
371678
4027
vagy más fanatizmust kódolhatnak be.
06:27
or any other kindkedves of bigotryvakbuzgóság.
135
375729
1836
06:31
Thought experimentkísérlet,
136
379488
1421
Gondolatkísérlet.
06:32
because I like them:
137
380933
1509
Szeretem a gondolatkísérletet.
06:35
an entirelyteljesen segregatedszegregált societytársadalom --
138
383574
2975
Teljesen szegregált társadalom,
06:40
raciallyrasszista segregatedszegregált, all townsvárosok,
all neighborhoodsvárosrészek
139
388247
3328
rasszok szerint minden város,
minden környék szegregált,
06:43
and where we sendelküld the policerendőrség
only to the minoritykisebbségi neighborhoodsvárosrészek
140
391599
3037
és csak kisebbségi környékre
küldjük ki a rendőrséget
06:46
to look for crimebűn.
141
394660
1193
bűnüldözés céljából.
06:48
The arrestletartóztatás dataadat would be very biasedelfogult.
142
396451
2219
A letartóztatási adatok
igen torzak lesznek.
06:51
What if, on topfelső of that,
we foundtalál the dataadat scientiststudósok
143
399851
2575
Mi lenne, ha adattudósokat kérnénk,
06:54
and paidfizetett the dataadat scientiststudósok to predictmegjósolni
where the nextkövetkező crimebűn would occurelőfordul?
144
402450
4161
jelezzék előre, hol lesz
a következő bűntett.
06:59
MinorityKisebbségi neighborhoodszomszédság.
145
407275
1487
A kisebbségi környéken.
07:01
Or to predictmegjósolni who the nextkövetkező
criminalBűnügyi would be?
146
409285
3125
Vagy jósolják meg,
ki lesz a következő bűnöző.
07:04
A minoritykisebbségi.
147
412888
1395
Egy kisebbségi.
07:07
The dataadat scientiststudósok would bragdicsekedni
about how great and how accuratepontos
148
415949
3541
Az adattudósok azzal fognak kérkedni,
milyen nagyszerű és precíz a modelljük,
07:11
theirazok modelmodell would be,
149
419514
1297
07:12
and they'dők azt be right.
150
420835
1299
és igazuk lesz.
07:15
Now, realityvalóság isn't that drasticdrasztikus,
but we do have severeszigorú segregationssegregations
151
423951
4615
A valóság nem ily végletes,
de azért sok helyen
súlyos szegregációt tapasztalunk,
07:20
in manysok citiesvárosok and townsvárosok,
152
428590
1287
rengeteg a bizonyíték
07:21
and we have plentybőven of evidencebizonyíték
153
429901
1893
07:23
of biasedelfogult policingrendőri
and justiceigazságszolgáltatás systemrendszer dataadat.
154
431818
2688
elfogult intézkedésekre
és jogrendszeri adatokra.
07:27
And we actuallytulajdonképpen do predictmegjósolni hotspotshotspotok,
155
435632
2815
De azért megjósoljuk a gócokat,
07:30
placeshelyek where crimesbűncselekmények will occurelőfordul.
156
438471
1530
bűntettek előfordulási helyeit.
07:32
And we do predictmegjósolni, in facttény,
the individualEgyedi criminalitya bűnözés,
157
440401
3866
Megjósoljuk az egyéni bűnözést,
egyesek bűnelkövetését.
07:36
the criminalitya bűnözés of individualsegyének.
158
444291
1770
07:38
The newshírek organizationszervezet ProPublicaProPublica
recentlymostanában lookednézett into
159
446972
3963
A ProPublica hírügynökség nemrég megnézett
07:42
one of those "recidivismvisszaesés riskkockázat" algorithmsalgoritmusok,
160
450959
2024
egy "visszaesési kockázat" algoritmust,
07:45
as they're calledhívott,
161
453007
1163
ahogy ők hívják, Floridában,
07:46
beinglény used in FloridaFlorida
duringalatt sentencingbüntetés by judgesbírók.
162
454194
3194
bírói ítélethozatal közben.
07:50
BernardBernard, on the left, the blackfekete man,
was scoredgól a 10 out of 10.
163
458411
3585
Bernard, fekete férfi balról,
tízből 10 pontot kapott.
Dylan a jobb oldalon, tízből hármat.
07:55
DylanDylan, on the right, 3 out of 10.
164
463179
2007
07:57
10 out of 10, highmagas riskkockázat.
3 out of 10, lowalacsony riskkockázat.
165
465210
2501
Tízből 10 – nagy kockázat,
tízből három – kis kockázat.
08:00
They were bothmindkét broughthozott in
for drugdrog possessionbirtoklás.
166
468598
2385
Mindkettőt kábszer-birtoklásért kapták el.
08:03
They bothmindkét had recordsfeljegyzések,
167
471007
1154
Mindketten visszaesők,
08:04
but DylanDylan had a felonybűntett
168
472185
2806
Dylannak volt súlyos bűntette,
08:07
but BernardBernard didn't.
169
475015
1176
de Bernardnak nem.
08:09
This mattersügyek, because
the highermagasabb scorepontszám you are,
170
477818
3066
Ez számít, mert magasabb pontszám esetén
08:12
the more likelyvalószínűleg you're beinglény givenadott
a longerhosszabb sentencemondat.
171
480908
3473
súlyosabb ítéletet szabnak ki.
08:18
What's going on?
172
486294
1294
Mi történik?
08:20
DataAdatok launderingpénzmosás.
173
488526
1332
Adatmosás.
08:22
It's a processfolyamat by whichmelyik
technologistsTechnológus hideelrejt uglycsúnya truthsigazságok
174
490930
4427
Ezzel a folyamattal rejtik el
a technikusok a csúnya igazságot
08:27
insidebelül blackfekete boxdoboz algorithmsalgoritmusok
175
495381
1821
a feketedoboz-algoritmusba,
08:29
and call them objectivecélkitűzés;
176
497226
1290
s eztán már objektívnak
08:31
call them meritocraticérdemen alapuló.
177
499320
1568
és érdemeken alapulónak hívják.
08:35
When they're secrettitok,
importantfontos and destructiveromboló,
178
503118
2385
Mivel titkosak, fontosak és rombolók,
08:37
I've coinedmegalkotta a termkifejezés for these algorithmsalgoritmusok:
179
505527
2487
alkottam rájuk egy fogalmat:
08:40
"weaponsfegyverek of mathmatematikai destructionmegsemmisítés."
180
508038
1999
"a matematika tömegpusztító fegyverei".
08:42
(LaughterNevetés)
181
510061
1564
(Nevetés)
(Taps)
08:43
(ApplauseTaps)
182
511649
3054
Mindenhol vannak, nem tévedés.
08:46
They're everywheremindenhol,
and it's not a mistakehiba.
183
514727
2354
08:49
These are privatemagán companiesvállalatok
buildingépület privatemagán algorithmsalgoritmusok
184
517695
3723
Magáncégek magánalgoritmusokat készítenek
08:53
for privatemagán endsvéget ér.
185
521442
1392
magáncélokra.
08:55
Even the onesazok I talkedbeszélt about
for teacherstanárok and the publicnyilvános policerendőrség,
186
523214
3214
Még az említett, tanároknak
és a rendőrségnek szántakat is
08:58
those were builtépült by privatemagán companiesvállalatok
187
526452
1869
magáncégek készítették,
majd adták el állami intézményeknek.
09:00
and soldeladott to the governmentkormány institutionsintézmények.
188
528345
2231
09:02
They call it theirazok "secrettitok sauceszósz" --
189
530600
1873
"Titkos szósznak" hívják őket,
09:04
that's why they can't tell us about it.
190
532497
2128
ezért nem fedik föl őket.
09:06
It's alsois privatemagán powererő.
191
534649
2220
Ez is magánhatalom.
09:09
They are profitingprofitál for wieldinghadonászó
the authorityhatóság of the inscrutablekifürkészhetetlen.
192
537924
4695
Profitálnak a kiismerhetetlen
hatalom gyakorlásából.
Fölvethetik: mivel ez mind magántermék,
09:17
Now you mightesetleg think,
sincemivel all this stuffdolog is privatemagán
193
545114
2934
09:20
and there's competitionverseny,
194
548072
1158
verseny van,
talán a szabadpiac megoldja a nehézséget.
09:21
maybe the freeingyenes marketpiac
will solvemegfejt this problemprobléma.
195
549254
2306
Nem fogja.
09:23
It won'tszokás.
196
551584
1249
Tisztességtelenséggel
sokat lehet keresni.
09:24
There's a lot of moneypénz
to be madekészült in unfairnesstisztességtelen.
197
552857
3120
09:29
AlsoIs, we're not economicgazdasági rationalracionális agentsszerek.
198
557127
3369
Ráadásul nem vagyunk
gazdaságilag racionális egyedek.
09:33
We all are biasedelfogult.
199
561031
1292
Mind elfogultak vagyunk.
09:34
We're all racistrasszista and bigotedbigott
in waysmódokon that we wishszeretnék we weren'tnem voltak,
200
562960
3377
Mind rasszisták és bigottak vagyunk,
még ha nem akarjuk is,
09:38
in waysmódokon that we don't even know.
201
566361
2019
még ha nem tudunk is róla.
09:41
We know this, thoughbár, in aggregateadalékanyag,
202
569352
3081
De összességében mégis tudunk róla,
09:44
because sociologistsszociológusok
have consistentlykövetkezetesen demonstratedigazolták this
203
572457
3220
mert szociológiai kísérletek
ezt következetesen alátámasztják.
09:47
with these experimentskísérletek they buildépít,
204
575701
1665
09:49
where they sendelküld a bunchcsokor
of applicationsalkalmazások to jobsmunkahelyek out,
205
577390
2568
Beküldik egy csomó egyformán
alkalmas személy állásjelentkezését,
09:51
equallyegyaránt qualifiedminősített but some
have white-soundingfehér hangzású namesnevek
206
579982
2501
de egyeseknek "fehéres" nevük van,
másoknak feketének hangzó.
09:54
and some have black-soundingfekete hangzású namesnevek,
207
582507
1706
09:56
and it's always disappointingkiábrándító,
the resultstalálatok -- always.
208
584237
2694
Az eredmény mindig elkeserítő.
09:59
So we are the onesazok that are biasedelfogult,
209
587510
1771
Tehát mind elfogultak vagyunk,
és elfogultságunkat azzal
ojtjuk be az algoritmusokba,
10:01
and we are injectingintravénás those biasestorzítások
into the algorithmsalgoritmusok
210
589305
3429
hogy megválasztjuk,
milyen adatot gyűjtsünk,
10:04
by choosingkiválasztása what dataadat to collectgyűjt,
211
592758
1812
10:06
like I choseválasztotta not to think
about ramenramen noodlesmetélt --
212
594594
2743
ahogy én sem vettem
tudomást a zacskós levesről,
10:09
I decidedhatározott it was irrelevantirreleváns.
213
597361
1625
mert nem tartottam lényegesnek.
De ha múltbéli gyakorlaton
alapuló adatokban bízva
10:11
But by trustingbízva the dataadat that's actuallytulajdonképpen
pickingfeltörés up on pastmúlt practicesgyakorlatok
214
599010
5684
határozzuk meg a sikert,
10:16
and by choosingkiválasztása the definitionmeghatározás of successsiker,
215
604718
2014
10:18
how can we expectelvár the algorithmsalgoritmusok
to emergefelbukkan unscathedsértetlenül?
216
606756
3983
hogyan remélhetjük, hogy megbízhatók
lesznek az algoritmusok?
10:22
We can't. We have to checkjelölje be them.
217
610763
2356
Sehogy. Ellenőriznünk kell őket!
10:26
We have to checkjelölje be them for fairnessméltányosság.
218
614165
1709
Ellenőrizni, hogy pártatlanok-e.
10:27
The good newshírek is,
we can checkjelölje be them for fairnessméltányosság.
219
615898
2711
A jó hír, hogy lehet ezt ellenőrizni.
10:30
AlgorithmsAlgoritmusok can be interrogatedkihallgatták,
220
618633
3352
Az algoritmusok vizsgálhatók.
10:34
and they will tell us
the truthigazság everyminden time.
221
622009
2034
Mindig megmondják az igazat.
10:36
And we can fixerősít them.
We can make them better.
222
624067
2493
Javíthatunk rajtuk.
10:38
I call this an algorithmicalgoritmikus auditaudit,
223
626584
2375
Ezt hívom algoritmus-auditálásnak,
10:40
and I'll walkséta you throughkeresztül it.
224
628983
1679
s megmutatom lépésenként, hogyan.
10:42
First, dataadat integritybecsületesség checkjelölje be.
225
630686
2196
Első az adatintegritás vizsgálata.
10:46
For the recidivismvisszaesés riskkockázat
algorithmalgoritmus I talkedbeszélt about,
226
634132
2657
Az említett visszaesési
kockázat algoritmusánál
10:49
a dataadat integritybecsületesség checkjelölje be would mean
we'dHázasodik have to come to termsfeltételek with the facttény
227
637582
3573
az adatintegritás azt jelenti,
hogy el kell fogadnunk a tényt,
hogy feketék s fehérek azonos
arányban szívnak füvet az USA-ban,
10:53
that in the US, whitesfehérek and blacksfeketék
smokefüst potedény at the sameazonos ratearány
228
641179
3526
10:56
but blacksfeketék are farmessze more likelyvalószínűleg
to be arrestedletartóztatott --
229
644729
2485
ám a feketéket sokkal
gyakrabban tartóztatják le,
10:59
fournégy or fiveöt timesalkalommal more likelyvalószínűleg,
dependingattól on the areaterület.
230
647238
3184
a körzettől függően
négy-ötször gyakrabban.
11:03
What is that biasElfogultság looking like
in other crimebűn categorieskategóriák,
231
651317
2826
Hogy néz ki az elfogultság
más bűnügyi területen,
11:06
and how do we accountszámla for it?
232
654167
1451
és mivel magyarázható?
11:08
SecondMásodik, we should think about
the definitionmeghatározás of successsiker,
233
656162
3039
Másodszor, foglalkoznunk
kell a siker meghatározásával,
11:11
auditaudit that.
234
659225
1381
auditálnunk kell.
11:12
RememberNe feledje -- with the hiringbérlés
algorithmalgoritmus? We talkedbeszélt about it.
235
660630
2752
Emlékeznek a felvételi algoritmusra?
11:15
SomeoneValaki who staystartózkodás for fournégy yearsévek
and is promotedtámogatni onceegyszer?
236
663406
3165
Sikeres, aki négy éve dolgozik,
és egyszer léptették elő?
Ő sikeres munkatárs,
11:18
Well, that is a successfulsikeres employeemunkavállaló,
237
666595
1769
de azért, mert belesimult
a cég kultúrájába.
11:20
but it's alsois an employeemunkavállaló
that is supportedtámogatott by theirazok culturekultúra.
238
668388
3079
11:24
That said, alsois it can be quiteegészen biasedelfogult.
239
672089
1926
Ez is elfogultság lehet.
A két dolgot el kell választanunk.
11:26
We need to separatekülönálló those two things.
240
674039
2065
Példának ott van
11:28
We should look to
the blindvak orchestrazenekar auditionmeghallgatás
241
676128
2426
a vak zenekari meghallgatás:
11:30
as an examplepélda.
242
678578
1196
a zenészek függöny mögött játszanak.
11:31
That's where the people auditioningmeghallgatásra
are behindmögött a sheetlap.
243
679798
2756
11:34
What I want to think about there
244
682946
1931
A lényeg, hogy akik hallgatják őket,
11:36
is the people who are listeningkihallgatás
have decidedhatározott what's importantfontos
245
684901
3417
már eldöntötték, mi fontos,
11:40
and they'veők már decidedhatározott what's not importantfontos,
246
688342
2029
s azt is eldöntötték, mi nem,
s erről semmi nem vonja el a figyelmüket.
11:42
and they're not gettingszerzés
distractedzaklatott by that.
247
690395
2059
11:44
When the blindvak orchestrazenekar
auditionsmeghallgatás startedindult,
248
692961
2749
Amikor megindult
a vak zenekari meghallgatás,
11:47
the numberszám of womennők in orchestraszenekarok
wentment up by a factortényező of fiveöt.
249
695734
3444
a zenekarban játszó nők
száma ötszörösére nőtt.
11:52
NextKövetkező, we have to considerfontolgat accuracypontosság.
250
700253
2015
Aztán minősíteni kell a precizitást.
11:55
This is where the value-addedhozzáadott érték modelmodell
for teacherstanárok would failnem sikerül immediatelyazonnal.
251
703233
3734
Itt rögtön megbukik a tanároknak
szóló hozzáadottérték-modell.
11:59
No algorithmalgoritmus is perfecttökéletes, of coursetanfolyam,
252
707578
2162
Persze, nincs tökéletes algoritmus,
12:02
so we have to considerfontolgat
the errorshibák of everyminden algorithmalgoritmus.
253
710620
3605
ezért mérlegelni kell minden
algoritmus esetleges hibáját.
12:06
How oftengyakran are there errorshibák,
and for whomkit does this modelmodell failnem sikerül?
254
714836
4359
Milyen gyakoriak a hibák,
és kinél sikertelen a modell?
12:11
What is the costköltség of that failurehiba?
255
719850
1718
Mi a sikertelenség ára?
12:14
And finallyvégül, we have to considerfontolgat
256
722434
2207
Végezetül, meg kell fontolnunk
12:17
the long-termhosszútávú effectshatások of algorithmsalgoritmusok,
257
725973
2186
az algoritmusok s a keletkező
visszacsatolási hurkok
12:20
the feedbackVisszacsatolás loopshurkok that are engenderingszül.
258
728866
2207
hosszú távú kihatásait.
Ez elvontnak hangzik,
12:23
That soundshangok abstractabsztrakt,
259
731586
1236
de képzeljék el, ha a Facebook-
mérnökök gondoltak volna rá,
12:24
but imagineKépzeld el if FacebookFacebook engineersmérnökök
had consideredfigyelembe vett that
260
732846
2664
12:28
before they decidedhatározott to showelőadás us
only things that our friendsbarátok had postedhozzászóló.
261
736270
4855
mielőtt eldöntötték, hogy csak a barátaink
posztolta dolgokat mutatják nekünk.
Még két megjegyzésem van,
egyik az itt ülő adattudósoknak szól.
12:33
I have two more messagesüzenetek,
one for the dataadat scientiststudósok out there.
262
741761
3234
12:37
DataAdatok scientiststudósok: we should
not be the arbitersarbiters of truthigazság.
263
745450
3409
Adattudósok!
Nem lehetünk az igazság döntőbírái.
12:41
We should be translatorsfordítók
of ethicaletikai discussionsbeszélgetések that happentörténik
264
749520
3783
A szélesebb társadalomban
folyó erkölcsi eszmecserét
12:45
in largernagyobb societytársadalom.
265
753327
1294
kell tolmácsolnunk.
12:47
(ApplauseTaps)
266
755579
2133
(Taps)
12:49
And the restpihenés of you,
267
757736
1556
A többieknek,
12:52
the non-datanem adat scientiststudósok:
268
760011
1396
a nem adattudósoknak:
12:53
this is not a mathmatematikai testteszt.
269
761431
1498
ez nem matekvizsga.
12:55
This is a politicalpolitikai fightharc.
270
763632
1348
Ez politikai küzdelem.
12:58
We need to demandigény accountabilityfelelősségre vonhatóság
for our algorithmicalgoritmikus overlordsurak.
271
766587
3907
Követelnünk kell, hogy az algoritmusok
nagyurai elszámoltathatók legyenek.
13:04
(ApplauseTaps)
272
772118
1499
(Taps)
13:05
The erakorszak of blindvak faithhit
in bignagy dataadat mustkell endvég.
273
773641
4225
Vessünk véget a big datába
vetett vakhit korszakának!
13:09
Thank you very much.
274
777890
1167
Köszönöm szépen.
13:11
(ApplauseTaps)
275
779081
5303
(Taps)
Translated by Peter Pallós
Reviewed by Beatrix Turán

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee