ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

Cathy O'Neil: Büyük verideki kör inanç dönemi bitmeli

Filmed:
1,391,460 views

Algoritmalar kimin kredi alabileceğine, kimin mülakata çağrılacağına, kimin sigorta sahibi olacağına ve fazlasına karar veriyor. Oysa algoritmalar otomatik olarak her şeyi adil kılmıyor. Matematikçi ve veri bilimci Cathy O'Neil gizli, önemli ve zararlı algoritmalar için bir terim türetti: "matematiksel yıkım silahları". Formüller arkasına gizlenen konular hakkında fazlasını öğrenin.
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
AlgorithmsAlgoritmalar are everywhereher yerde.
0
975
1596
Algoritmalar her yerde.
00:16
They sortçeşit and separateayrı
the winnerskazananlar from the loserskaybedenler.
1
4111
3125
Kazananları kaybedenlerden ayırıyor.
00:20
The winnerskazananlar get the job
2
8019
2264
Kazananlar ya işi alıyor
00:22
or a good creditkredi cardkart offerteklif.
3
10307
1743
ya da iyi bir kredi kartı teklifi.
00:24
The loserskaybedenler don't even get an interviewröportaj
4
12074
2651
Kaybedenler iş görüşmesine bile çağrılmaz
00:27
or they payödeme more for insurancesigorta.
5
15590
1777
veya sigorta primi için
daha fazla ödeme yaparlar.
00:30
We're beingolmak scoredattı with secretgizli formulasformüller
that we don't understandanlama
6
18197
3549
Doğrulama sistemi olmayan,
anlamadığımız
00:34
that oftensık sık don't have systemssistemler of appealtemyiz.
7
22675
3217
gizli formülasyonlar ile puanlanıyoruz.
Burada şu soru akla geliyor:
00:39
That begsyalvarır the questionsoru:
8
27240
1296
00:40
What if the algorithmsalgoritmalar are wrongyanlış?
9
28560
2913
Peki ya algoritmalar hatalıysa?
00:45
To buildinşa etmek an algorithmalgoritma you need two things:
10
33100
2040
Algoritma oluşturmak için 2 şey gerekli:
00:47
you need dataveri, what happenedolmuş in the pastgeçmiş,
11
35164
1981
Geçmişte ne olduğunu gösteren veri,
00:49
and a definitiontanım of successbaşarı,
12
37169
1561
o her zaman aradığınız
00:50
the thing you're looking for
and oftensık sık hopingumut for.
13
38754
2457
ve bulmayı umduğunuz başarı tanımına.
00:53
You traintren an algorithmalgoritma
by looking, figuringendam out.
14
41235
5037
Sonuca ulaşmak için
algoritma çalıştırırsınız.
00:58
The algorithmalgoritma figuresrakamlar out
what is associatedilişkili with successbaşarı.
15
46296
3419
Algoritma başarı ile nelerin
bağlantılı olduğunu keşfeder.

01:01
What situationdurum leadspotansiyel müşteriler to successbaşarı?
16
49739
2463
Hangi durum başarıya ulaştırır?
01:04
ActuallyAslında, everyoneherkes useskullanımları algorithmsalgoritmalar.
17
52881
1762
Aslında herkes algoritma kullanır.
01:06
They just don't formalizeresmileştirmek them
in writtenyazılı codekod.
18
54667
2718
Sadece yazılı olarak formüle etmezler.
01:09
Let me give you an exampleörnek.
19
57409
1348
Size bir örnek vereyim.
01:10
I use an algorithmalgoritma everyher day
to make a mealyemek for my familyaile.
20
58781
3316
Aileme yemek yapmak için
her gün algoritma kullanırım.
01:14
The dataveri I use
21
62121
1476
Kullandığım veri
01:16
is the ingredientsmalzemeler in my kitchenmutfak,
22
64394
1659
mutfağımdaki malzemeler,
01:18
the time I have,
23
66077
1527
zaman,
01:19
the ambitionhırs I have,
24
67628
1233
tutkudur
01:20
and I curatePapaz that dataveri.
25
68885
1709
ve bu verileri düzene koyarım.
01:22
I don't countsaymak those little packagespaketler
of ramenramen noodleserişte as foodGıda.
26
70618
4251
Bu arada, Japon erişte paketlerini
yemekten saymıyorum.
01:26
(LaughterKahkaha)
27
74893
1869
(Kahkahalar)
01:28
My definitiontanım of successbaşarı is:
28
76786
1845
Başarı tanımım şudur:
01:30
a mealyemek is successfulbaşarılı
if my kidsçocuklar eatyemek vegetablessebzeler.
29
78655
2659
Çocuklarım sebzeleri yerse
yemeğim başarılıdır.
01:34
It's very differentfarklı
from if my youngestEn genç sonoğul were in chargeşarj etmek.
30
82181
2854
En küçük oğluma sorulsaydı
bu tanım farklı olurdu.
01:37
He'dO istiyorsunuz say successbaşarı is if
he getsalır to eatyemek lots of NutellaNutella.
31
85059
2788
Onun başarı tanımı
çok miktarda Nutella yemek.
01:41
But I get to chooseseçmek successbaşarı.
32
89179
2226
Ama başarıya ben ulaşmalıyım.
01:43
I am in chargeşarj etmek. My opiniongörüş mattershususlar.
33
91429
2707
Bu iş benim sorumluluğumda.
Görüşüm önemli.
01:46
That's the first rulekural of algorithmsalgoritmalar.
34
94160
2675
Bu, algoritmaların ilk kuralı.
Algoritmalar,
kodların içine gömülmüş fikirlerdir.
01:48
AlgorithmsAlgoritmalar are opinionsgörüşler embeddedgömülü in codekod.
35
96859
3180
01:53
It's really differentfarklı from what you think
mostçoğu people think of algorithmsalgoritmalar.
36
101562
3663
İnsanların algoritmalar hakkındaki
görüşlerinden farklı bir şey bu.
01:57
They think algorithmsalgoritmalar are objectiveamaç
and truedoğru and scientificilmi.
37
105249
4504
İnsanlar algoritmaların tarafsız,
doğru ve bilimsel olduğunu düşünür.
02:02
That's a marketingpazarlama trickhile.
38
110387
1699
Bu bir pazarlama hilesi.
02:05
It's alsoAyrıca a marketingpazarlama trickhile
39
113269
2125
Algoritmalara güvenmeniz
02:07
to intimidatekorkutmak you with algorithmsalgoritmalar,
40
115418
3154
ve onlardan korkmanız için
02:10
to make you trustgüven and fearkorku algorithmsalgoritmalar
41
118596
3661
bir pazarlama hilesidir
çünkü matematikten de korkarsınız
02:14
because you trustgüven and fearkorku mathematicsmatematik.
42
122281
2018
ama sayılara güvenirsiniz.
02:17
A lot can go wrongyanlış when we put
blindkör faithinanç in bigbüyük dataveri.
43
125567
4830
Büyük veriye körü körüne inanırsak
çok şey yanlış gidebilir.
02:23
This is KiriKiri SoaresSoares.
She's a highyüksek schoolokul principalAsıl adı in BrooklynBrooklyn.
44
131684
3373
Bu Kiri Soares.
Brooklyn'de okul müdürü.
02:27
In 2011, she told me
her teachersöğretmenler were beingolmak scoredattı
45
135081
2586
2011'de öğretmenlerin
'katma değer modeli' adında
02:29
with a complexkarmaşık, secretgizli algorithmalgoritma
46
137691
2727
gizli, karışık bir algoritma ile
02:32
calleddenilen the "value-addedkatma değer modelmodel."
47
140442
1489
puanlandıklarını söyledi.
02:34
I told her, "Well, figureşekil out
what the formulaformül is, showgöstermek it to me.
48
142505
3092
"Formülasyonu bana göster,
sana içeriğini açıklayayım" dedim.
02:37
I'm going to explainaçıklamak it to you."
49
145621
1541
Cevap verdi:
"Doğrusu formülasyonu almaya çalıştım
02:39
She said, "Well, I trieddenenmiş
to get the formulaformül,
50
147186
2141
02:41
but my DepartmentBölümü of EducationEğitim contacttemas
told me it was mathmatematik
51
149351
2772
fakat eğitim birimi bana
bunun matematiksel olduğunu
ve içeriğini anlamayacağımı söyledi".
02:44
and I wouldn'tolmaz understandanlama it."
52
152147
1546
02:47
It getsalır worsedaha da kötüsü.
53
155266
1338
Daha kötüye gidiyor.
02:48
The NewYeni YorkYork PostYayınla filedunder
a FreedomÖzgürlük of InformationBilgi ActYasası requestistek,
54
156628
3530
The New York Post,
"Bilgiye Özgürlük Hareketi" kapsamındaki
02:52
got all the teachers'Öğretmenler namesisimler
and all theironların scoresSkorlar
55
160182
2959
talebi sonucu öğretmenlerin
isim ve puanlarını temin edip
02:55
and they publishedyayınlanan them
as an actdavranmak of teacher-shamingöğretmen shaming.
56
163165
2782
adeta öğretmen ayıplama
eylemi olarak sonuçları yayımladı.
02:59
When I trieddenenmiş to get the formulasformüller,
the sourcekaynak codekod, throughvasitasiyla the sameaynı meansanlamına geliyor,
57
167084
3860
Aynı yollarla formül ve kaynak kodunu
almaya çalıştığımda
03:02
I was told I couldn'tcould.
58
170968
2149
bunu alamayacağım söylendi.
Talebim reddedildi.
03:05
I was deniedinkar.
59
173141
1236
Sonra New York'ta hiç kimsenin
03:06
I latersonra foundbulunan out
60
174401
1174
03:07
that nobodykimse in NewYeni YorkYork CityŞehir
had accesserişim to that formulaformül.
61
175599
2866
bu formüle erişimi olmadığını öğrendim.
03:10
No one understoodanladım it.
62
178489
1305
Kimse içeriğini bilmiyor, anlamıyor.
03:13
Then someonebirisi really smartakıllı
got involvedilgili, GaryGary RubensteinRubenstein.
63
181929
3224
Sonra Gary Rubinstein adında
zeki biri olaya dâhil oldu.
03:17
He foundbulunan 665 teachersöğretmenler
from that NewYeni YorkYork PostYayınla dataveri
64
185177
3621
Rubinstein, New York Post verisindeki
665 öğretmenin aslında iki tane
03:20
that actuallyaslında had two scoresSkorlar.
65
188822
1866
yani mükerrer puanı olduğunu keşfetti.
03:22
That could happenolmak if they were teachingöğretim
66
190712
1881
Bu ancak, öğretmenler
7 ve 8'inci sınıflara
03:24
seventhyedinci gradesınıf mathmatematik and eighthsekizinci gradesınıf mathmatematik.
67
192617
2439
ders veriyor olsaydı oluşabilirdi.
03:27
He decidedkarar to plotarsa them.
68
195080
1538
Rubinstein, sonuçların grafiğini çizdi.
03:28
EachHer dotnokta representstemsil a teacheröğretmen.
69
196642
1993
Her nokta bir öğretmeni temsil ediyor.
03:31
(LaughterKahkaha)
70
199104
2379
(Kahkahalar)
03:33
What is that?
71
201507
1521
Nedir bu?
03:35
(LaughterKahkaha)
72
203052
1277
(Kahkahalar)
03:36
That should never have been used
for individualbireysel assessmentdeğerlendirme.
73
204353
3446
Bu asla kişileri değerlendirmek için
kullanılmamalıydı.
03:39
It's almostneredeyse a randomrasgele numbernumara generatorjeneratör.
74
207823
1926
Tıpkı rasgele bir sayı üreticisi gibi.
03:41
(ApplauseAlkış)
75
209773
2946
(Alkışlar)
03:44
But it was.
76
212743
1162
Ama kullanıldı.
03:45
This is SarahSarah WysockiWysocki.
77
213929
1176
Bu Sarah Wysocki.
03:47
She got firedateş, alonguzun bir
with 205 other teachersöğretmenler,
78
215129
2175
Diğer 205 öğretmen ile birlikte
03:49
from the WashingtonWashington, DCDC schoolokul districtilçe,
79
217328
2662
Washington'ta görevine son verildi.
03:52
even thoughgerçi she had great
recommendationstavsiyeler from her principalAsıl adı
80
220014
2909
Oysa okul müdürü ve veliler
03:54
and the parentsebeveyn of her kidsçocuklar.
81
222947
1428
kendisinden çok memnundu.
Burada başta yapay zeka uzmanları
03:57
I know what a lot
of you guys are thinkingdüşünme,
82
225390
2032
ve veri bilimciler olmak üzere
ne düşündüğünüzü biliyorum.
03:59
especiallyözellikle the dataveri scientistsBilim adamları,
the AIAI expertsuzmanlar here.
83
227446
2487
04:01
You're thinkingdüşünme, "Well, I would never make
an algorithmalgoritma that inconsistenttutarsız."
84
229957
4226
Muhtemelen "Böyle tutarsız bir
algoritma oluşturmazdım" diyorsunuz.
Oysa algoritmalar hatalı kurulabilir
04:06
But algorithmsalgoritmalar can go wrongyanlış,
85
234853
1683
04:08
even have deeplyderinden destructiveyıkıcı effectsetkileri
with good intentionsniyetleri.
86
236560
4598
ve kötü niyetle oluşturulmasalar da
yıkıcı sonuçları olabilir.
04:14
And whereasbuna karşılık an airplaneuçak
that's designedtasarlanmış badlykötü
87
242531
2379
Kötü tasarlanmış bir uçak
04:16
crashesçöker to the earthtoprak and everyoneherkes seesgörür it,
88
244934
2001
kaza yapar ve herkes hatayı görür,
04:18
an algorithmalgoritma designedtasarlanmış badlykötü
89
246959
1850
oysa algoritma kötü tasarlandığında
04:22
can go on for a long time,
silentlysessizce wreakingkavuruyor havocHavoc.
90
250245
3865
zarar vermeye sessizce,
uzun süre devam edebilir.
04:27
This is RogerRoger AilesAiles.
91
255748
1570
Bu Roger Ailes.
04:29
(LaughterKahkaha)
92
257342
2000
(Kahkahalar)
04:32
He foundedkurulmuş FoxFox NewsHaberler in 1996.
93
260524
2388
Fox News kanalını 1996'da kurdu.
Kanalda 20'den fazla kadın
taciz iddiasıyla şikayetçi oldu.
04:35
More than 20 womenkadınlar complainedşikayet
about sexualcinsel harassmenttaciz.
94
263436
2581
04:38
They said they weren'tdeğildi allowedizin
to succeedbaşarılı olmak at FoxFox NewsHaberler.
95
266041
3235
Haber kanalında başarıya ulaşmalarının
engellendiğini söylediler.
04:41
He was ousteddevirip last yearyıl,
but we'vebiz ettik seengörüldü recentlyson günlerde
96
269300
2520
Görevi geçen sene sonlandırıldı
04:43
that the problemssorunlar have persistedkalıcı.
97
271844
2670
ama problemlerin devam ettiğini öğrendik.
04:47
That begsyalvarır the questionsoru:
98
275654
1400
Bu, şu soruyu akla getiriyor:
04:49
What should FoxFox NewsHaberler do
to turndönüş over anotherbir diğeri leafYaprak?
99
277078
2884
Fox News, temiz bir sayfa açmak
için ne yapmalı?
İşe alım süreçlerini
makine öğrenmesine dayalı
04:53
Well, what if they replaceddeğiştirilir
theironların hiringişe alıyor processsüreç
100
281245
3041
bir algoritma ile değiştirseler ne olur?
04:56
with a machine-learningMakine öğrenimi algorithmalgoritma?
101
284310
1654
04:57
That soundssesleri good, right?
102
285988
1595
Kulağa iyi geliyor, değil mi?
04:59
Think about it.
103
287607
1300
Bir düşünün.
05:00
The dataveri, what would the dataveri be?
104
288931
2105
Veri ne olurdu?
05:03
A reasonablemakul choiceseçim would be the last
21 yearsyıl of applicationsuygulamaları to FoxFox NewsHaberler.
105
291060
4947
Son 21 yılda kanala yapılan
iş başvuruları veri seçimi için
05:08
ReasonableMakul.
106
296031
1502
mantıklı olur.
05:09
What about the definitiontanım of successbaşarı?
107
297557
1938
Peki ya buradaki 'başarının tanımı' nedir?
Makul bir karar şöyle olurdu;
05:11
ReasonableMakul choiceseçim would be,
108
299921
1324
05:13
well, who is successfulbaşarılı at FoxFox NewsHaberler?
109
301269
1778
Fox News'da kim başarılı?
05:15
I guesstahmin someonebirisi who, say,
stayedkaldı there for fourdört yearsyıl
110
303071
3580
Diyelim ki 4 sene orada kalmış,
05:18
and was promotedterfi at leasten az oncebir Zamanlar.
111
306675
1654
en az 1 kez terfi almış kişiler.
05:20
SoundsSesler reasonablemakul.
112
308816
1561
Kulağa mantıklı geliyor.
05:22
And then the algorithmalgoritma would be trainedeğitilmiş.
113
310401
2354
Sonra algoritma oluşturulurdu.
05:24
It would be trainedeğitilmiş to look for people
to learnöğrenmek what led to successbaşarı,
114
312779
3877
Kimlerin başarıya ulaştığını öğrenmek,
05:29
what kindtür of applicationsuygulamaları
historicallytarihsel led to successbaşarı
115
317219
4318
geçmişte ne tür başvuruların
başarıya ulaştığını görmek için
05:33
by that definitiontanım.
116
321561
1294
algoritma oluşturulurdu.
Mevcut iş başvurularının bulunduğu havuza
05:36
Now think about what would happenolmak
117
324200
1775
bu yöntem uygulansa ne olabilirdi,
düşünün.
05:37
if we applieduygulamalı that
to a currentşimdiki poolhavuz of applicantsbaşvuru.
118
325999
2555
05:41
It would filterfiltre out womenkadınlar
119
329119
1629
Geçmişte başarılı olanlar gibi görünmeyen
05:43
because they do not look like people
who were successfulbaşarılı in the pastgeçmiş.
120
331663
3930
kadınları filtreleyebilirdi.
05:51
AlgorithmsAlgoritmalar don't make things fairadil
121
339752
2537
Eğer sadece umarsızca
05:54
if you just blithelyblithely,
blindlykörü körüne applyuygulamak algorithmsalgoritmalar.
122
342313
2694
kör bir şekilde kullanırsanız
algoritmalar
süreçleri daha adil hale getirmez.
05:57
They don't make things fairadil.
123
345031
1482
05:58
They repeattekrar et our pastgeçmiş practicesuygulamaları,
124
346537
2128
Geçmişteki uygulamalarımızı,
06:00
our patternsdesenler.
125
348689
1183
kalıplarımızı tekrarlar durur.
06:01
They automateotomatikleştirmek the statusdurum quoQuo.
126
349896
1939
Otomatikmen kalıcı hale gelir.
06:04
That would be great
if we had a perfectmükemmel worldDünya,
127
352718
2389
Mükemmel bir dünyada yaşasaydık
bu iyi olurdu
06:07
but we don't.
128
355905
1312
fakat dünya mükemmel değil.
06:09
And I'll addeklemek that mostçoğu companiesşirketler
don't have embarrassingutanç verici lawsuitsaçılan davalar,
129
357241
4102
Şunu da söyleyeyim, pek çok şirketin
yüz kızartıcı davası yoktur
06:14
but the dataveri scientistsBilim adamları in those companiesşirketler
130
362446
2588
fakat veriyi takip etmeleri
06:17
are told to followtakip et the dataveri,
131
365058
2189
ve veriye odaklanmaları söylenen
06:19
to focusodak on accuracydoğruluk.
132
367271
2143
veri bilimcileri vardır.
Bunun ne anlama geldiğini düşünün.
06:22
Think about what that meansanlamına geliyor.
133
370273
1381
06:23
Because we all have biasönyargı,
it meansanlamına geliyor they could be codifyingdüzenleyerek sexismcinsiyetçilik
134
371678
4027
Çünkü hepimizin ön yargıları var,
ki bu cinsiyetçiliği veya başka bir
06:27
or any other kindtür of bigotrybağnazlık.
135
375729
1836
ayrımcılığın kodlanabileceği
anlamına gelebilir.
06:31
Thought experimentdeney,
136
379488
1421
Düşünce deneyi yapalım
06:32
because I like them:
137
380933
1509
çünkü bunu seviyorum:
06:35
an entirelyBaştan sona segregatedayrılmış societytoplum --
138
383574
2975
Tüm şehirler ve mahallelerinin
ırk bakımından
06:40
raciallyırk segregatedayrılmış, all townskasabalar,
all neighborhoodsmahalleler
139
388247
3328
ötekileştirildiği bir toplumda
06:43
and where we sendgöndermek the policepolis
only to the minorityazınlık neighborhoodsmahalleler
140
391599
3037
polisler suç aramak için
06:46
to look for crimesuç.
141
394660
1193
sadece azınlık mahallelerine gidiyor.
06:48
The arresttutuklamak dataveri would be very biasedönyargılı.
142
396451
2219
Yakalamalar epey taraflı olurdu.
Bu sürecin yönetiminde
gelecek suçların nerede olacağını öngören
06:51
What if, on topüst of that,
we foundbulunan the dataveri scientistsBilim adamları
143
399851
2575
06:54
and paidödenmiş the dataveri scientistsBilim adamları to predicttahmin
where the nextSonraki crimesuç would occurmeydana?
144
402450
4161
ve maaş ödenen
veri bilimcileri olsa ne olurdu?
06:59
MinorityAzınlık neighborhoodKomşuluk.
145
407275
1487
Azınlık mahalleleri.
07:01
Or to predicttahmin who the nextSonraki
criminaladli would be?
146
409285
3125
Veya bir sonraki suçlunun kim
olacağını öngörmek için?
07:04
A minorityazınlık.
147
412888
1395
Bir azınlık.
07:07
The dataveri scientistsBilim adamları would bragÖvünmek
about how great and how accuratedoğru
148
415949
3541
Veri bilimcileri, modellerinin ne kadar
iyi ve uygulanabilir olduğu konusunda
07:11
theironların modelmodel would be,
149
419514
1297
07:12
and they'dgittiklerini be right.
150
420835
1299
övünürlerdi
ve haklı olurlardı da.
07:15
Now, realitygerçeklik isn't that drasticköklü,
but we do have severeşiddetli segregationssegregations
151
423951
4615
Şu an gerçeklik bu kadar keskin değil,
ama pek çok bölgede
taraflı davranıldığını gösteren
07:20
in manyçok citiesşehirler and townskasabalar,
152
428590
1287
07:21
and we have plentybol of evidencekanıt
153
429901
1893
polis ve hukuk sistemi verisi
07:23
of biasedönyargılı policingPolislik
and justiceadalet systemsistem dataveri.
154
431818
2688
ayrımcılık yapıldığını gösteriyor.
07:27
And we actuallyaslında do predicttahmin hotspotssıcak noktalar,
155
435632
2815
Aslına bakılırsa suçların meydana geleceği
07:30
placesyerler where crimessuçları will occurmeydana.
156
438471
1530
sıcak bölgeleri öngörüyoruz.
07:32
And we do predicttahmin, in factgerçek,
the individualbireysel criminalitysuçluluk,
157
440401
3866
Hatta bireysel suçluluk konusunda da
07:36
the criminalitysuçluluk of individualsbireyler.
158
444291
1770
öngörü yapıyoruz.
07:38
The newshaber organizationorganizasyon ProPublicaProPublica
recentlyson günlerde lookedbaktı into
159
446972
3963
ProPublica isimli organizasyon
Florida'da hakimlerce kullanılan,
07:42
one of those "recidivismyeniden suç işleme eğilimi riskrisk" algorithmsalgoritmalar,
160
450959
2024
'suçun tekrarlama riski' adı verilen
07:45
as they're calleddenilen,
161
453007
1163
07:46
beingolmak used in FloridaFlorida
duringsırasında sentencingceza by judgesyargıçlar.
162
454194
3194
algoritmaya baktılar.
07:50
BernardBernard, on the left, the blacksiyah man,
was scoredattı a 10 out of 10.
163
458411
3585
Algoritmada Bernard, soldaki siyah kişi,
10 üzerinden 10 puan aldı.
Dylan, sağdaki kişi,
10 üzerinden 3 puan.
07:55
DylanDylan, on the right, 3 out of 10.
164
463179
2007
07:57
10 out of 10, highyüksek riskrisk.
3 out of 10, lowdüşük riskrisk.
165
465210
2501
10 üzerinden 10 yüksek risk.
10 üzerinden 3 düşük risk.
Her ikisi de uyuşturucu bulundurmaktan
göz altına alındı.
08:00
They were bothher ikisi de broughtgetirdi in
for drugilaç possessionmülk.
166
468598
2385
Her ikisinin de sabıka kaydı var.
08:03
They bothher ikisi de had recordskayıtlar,
167
471007
1154
08:04
but DylanDylan had a felonysuç
168
472185
2806
Ama Dylan'ın ağır suçu varken
08:07
but BernardBernard didn't.
169
475015
1176
Bernard'ın yoktu.
08:09
This mattershususlar, because
the higherdaha yüksek scoreGol you are,
170
477818
3066
Bu önemli çünkü puan yükseldikçe
08:12
the more likelymuhtemelen you're beingolmak givenverilmiş
a longeruzun sentencecümle.
171
480908
3473
uzun süreli ceza alma ihtimali artıyor.
08:18
What's going on?
172
486294
1294
Neler oluyor?
08:20
DataVeri launderingaklama.
173
488526
1332
Veri manipülasyonu.
08:22
It's a processsüreç by whichhangi
technologiststeknoloji hidesaklamak uglyçirkin truthsgerçekler
174
490930
4427
Bu, teknoloji uzmanlarının çirkin
gerçekleri kara kutulu algoritmalarla
gizledikleri bir süreç.
08:27
insideiçeride blacksiyah boxkutu algorithmsalgoritmalar
175
495381
1821
08:29
and call them objectiveamaç;
176
497226
1290
Bunun objektif
08:31
call them meritocraticmeritocratic.
177
499320
1568
ve ideal olduğunu söylüyorlar.
08:35
When they're secretgizli,
importantönemli and destructiveyıkıcı,
178
503118
2385
Gizli, önemli ve yıkıcı sonuçları olan
08:37
I've coinedicat a termterim for these algorithmsalgoritmalar:
179
505527
2487
algoritmalar için bir deyim türettim:
08:40
"weaponssilahlar of mathmatematik destructionimha."
180
508038
1999
"Matematiksel yıkım silahları"
08:42
(LaughterKahkaha)
181
510061
1564
(Kahkahalar)
08:43
(ApplauseAlkış)
182
511649
3054
(Alkışlar)
Bunlar her yerdeler
ve her yerde olmaları hata sonucu değil.
08:46
They're everywhereher yerde,
and it's not a mistakehata.
183
514727
2354
08:49
These are privateözel companiesşirketler
buildingbina privateözel algorithmsalgoritmalar
184
517695
3723
Bunlar özel amaç için
özel algoritmalar üreten
08:53
for privateözel endsuçları.
185
521442
1392
özel şirketler.
08:55
Even the onesolanlar I talkedkonuştuk about
for teachersöğretmenler and the publichalka açık policepolis,
186
523214
3214
Öğretmenler ve polisler ile ilgili
söylediklerim bile
08:58
those were builtinşa edilmiş by privateözel companiesşirketler
187
526452
1869
özel şirketler tarafından üretilip
09:00
and soldsatıldı to the governmenthükümet institutionskurumlar.
188
528345
2231
kamu kurumlarına satıldı.
09:02
They call it theironların "secretgizli sauceSos" --
189
530600
1873
Buna onların "özel tarifi" diyorlar
09:04
that's why they can't tell us about it.
190
532497
2128
ve bu yüzden içeriği ile
ilgili konuşmuyorlar.
09:06
It's alsoAyrıca privateözel powergüç.
191
534649
2220
Bu bir tür özel güç.
09:09
They are profitingkar for wieldingwielding
the authorityyetki of the inscrutableanlaşılmaz.
192
537924
4695
Kamu otoritesini kullanarak kar ediyorlar.
09:17
Now you mightbelki think,
sincedan beri all this stuffşey is privateözel
193
545114
2934
Tüm bunların özel sektörde olduğu
ve sektörde rekabet olduğu için
serbest piyasanın
09:20
and there's competitionyarışma,
194
548072
1158
09:21
maybe the freeücretsiz marketpazar
will solveçözmek this problemsorun.
195
549254
2306
bu sorunu çözeceğini düşünüyorsanız
09:23
It won'talışkanlık.
196
551584
1249
sorunu çözmeyecek.
09:24
There's a lot of moneypara
to be madeyapılmış in unfairnessinsafsızlık.
197
552857
3120
Adaletsizlik ile elde edilen
önemli miktarda para var.
09:29
AlsoAyrıca, we're not economicekonomik rationalakılcı agentsajanları.
198
557127
3369
Ayrıca ekonomik olarak
rasyonel karar alıcılar değiliz.
Farkında olmadığımız
ön yargılarımız var.
09:33
We all are biasedönyargılı.
199
561031
1292
09:34
We're all racistırkçı and bigotedbağnaz
in waysyolları that we wishdilek we weren'tdeğildi,
200
562960
3377
Farkında olmasak
ve öyle olmayı dilemesek bile
09:38
in waysyolları that we don't even know.
201
566361
2019
kafa tasçı ve dar kafalıyız.
09:41
We know this, thoughgerçi, in aggregatetoplam,
202
569352
3081
Bunun böyle olduğunuz biliyoruz,
09:44
because sociologistssosyologlar
have consistentlysürekli olarak demonstratedgösterdi this
203
572457
3220
çünkü sosyologlar yaptıkları deneyler ile
09:47
with these experimentsdeneyler they buildinşa etmek,
204
575701
1665
öyle olduğumuzu gösterdiler.
09:49
where they sendgöndermek a bunchDemet
of applicationsuygulamaları to jobsMeslekler out,
205
577390
2568
Deneyde aynı yeteneklere sahip insanların
09:51
equallyaynı derecede qualifiednitelikli but some
have white-soundingBeyaz-sondaj namesisimler
206
579982
2501
çok sayıda iş başvurusu vardı.
Kimi başvurular siyah,
09:54
and some have black-soundingsiyah-sondaj namesisimler,
207
582507
1706
kimi başvurular beyaz insanı
andıran isimlerle yapıldı.
09:56
and it's always disappointinghayal kırıklığı,
the resultsSonuçlar -- always.
208
584237
2694
Sonuç her zaman hayal kırıklığıydı.
Bizler farkında olmasak da taraflıyız
09:59
So we are the onesolanlar that are biasedönyargılı,
209
587510
1771
10:01
and we are injectingenjekte those biasesönyargıların
into the algorithmsalgoritmalar
210
589305
3429
ve taraflılığımızı,
seçtiğimiz veriler ile
10:04
by choosingSeçme what dataveri to collecttoplamak,
211
592758
1812
algoritmalara dahil ediyoruz.
10:06
like I choseseçti not to think
about ramenramen noodleserişte --
212
594594
2743
Mesela ben erişteleri es geçtim.
10:09
I decidedkarar it was irrelevantilgisiz.
213
597361
1625
Onların yemek olmadığını düşündüm.
10:11
But by trustinggüvenme the dataveri that's actuallyaslında
pickingtoplama up on pastgeçmiş practicesuygulamaları
214
599010
5684
Ancak geçmiş deneyimleri
ve başarı tanımlarını
baz alarak seçtiğimiz veriye
10:16
and by choosingSeçme the definitiontanım of successbaşarı,
215
604718
2014
10:18
how can we expectbeklemek the algorithmsalgoritmalar
to emergeçıkmak unscathedyarasız?
216
606756
3983
nasıl güvenebiliriz ve algoritmaların
sağlıklı olacağını nasıl bekleyebiliriz?
10:22
We can't. We have to checkKontrol them.
217
610763
2356
Bunu yapamayız.
Algoritmaları test etmemiz gerekir.
Algoritmaların doğruluklarını
test etmeliyiz.
10:26
We have to checkKontrol them for fairnessAdalet.
218
614165
1709
10:27
The good newshaber is,
we can checkKontrol them for fairnessAdalet.
219
615898
2711
İyi haber şu ki bunu yapabiliriz.
10:30
AlgorithmsAlgoritmalar can be interrogatedsorguya,
220
618633
3352
Algoritmalar kontrol edilebilir
10:34
and they will tell us
the truthhakikat everyher time.
221
622009
2034
ve kontroller bize gerçeği söyleyebilir.
10:36
And we can fixdüzeltmek them.
We can make them better.
222
624067
2493
Algoritmaların hatalarını giderebiliriz.
10:38
I call this an algorithmicalgoritmik auditDenetim,
223
626584
2375
Ben buna, 'algoritma denetimi'
adını veriyorum
10:40
and I'll walkyürümek you throughvasitasiyla it.
224
628983
1679
ve size bundan bahsedeyim.
10:42
First, dataveri integritybütünlük checkKontrol.
225
630686
2196
Öncelikle verinin doğruluğu testi.
10:46
For the recidivismyeniden suç işleme eğilimi riskrisk
algorithmalgoritma I talkedkonuştuk about,
226
634132
2657
Bahsettiğim suçun tekrarlama
riski algoritmasında
10:49
a dataveri integritybütünlük checkKontrol would mean
we'devlenmek have to come to termsşartlar with the factgerçek
227
637582
3573
verinin doğruluğu testi şu anlama gelir:
Amerika'da beyaz ve siyahlar arasında
esrar tüketimi aynı ölçüde yaygın,
10:53
that in the US, whitesBeyazlar and blacksSiyahlar
smokeduman pottencere at the sameaynı rateoran
228
641179
3526
10:56
but blacksSiyahlar are faruzak more likelymuhtemelen
to be arrestedtutuklandı --
229
644729
2485
oysa siyahların tutuklanma ihtimalleri
10:59
fourdört or fivebeş timeszamanlar more likelymuhtemelen,
dependingbağlı on the areaalan.
230
647238
3184
bölgeye bağlı olarak
dört veya beş kat fazla.
11:03
What is that biasönyargı looking like
in other crimesuç categorieskategoriler,
231
651317
2826
Diğer suçlarda
bu tür bir taraflılık nasıldır
11:06
and how do we accounthesap for it?
232
654167
1451
ve bunu nasıl inceleriz?
11:08
Secondİkinci, we should think about
the definitiontanım of successbaşarı,
233
656162
3039
İkincisi başarının tanımı hakkında düşünüp
11:11
auditDenetim that.
234
659225
1381
onu gözden geçirmeliyiz.
11:12
RememberHatırlıyorum -- with the hiringişe alıyor
algorithmalgoritma? We talkedkonuştuk about it.
235
660630
2752
İşe alım algoritmasından
bahsetmiştim, hatırlayın.
11:15
SomeoneBirisi who stayskalır for fourdört yearsyıl
and is promotedterfi oncebir Zamanlar?
236
663406
3165
Şirkette 4 yıl kalıp
en az bir kez terfi alan kişi.
11:18
Well, that is a successfulbaşarılı employeeişçi,
237
666595
1769
Kendisini başarılı tanımlamıştık
11:20
but it's alsoAyrıca an employeeişçi
that is supporteddestekli by theironların culturekültür.
238
668388
3079
ama kendisi ayrıca kültürlerince
desteklenen bir kişi.
11:24
That said, alsoAyrıca it can be quiteoldukça biasedönyargılı.
239
672089
1926
Bu da aslında bir taraflılık olabilir.
11:26
We need to separateayrı those two things.
240
674039
2065
Bu iki şeyi ayırmamız gerekiyor.
11:28
We should look to
the blindkör orchestraOrkestra auditionSeçmeler
241
676128
2426
Mesela orkestralara yönelik 'kör seçim'
adı verilen seçimlere bakalım.
11:30
as an exampleörnek.
242
678578
1196
11:31
That's where the people auditioningseçmelere
are behindarkasında a sheettabaka.
243
679798
2756
Bu uygulamada ses sınavında olan kişiler
perdenin arkasında
bulunduğundan görünmüyor.
11:34
What I want to think about there
244
682946
1931
11:36
is the people who are listeningdinleme
have decidedkarar what's importantönemli
245
684901
3417
Sadece dinlediği konusunda
11:40
and they'veonlar ettik decidedkarar what's not importantönemli,
246
688342
2029
bir sonuca ulaşan insanları düşünün.
11:42
and they're not gettingalma
distracteddikkati dağılmış by that.
247
690395
2059
Herhangi bir şeyden dikkatleri dağılmıyor.
Orkestra için 'kör seçim'
başladığından beri
11:44
When the blindkör orchestraOrkestra
auditionsSeçmeler startedbaşladı,
248
692961
2749
11:47
the numbernumara of womenkadınlar in orchestrasorkestralar
wentgitti up by a factorfaktör of fivebeş.
249
695734
3444
orkestralardaki kadın sayısı 5 kat arttı.
Sonra kesinliği göz önünde
bulundurmalıyız.
11:52
NextSonraki, we have to considerdüşünmek accuracydoğruluk.
250
700253
2015
Bu öğretmenlere için katma değer modelinin
anında başarısız olacağı aşama olurdu.
11:55
This is where the value-addedkatma değer modelmodel
for teachersöğretmenler would failbaşarısız immediatelyhemen.
251
703233
3734
11:59
No algorithmalgoritma is perfectmükemmel, of coursekurs,
252
707578
2162
Elbette hiçbir algoritma mükemmel değil,
12:02
so we have to considerdüşünmek
the errorshatalar of everyher algorithmalgoritma.
253
710620
3605
bu yüzden her algoritmanın
hatalarını dikkate almalıyız.
12:06
How oftensık sık are there errorshatalar,
and for whomkime does this modelmodel failbaşarısız?
254
714836
4359
Bu hatalar ne sıklıkla oluşuyor,
hangileri modeli başarısız kılıyor?
12:11
What is the costmaliyet of that failurebaşarısızlık?
255
719850
1718
Başarısızlığın maliyeti ne?
12:14
And finallyen sonunda, we have to considerdüşünmek
256
722434
2207
Son aşamada
12:17
the long-termuzun vadeli effectsetkileri of algorithmsalgoritmalar,
257
725973
2186
algoritmaların uzun dönemli etkilerini,
geri besleme döngülerini
göz önünde bulundurmalıyız.
12:20
the feedbackgeri bildirim loopsdöngüler that are engenderingBAKIMINDAN.
258
728866
2207
Kulağa soyut geliyor
ama Facebook yazılımcıları
12:23
That soundssesleri abstractsoyut,
259
731586
1236
12:24
but imaginehayal etmek if FacebookFacebook engineersmühendisler
had considereddüşünülen that
260
732846
2664
sadece arkadaşlarımızın paylaşımını
görmemize karar vermeden önce
12:28
before they decidedkarar to showgöstermek us
only things that our friendsarkadaşlar had postedgönderildi.
261
736270
4855
bunun üzerinde düşünseydi
nasıl olurdu, hayal edin.
İki mesajım var.
Birincisi veri bilimciler için:
12:33
I have two more messagesmesajları,
one for the dataveri scientistsBilim adamları out there.
262
741761
3234
12:37
DataVeri scientistsBilim adamları: we should
not be the arbitersArbiters of truthhakikat.
263
745450
3409
Bizler neyin doğru olduğuna
karar verenler olmamalıyız.
12:41
We should be translatorsÇevirmenler
of ethicalahlâki discussionstartışmalar that happenolmak
264
749520
3783
Bizler toplumlarda meydana gelen
etik tartışmaların
12:45
in largerdaha büyük societytoplum.
265
753327
1294
tercümanları olmalıyız.
12:47
(ApplauseAlkış)
266
755579
2133
(Alkışlar)
12:49
And the restdinlenme of you,
267
757736
1556
Ve geri kalanlar,
12:52
the non-dataveri dışı scientistsBilim adamları:
268
760011
1396
veri bilimci olmayanlar:
12:53
this is not a mathmatematik testÖlçek.
269
761431
1498
Bu herhangi bir matematik testi değil.
12:55
This is a politicalsiyasi fightkavga.
270
763632
1348
Bu bir politik mücadele.
12:58
We need to demandtalep accountabilityHesap verebilirlik
for our algorithmicalgoritmik overlordsOverlords.
271
766587
3907
Bizler algoritma amirlerinden
sorumluluk talep etmeliyiz.
13:04
(ApplauseAlkış)
272
772118
1499
(Alkışlar)
13:05
The eraçağ of blindkör faithinanç
in bigbüyük dataveri mustşart endson.
273
773641
4225
Büyük verideki kör inanç dönemi bitmeli.
13:09
Thank you very much.
274
777890
1167
Teşekkür ederim.
13:11
(ApplauseAlkış)
275
779081
5303
(Alkışlar)
Translated by Nail Kaplan
Reviewed by Cihan Ekmekçi

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com