ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tüfekçi: Makine Zekâsı İnsani Değerlerin Önemini Arttırıyor

Filmed:
1,648,711 views

Makine zekâsı devrede ve bunu çoktandır öznel kararlar verirken bile kullanıyoruz. Fakat Yapay Zekâ'nın kompleks yapısı ve gelişimi, onu anlamayı hatta kontrol etmeyi bile zorlaştırıyor. Bu uyarı niteliğindeki konuşmasında tekno-sosyolojist Zeynep Tüfekçi, zeki makinelerin insanın yapmayacağı, ummadığımız ve hazırlıksız olduğumuz hatalara nasıl düşebildiğini açıklıyor. Tüfekçi, "Kendi sorumluluklarımızı makinelere atamayız, insani değerlere ve etiğe hiç olmadığı kadar bağlı kalmalıyız." diyor.
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startedbaşladı my first job
as a computerbilgisayar programmerprogramcı
0
739
4122
Bilgisayar programcısı olarak
ilk çalışmaya başladığımda
00:16
in my very first yearyıl of collegekolej --
1
4885
1956
üniversite birinci sınıftaydım,
00:18
basicallytemel olarak, as a teenagergenç.
2
6865
1507
yani yeni yetme sayılırdım.
00:20
SoonYakında after I startedbaşladı workingçalışma,
3
8889
1732
Bir şirkette program yazma göreviyle
00:22
writingyazı softwareyazılım in a companyşirket,
4
10645
1610
işe girdikten kısa süre sonra
00:24
a managermüdür who workedişlenmiş at the companyşirket
camegeldi down to where I was,
5
12799
3635
şirkette çalışan bir müdür yanıma geldi
00:28
and he whisperedfısıldadı to me,
6
16458
1268
ve fısıltıyla sordu:
00:30
"Can he tell if I'm lyingyalan söyleme?"
7
18229
2861
"Yalan söylediğimi anlayabilir mi?"
00:33
There was nobodykimse elsebaşka in the roomoda.
8
21806
2077
Odada başka kimse yoktu.
00:37
"Can who tell if you're lyingyalan söyleme?
And why are we whisperingFısıldayan?"
9
25032
4389
"Yalanı kim anlayabilir mi?
Ayrıca neden fısıldaşıyoruz?" dedim.
00:42
The managermüdür pointedişaretlendi
at the computerbilgisayar in the roomoda.
10
30266
3107
Müdür, odada bulunan bilgisayarı gösterdi.
00:45
"Can he tell if I'm lyingyalan söyleme?"
11
33397
3096
"Yalan söyleyip söylemediğimi anlar mı?"
00:49
Well, that managermüdür was havingsahip olan
an affairilişki with the receptionistresepsiyonist.
12
37613
4362
Bu müdür danışmada çalışan
biriyle ilişki yaşıyordu.
00:53
(LaughterKahkaha)
13
41999
1112
(Gülüşmeler)
00:55
And I was still a teenagergenç.
14
43135
1766
Ben de yeni yetmeyim tabii.
00:57
So I whisper-shoutedFısıltı bağırdı back to him,
15
45447
2019
Fısıltıyla bağırır gibi cevap verdim:
00:59
"Yes, the computerbilgisayar can tell
if you're lyingyalan söyleme."
16
47490
3624
"Evet, yalan söylerseniz
bilgisayar anlar." dedim.
01:03
(LaughterKahkaha)
17
51138
1806
(Gülüşmeler)
01:04
Well, I laughedgüldü, but actuallyaslında,
the laugh'sgülmek'ın on me.
18
52968
2923
Gülüyordum ama aslında
gülünmesi gereken bendim.
01:07
NowadaysGünümüzde, there are computationalbilişimsel systemssistemler
19
55915
3268
Günümüzde insan yüzlerini
01:11
that can sussSussman out
emotionalduygusal statesdevletler and even lyingyalan söyleme
20
59207
3548
işlemden geçirerek ruh hâlini
ve hatta yalan söylediğini
01:14
from processingişleme humaninsan facesyüzleri.
21
62779
2044
tespit eden bilgisayar programları var.
01:17
AdvertisersReklamverenler and even governmentshükümetler
are very interestedilgili.
22
65248
4153
Reklamcılar, hatta devletler de
çok ilgi duyuyor.
01:22
I had becomeolmak a computerbilgisayar programmerprogramcı
23
70319
1862
Matematik ve fen bilgisini çok seven
01:24
because I was one of those kidsçocuklar
crazyçılgın about mathmatematik and scienceBilim.
24
72205
3113
bir çocuk olduğum için
bilgisayar programcısı olmuştum.
01:27
But somewherebir yerde alonguzun bir the linehat
I'd learnedbilgili about nuclearnükleer weaponssilahlar,
25
75942
3108
Fakat o sıralarda
nükleer silahlara dair bilgi edinmiş
01:31
and I'd gottenkazanılmış really concernedilgili
with the ethicsetik of scienceBilim.
26
79074
2952
ve bilim etiğine de
çok ilgi duymaya başlamıştım.
01:34
I was troubledsıkıntılı.
27
82050
1204
Sorunlarım vardı.
01:35
HoweverAncak, because of familyaile circumstanceskoşullar,
28
83278
2641
Ne yazık ki ailevi durumlar yüzünden
01:37
I alsoAyrıca neededgerekli to startbaşlama workingçalışma
as soonyakında as possiblemümkün.
29
85943
3298
mümkün olduğu kadar çabuk
işe girmem gerekiyordu.
01:41
So I thought to myselfkendim, hey,
let me pickalmak a technicalteknik fieldalan
30
89265
3299
Kendi kendime düşündüm;
kolaylıkla iş bulabileceğim
01:44
where I can get a job easilykolayca
31
92588
1796
teknik bir alan seçeyim ki
01:46
and where I don't have to dealanlaştık mı
with any troublesomezahmetli questionssorular of ethicsetik.
32
94408
4018
sıkıcı etik problemlerle
uğraşmak zorunda kalmayayım dedim.
01:51
So I pickedseçilmiş computersbilgisayarlar.
33
99022
1529
Böylelikle bilgisayarı seçtim.
01:52
(LaughterKahkaha)
34
100575
1104
(Gülüşmeler)
01:53
Well, haha, haha, haha!
All the laughsgülüyor are on me.
35
101703
3410
Ha, ha, ha!
Herkes bana gülüyordur.
01:57
NowadaysGünümüzde, computerbilgisayar scientistsBilim adamları
are buildingbina platformsplatformlar
36
105137
2754
Günümüzde bilgisayar uzmanları
her gün milyarlarca insanın
01:59
that controlkontrol what a billionmilyar
people see everyher day.
37
107915
4209
göreceği şeyleri kontrol eden
programlar kuruyor.
02:05
They're developinggelişen carsarabalar
that could decidekarar ver who to runkoş over.
38
113052
3822
Kime çarpacağına karar verebilecek
arabalar geliştiriyorlar.
02:09
They're even buildingbina machinesmakineler, weaponssilahlar,
39
117707
3213
Savaşta insanları öldürecek türden
02:12
that mightbelki killöldürmek humaninsan beingsvarlıklar in warsavaş.
40
120944
2285
makineler, silahlar bile geliştiriyorlar.
02:15
It's ethicsetik all the way down.
41
123253
2771
Etik tamamen ortadan kalkıyor.
02:19
MachineMakine intelligencezeka is here.
42
127183
2058
Makine zekâsı işin içinde.
02:21
We're now usingkullanma computationhesaplama
to make all sortçeşit of decisionskararlar,
43
129823
3474
Artık herhangi bir karar verirken
bilgisayar kullanıyoruz,
02:25
but alsoAyrıca newyeni kindsçeşit of decisionskararlar.
44
133321
1886
üstelik yeni kararlar alırken bile.
02:27
We're askingsormak questionssorular to computationhesaplama
that have no singletek right answerscevaplar,
45
135231
5172
Bilgisayara tek bir doğru
cevabı olmayan, öznel,
02:32
that are subjectiveöznel
46
140427
1202
açık uçlu ve değer yüklü
02:33
and open-ended-Açmak bitti and value-ladendeğeri yüklü.
47
141653
2325
sorular soruyoruz.
02:36
We're askingsormak questionssorular like,
48
144002
1758
Mesela şu gibi sorular:
02:37
"Who should the companyşirket hirekiralama?"
49
145784
1650
"Şirket kimi işe almalı?"
02:40
"WhichHangi updategüncelleştirme from whichhangi friendarkadaş
should you be showngösterilen?"
50
148096
2759
"Hangi arkadaştan
hangi güncellemeyi görmelisiniz?"
02:42
"WhichHangi convictmahkum is more
likelymuhtemelen to reoffendreoffend?"
51
150879
2266
"Hangi mahkûm tekrar suç işlemeye yatkın?"
02:45
"WhichHangi newshaber itemmadde or moviefilm
should be recommendedÖnerilen to people?"
52
153514
3054
"İnsanlara hangi haber ya da film
tavsiye edilmeli?"
02:48
Look, yes, we'vebiz ettik been usingkullanma
computersbilgisayarlar for a while,
53
156592
3372
Bakın, evet bir süredir bilgisayar
kullanıyoruz,
02:51
but this is differentfarklı.
54
159988
1517
ama bu farklı bir durum.
02:53
This is a historicaltarihi twistTwist,
55
161529
2067
Bu tarihi bir hata,
02:55
because we cannotyapamam anchorÇapa computationhesaplama
for suchböyle subjectiveöznel decisionskararlar
56
163620
5337
çünkü böyle öznel kararlarda
bilgisayara güvenemeyiz,
03:00
the way we can anchorÇapa computationhesaplama
for flyinguçan airplanesuçaklar, buildingbina bridgesköprü,
57
168981
5420
bilgisayara uçak uçurmada,
köprü inşa etmede, aya gitmede
03:06
going to the moonay.
58
174425
1259
güvendiğimiz gibi güvenemeyiz.
03:08
Are airplanesuçaklar saferdaha güvenli?
Did the bridgeköprü swaysallanma and falldüşmek?
59
176449
3259
Uçaklar daha güvenli mi?
Köprü sallanıp çöker miydi?
03:11
There, we have agreed-uponüzerinde anlaşılan,
fairlyoldukça clearaçık benchmarkskriterler,
60
179732
4498
Burada üzerinde anlaşılan, açık ölçütler
ve bize yol gösteren doğa kanunları
03:16
and we have lawsyasalar of naturedoğa to guidekılavuz us.
61
184254
2239
olduğu konusunda hemfikiriz.
03:18
We have no suchböyle anchorsçapa and benchmarkskriterler
62
186517
3394
Karmaşık insan ilişkilerinde
karar verirken
03:21
for decisionskararlar in messydağınık humaninsan affairsişler.
63
189935
3963
bu tür dayanak ve ölçütler yok.
03:25
To make things more complicatedkarmaşık,
our softwareyazılım is gettingalma more powerfulgüçlü,
64
193922
4237
İşleri daha çetrefilli hâle getirmek için
yazılımımız gittikçe güçleniyor,
03:30
but it's alsoAyrıca gettingalma lessaz
transparentşeffaf and more complexkarmaşık.
65
198183
3773
fakat aynı zamanda daha az şeffaflaşıp
daha karmaşık oluyor.
03:34
RecentlySon zamanlarda, in the pastgeçmiş decadeonyıl,
66
202542
2040
Son on yıl içerisinde,
03:36
complexkarmaşık algorithmsalgoritmalar
have madeyapılmış great stridesadımlar.
67
204606
2729
kompleks algoritmalar
büyük aşamalar katetti.
03:39
They can recognizetanımak humaninsan facesyüzleri.
68
207359
1990
İnsan yüzlerini tanıyabiliyorlar.
03:41
They can decipherdeşifre handwritingel yazısı.
69
209985
2055
El yazılarını çözebiliyorlar.
03:44
They can detectbelirlemek creditkredi cardkart frauddolandırıcılık
70
212436
2066
Kredi kartı dolandırıcılığını
tespit edip
03:46
and blockblok spamistenmeyen e
71
214526
1189
spam postaları engelliyor
03:47
and they can translateÇevirmek betweenarasında languagesdiller.
72
215739
2037
ve diller arası çeviri yapabiliyorlar.
03:49
They can detectbelirlemek tumorstümörler in medicaltıbbi imaginggörüntüleme.
73
217800
2574
Tıbbi görüntülemelerde tümörleri
teşhis edebiliyorlar.
03:52
They can beatdövmek humansinsanlar in chesssatranç and Go.
74
220398
2205
Go ve satrançta insanları yenebiliyorlar.
03:55
Much of this progressilerleme comesgeliyor
from a methodyöntem calleddenilen "machinemakine learningöğrenme."
75
223264
4504
Bu gelişmelerin çoğu "makine öğrenimi"
denilen bir yöntemden geliyor.
04:00
MachineMakine learningöğrenme is differentfarklı
than traditionalgeleneksel programmingprogramlama,
76
228175
3187
Makine öğrenimi, bilgisayara
detaylı, doğru ve itinalı
04:03
where you give the computerbilgisayar
detailedDetaylı, exactkesin, painstakingözenli instructionstalimatlar.
77
231386
3585
talimatlar verdiğiniz
geleneksel programlamadan farklıdır.
04:07
It's more like you take the systemsistem
and you feedbesleme it lots of dataveri,
78
235378
4182
Daha çok sistemi kavrayıp onu
dijital yaşamlarımızda ürettiğimiz türden
04:11
includingdahil olmak üzere unstructuredyapılandırılmamış dataveri,
79
239584
1656
yapısal olmayan veri dahil
04:13
like the kindtür we generateüretmek
in our digitaldijital liveshayatları.
80
241264
2278
bir sürü veriyle desteklemeniz gibidir.
04:15
And the systemsistem learnsöğrenir
by churningçalkalama throughvasitasiyla this dataveri.
81
243566
2730
Sistem bu bilgileri baştan sona
karıştırarak öğrenir.
04:18
And alsoAyrıca, cruciallyEn önemlisi,
82
246669
1526
Ayrıca en önemlisi
04:20
these systemssistemler don't operateişletmek
underaltında a single-answertek cevap logicmantık.
83
248219
4380
bu sistemlerin tek cevaplı
mantıkla çalışmadığıdır.
04:24
They don't produceüretmek a simplebasit answerCevap;
it's more probabilisticolasılıkçı:
84
252623
2959
Tek bir cevap üretmezler,
daha çok olasılık vardır:
04:27
"This one is probablymuhtemelen more like
what you're looking for."
85
255606
3483
"Belki de aradığınız şey bu olabilir."
04:32
Now, the upsideüst taraf is:
this methodyöntem is really powerfulgüçlü.
86
260023
3070
Şimdi avantajı şu:
Bu yöntem gerçekten çok güçlüdür.
04:35
The headkafa of Google'sGoogle'nın AIAI systemssistemler calleddenilen it,
87
263117
2076
Google'ın Yapay Zeka'sının dediği gibi
04:37
"the unreasonablemantıksız effectivenessetki of dataveri."
88
265217
2197
"verinin akıl almaz etkinliği"dir.
04:39
The downsideolumsuz is,
89
267791
1353
Dezavantajı ise,
04:41
we don't really understandanlama
what the systemsistem learnedbilgili.
90
269738
3071
sistemin ne öğrendiğini
tam olarak anlamıyor olmamızdır.
04:44
In factgerçek, that's its powergüç.
91
272833
1587
Aslında bu onun gücü.
04:46
This is lessaz like givingvererek
instructionstalimatlar to a computerbilgisayar;
92
274946
3798
Bu, bir bilgisayara
talimat vermek gibi değildir;
04:51
it's more like trainingEğitim
a puppy-machine-creatureköpek yavrusu-makine-yaratık
93
279200
4064
nasıl kontrol edeceğimizi bilmediğimiz
bir içecek sıkma makinesini
04:55
we don't really understandanlama or controlkontrol.
94
283288
2371
çalıştırmak gibidir.
04:58
So this is our problemsorun.
95
286362
1551
Yani sorunumuz bu.
05:00
It's a problemsorun when this artificialyapay
intelligencezeka systemsistem getsalır things wrongyanlış.
96
288427
4262
Yapay zeka sistemi bir şeyleri
yanlış anladığında problem olur.
05:04
It's alsoAyrıca a problemsorun
when it getsalır things right,
97
292713
3540
Aynı zamanda doğru anladığında da
problem olur,
05:08
because we don't even know whichhangi is whichhangi
when it's a subjectiveöznel problemsorun.
98
296277
3628
çünkü öznel bir problem olduğunda
hangisinin hangisi olduğunu bilmiyoruz.
05:11
We don't know what this thing is thinkingdüşünme.
99
299929
2339
Bu şeyin ne düşündüğünü bile bilmiyoruz.
05:15
So, considerdüşünmek a hiringişe alıyor algorithmalgoritma --
100
303493
3683
Şimdi, insanları işe almak için kullanılan
05:20
a systemsistem used to hirekiralama people,
usingkullanma machine-learningMakine öğrenimi systemssistemler.
101
308123
4311
makine öğrenimi sistemlerinden yararlanan
bir işe alım algoritma sistemi düşünün.
05:25
SuchBöyle a systemsistem would have been trainedeğitilmiş
on previousönceki employees'çalışanların dataveri
102
313052
3579
Böyle bir sistem önceki
çalışanların verilerine ayarlı
05:28
and instructedtalimat to find and hirekiralama
103
316655
2591
ve şirketteki yüksek performansı olan
05:31
people like the existingmevcut
highyüksek performerssanatçılar in the companyşirket.
104
319270
3038
çalışanlar gibi insanlar bulmaya ve
işe almaya kurulmuş olmalı.
05:34
SoundsSesler good.
105
322814
1153
İyi fikir.
05:35
I oncebir Zamanlar attendedkatıldı a conferencekonferans
106
323991
1999
Bir keresinde bir konferansa katıldım,
05:38
that broughtgetirdi togetherbirlikte
humaninsan resourceskaynaklar managersyöneticileri and executivesYöneticiler,
107
326014
3125
işe alımda bu sistemi kullanan
insan kaynakları uzmanları ile
05:41
high-levelyüksek seviye people,
108
329163
1206
yöneticileri,
05:42
usingkullanma suchböyle systemssistemler in hiringişe alıyor.
109
330393
1559
üst düzey insanları buluşturuyordu.
05:43
They were superSüper excitedheyecanlı.
110
331976
1646
Çok heyecanlıydılar.
05:45
They thought that this would make hiringişe alıyor
more objectiveamaç, lessaz biasedönyargılı,
111
333646
4653
Bu yöntemin işe alımı daha nesnel,
daha az ön yargılı yapacağını
05:50
and give womenkadınlar
and minoritiesazınlıklar a better shotatış
112
338323
3000
ve kadın ve azınlıkları ön yargılı
insan kaynakları karşısında
05:53
againstkarşısında biasedönyargılı humaninsan managersyöneticileri.
113
341347
2188
daha şanslı hâle getireceğini
düşünüyorlardı.
05:55
And look -- humaninsan hiringişe alıyor is biasedönyargılı.
114
343559
2843
İşe alımda ön yargılı davranılır.
05:59
I know.
115
347099
1185
Biliyorum.
06:00
I mean, in one of my earlyerken jobsMeslekler
as a programmerprogramcı,
116
348308
3005
Yani, programcı olarak çalıştığım ilk
işlerimden birinde
06:03
my immediateacil managermüdür would sometimesara sıra
come down to where I was
117
351337
3868
ilk patronum bazen sabah çok erken ya da
06:07
really earlyerken in the morningsabah
or really lategeç in the afternoonöğleden sonra,
118
355229
3753
öğleden sonra çok geç saatlerde
yanıma gelir
06:11
and she'do ediyorum say, "ZeynepZeynep,
let's go to lunchöğle yemeği!"
119
359006
3062
ve "Zeynep, hadi yemeğe çıkalım!" derdi.
06:14
I'd be puzzledşaşkın by the weirdtuhaf timingzamanlama.
120
362724
2167
Garip zamanlamasına şaşırırdım.
06:16
It's 4pmPM. LunchÖğle Yemeği?
121
364915
2129
Saat dört. Öğle yemeği mi?
06:19
I was brokekırdı, so freeücretsiz lunchöğle yemeği. I always wentgitti.
122
367068
3094
Param yoktu, bedava öğle yemeği vardı.
Her zaman giderdim.
06:22
I latersonra realizedgerçekleştirilen what was happeningolay.
123
370618
2067
Neler olduğunu daha sonraları anladım.
06:24
My immediateacil managersyöneticileri
had not confesseditiraf etti to theironların higher-upskomşulukları
124
372709
4546
Amirlerim kendi üst düzey müdürlerine
çok ciddi bir iş için
06:29
that the programmerprogramcı they hiredkiralanmış
for a seriousciddi job was a teengenç girlkız
125
377279
3113
işe aldıkları programcının
kot pantolon ve spor ayakkabı giyen
06:32
who woregiydiği jeanskot and sneakersSpor ayakkabı to work.
126
380416
3930
yeni yetme bir kız olduğunu
söylememişlerdi.
06:37
I was doing a good job,
I just lookedbaktı wrongyanlış
127
385174
2202
İyi iş çıkarıyordum,
ama yanlış görünüyordum,
06:39
and was the wrongyanlış ageyaş and genderCinsiyet.
128
387400
1699
yanlış yaşta ve cinsiyetteydim.
06:41
So hiringişe alıyor in a gender-cinsiyet- and race-blindyarış-kör way
129
389123
3346
Dolayısıyla cinsiyet ve ırk
gözetilmeksizin işe alım
06:44
certainlykesinlikle soundssesleri good to me.
130
392493
1865
bence kesinlikle iyi fikir.
06:47
But with these systemssistemler,
it is more complicatedkarmaşık, and here'sburada why:
131
395031
3341
Ancak bu sistemlerle konu
daha karmaşık oluyor, nedeni şu:
06:50
CurrentlyŞu anda, computationalbilişimsel systemssistemler
can infersonucuna all sortssıralar of things about you
132
398968
5791
Şimdilerde bilgisayar sistemleri
paylaşmadığınız şeyler bile olsa
06:56
from your digitaldijital crumbskırıntıları,
133
404783
1872
dijital kırıntılarınızdan
06:58
even if you have not
disclosedaçıklanması those things.
134
406679
2333
hakkınızda birçok çıkarım yapabilir.
07:01
They can infersonucuna your sexualcinsel orientationYönlendirme,
135
409506
2927
Cinsel yöneliminizi,
07:04
your personalitykişilik traitsözellikleri,
136
412994
1306
kişilik özelliklerinizi,
07:06
your politicalsiyasi leaningseğilimler.
137
414859
1373
siyasi görüşünüzü anlayabiliyor.
07:08
They have predictiveAkıllı powergüç
with highyüksek levelsseviyeleri of accuracydoğruluk.
138
416830
3685
Yüksek doğruluk oranlı öngörü güçleri var.
07:13
RememberHatırlıyorum -- for things
you haven'tyok even disclosedaçıklanması.
139
421362
2578
Unutmayın - paylaşmadığınız
şeyleri bile.
07:15
This is inferencesonuç.
140
423964
1591
Bu, çıkarımda bulunmaktır.
07:17
I have a friendarkadaş who developedgelişmiş
suchböyle computationalbilişimsel systemssistemler
141
425579
3261
Sosyal medya verilerinden
klinik depresyon veya
07:20
to predicttahmin the likelihoodolasılık
of clinicalklinik or postpartumDoğum sonrası depressiondepresyon
142
428864
3641
doğum sonrası depresyon ihtimalini
öngören sayısal sistemler geliştiren
07:24
from socialsosyal mediamedya dataveri.
143
432529
1416
bir arkadaşım var.
07:26
The resultsSonuçlar are impressiveetkileyici.
144
434676
1427
Sonuçlar etkileyici.
07:28
Her systemsistem can predicttahmin
the likelihoodolasılık of depressiondepresyon
145
436492
3357
Sistem depresyon ihtimalini
semptomların başlamasından
07:31
monthsay before the onsetbaşlangıçlı of any symptomssemptomlar --
146
439873
3903
aylar öncesinden öngörebiliyor,
07:35
monthsay before.
147
443800
1373
aylar öncesinden.
07:37
No symptomssemptomlar, there's predictiontahmin.
148
445197
2246
Hiçbir semptom yok, ama öngörü var.
07:39
She hopesumutlar it will be used
for earlyerken interventionmüdahale. Great!
149
447467
4812
Erken müdahalede
kullanılacağını umuyor. Muhteşem!
07:44
But now put this in the contextbağlam of hiringişe alıyor.
150
452911
2040
Şimdi de bunu
işe alım kavramına uygulayın.
07:48
So at this humaninsan resourceskaynaklar
managersyöneticileri conferencekonferans,
151
456027
3046
Bu insan kaynakları
yöneticileri konferansında
07:51
I approachedyaklaştı a high-levelyüksek seviye managermüdür
in a very largegeniş companyşirket,
152
459097
4709
büyük bir şirketin
üst düzey bir yöneticisiyle görüştüm.
07:55
and I said to her, "Look,
what if, unbeknownsthabersizce to you,
153
463830
4578
Ona, "Peki sisteminiz size bildirmeden
08:00
your systemsistem is weedingayıklayacaktır out people
with highyüksek futuregelecek likelihoodolasılık of depressiondepresyon?
154
468432
6549
gelecekte yüksek depresyon ihtimali olan
insanları ayıklıyorsa?
08:07
They're not depressedbunalımlı now,
just maybe in the futuregelecek, more likelymuhtemelen.
155
475761
3376
Şu an psikolojik bozuklukları yok,
ancak belki ileride olabilir.
08:11
What if it's weedingayıklayacaktır out womenkadınlar
more likelymuhtemelen to be pregnanthamile
156
479923
3406
Peki şu an hamile olmayan ancak
gelecek bir ya da iki yıl içinde
08:15
in the nextSonraki yearyıl or two
but aren'tdeğil pregnanthamile now?
157
483353
2586
hamile kalma ihtimali olan
kadınları ayıklıyorsa?
08:18
What if it's hiringişe alıyor aggressiveagresif people
because that's your workplaceiş yeri culturekültür?"
158
486844
5636
İş yeri kültürünüz öyle olduğu için
agresif insanları işe alıyorsa?" dedim.
08:25
You can't tell this by looking
at genderCinsiyet breakdownsarıza.
159
493173
2691
Bunu cinsiyet analizlerine bakarak
anlayamazsınız.
08:27
Those mayMayıs ayı be balanceddengeli.
160
495888
1502
Dengelenmiş olabilirler.
08:29
And sincedan beri this is machinemakine learningöğrenme,
not traditionalgeleneksel codingkodlama,
161
497414
3557
Ayrıca bu geleneksel kodlama değil
makine öğrenimi olduğu için
08:32
there is no variabledeğişken there
labeledetiketli "higherdaha yüksek riskrisk of depressiondepresyon,"
162
500995
4907
"yüksek depresyon riski",
"yüksek hamilelik riski",
08:37
"higherdaha yüksek riskrisk of pregnancygebelik,"
163
505926
1833
"agresiflik ölçümü" gibi
08:39
"aggressiveagresif guy scaleölçek."
164
507783
1734
etiket taşıyan değişkenler yok.
08:41
Not only do you not know
what your systemsistem is selectingSeçme on,
165
509995
3679
Sadece sisteminizin neyi seçtiğini değil,
08:45
you don't even know
where to beginbaşla to look.
166
513698
2323
nereden bakmaya başlayacağınızı
bile bilmiyorsunuz.
08:48
It's a blacksiyah boxkutu.
167
516045
1246
Bir kara kutu.
08:49
It has predictiveAkıllı powergüç,
but you don't understandanlama it.
168
517315
2807
Tahmin gücüne sahip ancak
onu anlamıyorsunuz.
08:52
"What safeguardsgüvenlik önlemleri," I askeddiye sordu, "do you have
169
520486
2369
"Ne güvenlikleri var?" diye sordum,
"kara kutunuzun
08:54
to make sure that your blacksiyah boxkutu
isn't doing something shadygölgeli?"
170
522879
3673
gizli bir şey yapmadığından
emin olmak için?"
09:00
She lookedbaktı at me as if I had
just steppedbasamaklı on 10 puppyköpek yavrusu tailsfrak.
171
528863
3878
Kuyruğuna basmışım gibi bakakaldı.
09:04
(LaughterKahkaha)
172
532765
1248
(Gülüşmeler)
09:06
She staredbaktı at me and she said,
173
534037
2041
Dik dik baktı ve
09:08
"I don't want to hearduymak
anotherbir diğeri wordsözcük about this."
174
536556
4333
"buna dair başka bir şey
duymak istemiyorum." dedi.
09:13
And she turneddönük around and walkedyürüdü away.
175
541458
2034
Arkasını dönüp gitti.
09:16
MindZihin you -- she wasn'tdeğildi rudekaba.
176
544064
1486
Gerçi kaba değildi.
09:17
It was clearlyAçıkça: what I don't know
isn't my problemsorun, go away, deathölüm starebakıyorum.
177
545574
6308
Açıklaması şu: Bilmediğim şey benim
sorunum değil, bas git, öldürücü bakış.
09:23
(LaughterKahkaha)
178
551906
1246
(Gülüşmeler)
09:25
Look, suchböyle a systemsistem
mayMayıs ayı even be lessaz biasedönyargılı
179
553862
3839
Bakın böyle bir sistem bazı açılardan
insan yöneticilerden
09:29
than humaninsan managersyöneticileri in some waysyolları.
180
557725
2103
daha az ön yargılı olabilir.
09:31
And it could make monetaryparasal senseduyu.
181
559852
2146
Parasal anlam taşıyabilir.
09:34
But it could alsoAyrıca leadöncülük etmek
182
562573
1650
Ancak depresyon riski
09:36
to a steadyistikrarlı but stealthygizli
shuttingkapatma out of the job marketpazar
183
564247
4748
yüksek olan insanların iş piyasasına
istikrarlı ve gizli olarak girmesini
09:41
of people with higherdaha yüksek riskrisk of depressiondepresyon.
184
569019
2293
engellemeye sebep olabilir.
09:43
Is this the kindtür of societytoplum
we want to buildinşa etmek,
185
571753
2596
Ne yapmış olduğumuzu bile bilmeden
09:46
withoutolmadan even knowingbilme we'vebiz ettik donetamam this,
186
574373
2285
kurmak istediğimiz toplum modeli bu mu?
09:48
because we turneddönük decision-makingkarar verme
to machinesmakineler we don't totallybütünüyle understandanlama?
187
576682
3964
Çünkü karar verme işini tam olarak
anlamadığımız makinelere bırakıyoruz.
09:53
AnotherBaşka bir problemsorun is this:
188
581265
1458
Diğer bir problemse şu:
09:55
these systemssistemler are oftensık sık trainedeğitilmiş
on dataveri generatedoluşturulan by our actionseylemler,
189
583314
4452
Bu sistemler çoğunlukla bizim
davranışlarımızla; insan izleri tarafından
09:59
humaninsan imprintsdiziniz.
190
587790
1816
üretilen bilgilerle test edilir.
10:02
Well, they could just be
reflectingyansıtan our biasesönyargıların,
191
590188
3808
Ön yargılarımızı yansıtıyor olabilirler.
10:06
and these systemssistemler
could be pickingtoplama up on our biasesönyargıların
192
594020
3593
Bu sistemler ön yargılarımıza dönüp
10:09
and amplifyingyükseltecek them
193
597637
1313
onları büyütüp
10:10
and showinggösterme them back to us,
194
598974
1418
bize tekrar gösteriyor olabilir,
10:12
while we're tellingsöylüyorum ourselveskendimizi,
195
600416
1462
biz ise bu arada kendimize
10:13
"We're just doing objectiveamaç,
neutralnötr computationhesaplama."
196
601902
3117
"Sadece nesnel, tarafsız hesap
yapıyoruz." diyoruz.
10:18
ResearchersAraştırmacılar foundbulunan that on GoogleGoogle,
197
606314
2677
Araştırmacılar Google'da
yüksek maaşlı iş ilanlarını
10:22
womenkadınlar are lessaz likelymuhtemelen than menerkekler
to be showngösterilen job adsreklamlar for high-payingyüksek ücretli jobsMeslekler.
198
610134
5313
kadınların görme ihtimalinin
erkeklerden daha az olduğunu tespit etti.
10:28
And searchingArama for African-AmericanAfrikalı-Amerikalı namesisimler
199
616463
2530
Afro-Amerikan isimleri araştırırken
10:31
is more likelymuhtemelen to bringgetirmek up adsreklamlar
suggestingdüşündüren criminaladli historytarih,
200
619017
4706
alakası olmasa bile
sabıka geçmişi ile ilgili ilanları
10:35
even when there is noneYok.
201
623747
1567
öne sürmesi daha muhtemeldir.
10:38
SuchBöyle hiddengizli biasesönyargıların
and black-boxKara kutu algorithmsalgoritmalar
202
626693
3549
Araştırmacıların bazen ortaya çıkardığı
ancak bazen bizim bilmediğimiz
10:42
that researchersaraştırmacılar uncoverortaya çıkarmak sometimesara sıra
but sometimesara sıra we don't know,
203
630266
3973
bu tür gizli ön yargıların ve
kara kutu algoritmalarının
10:46
can have life-alteringhayatını değiştiren consequencessonuçları.
204
634263
2661
hayat değiştiren sonuçları var.
10:49
In WisconsinWisconsin, a defendantdavalı
was sentencedmahkum to sixaltı yearsyıl in prisonhapis
205
637958
4159
Wisconsin'de bir sanık,
altı yıl hapse mahkûm edildi,
10:54
for evadingEvading the policepolis.
206
642141
1355
polisten kaçtığı için.
10:56
You mayMayıs ayı not know this,
207
644824
1186
Belki bilmiyorsunuzdur,
10:58
but algorithmsalgoritmalar are increasinglygiderek used
in paroleŞartlı tahliye and sentencingceza decisionskararlar.
208
646034
3998
algoritmaların şartlı tahliye ve ceza
kararlarında kullanımı giderek artıyor.
11:02
He wanted to know:
How is this scoreGol calculatedhesaplanan?
209
650056
2955
Şunu öğrenmek istiyordu:
Bu sonuç nasıl hesaplanmıştı?
11:05
It's a commercialticari blacksiyah boxkutu.
210
653795
1665
Ticari bir kara kutu.
11:07
The companyşirket refusedreddetti to have its algorithmalgoritma
be challengedmeydan in openaçık courtmahkeme.
211
655484
4205
Şirket, halka açık duruşmada
işlemlerinin sorgulanmasını reddetmişti.
11:12
But ProPublicaProPublica, an investigativearaştırmacı
nonprofitkâr amacı gütmeyen, auditeddenetlenmiş that very algorithmalgoritma
212
660396
5532
Kâr amacı gütmeyen araştırmacı kurum
ProPublica, bu algoritmayı
11:17
with what publichalka açık dataveri they could find,
213
665952
2016
bulabildiği kamusal verilerle inceledi
11:19
and foundbulunan that its outcomesçıktıları were biasedönyargılı
214
667992
2316
ve sonuçlarının ön yargılı olduğunu,
11:22
and its predictiveAkıllı powergüç
was dismalkasvetli, barelyzar zor better than chanceşans,
215
670332
3629
öngörü gücününse kötü, olasılıktan
biraz iyi olduğunu
11:25
and it was wronglyyanlış labelingetiketleme
blacksiyah defendantsSanıkların as futuregelecek criminalssuçlular
216
673985
4416
ve siyahi sanıkları haksız yere
beyaz sanıklardan iki kat fazla bir oranla
11:30
at twiceiki defa the rateoran of whitebeyaz defendantsSanıkların.
217
678425
3895
geleceğin suçluları olarak
etiketlediğini bulguladı.
11:35
So, considerdüşünmek this casedurum:
218
683891
1564
Şu olayı göz önüne alın:
11:38
This womankadın was lategeç
pickingtoplama up her godsistergodsister
219
686103
3852
Bu kadın, vaftiz kardeşini Florida'nın
Broward bölgesindeki bir okuldan
11:41
from a schoolokul in BrowardBroward Countyİlçe, FloridaFlorida,
220
689979
2075
almaya geç kalmış,
11:44
runningkoşu down the streetsokak
with a friendarkadaş of hersonunki.
221
692757
2356
bir arkadaşıyla caddede ilerliyorlar.
11:47
They spottedBenekli an unlockedkilidi kid'sçocuğun bikebisiklet
and a scooterScooter on a porchsundurma
222
695137
4099
Verandada duran kilitsiz bir
çocuk bisikleti ve bir kaydırak görüyor
11:51
and foolishlyaptalca jumpedatladı on it.
223
699260
1632
ve düşünmeden biniyorlar.
11:52
As they were speedinghız off,
a womankadın camegeldi out and said,
224
700916
2599
Tam yola koyulacakken
kadının biri çıkıyor ve
11:55
"Hey! That's my kid'sçocuğun bikebisiklet!"
225
703539
2205
"Hey! Bu benim çocuğumun
bisikleti!" diyor.
11:57
They droppeddüştü it, they walkedyürüdü away,
but they were arrestedtutuklandı.
226
705768
3294
Bırakıp gidiyorlar, ancak tutuklanıyorlar.
12:01
She was wrongyanlış, she was foolishaptalca,
but she was alsoAyrıca just 18.
227
709086
3637
Haksızdı, aptalca davranmıştı,
ama henüz 18 yaşındaydı.
12:04
She had a coupleçift of juvenileçocuk misdemeanorskötü davranış.
228
712747
2544
Çocukken ciddi olmayan bir iki suç işlemişti.
12:07
MeanwhileBu arada, that man had been arrestedtutuklandı
for shopliftinghırsızlık in Home DepotDepo --
229
715808
5185
Bu arada, adam da Home Depot'da
hırsızlık yapmaktan tutuklanmıştı.
12:13
85 dollars'dolar worthdeğer of stuffşey,
a similarbenzer pettyküçük crimesuç.
230
721017
2924
85 dolar değerinde,
benzeri bir hafif suç.
12:16
But he had two priorönceki
armedSilahlı robberysoygun convictionsmahkumiyet.
231
724766
4559
Ama öncesinde iki silahlı
soygun sabıkası vardı.
12:21
But the algorithmalgoritma scoredattı her
as highyüksek riskrisk, and not him.
232
729955
3482
Ancak algoritma, adamı değil
kadını yüksek riskli olarak işaretledi.
12:26
Two yearsyıl latersonra, ProPublicaProPublica foundbulunan
that she had not reoffendedreoffended.
233
734746
3874
İki yıl sonra ProPublica kadının
tekrar suç işlemediğini tespit etti.
12:30
It was just hardzor to get a job
for her with her recordkayıt.
234
738644
2550
Sabıka puanıyla iş bulması çok zordu.
12:33
He, on the other handel, did reoffendreoffend
235
741218
2076
Öte yandan adam tekrar suç işlemişti
12:35
and is now servingservis an eight-yearSekiz yıllık
prisonhapis termterim for a latersonra crimesuç.
236
743318
3836
ve şimdi daha sonra işlediği bir suç
yüzünden sekiz yıllık hapis cezasında.
12:40
ClearlyAçıkça, we need to auditDenetim our blacksiyah boxeskutuları
237
748088
3369
Belli ki kara kutularımızı
kontrol etmemiz
12:43
and not have them have
this kindtür of uncheckeddenetlenmeyen powergüç.
238
751481
2615
ve onlara böyle kontrolsüz güç
vermememiz gerekiyor.
12:46
(ApplauseAlkış)
239
754120
2879
(Alkışlar)
12:50
AuditsDenetimleri are great and importantönemli,
but they don't solveçözmek all our problemssorunlar.
240
758087
4242
Kontroller önemli ve etkili,
ancak tüm sorunlarımızı çözmüyorlar.
12:54
Take Facebook'sFacebook'un powerfulgüçlü
newshaber feedbesleme algorithmalgoritma --
241
762353
2748
Facebook'un muhteşem
haber akışı algoritmasına bakın,
12:57
you know, the one that rankssırada yer alıyor everything
and decideskarar what to showgöstermek you
242
765125
4843
yani takip ettiğiniz tüm arkadaşlarınız
ve sayfalardan her şeyi sıralayıp
13:01
from all the friendsarkadaşlar and pagessayfalar you followtakip et.
243
769992
2284
size ne göstereceğine
karar veren algoritma.
13:04
Should you be showngösterilen anotherbir diğeri babybebek pictureresim?
244
772898
2275
Başka bir bebek fotoğrafı görmeli misiniz?
13:07
(LaughterKahkaha)
245
775197
1196
(Gülüşmeler)
13:08
A sullensomurtkan noteNot from an acquaintancetanıdık?
246
776417
2596
Bir tanıdıktan somurtkan bir not?
13:11
An importantönemli but difficultzor newshaber itemmadde?
247
779449
1856
Önemli ama üzücü haberler?
13:13
There's no right answerCevap.
248
781329
1482
Doğru bir cevap yok.
13:14
FacebookFacebook optimizesEn iyi duruma getirir
for engagementnişan on the siteyer:
249
782835
2659
Facebook meşgul olacaklarınızı
en uygun hâle getiriyor:
13:17
likesseviyor, shareshisseleri, commentsyorumlar.
250
785518
1415
Beğeniler, paylaşımlar, yorumlar.
13:20
In AugustAğustos of 2014,
251
788168
2696
Ağustos 2014'te,
13:22
protestsprotestolar brokekırdı out in FergusonFerguson, MissouriMissouri,
252
790888
2662
Missouri, Ferguson'da
Afro-Amerikan bir gencin
13:25
after the killingöldürme of an African-AmericanAfrikalı-Amerikalı
teenagergenç by a whitebeyaz policepolis officersubay,
253
793574
4417
beyaz bir polis tarafından şüpheli
bir şekilde öldürülmesi sonrası
13:30
underaltında murkykaranlık circumstanceskoşullar.
254
798015
1570
protestolar başladı.
13:31
The newshaber of the protestsprotestolar was all over
255
799974
2007
Protesto haberleri
13:34
my algorithmicallyalgoritmik
unfilteredfiltresiz TwitterTwitter feedbesleme,
256
802005
2685
algoritmik olarak filtrelenmeyen
Twitter akışımda vardı
13:36
but nowhereHiçbir yerde on my FacebookFacebook.
257
804714
1950
ancak Facebook'ta hiçbir yerde yoktu.
13:39
Was it my FacebookFacebook friendsarkadaşlar?
258
807182
1734
Facebook arkadaşlarım ne hâldeydi?
13:40
I disabledengelli Facebook'sFacebook'un algorithmalgoritma,
259
808940
2032
Facebook'un algoritmasını
devre dışı bıraktım,
13:43
whichhangi is hardzor because FacebookFacebook
keepstutar wantingeksik to make you
260
811472
2848
ki bu çok zordur, çünkü Facebook
sizi algoritmanın
13:46
come underaltında the algorithm'salgoritması'nın controlkontrol,
261
814344
2036
kontrolü altında tutmak ister.
13:48
and saw that my friendsarkadaşlar
were talkingkonuşma about it.
262
816404
2238
Baktım ki arkadaşlarım da
bunu konuşuyor.
13:50
It's just that the algorithmalgoritma
wasn'tdeğildi showinggösterme it to me.
263
818666
2509
Bunu bana göstermeyen
algoritmanın ta kendisiydi.
13:53
I researchedaraştırılmış this and foundbulunan
this was a widespreadyaygın problemsorun.
264
821199
3042
Bunu araştırdım ve
yaygın bir problem olduğunu gördüm.
13:56
The storyÖykü of FergusonFerguson
wasn'tdeğildi algorithm-friendlyalgoritma-Dostu.
265
824265
3813
Ferguson haberi algoritma dostu değildi.
14:00
It's not "likablesevimli."
266
828102
1171
"Beğenilebilir" değildi.
14:01
Who'sKim'ın going to clicktık on "like?"
267
829297
1552
Kim "beğen"e tıklayacaktı?
14:03
It's not even easykolay to commentyorum Yap on.
268
831500
2206
Yorum yapılması bile kolay değildi.
14:05
WithoutOlmadan likesseviyor and commentsyorumlar,
269
833730
1371
Beğeniler ve yorumlar olmayınca
14:07
the algorithmalgoritma was likelymuhtemelen showinggösterme it
to even fewerDaha az people,
270
835125
3292
algoritma bunu daha az insana
gösteriyor olmalıydı,
14:10
so we didn't get to see this.
271
838441
1542
dolayısıyla görmüyorduk.
14:12
InsteadBunun yerine, that weekhafta,
272
840946
1228
Onun yerine, o hafta
14:14
Facebook'sFacebook'un algorithmalgoritma highlightedvurgulanmış this,
273
842198
2298
Facebook'un algoritması
şunu ön plana çıkardı:
14:16
whichhangi is the ALSALS IceBuz BucketKova ChallengeMeydan okuma.
274
844520
2226
ALS Buz Kovası Düellosu.
14:18
WorthyLayık causesebeb olmak; dumpçöplük icebuz waterSu,
donateBağış to charitysadaka, fine.
275
846770
3742
İyi bir sebep; buzlu su dök,
bağış yap, tamam.
14:22
But it was superSüper algorithm-friendlyalgoritma-Dostu.
276
850536
1904
Fakat süper algoritma dostuydu.
14:25
The machinemakine madeyapılmış this decisionkarar for us.
277
853219
2613
Makine bu kararı bizim için almıştı.
14:27
A very importantönemli
but difficultzor conversationkonuşma
278
855856
3497
Facebook tek kanal olsaydı
çok önemli ancak
14:31
mightbelki have been smotheredboğarak,
279
859377
1555
etkili bir sohbet
14:32
had FacebookFacebook been the only channelkanal.
280
860956
2696
engellenmiş olabilirdi.
14:36
Now, finallyen sonunda, these systemssistemler
can alsoAyrıca be wrongyanlış
281
864117
3797
Şimdi sonuç olarak bu sistemler
insan sistemlerine
14:39
in waysyolları that don't resemblebenzer humaninsan systemssistemler.
282
867938
2736
benzememesi bakımından da
yanlış olabilir.
14:42
Do you guys rememberhatırlamak WatsonWatson,
IBM'sIBM'in machine-intelligencemakine-zeka systemsistem
283
870698
2922
Watson'ı hatırlıyor musunuz?
IBM'in Riziko'da
14:45
that wipedyok the floorzemin
with humaninsan contestantsYarışmacılar on JeopardyTehlike?
284
873644
3128
insan rakiplerini yenilgiye uğratan
makine zekâsı sistemini?
14:49
It was a great playeroyuncu.
285
877131
1428
Harika bir oyuncuydu.
14:50
But then, for FinalSon JeopardyTehlike,
WatsonWatson was askeddiye sordu this questionsoru:
286
878583
3569
Ancak o zaman, Riziko'nun finalinde
Watson'a şu soru soruldu:
14:54
"Its largesten büyük airporthavalimanı is namedadlı
for a WorldDünya WarSavaş IIII herokahraman,
287
882659
2932
"En büyük havaalanı adını İkinci
Dünya Savaşı kahramanından alır,
14:57
its second-largestikinci büyük
for a WorldDünya WarSavaş IIII battlesavaş."
288
885615
2252
ikincisi İkinci Dünya Savaşı savaşından.
(Final Riziko müziği çalar)
14:59
(HumsGurultu FinalSon JeopardyTehlike musicmüzik)
289
887891
1378
15:01
ChicagoChicago.
290
889582
1182
Chicago.
15:02
The two humansinsanlar got it right.
291
890788
1370
İki insan soruyu doğru anladı.
15:04
WatsonWatson, on the other handel,
answeredcevap "TorontoToronto" --
292
892697
4348
Buna karşın Watson,
Birleşik Devletler şehri olarak
15:09
for a US cityŞehir categorykategori!
293
897069
1818
"Toronto" cevabını verdi.
15:11
The impressiveetkileyici systemsistem alsoAyrıca madeyapılmış an errorhata
294
899596
2901
Bu etkileyici sistem
15:14
that a humaninsan would never make,
a second-graderikinci sınıf öğrencisi wouldn'tolmaz make.
295
902521
3651
bir insanın, ikinci sınıfa giden birinin
asla yapmayacağı bir hata yapmıştı.
15:18
Our machinemakine intelligencezeka can failbaşarısız
296
906823
3109
Makine zekâmız
15:21
in waysyolları that don't fituygun
errorhata patternsdesenler of humansinsanlar,
297
909956
3100
insanların hata şekline
uymayan şekilde,
15:25
in waysyolları we won'talışkanlık expectbeklemek
and be preparedhazırlanmış for.
298
913080
2950
beklemediğimiz ve hazırlıksız olduğumuz
şekilde hata yapabilir.
15:28
It'dO-cekti be lousybitli not to get a job
one is qualifiednitelikli for,
299
916054
3638
Kalifiye biri için işe alınmamak
kötü olabilirdi,
15:31
but it would tripleüçlü suckemmek
if it was because of stackyığın overflowtaşma
300
919716
3727
fakat bu, bazı alt programlarda
bellek dolu dediği için oluyorsa
15:35
in some subroutinealt yordam.
301
923467
1432
üç kat daha kötü olurdu.
15:36
(LaughterKahkaha)
302
924923
1579
(Gülüşmeler)
15:38
In MayMayıs of 2010,
303
926526
2786
Mayıs 2010'da
15:41
a flashflaş crashkaza on WallDuvar StreetSokak
fueledyakıtlı by a feedbackgeri bildirim loopdöngü
304
929336
4044
Wall Steet'te olan Wall Street'in
"satış" algoritmalarını
15:45
in WallDuvar Street'sSokak'ın "sellsatmak" algorithmalgoritma
305
933404
3028
bir geri bildirim döngüsünün
körüklediği ani bir düşüş
15:48
wipedyok a trilliontrilyon dollarsdolar
of valuedeğer in 36 minutesdakika.
306
936456
4184
36 dakika içinde trilyon dolarları sildi.
15:53
I don't even want to think
what "errorhata" meansanlamına geliyor
307
941722
2187
Ölümcül otonom silahlar bağlamında
15:55
in the contextbağlam of lethalöldürücü
autonomousözerk weaponssilahlar.
308
943933
3589
"hata yapmak" ne demek bunu
düşünmek bile istemiyorum.
16:01
So yes, humansinsanlar have always madeyapılmış biasesönyargıların.
309
949894
3790
Evet, insanlar her zaman
ön yargıda bulunur.
16:05
DecisionKarar makersvericiler and gatekeepersağ geçidi denetleyicileri,
310
953708
2176
Karar vericiler ve geçit deneticiler
16:07
in courtsmahkemeler, in newshaber, in warsavaş ...
311
955908
3493
mahkemelerde, haberlerde, savaşlarda...
16:11
they make mistakeshatalar;
but that's exactlykesinlikle my pointpuan.
312
959425
3038
Hata yaparlar; işte benim
asıl dikkat çekmek istediğim bu.
16:14
We cannotyapamam escapekaçış
these difficultzor questionssorular.
313
962487
3521
Bu zor sorulardan kaçamayız.
16:18
We cannotyapamam outsourcedış kaynak
our responsibilitiessorumluluklar to machinesmakineler.
314
966596
3516
Kendi sorumluluklarımızı
makinelere yaptıramayız.
16:22
(ApplauseAlkış)
315
970676
4208
(Alkışlar)
16:29
ArtificialYapay intelligencezeka does not give us
a "Get out of ethicsetik freeücretsiz" cardkart.
316
977089
4447
Yapay zekâ bize "etikten kurtul geç"
kartı vermiyor.
16:34
DataVeri scientistBilim insanı FredFred BenensonBenenson
callsaramalar this math-washingMatematik-çamaşır.
317
982742
3381
Veri uzmanı Fred Benenson
buna matematiksel yıkama diyor.
16:38
We need the oppositekarşısında.
318
986147
1389
Tam tersine ihtiyacımız var.
16:39
We need to cultivateyetiştirmek algorithmalgoritma suspicionşüphe,
scrutinyinceleme and investigationsoruşturma.
319
987560
5388
Algoritmayı şüphe, gözlem ve
inceleme ile desteklemeliyiz.
16:45
We need to make sure we have
algorithmicalgoritmik accountabilityHesap verebilirlik,
320
993380
3198
Algoritmik izlenebilirlik, denetim ve
16:48
auditingdenetleme and meaningfulanlamlı transparencyşeffaflık.
321
996602
2445
anlamlı şeffaflığımız olduğundan
emin olmamız gerek.
16:51
We need to acceptkabul etmek
that bringinggetiren mathmatematik and computationhesaplama
322
999380
3234
Matematik ve programlamayı
karmaşık, değer yüklü
16:54
to messydağınık, value-ladendeğeri yüklü humaninsan affairsişler
323
1002638
2970
insani ilişkilere uygulamanın
16:57
does not bringgetirmek objectivitytarafsızlık;
324
1005632
2384
nesnellik getirmeyeceğini
kabul etmemiz gerekiyor;
17:00
ratherdaha doğrusu, the complexitykarmaşa of humaninsan affairsişler
invadesişgal etti the algorithmsalgoritmalar.
325
1008040
3633
aksine, insan ilişkilerinin karmaşıklığı
algoritmaları ele geçiriyor.
17:04
Yes, we can and we should use computationhesaplama
326
1012148
3487
Tabii ki daha iyi kararlar almamız için
bilgisayar kullanabiliriz,
17:07
to help us make better decisionskararlar.
327
1015659
2014
kullanmalıyız da.
17:09
But we have to ownkendi up
to our moralmanevi responsibilitysorumluluk to judgmentyargı,
328
1017697
5332
Ancak doğru karar vermek için,
ahlaki sorumluluk alıp
17:15
and use algorithmsalgoritmalar withiniçinde that frameworkiskelet,
329
1023053
2818
algoritmaları bu çerçevede
kullanmak zorundayız,
17:17
not as a meansanlamına geliyor to abdicateferagat
and outsourcedış kaynak our responsibilitiessorumluluklar
330
1025895
4935
insan olarak birbirimize karşı olan
sorumluluklarımızı üstümüzden atıp
17:22
to one anotherbir diğeri as humaninsan to humaninsan.
331
1030854
2454
dış kaynaktan temin etmenin
bir yolu gibi görmemeliyiz.
17:25
MachineMakine intelligencezeka is here.
332
1033807
2609
Makine zekâsı işte böyledir.
17:28
That meansanlamına geliyor we mustşart holdambar on ever tighterdaha sıkı
333
1036440
3421
Bu demektir ki, insani değerlere ve etiğe
17:31
to humaninsan valuesdeğerler and humaninsan ethicsetik.
334
1039885
2147
hiç olmadığı kadar
sıkı sarılmamız gerekiyor.
17:34
Thank you.
335
1042056
1154
Teşekkür ederim.
17:35
(ApplauseAlkış)
336
1043234
5020
(Alkışlar)
Translated by Selda Yener
Reviewed by Cihan Ekmekçi

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com