TEDxCERN

Sinan Aral: How we can protect truth in the age of misinformation

Sinan Aral: Yanlış bilgilendirme çağında gerçeği nasıl koruyabiliriz

Filmed:
1,289,169 views

Yalan haberler seçimlerin yönünü değiştirebilir, ekonomileri baltalayabilir ve gündelik hayata nifak tohumları ekebilir. Veri bilimcisi Sinan Aral, dezenformasyon konusundaki en geniş kapsamlı araştırmalardan biri üzerinden yalan haberlerin nasıl ve neden bu kadar hızlı yayıldığını açıklıyor ve gerçeklerle yalanları birbirinden ayırmamızı sağlayacak beş strateji saptıyor.

Double-click the English transcript below to play the video.

00:13
So, on AprilNisan 23 of 2013,
0
1468
5222
23 Nisan 2013'te
00:18
the Associatedİlişkili PressBasın
put out the followingtakip etme tweetTweet on TwitterTwitter.
1
6714
5514
Associated Press, Twitter'da
şöyle bir tweet attı.
00:24
It said, "BreakingKırma newshaber:
2
12252
2397
"Flaş haber:
00:26
Two explosionspatlamalar at the WhiteBeyaz HouseEv
3
14673
2571
Beyaz Saray'da iki patlama.
00:29
and BarackBarack ObamaObama has been injuredyaralı."
4
17268
2333
Barack Obama yaralandı."
00:32
This tweetTweet was retweetedretweeted 4,000 timeszamanlar
in lessaz than fivebeş minutesdakika,
5
20212
5425
Bu tweet beş dakikadan kısa sürede
4000 kere paylaşıldı
00:37
and it wentgitti viralviral thereafterBundan sonra.
6
25661
2217
ve sonrasında viral oldu.
00:40
Now, this tweetTweet wasn'tdeğildi realgerçek newshaber
put out by the Associatedİlişkili PressBasın.
7
28760
4350
Bu tweet, Associated Press tarafından
paylaşılan gerçek bir haber değildi.
00:45
In factgerçek it was falseyanlış newshaber, or fakesahte newshaber,
8
33134
3333
Aslında sahte veya yalan bir haberdi.
00:48
that was propagatedyayılır by SyrianSuriye hackershacker
9
36491
2825
Associated Press'in
Twitter hesabını ele geçiren
00:51
that had infiltratedinfiltre
the Associatedİlişkili PressBasın TwitterTwitter handlesap.
10
39340
4694
Suriyeli bilgisayar korsanlarınca
paylaşılmıştı.
00:56
TheirOnların purposeamaç was to disruptbozmak societytoplum,
but they disruptedbozulduğu much more.
11
44407
3889
Amaçları toplumda kargaşa çıkarmaktı
ama çok daha fazlasını yaptılar.
01:00
Because automatedotomatikleştirilmiş tradingticari algorithmsalgoritmalar
12
48320
2476
Çünkü otomatik borsa algoritmaları
01:02
immediatelyhemen seizedele geçirilen
on the sentimentduyguları on this tweetTweet,
13
50820
3360
bu tweet'teki hissiyatı hemen yakaladı
01:06
and beganbaşladı tradingticari basedmerkezli on the potentialpotansiyel
14
54204
2968
ve ABD Başkanı'nın bu patlamada
01:09
that the presidentDevlet Başkanı of the UnitedAmerika StatesBirleşik
had been injuredyaralı or killedöldürdü
15
57196
3381
yaralanmış veya öldürülmüş olması
ihtimaline göre alım satım
01:12
in this explosionpatlama.
16
60601
1200
yapmaya başladı.
01:14
And as they startedbaşladı tweetingTweeting,
17
62188
1992
Tweet atmaya başladıklarında
01:16
they immediatelyhemen sentgönderilen
the stockStok marketpazar crashinggürültüyle çarpmak,
18
64204
3349
borsayı çöküşe soktular,
01:19
wipingsilme out 140 billionmilyar dollarsdolar
in equityhisse senedi valuedeğer in a singletek day.
19
67577
5167
bir günde 140 milyar dolarlık
değer kaybına yol açtılar.
01:25
RobertRobert MuellerMueller, specialözel counselavukat
prosecutorSavcı in the UnitedAmerika StatesBirleşik,
20
73062
4476
Özel yetkili ABD savcısı Robert Mueller
01:29
issuedVeriliş indictmentsiddianameler
againstkarşısında threeüç RussianRusça companiesşirketler
21
77562
3892
üç Rus şirketine ve 13 Rus bireye karşı
01:33
and 13 RussianRusça individualsbireyler
22
81478
2619
2016 başkanlık seçimine müdahale ederek
01:36
on a conspiracykomplo to defraudDolandır
the UnitedAmerika StatesBirleşik
23
84121
3167
ABD'yi dolandırmak amacıyla
01:39
by meddlingburnunu sokmak in the 2016
presidentialCumhurbaşkanlığı electionseçim.
24
87312
3780
komplo kurmaktan dava açtı.
01:43
And what this indictmentiddianame tellsanlatır as a storyÖykü
25
91855
3564
Bu iddianamenin hikâyesi,
01:47
is the storyÖykü of the InternetInternet
ResearchAraştırma AgencyAjansı,
26
95443
3142
Kremlin'in sosyal medyadaki
gizli kolu olan
01:50
the shadowygölgeli armkol of the KremlinKremlin
on socialsosyal mediamedya.
27
98609
3594
Internet Research Agency'nin hikâyesidir.
01:54
DuringSırasında the presidentialCumhurbaşkanlığı electionseçim aloneyalnız,
28
102815
2777
Sırf başkanlık seçimlerinde
01:57
the InternetInternet Agency'sAjans'ın effortsçabaları
29
105616
1889
Internet Agency'nin çabaları
01:59
reachedulaştı 126 millionmilyon people
on FacebookFacebook in the UnitedAmerika StatesBirleşik,
30
107529
5167
ABD'de Facebook üzerinden
126 milyon kişiye ulaştı,
02:04
issuedVeriliş threeüç millionmilyon individualbireysel tweetsTweets
31
112720
3277
üç milyon tekil tweet attı
02:08
and 43 hours'Saat worthdeğer of YouTubeYouTube contentiçerik.
32
116021
3842
ve 43 saatlik YouTube içeriği yayınladı.
02:11
All of whichhangi was fakesahte --
33
119887
1652
Bunların hepsi sahteydi.
02:13
misinformationyanlış bilgilendirme designedtasarlanmış to sowekmek discordanlaşmazlık
in the US presidentialCumhurbaşkanlığı electionseçim.
34
121563
6323
ABD başkanlık seçimlerine şüphe tohumları
ekme amaçlı yanlış bilgilendirmelerdi.
02:20
A recentson studyders çalışma by OxfordOxford UniversityÜniversitesi
35
128996
2650
Oxford Üniversitesi'nin
yakın tarihli bir araştırması
02:23
showedgösterdi that in the recentson
Swedishİsveç dili electionsseçimleri,
36
131670
3270
geçtiğimiz İsveç seçimlerinde
02:26
one thirdüçüncü of all of the informationbilgi
spreadingyayma on socialsosyal mediamedya
37
134964
4375
sosyal medyada yayınlanan
seçimle ilgili bilgilerin
02:31
about the electionseçim
38
139363
1198
üçte birinin
02:32
was fakesahte or misinformationyanlış bilgilendirme.
39
140585
2087
yalan veya sahte olduğunu
ortaya koydu.
02:35
In additionilave, these typestürleri
of social-mediaSosyal medya misinformationyanlış bilgilendirme campaignskampanyalar
40
143037
5078
Ek olarak, yanlış bilgilendirme amaçlı
bu tür sosyal medya kampanyaları
02:40
can spreadYAYILMIŞ what has been calleddenilen
"genocidalSoykırım propagandapropaganda,"
41
148139
4151
Burma'da Rohingya'ya karşı yürütülen
02:44
for instanceörnek againstkarşısında
the RohingyaRohingya in BurmaBurma,
42
152314
3111
veya Hindistan'da linçlere yol açan
"soykırımcı propaganda"ların
02:47
triggeringtetikleme mobMafya killingscinayetleri in IndiaHindistan.
43
155449
2303
yayılmasına yol açabilir.
02:49
We studiedokudu fakesahte newshaber
44
157776
1494
Biz yalan haberleri araştırdık
02:51
and beganbaşladı studyingders çalışıyor it
before it was a popularpopüler termterim.
45
159294
3219
ve onları araştırmaya bu terim
popüler olmadan önce başladık.
02:55
And we recentlyson günlerde publishedyayınlanan
the largest-everşimdiye kadarki en büyük longitudinalboyuna studyders çalışma
46
163030
5040
Bu yıl Mart ayında,
"Science" dergisinin kapağında
internette yayılan sahte haberleri
konu alan en geniş kapsamlı
03:00
of the spreadYAYILMIŞ of fakesahte newshaber onlineinternet üzerinden
47
168094
2286
03:02
on the coverkapak of "ScienceBilim"
in MarchMart of this yearyıl.
48
170404
3204
panel araştırmasını yayımladık.
03:06
We studiedokudu all of the verifieddoğrulanmadı
truedoğru and falseyanlış newshaber storieshikayeleri
49
174523
4161
2006'daki kuruluşundan 2017'ye kadar
Twitter'da yayılan
03:10
that ever spreadYAYILMIŞ on TwitterTwitter,
50
178708
1753
doğru veya yalan olduğu ispatlanmış
03:12
from its inceptionbaşlangıç in 2006 to 2017.
51
180485
3818
tüm haberleri inceledik.
03:16
And when we studiedokudu this informationbilgi,
52
184612
2314
Bu bilgileri ele alırken
03:18
we studiedokudu verifieddoğrulanmadı newshaber storieshikayeleri
53
186950
2876
bilgi kontrolü yapan
altı bağımsız kuruluşun
03:21
that were verifieddoğrulanmadı by sixaltı
independentbağımsız fact-checkingdurum kontrolü organizationsorganizasyonlar.
54
189850
3918
doğruladığı haberleri inceledik.
03:25
So we knewbiliyordum whichhangi storieshikayeleri were truedoğru
55
193792
2762
Yani hangilerinin doğru,
03:28
and whichhangi storieshikayeleri were falseyanlış.
56
196578
2126
hangilerinin sahte olduğunu biliyorduk.
03:30
We can measureölçmek theironların diffusionyayılma,
57
198728
1873
Yayılışlarını ölçebiliyoruz,
03:32
the speedhız of theironların diffusionyayılma,
58
200625
1651
yayılışlarının hızını, derinliğini
03:34
the depthderinlik and breadthetki derecesini elde of theironların diffusionyayılma,
59
202300
2095
ve kapsamını ölçebiliyoruz,
03:36
how manyçok people becomeolmak entangleddolaşmış
in this informationbilgi cascadeArt arda sıralı and so on.
60
204419
4142
kaç kişinin bu bilgi yağmuruna
kapıldığını da.
03:40
And what we did in this paperkâğıt
61
208942
1484
Bu araştırmada yaptığımız,
03:42
was we comparedkarşılaştırıldığında the spreadYAYILMIŞ of truedoğru newshaber
to the spreadYAYILMIŞ of falseyanlış newshaber.
62
210450
3865
gerçek haberlerin yayılışıyla
yalan haberlerin yayılışını kıyaslamaktı.
03:46
And here'sburada what we foundbulunan.
63
214339
1683
Bulduklarımız şunlar:
03:48
We foundbulunan that falseyanlış newshaber
diffuseddağınık furtherayrıca, fasterDaha hızlı, deeperDaha derine
64
216046
3979
Yalan haberlerin araştırdığımız
her haber kategorisinde
03:52
and more broadlyGenel olarak than the truthhakikat
65
220049
1806
doğru haberlerden
03:53
in everyher categorykategori of informationbilgi
that we studiedokudu,
66
221879
3003
kimi zaman birkaç kat
daha uzağa, daha hızlı,
03:56
sometimesara sıra by an ordersipariş of magnitudebüyüklük.
67
224906
2499
daha geniş kapsamlı
yayıldığını tespit ettik.
03:59
And in factgerçek, falseyanlış politicalsiyasi newshaber
was the mostçoğu viralviral.
68
227842
3524
Siyasi yalan haberler en viral olanlardı.
04:03
It diffuseddağınık furtherayrıca, fasterDaha hızlı,
deeperDaha derine and more broadlyGenel olarak
69
231390
3147
Diğer tür yalan haber türlerinden
daha uzağa, daha derine
04:06
than any other typetip of falseyanlış newshaber.
70
234561
2802
ve daha geniş kitlelere yayılıyorlardı.
04:09
When we saw this,
71
237387
1293
Bunu gördüğümüzde
04:10
we were at oncebir Zamanlar worriedendişeli but alsoAyrıca curiousMeraklı.
72
238704
2841
hem endişelendik hem meraklandık.
04:13
Why?
73
241569
1151
Neden?
04:14
Why does falseyanlış newshaber travelseyahat
so much furtherayrıca, fasterDaha hızlı, deeperDaha derine
74
242744
3373
Neden yalan haberler, gerçeklerden
daha uzağa, daha hızlı,
04:18
and more broadlyGenel olarak than the truthhakikat?
75
246141
1864
daha geniş çaplı yayılıyor?
04:20
The first hypothesishipotez
that we camegeldi up with was,
76
248339
2961
İlk hipotezimiz
04:23
"Well, maybe people who spreadYAYILMIŞ falseyanlış newshaber
have more followerstakipçileri or followtakip et more people,
77
251324
4792
"Belki yalan haberleri yayanların
takipçisi, takip ettikleri daha çok,
04:28
or tweetTweet more oftensık sık,
78
256140
1557
daha çok tweet atıyorlar,
04:29
or maybe they're more oftensık sık 'verified''doğrulandı'
userskullanıcılar of TwitterTwitter, with more credibilitygüvenilirlik,
79
257721
4126
geneli "doğrulanmış" Twitter kullanıcıları
04:33
or maybe they'veonlar ettik been on TwitterTwitter longeruzun."
80
261871
2182
veya daha uzun süredir Twitter'dalar.
04:36
So we checkedkontrol eachher one of these in turndönüş.
81
264077
2298
Sırayla bunların hepsine baktık.
04:38
And what we foundbulunan
was exactlykesinlikle the oppositekarşısında.
82
266691
2920
Tam tersini bulduk.
04:41
False-newsYanlış haber spreadersSerpme had fewerDaha az followerstakipçileri,
83
269635
2436
Yalan haberleri yayanların
takipçileri daha azdı,
04:44
followedtakip etti fewerDaha az people, were lessaz activeaktif,
84
272095
2254
daha az kişiyi takip ediyorlardı,
daha az aktif,
ender olarak "doğrulanmış"tılar.
04:46
lessaz oftensık sık "verifieddoğrulanmadı"
85
274373
1460
04:47
and had been on TwitterTwitter
for a shorterdaha kısa perioddönem of time.
86
275857
2960
Daha kısa süredir Twitter'daydılar.
04:50
And yethenüz,
87
278841
1189
Yine de
04:52
falseyanlış newshaber was 70 percentyüzde more likelymuhtemelen
to be retweetedretweeted than the truthhakikat,
88
280054
5033
bunlar ve başka faktörler dâhilinde
yalan haberin tekrar tweetlenmesi ihtimali
04:57
controllingkontrol for all of these
and manyçok other factorsfaktörler.
89
285111
3363

yüzde 70 daha fazlaydı.
05:00
So we had to come up
with other explanationsaçıklamalar.
90
288498
2690
Öyleyse başka açıklamalar bulmalıydık.
05:03
And we devisedtasarladı what we calleddenilen
a "noveltyyenilik hypothesishipotez."
91
291212
3467
"Yenilik hipotezi" diye
bir şey geliştirdik.
05:07
So if you readokumak the literatureEdebiyat,
92
295038
1960
Araştırmalara bakarsanız
05:09
it is well knownbilinen that humaninsan attentionDikkat
is drawnçekilmiş to noveltyyenilik,
93
297022
3754
insanın dikkatinin yeni şeylere,
çevrede yeni olan şeylere
05:12
things that are newyeni in the environmentçevre.
94
300800
2519
kaydığı iyi bilinir.
05:15
And if you readokumak the sociologysosyoloji literatureEdebiyat,
95
303343
1985
Sosyoloji külliyatına bakarsanız
05:17
you know that we like to sharepay
novelyeni informationbilgi.
96
305352
4300
yeni bilgileri paylaşmayı
sevdiğimizi görürsünüz.
05:21
It makesmarkaları us seemgörünmek like we have accesserişim
to insideiçeride informationbilgi,
97
309676
3838
Gizli bir bilgiye
erişimimiz varmış gibi hissettirir
05:25
and we gainkazanç in statusdurum
by spreadingyayma this kindtür of informationbilgi.
98
313538
3785
ve bu tür bilgileri yayarak
statü kazanırız.
05:29
So what we did was we measuredölçülü the noveltyyenilik
of an incominggelen truedoğru or falseyanlış tweetTweet,
99
317792
6452
Gelen doğru veya yalan bir tweet'in
o bireyin önceki 60 günde
05:36
comparedkarşılaştırıldığında to the corpuskülliyat
of what that individualbireysel had seengörüldü
100
324268
4055
Twitter'da gördüklerine kıyasla
ne kadar yeni bir bilgi
05:40
in the 60 daysgünler priorönceki on TwitterTwitter.
101
328347
2952
olduğunu ölçtük.
05:43
But that wasn'tdeğildi enoughyeterli,
because we thought to ourselveskendimizi,
102
331323
2659
Ama bu, yeterli değildi. "Yalan haber,
05:46
"Well, maybe falseyanlış newshaber is more novelyeni
in an information-theoreticbilgi-teoretik senseduyu,
103
334006
4208
bilgi teorisi anlamında daha yeni olabilir
05:50
but maybe people
don't perceivealgıladıkları it as more novelyeni."
104
338238
3258
ama belki insanlar onu
yeni olarak algılamıyordur." dedik.
05:53
So to understandanlama people'sinsanların
perceptionsalgılamalar of falseyanlış newshaber,
105
341849
3927
İnsanların yalan haberi
nasıl algıladığını anlamak için
05:57
we lookedbaktı at the informationbilgi
and the sentimentduyguları
106
345800
3690
doğru ve yalan haberlere
verilen tepkilerdeki
06:01
containediçeriyordu in the repliescevaplar
to truedoğru and falseyanlış tweetsTweets.
107
349514
4206
bilgilere ve hislere baktık.
06:06
And what we foundbulunan
108
354022
1206
Sürpriz, iğrenme, korku,
06:07
was that acrosskarşısında a bunchDemet
of differentfarklı measuresönlemler of sentimentduyguları --
109
355252
4214
üzüntü, beklenti, neşe ve güven gibi
06:11
surprisesürpriz, disgustiğrenme/tiksinme, fearkorku, sadnessüzüntü,
110
359490
3301
farklı duyguların ölçümlerine baktığımızda
06:14
anticipationbeklenti, joysevinç and trustgüven --
111
362815
2484
bulduğumuz şey
06:17
falseyanlış newshaber exhibitedsergiledi significantlyanlamlı more
surprisesürpriz and disgustiğrenme/tiksinme
112
365323
5857
yalan haberler söz konusu olduğunda
bu sahte tweet'lere verilen yanıtların
06:23
in the repliescevaplar to falseyanlış tweetsTweets.
113
371204
2806
çok daha fazla sürpriz
ve iğrenme hissine yol açtığıydı.
06:26
And truedoğru newshaber exhibitedsergiledi
significantlyanlamlı more anticipationbeklenti,
114
374392
3789
Doğru haberlerdeyse
doğru tweet'lere verilen yanıtlarda
06:30
joysevinç and trustgüven
115
378205
1547
daha çok beklenti,
06:31
in replycevap to truedoğru tweetsTweets.
116
379776
2547
neşe ve güven vardı.
06:34
The surprisesürpriz corroboratescorroborates
our noveltyyenilik hypothesishipotez.
117
382347
3786
Sürpriz, yenilik hipotezine uyuyor.
06:38
This is newyeni and surprisingşaşırtıcı,
and so we're more likelymuhtemelen to sharepay it.
118
386157
4609
Bu, yeni ve şaşırtıcı, dolayısıyla onu
paylaşma ihtimalimiz daha yüksek.
06:43
At the sameaynı time,
there was congressionalKongre testimonytanıklık
119
391092
2925
Aynı zamanda ABD Kongre ve Senatosu'nda
06:46
in frontön of bothher ikisi de housesevler of CongressKongre
in the UnitedAmerika StatesBirleşik,
120
394041
3036
yanlış bilgilerin yayılmasında
botların rolüne dair
06:49
looking at the rolerol of botsbotlar
in the spreadYAYILMIŞ of misinformationyanlış bilgilendirme.
121
397101
3738
ifadeler verildi.
06:52
So we lookedbaktı at this too --
122
400863
1354
Biz de buna da baktık.
06:54
we used multipleçoklu sophisticatedsofistike
bot-detectionbot algılama algorithmsalgoritmalar
123
402241
3598
Gelişmiş bot tespit
algoritmaları kullanarak
06:57
to find the botsbotlar in our dataveri
and to pullÇek them out.
124
405863
3074
verilerimizdeki botları bulup çıkardık.
07:01
So we pulledçekti them out,
we put them back in
125
409347
2659
Onları çıkardık, geri koyduk
07:04
and we comparedkarşılaştırıldığında what happensolur
to our measurementÖlçüm.
126
412030
3119
ve ölçümlerimize ne olduğuna baktık.
07:07
And what we foundbulunan was that, yes indeedaslında,
127
415173
2293
Şunu bulduk, evet, gerçekten de botlar
07:09
botsbotlar were acceleratinghızlanan
the spreadYAYILMIŞ of falseyanlış newshaber onlineinternet üzerinden,
128
417490
3682
internette yalan haberlerin
yayılmasını hızlandırıyordu
07:13
but they were acceleratinghızlanan
the spreadYAYILMIŞ of truedoğru newshaber
129
421196
2651
ama doğruların yayılmasını da
07:15
at approximatelyyaklaşık olarak the sameaynı rateoran.
130
423871
2405
aynı ölçüde hızlandırıyorlardı.
07:18
WhichHangi meansanlamına geliyor botsbotlar are not responsiblesorumluluk sahibi
131
426300
2858
Yani gerçeklerin ve yalanların
07:21
for the differentialdiferansiyel diffusionyayılma
of truthhakikat and falsitysahtekarlık onlineinternet üzerinden.
132
429182
4713
yayılışındaki farklılıkların
sorumlusu botlar değil.
07:25
We can't abdicateferagat that responsibilitysorumluluk,
133
433919
2849
Bu sorumluluğu başkasına atamayız
07:28
because we, humansinsanlar,
are responsiblesorumluluk sahibi for that spreadYAYILMIŞ.
134
436792
4259
çünkü o yayılmanın sorumlusu
biz insanlarız.
07:34
Now, everything
that I have told you so faruzak,
135
442472
3334
Şimdiye kadar anlattıklarım
07:37
unfortunatelyne yazık ki for all of us,
136
445830
1754
ne yazık ki
07:39
is the good newshaber.
137
447608
1261
işin iyi yanıydı.
07:42
The reasonneden is because
it's about to get a wholebütün lot worsedaha da kötüsü.
138
450670
4450
Bunun sebebi daha da kötüye
gidecek olması.
07:47
And two specificözel technologiesteknolojiler
are going to make it worsedaha da kötüsü.
139
455850
3682
Bunu kötüleştirecek
iki belli başlı teknoloji var.
07:52
We are going to see the riseyükselmek
of a tremendousmuazzam wavedalga of syntheticsentetik mediamedya.
140
460207
5172
Sentetik medya dalgasında
ciddi bir artış göreceğiz.
07:57
FakeSahte videovideo, fakesahte audioses
that is very convincinginandırıcı to the humaninsan eyegöz.
141
465403
6031
Dışarıdan bakıldığında ikna edici görünen
sahte video, sahte seslendirme.
08:03
And this will poweredenerjili by two technologiesteknolojiler.
142
471458
2754
Ve iki teknoloji bunu besleyecek.
08:06
The first of these is knownbilinen
as "generativeüretken adversarialdüşmanca networksağlar."
143
474236
3833
İlki "üretken çekişmeli ağlar"
olarak biliniyor.
08:10
This is a machine-learningMakine öğrenimi modelmodel
with two networksağlar:
144
478093
2563
Bu, iki ağlı bir makine öğrenimi modeli:
08:12
a discriminatorDiscriminator,
145
480680
1547
Bir şeyin gerçek mi sahte mi
08:14
whosekimin job it is to determinebelirlemek
whetherolup olmadığını something is truedoğru or falseyanlış,
146
482251
4200
olduğunu belirlemekle görevli
bir ayrıştırıcı
08:18
and a generatorjeneratör,
147
486475
1167
ve sentetik medya
08:19
whosekimin job it is to generateüretmek
syntheticsentetik mediamedya.
148
487666
3150
üretmekle yükümlü üretici.
08:22
So the syntheticsentetik generatorjeneratör
generatesüretir syntheticsentetik videovideo or audioses,
149
490840
5102
Sentetik üretici,
sentetik video veya sesi üretir
08:27
and the discriminatorDiscriminator triesçalışır to tell,
"Is this realgerçek or is this fakesahte?"
150
495966
4675
ve ayrıştırıcı şunu belirlemeyi dener:
"Bu sahte mi, gerçek mi?"
08:32
And in factgerçek, it is the job
of the generatorjeneratör
151
500665
2874
Aslında üreticinin işi
08:35
to maximizeen üst düzeye çıkarmak the likelihoodolasılık
that it will foolaptal the discriminatorDiscriminator
152
503563
4435
yarattığı sentetik video ve sesin
ayrıştıcı tarafından
08:40
into thinkingdüşünme the syntheticsentetik
videovideo and audioses that it is creatingoluşturma
153
508022
3587
gerçek sanılması ihtimalini
08:43
is actuallyaslında truedoğru.
154
511633
1730
artırmaktır.
08:45
ImagineHayal a machinemakine in a hyperloophyperloop,
155
513387
2373
Bizi kandırmakta ustalaşmaya çalışan,
08:47
tryingçalışıyor to get better
and better at foolingahmaklık us.
156
515784
2803
döngüye takılmış bir makine hayal edin.
08:51
This, combinedkombine with the secondikinci technologyteknoloji,
157
519114
2500
Bu, ikinci teknolojiyle,
08:53
whichhangi is essentiallyesasen the democratizationdemokratikleşme
of artificialyapay intelligencezeka to the people,
158
521638
5722
yapay zekânın demokratikleştirilmesiyle,
yani makine öğrenimi
08:59
the abilitykabiliyet for anyonekimse,
159
527384
2189
veya yapay zekâ konusunda
09:01
withoutolmadan any backgroundarka fon
in artificialyapay intelligencezeka
160
529597
2830
herhangi bir eğitimi olmayan
kişilerin bile
09:04
or machinemakine learningöğrenme,
161
532451
1182
sentetik medya üretmek için
09:05
to deploydağıtmak these kindsçeşit of algorithmsalgoritmalar
to generateüretmek syntheticsentetik mediamedya
162
533657
4103
bu tür algoritmaları
kullanabilmesiyle birleşince
09:09
makesmarkaları it ultimatelyen sonunda so much easierDaha kolay
to createyaratmak videosvideolar.
163
537784
4547
videoların yaratılması
fazlasıyla kolaylaşıyor.
09:14
The WhiteBeyaz HouseEv issuedVeriliş
a falseyanlış, doctoredDoctored videovideo
164
542355
4421
Beyaz Saray bir gazetecinin
mikrofonunu almaya çalışan stajyerle
09:18
of a journalistgazeteci interactingetkileşim with an internStajyer
who was tryingçalışıyor to take his microphonemikrofon.
165
546800
4288
etkileşimini gösteren sahte,
üstünde oynanmış bir video yayınladı.
09:23
They removedçıkarıldı framesçerçeveler from this videovideo
166
551427
1999
Eylemlerini daha dramatik kılmak için
09:25
in ordersipariş to make his actionseylemler
seemgörünmek more punchyPunchy.
167
553450
3287
bu videodan bazı kareleri çıkardılar.
09:29
And when videographerskameramanlar
and stuntmendublör and womenkadınlar
168
557157
3385
Bu teknik konusunda
09:32
were interviewedgörüşülen
about this typetip of techniqueteknik,
169
560566
2427
videograflar ve dublörlerle görüşüldüğünde
09:35
they said, "Yes, we use this
in the moviesfilmler all the time
170
563017
3828
"Evet, yumruklarımız ve tekmelerimiz
daha etkileyici ve saldırgan görünsün diye
09:38
to make our punchesyumruklar and kicksKicks
look more choppydalgalı and more aggressiveagresif."
171
566869
4763
filmlerde bunu hep kullanırız." dediler.
09:44
They then put out this videovideo
172
572268
1867
Sonra bu videoyu yayınladılar
09:46
and partlykısmen used it as justificationiki yana yaslama
173
574159
2500
ve bahsi geçen gazeteci olan
Jim Acosta'nın,
09:48
to revokeiptal JimJim AcostaAkın,
the reporter'smuhabirin, pressbasın passpas
174
576683
3999
Beyaz Saray basın kartını
09:52
from the WhiteBeyaz HouseEv.
175
580706
1339
iptal etmekte kullandılar.
09:54
And CNNCNN had to suedava
to have that pressbasın passpas reinstatedeski haline getirildi.
176
582069
4809
Basın kartının yeniden çıkarılması için
CNN dava açmak zorunda kaldı.
10:00
There are about fivebeş differentfarklı pathsyolları
that I can think of that we can followtakip et
177
588538
5603
Bugün bu son derece zor
sorunları çözmek için
10:06
to try and addressadres some
of these very difficultzor problemssorunlar todaybugün.
178
594165
3739
izleyebileceğimiz beş yol aklıma geliyor.
10:10
EachHer one of them has promisesöz vermek,
179
598379
1810
Hepsinin potansiyeli var
10:12
but eachher one of them
has its ownkendi challengeszorluklar.
180
600213
2999
ama kendilerine göre zorlukları da var.
10:15
The first one is labelingetiketleme.
181
603236
2008
İlki etiketleme.
10:17
Think about it this way:
182
605268
1357
Bunu şöyle düşünün:
10:18
when you go to the groceryBakkal storemağaza
to buysatın almak foodGıda to consumetüketmek,
183
606649
3611
Yiyecek almak için markete gittiğinizde
10:22
it's extensivelyyaygın olarak labeledetiketli.
184
610284
1904
hepsi detaylı şekilde etiketlenmiş.
10:24
You know how manyçok calorieskalori it has,
185
612212
1992
Kaç kalorisi olduğunu,
10:26
how much fatşişman it containsiçeren --
186
614228
1801
ne kadar yağ içerdiğini biliyorsunuz
10:28
and yethenüz when we consumetüketmek informationbilgi,
we have no labelsetiketleri whatsoeverher ne.
187
616053
4278
ama tükettiğimiz bilgilerin
hiçbir etiketi yok.
10:32
What is containediçeriyordu in this informationbilgi?
188
620355
1928
Bu bilgi neleri kapsıyor?
10:34
Is the sourcekaynak credibleinandırıcı?
189
622307
1453
Kaynağı güvenilir mi?
10:35
Where is this informationbilgi gatheredtoplanmış from?
190
623784
2317
Bilgi nereden toplanmış?
10:38
We have noneYok of that informationbilgi
191
626125
1825
Bilgileri tüketirken
10:39
when we are consumingtüketen informationbilgi.
192
627974
2103
bu bilgiler bize verilmiyor.
10:42
That is a potentialpotansiyel avenuecadde,
but it comesgeliyor with its challengeszorluklar.
193
630101
3238
Bu izlenebilecek bir yol
ama kendine özgü sorunları var.
10:45
For instanceörnek, who getsalır to decidekarar ver,
in societytoplum, what's truedoğru and what's falseyanlış?
194
633363
6451
Mesela bir toplumda neyin doğru
neyin yanlış olduğuna kim karar verir?
10:52
Is it the governmentshükümetler?
195
640387
1642
Hükûmet mi?
10:54
Is it FacebookFacebook?
196
642053
1150
Facebook mu?
10:55
Is it an independentbağımsız
consortiumKonsorsiyum of fact-checkersdurum denetleyicileri?
197
643601
3762
Bilgileri kontrol eden
bağımsız bir kurul mu?
10:59
And who'skim checkingkontrol etme the fact-checkersdurum denetleyicileri?
198
647387
2466
Peki onları kim kontrol edecek?
11:02
AnotherBaşka bir potentialpotansiyel avenuecadde is incentivesteşvikler.
199
650427
3084
Bir diğer yol, teşvik.
11:05
We know that duringsırasında
the US presidentialCumhurbaşkanlığı electionseçim
200
653535
2634
ABD başkanlık seçimi sırasında
11:08
there was a wavedalga of misinformationyanlış bilgilendirme
that camegeldi from MacedoniaMakedonya
201
656193
3690
Makedonya'dan bir yanlış bilgi dalgası
geldiğini biliyoruz.
11:11
that didn't have any politicalsiyasi motivegüdü
202
659907
2337
Amaçları siyasi değil,
11:14
but insteadyerine had an economicekonomik motivegüdü.
203
662268
2460
ekonomikti.
11:16
And this economicekonomik motivegüdü existedvar,
204
664752
2148
Bu ekonomik amaç, var olabilmesini
11:18
because falseyanlış newshaber travelsNow
so much fartherdaha uzağa, fasterDaha hızlı
205
666924
3524
yalan haberin,
doğrulardan çok daha hızlı,
11:22
and more deeplyderinden than the truthhakikat,
206
670472
2010
çok daha derinlere yayılmasına borçlu
11:24
and you can earnkazanmak advertisingreklâm dollarsdolar
as you garnerGarner eyeballsgözbebekleri and attentionDikkat
207
672506
4960
ve bu tür bilgilerle
insanların ilgisini çekerek
11:29
with this typetip of informationbilgi.
208
677490
1960
reklam geliri elde edebilirsiniz.
11:31
But if we can depressBunalıma girmek the spreadYAYILMIŞ
of this informationbilgi,
209
679474
3833
Ama bu bilginin yayılmasını baskılarsak
11:35
perhapsbelki it would reduceazaltmak
the economicekonomik incentiveözendirici
210
683331
2897
belki de daha baştan
yaratılmasına sebep olan
11:38
to produceüretmek it at all in the first placeyer.
211
686252
2690
ekonomik teşvikleri de azaltırız.
11:40
ThirdÜçüncü, we can think about regulationdüzenleme,
212
688966
2500
Üçüncüsü, denetim.
11:43
and certainlykesinlikle, we should think
about this optionseçenek.
213
691490
2325
Bu seçeneği düşünmemiz gerektiği kesin.
11:45
In the UnitedAmerika StatesBirleşik, currentlyşu anda,
214
693839
1611
Şu anda ABD'de
11:47
we are exploringkeşfetmek what mightbelki happenolmak
if FacebookFacebook and othersdiğerleri are regulatedDüzenlenmiş.
215
695474
4848
Facebook ve benzerleri denetim altına
alınsa ne olacağını araştırıyoruz.
11:52
While we should considerdüşünmek things
like regulatingdüzenleyen politicalsiyasi speechkonuşma,
216
700346
3801
Siyasi söylemleri denetlemeyi,
onları siyasi söylem olarak etiketlemeyi,
11:56
labelingetiketleme the factgerçek
that it's politicalsiyasi speechkonuşma,
217
704171
2508
dış mihrakların siyasi söylemleri
finanse etmesini
11:58
makingyapma sure foreignyabancı actorsaktörler
can't fundfon, sermaye politicalsiyasi speechkonuşma,
218
706703
3819
engellemeyi göz önünde
bulundurmamız gerekse de
12:02
it alsoAyrıca has its ownkendi dangerstehlikeleri.
219
710546
2547
bunların da kendince tehlikeleri var.
12:05
For instanceörnek, MalaysiaMalezya just instituteduyguladı
a six-yearaltı yıl prisonhapis sentencecümle
220
713522
4878
Mesela Malezya yalan bilgi yaydığı
tespit edilenlere
12:10
for anyonekimse foundbulunan spreadingyayma misinformationyanlış bilgilendirme.
221
718424
2734
altı yıl hapis cezası getirdi.
12:13
And in authoritarianotoriter regimesrejimler,
222
721696
2079
Otoriter rejimlerde
12:15
these kindsçeşit of policiespolitikaları can be used
to suppressbastırmak minorityazınlık opinionsgörüşler
223
723799
4666
bu tür düzenlemeler
azınlık görüşlerini bastırmak
12:20
and to continuedevam et to extenduzatmak repressionbaskı.
224
728489
3508
ve baskının kapsamını genişletmek
amacıyla kullanılabilir.
12:24
The fourthdördüncü possiblemümkün optionseçenek
is transparencyşeffaflık.
225
732680
3543
Dördüncü olasılık, şeffaflık.
12:28
We want to know
how do Facebook'sFacebook'un algorithmsalgoritmalar work.
226
736843
3714
Facebook'un algoritmalarının
nasıl çalıştığını bilmek istiyoruz.
12:32
How does the dataveri
combinebirleştirmek with the algorithmsalgoritmalar
227
740581
2880
Algoritmalarla birleşen veriler
12:35
to produceüretmek the outcomesçıktıları that we see?
228
743485
2838
nasıl oluyor da
gördüğümüz sonuçları doğuruyor?
12:38
We want them to openaçık the kimonokimono
229
746347
2349
Kapıyı açmalarını
12:40
and showgöstermek us exactlykesinlikle the inner workingskazı
of how FacebookFacebook is workingçalışma.
230
748720
4214
ve Facebook'un nasıl işlediğini
göstermelerini istiyoruz.
12:44
And if we want to know
socialsosyal media'smedyanın effectEfekt on societytoplum,
231
752958
2779
Sosyal medyanın toplumdaki
etkilerini öğrenmek istiyorsak
12:47
we need scientistsBilim adamları, researchersaraştırmacılar
232
755761
2086
bilim insanları, araştırmacılar
12:49
and othersdiğerleri to have accesserişim
to this kindtür of informationbilgi.
233
757871
3143
ve benzerlerinin bu tür bilgilere
erişmesine ihtiyacımız var.
12:53
But at the sameaynı time,
234
761038
1547
Ama aynı zamanda
12:54
we are askingsormak FacebookFacebook
to lockkilitlemek everything down,
235
762609
3801
Facebook'tan her şeyi kilitlemesini,
12:58
to keep all of the dataveri securegüvenli.
236
766434
2173
tüm verileri güvende tutmasını istiyoruz.
13:00
So, FacebookFacebook and the other
socialsosyal mediamedya platformsplatformlar
237
768631
3159
Bu yüzden Facebook
ve diğer sosyal medya platformları
13:03
are facingkarşı what I call
a transparencyşeffaflık paradoxparadoks.
238
771814
3134
şeffaflık paradoksu dediğim şeyle
karşı karşıya.
13:07
We are askingsormak them, at the sameaynı time,
239
775266
2674
Onlardan hem açık ve şeffaf olmalarını
13:09
to be openaçık and transparentşeffaf
and, simultaneouslyeşzamanlı securegüvenli.
240
777964
4809
hem de güvenli olmalarını istiyoruz.
13:14
This is a very difficultzor needleiğne to threadiplik,
241
782797
2691
Bu, zor bir görev
13:17
but they will need to threadiplik this needleiğne
242
785512
1913
ama sosyal teknolojilerin
potansiyelini değerlendirip
13:19
if we are to achievebaşarmak the promisesöz vermek
of socialsosyal technologiesteknolojiler
243
787449
3787
tehlikelerinden kaçınacaksak
13:23
while avoidingkaçınma theironların periltehlike.
244
791260
1642
bu görevi başarmalılar.
13:24
The finalnihai thing that we could think about
is algorithmsalgoritmalar and machinemakine learningöğrenme.
245
792926
4691
Düşünmemiz gereken son konu,
algoritmalar ve makine öğrenimi.
13:29
TechnologyTeknoloji devisedtasarladı to rootkök out
and understandanlama fakesahte newshaber, how it spreadsyayılır,
246
797641
5277
Yalan haberlerin köküne inip
onları, nasıl yayıldıklarını anlamamızı,
13:34
and to try and dampennemlendirin its flowakış.
247
802942
2331
akışı yavaşlatmamızı
sağlayacak teknolojiler.
13:37
Humansİnsanlar have to be in the loopdöngü
of this technologyteknoloji,
248
805824
2897
İnsanlar bu teknolojiden haberdar olmalı
13:40
because we can never escapekaçış
249
808745
2278
çünkü her teknolojik çözümün
13:43
that underlyingtemel any technologicalteknolojik
solutionçözüm or approachyaklaşım
250
811047
4038
veya yaklaşımın temelinde,
doğruyu ve yalanı nasıl tanımlıyoruz,
13:47
is a fundamentaltemel ethicalahlâki
and philosophicalfelsefi questionsoru
251
815109
4047
doğrunun ve yalanın ne olduğunu
13:51
about how do we definetanımlamak truthhakikat and falsitysahtekarlık,
252
819180
3270
tanımlama gücünü kime veriyoruz,
13:54
to whomkime do we give the powergüç
to definetanımlamak truthhakikat and falsitysahtekarlık
253
822474
3180
hangi görüş doğru,
hangi söylemlere izin verilmeli gibi
13:57
and whichhangi opinionsgörüşler are legitimatemeşru,
254
825678
2460
ahlaki ve felsefi soruların
14:00
whichhangi typetip of speechkonuşma
should be allowedizin and so on.
255
828162
3706
yattığı gerçeğinden asla kaçamayız.
14:03
TechnologyTeknoloji is not a solutionçözüm for that.
256
831892
2328
Bunun çözümü teknoloji değil.
14:06
EthicsEtik and philosophyFelsefe
is a solutionçözüm for that.
257
834244
3698
Bunun çözümü ahlak ve felsefe.
14:10
NearlyNeredeyse everyher theoryteori
of humaninsan decisionkarar makingyapma,
258
838950
3318
İnsanların karar vermesi, iş birliği
14:14
humaninsan cooperationişbirliği and humaninsan coordinationKoordinasyon
259
842292
2761
ve koordinasyonu hakkındaki
tüm teorilerin özünde
14:17
has some senseduyu of the truthhakikat at its coreçekirdek.
260
845077
3674
bir tür gerçek anlayışı yatar.
14:21
But with the riseyükselmek of fakesahte newshaber,
261
849347
2056
Ama yalan haberlerin,
14:23
the riseyükselmek of fakesahte videovideo,
262
851427
1443
sahte videoların,
14:24
the riseyükselmek of fakesahte audioses,
263
852894
1882
sahte seslendirmelerin artışıyla
14:26
we are teeteringteetering on the brinkkenar
of the endson of realitygerçeklik,
264
854800
3924
gerçeğin kıyısındaki bir noktaya geldik,
14:30
where we cannotyapamam tell
what is realgerçek from what is fakesahte.
265
858748
3889
neyin gerçek neyin yalan olduğunu
ayırt edemiyoruz
14:34
And that's potentiallypotansiyel
incrediblyinanılmaz dangeroustehlikeli.
266
862661
3039
ve bu, çok tehlikeli olabilir.
14:38
We have to be vigilantuyanık
in defendingsavunmak the truthhakikat
267
866931
3948
Yanlış bilgilendirmeye karşı
gerçekleri savunmak adına
14:42
againstkarşısında misinformationyanlış bilgilendirme.
268
870903
1534
tetikte olmalıyız.
14:44
With our technologiesteknolojiler, with our policiespolitikaları
269
872919
3436
Teknolojilerimiz, politikalarımız
14:48
and, perhapsbelki mostçoğu importantlyönemlisi,
270
876379
1920
ve belki de en önemlisi
14:50
with our ownkendi individualbireysel responsibilitiessorumluluklar,
271
878323
3214
bireysel sorumluluklarımızla,
14:53
decisionskararlar, behaviorsdavranışlar and actionseylemler.
272
881561
3555
kararlarımız, davranışlarımız
ve eylemlerimizle.
14:57
Thank you very much.
273
885553
1437
Çok teşekkürler.
14:59
(ApplauseAlkış)
274
887014
3517
(Alkışlar)
Translated by Sirvan Boyraz
Reviewed by Nevaz Mescioğlu

▲Back to top