TEDxCERN
Sinan Aral: How we can protect truth in the age of misinformation
Sinan Aral: Yanlış bilgilendirme çağında gerçeği nasıl koruyabiliriz
Filmed:
Readability: 5.3
1,289,169 views
Yalan haberler seçimlerin yönünü değiştirebilir, ekonomileri baltalayabilir ve gündelik hayata nifak tohumları ekebilir. Veri bilimcisi Sinan Aral, dezenformasyon konusundaki en geniş kapsamlı araştırmalardan biri üzerinden yalan haberlerin nasıl ve neden bu kadar hızlı yayıldığını açıklıyor ve gerçeklerle yalanları birbirinden ayırmamızı sağlayacak beş strateji saptıyor.
Double-click the English transcript below to play the video.
00:13
So, on April 23 of 2013,
0
1468
5222
23 Nisan 2013'te
00:18
the Associated Press
put out the following tweet on Twitter.
put out the following tweet on Twitter.
1
6714
5514
Associated Press, Twitter'da
şöyle bir tweet attı.
şöyle bir tweet attı.
00:24
It said, "Breaking news:
2
12252
2397
"Flaş haber:
00:26
Two explosions at the White House
3
14673
2571
Beyaz Saray'da iki patlama.
00:29
and Barack Obama has been injured."
4
17268
2333
Barack Obama yaralandı."
00:32
This tweet was retweeted 4,000 times
in less than five minutes,
in less than five minutes,
5
20212
5425
Bu tweet beş dakikadan kısa sürede
4000 kere paylaşıldı
4000 kere paylaşıldı
00:37
and it went viral thereafter.
6
25661
2217
ve sonrasında viral oldu.
00:40
Now, this tweet wasn't real news
put out by the Associated Press.
put out by the Associated Press.
7
28760
4350
Bu tweet, Associated Press tarafından
paylaşılan gerçek bir haber değildi.
paylaşılan gerçek bir haber değildi.
00:45
In fact it was false news, or fake news,
8
33134
3333
Aslında sahte veya yalan bir haberdi.
00:48
that was propagated by Syrian hackers
9
36491
2825
Associated Press'in
Twitter hesabını ele geçiren
Twitter hesabını ele geçiren
00:51
that had infiltrated
the Associated Press Twitter handle.
the Associated Press Twitter handle.
10
39340
4694
Suriyeli bilgisayar korsanlarınca
paylaşılmıştı.
paylaşılmıştı.
00:56
Their purpose was to disrupt society,
but they disrupted much more.
but they disrupted much more.
11
44407
3889
Amaçları toplumda kargaşa çıkarmaktı
ama çok daha fazlasını yaptılar.
ama çok daha fazlasını yaptılar.
01:00
Because automated trading algorithms
12
48320
2476
Çünkü otomatik borsa algoritmaları
01:02
immediately seized
on the sentiment on this tweet,
on the sentiment on this tweet,
13
50820
3360
bu tweet'teki hissiyatı hemen yakaladı
01:06
and began trading based on the potential
14
54204
2968
ve ABD Başkanı'nın bu patlamada
01:09
that the president of the United States
had been injured or killed
had been injured or killed
15
57196
3381
yaralanmış veya öldürülmüş olması
ihtimaline göre alım satım
ihtimaline göre alım satım
01:12
in this explosion.
16
60601
1200
yapmaya başladı.
01:14
And as they started tweeting,
17
62188
1992
Tweet atmaya başladıklarında
01:16
they immediately sent
the stock market crashing,
the stock market crashing,
18
64204
3349
borsayı çöküşe soktular,
01:19
wiping out 140 billion dollars
in equity value in a single day.
in equity value in a single day.
19
67577
5167
bir günde 140 milyar dolarlık
değer kaybına yol açtılar.
değer kaybına yol açtılar.
01:25
Robert Mueller, special counsel
prosecutor in the United States,
prosecutor in the United States,
20
73062
4476
Özel yetkili ABD savcısı Robert Mueller
01:29
issued indictments
against three Russian companies
against three Russian companies
21
77562
3892
üç Rus şirketine ve 13 Rus bireye karşı
01:33
and 13 Russian individuals
22
81478
2619
2016 başkanlık seçimine müdahale ederek
01:36
on a conspiracy to defraud
the United States
the United States
23
84121
3167
ABD'yi dolandırmak amacıyla
01:39
by meddling in the 2016
presidential election.
presidential election.
24
87312
3780
komplo kurmaktan dava açtı.
01:43
And what this indictment tells as a story
25
91855
3564
Bu iddianamenin hikâyesi,
01:47
is the story of the Internet
Research Agency,
Research Agency,
26
95443
3142
Kremlin'in sosyal medyadaki
gizli kolu olan
gizli kolu olan
01:50
the shadowy arm of the Kremlin
on social media.
on social media.
27
98609
3594
Internet Research Agency'nin hikâyesidir.
01:54
During the presidential election alone,
28
102815
2777
Sırf başkanlık seçimlerinde
01:57
the Internet Agency's efforts
29
105616
1889
Internet Agency'nin çabaları
01:59
reached 126 million people
on Facebook in the United States,
on Facebook in the United States,
30
107529
5167
ABD'de Facebook üzerinden
126 milyon kişiye ulaştı,
126 milyon kişiye ulaştı,
02:04
issued three million individual tweets
31
112720
3277
üç milyon tekil tweet attı
02:08
and 43 hours' worth of YouTube content.
32
116021
3842
ve 43 saatlik YouTube içeriği yayınladı.
02:11
All of which was fake --
33
119887
1652
Bunların hepsi sahteydi.
02:13
misinformation designed to sow discord
in the US presidential election.
in the US presidential election.
34
121563
6323
ABD başkanlık seçimlerine şüphe tohumları
ekme amaçlı yanlış bilgilendirmelerdi.
ekme amaçlı yanlış bilgilendirmelerdi.
02:20
A recent study by Oxford University
35
128996
2650
Oxford Üniversitesi'nin
yakın tarihli bir araştırması
yakın tarihli bir araştırması
02:23
showed that in the recent
Swedish elections,
Swedish elections,
36
131670
3270
geçtiğimiz İsveç seçimlerinde
02:26
one third of all of the information
spreading on social media
spreading on social media
37
134964
4375
sosyal medyada yayınlanan
seçimle ilgili bilgilerin
seçimle ilgili bilgilerin
02:31
about the election
38
139363
1198
üçte birinin
02:32
was fake or misinformation.
39
140585
2087
yalan veya sahte olduğunu
ortaya koydu.
ortaya koydu.
02:35
In addition, these types
of social-media misinformation campaigns
of social-media misinformation campaigns
40
143037
5078
Ek olarak, yanlış bilgilendirme amaçlı
bu tür sosyal medya kampanyaları
bu tür sosyal medya kampanyaları
02:40
can spread what has been called
"genocidal propaganda,"
"genocidal propaganda,"
41
148139
4151
Burma'da Rohingya'ya karşı yürütülen
02:44
for instance against
the Rohingya in Burma,
the Rohingya in Burma,
42
152314
3111
veya Hindistan'da linçlere yol açan
"soykırımcı propaganda"ların
"soykırımcı propaganda"ların
02:47
triggering mob killings in India.
43
155449
2303
yayılmasına yol açabilir.
02:49
We studied fake news
44
157776
1494
Biz yalan haberleri araştırdık
02:51
and began studying it
before it was a popular term.
before it was a popular term.
45
159294
3219
ve onları araştırmaya bu terim
popüler olmadan önce başladık.
popüler olmadan önce başladık.
02:55
And we recently published
the largest-ever longitudinal study
the largest-ever longitudinal study
46
163030
5040
Bu yıl Mart ayında,
"Science" dergisinin kapağında
"Science" dergisinin kapağında
internette yayılan sahte haberleri
konu alan en geniş kapsamlı
konu alan en geniş kapsamlı
03:00
of the spread of fake news online
47
168094
2286
03:02
on the cover of "Science"
in March of this year.
in March of this year.
48
170404
3204
panel araştırmasını yayımladık.
03:06
We studied all of the verified
true and false news stories
true and false news stories
49
174523
4161
2006'daki kuruluşundan 2017'ye kadar
Twitter'da yayılan
Twitter'da yayılan
03:10
that ever spread on Twitter,
50
178708
1753
doğru veya yalan olduğu ispatlanmış
03:12
from its inception in 2006 to 2017.
51
180485
3818
tüm haberleri inceledik.
03:16
And when we studied this information,
52
184612
2314
Bu bilgileri ele alırken
03:18
we studied verified news stories
53
186950
2876
bilgi kontrolü yapan
altı bağımsız kuruluşun
altı bağımsız kuruluşun
03:21
that were verified by six
independent fact-checking organizations.
independent fact-checking organizations.
54
189850
3918
doğruladığı haberleri inceledik.
03:25
So we knew which stories were true
55
193792
2762
Yani hangilerinin doğru,
03:28
and which stories were false.
56
196578
2126
hangilerinin sahte olduğunu biliyorduk.
03:30
We can measure their diffusion,
57
198728
1873
Yayılışlarını ölçebiliyoruz,
03:32
the speed of their diffusion,
58
200625
1651
yayılışlarının hızını, derinliğini
03:34
the depth and breadth of their diffusion,
59
202300
2095
ve kapsamını ölçebiliyoruz,
03:36
how many people become entangled
in this information cascade and so on.
in this information cascade and so on.
60
204419
4142
kaç kişinin bu bilgi yağmuruna
kapıldığını da.
kapıldığını da.
03:40
And what we did in this paper
61
208942
1484
Bu araştırmada yaptığımız,
03:42
was we compared the spread of true news
to the spread of false news.
to the spread of false news.
62
210450
3865
gerçek haberlerin yayılışıyla
yalan haberlerin yayılışını kıyaslamaktı.
yalan haberlerin yayılışını kıyaslamaktı.
03:46
And here's what we found.
63
214339
1683
Bulduklarımız şunlar:
03:48
We found that false news
diffused further, faster, deeper
diffused further, faster, deeper
64
216046
3979
Yalan haberlerin araştırdığımız
her haber kategorisinde
her haber kategorisinde
03:52
and more broadly than the truth
65
220049
1806
doğru haberlerden
03:53
in every category of information
that we studied,
that we studied,
66
221879
3003
kimi zaman birkaç kat
daha uzağa, daha hızlı,
daha uzağa, daha hızlı,
03:56
sometimes by an order of magnitude.
67
224906
2499
daha geniş kapsamlı
yayıldığını tespit ettik.
yayıldığını tespit ettik.
03:59
And in fact, false political news
was the most viral.
was the most viral.
68
227842
3524
Siyasi yalan haberler en viral olanlardı.
04:03
It diffused further, faster,
deeper and more broadly
deeper and more broadly
69
231390
3147
Diğer tür yalan haber türlerinden
daha uzağa, daha derine
daha uzağa, daha derine
04:06
than any other type of false news.
70
234561
2802
ve daha geniş kitlelere yayılıyorlardı.
04:09
When we saw this,
71
237387
1293
Bunu gördüğümüzde
04:10
we were at once worried but also curious.
72
238704
2841
hem endişelendik hem meraklandık.
04:13
Why?
73
241569
1151
Neden?
04:14
Why does false news travel
so much further, faster, deeper
so much further, faster, deeper
74
242744
3373
Neden yalan haberler, gerçeklerden
daha uzağa, daha hızlı,
daha uzağa, daha hızlı,
04:18
and more broadly than the truth?
75
246141
1864
daha geniş çaplı yayılıyor?
04:20
The first hypothesis
that we came up with was,
that we came up with was,
76
248339
2961
İlk hipotezimiz
04:23
"Well, maybe people who spread false news
have more followers or follow more people,
have more followers or follow more people,
77
251324
4792
"Belki yalan haberleri yayanların
takipçisi, takip ettikleri daha çok,
takipçisi, takip ettikleri daha çok,
04:28
or tweet more often,
78
256140
1557
daha çok tweet atıyorlar,
04:29
or maybe they're more often 'verified'
users of Twitter, with more credibility,
users of Twitter, with more credibility,
79
257721
4126
geneli "doğrulanmış" Twitter kullanıcıları
04:33
or maybe they've been on Twitter longer."
80
261871
2182
veya daha uzun süredir Twitter'dalar.
04:36
So we checked each one of these in turn.
81
264077
2298
Sırayla bunların hepsine baktık.
04:38
And what we found
was exactly the opposite.
was exactly the opposite.
82
266691
2920
Tam tersini bulduk.
04:41
False-news spreaders had fewer followers,
83
269635
2436
Yalan haberleri yayanların
takipçileri daha azdı,
takipçileri daha azdı,
04:44
followed fewer people, were less active,
84
272095
2254
daha az kişiyi takip ediyorlardı,
daha az aktif,
daha az aktif,
ender olarak "doğrulanmış"tılar.
04:46
less often "verified"
85
274373
1460
04:47
and had been on Twitter
for a shorter period of time.
for a shorter period of time.
86
275857
2960
Daha kısa süredir Twitter'daydılar.
04:50
And yet,
87
278841
1189
Yine de
04:52
false news was 70 percent more likely
to be retweeted than the truth,
to be retweeted than the truth,
88
280054
5033
bunlar ve başka faktörler dâhilinde
yalan haberin tekrar tweetlenmesi ihtimali
yalan haberin tekrar tweetlenmesi ihtimali
04:57
controlling for all of these
and many other factors.
and many other factors.
89
285111
3363
yüzde 70 daha fazlaydı.
05:00
So we had to come up
with other explanations.
with other explanations.
90
288498
2690
Öyleyse başka açıklamalar bulmalıydık.
05:03
And we devised what we called
a "novelty hypothesis."
a "novelty hypothesis."
91
291212
3467
"Yenilik hipotezi" diye
bir şey geliştirdik.
bir şey geliştirdik.
05:07
So if you read the literature,
92
295038
1960
Araştırmalara bakarsanız
05:09
it is well known that human attention
is drawn to novelty,
is drawn to novelty,
93
297022
3754
insanın dikkatinin yeni şeylere,
çevrede yeni olan şeylere
çevrede yeni olan şeylere
05:12
things that are new in the environment.
94
300800
2519
kaydığı iyi bilinir.
05:15
And if you read the sociology literature,
95
303343
1985
Sosyoloji külliyatına bakarsanız
05:17
you know that we like to share
novel information.
novel information.
96
305352
4300
yeni bilgileri paylaşmayı
sevdiğimizi görürsünüz.
sevdiğimizi görürsünüz.
05:21
It makes us seem like we have access
to inside information,
to inside information,
97
309676
3838
Gizli bir bilgiye
erişimimiz varmış gibi hissettirir
erişimimiz varmış gibi hissettirir
05:25
and we gain in status
by spreading this kind of information.
by spreading this kind of information.
98
313538
3785
ve bu tür bilgileri yayarak
statü kazanırız.
statü kazanırız.
05:29
So what we did was we measured the novelty
of an incoming true or false tweet,
of an incoming true or false tweet,
99
317792
6452
Gelen doğru veya yalan bir tweet'in
o bireyin önceki 60 günde
o bireyin önceki 60 günde
05:36
compared to the corpus
of what that individual had seen
of what that individual had seen
100
324268
4055
Twitter'da gördüklerine kıyasla
ne kadar yeni bir bilgi
ne kadar yeni bir bilgi
05:40
in the 60 days prior on Twitter.
101
328347
2952
olduğunu ölçtük.
05:43
But that wasn't enough,
because we thought to ourselves,
because we thought to ourselves,
102
331323
2659
Ama bu, yeterli değildi. "Yalan haber,
05:46
"Well, maybe false news is more novel
in an information-theoretic sense,
in an information-theoretic sense,
103
334006
4208
bilgi teorisi anlamında daha yeni olabilir
05:50
but maybe people
don't perceive it as more novel."
don't perceive it as more novel."
104
338238
3258
ama belki insanlar onu
yeni olarak algılamıyordur." dedik.
yeni olarak algılamıyordur." dedik.
05:53
So to understand people's
perceptions of false news,
perceptions of false news,
105
341849
3927
İnsanların yalan haberi
nasıl algıladığını anlamak için
nasıl algıladığını anlamak için
05:57
we looked at the information
and the sentiment
and the sentiment
106
345800
3690
doğru ve yalan haberlere
verilen tepkilerdeki
verilen tepkilerdeki
06:01
contained in the replies
to true and false tweets.
to true and false tweets.
107
349514
4206
bilgilere ve hislere baktık.
06:06
And what we found
108
354022
1206
Sürpriz, iğrenme, korku,
06:07
was that across a bunch
of different measures of sentiment --
of different measures of sentiment --
109
355252
4214
üzüntü, beklenti, neşe ve güven gibi
06:11
surprise, disgust, fear, sadness,
110
359490
3301
farklı duyguların ölçümlerine baktığımızda
06:14
anticipation, joy and trust --
111
362815
2484
bulduğumuz şey
06:17
false news exhibited significantly more
surprise and disgust
surprise and disgust
112
365323
5857
yalan haberler söz konusu olduğunda
bu sahte tweet'lere verilen yanıtların
bu sahte tweet'lere verilen yanıtların
06:23
in the replies to false tweets.
113
371204
2806
çok daha fazla sürpriz
ve iğrenme hissine yol açtığıydı.
ve iğrenme hissine yol açtığıydı.
06:26
And true news exhibited
significantly more anticipation,
significantly more anticipation,
114
374392
3789
Doğru haberlerdeyse
doğru tweet'lere verilen yanıtlarda
doğru tweet'lere verilen yanıtlarda
06:30
joy and trust
115
378205
1547
daha çok beklenti,
06:31
in reply to true tweets.
116
379776
2547
neşe ve güven vardı.
06:34
The surprise corroborates
our novelty hypothesis.
our novelty hypothesis.
117
382347
3786
Sürpriz, yenilik hipotezine uyuyor.
06:38
This is new and surprising,
and so we're more likely to share it.
and so we're more likely to share it.
118
386157
4609
Bu, yeni ve şaşırtıcı, dolayısıyla onu
paylaşma ihtimalimiz daha yüksek.
paylaşma ihtimalimiz daha yüksek.
06:43
At the same time,
there was congressional testimony
there was congressional testimony
119
391092
2925
Aynı zamanda ABD Kongre ve Senatosu'nda
06:46
in front of both houses of Congress
in the United States,
in the United States,
120
394041
3036
yanlış bilgilerin yayılmasında
botların rolüne dair
botların rolüne dair
06:49
looking at the role of bots
in the spread of misinformation.
in the spread of misinformation.
121
397101
3738
ifadeler verildi.
06:52
So we looked at this too --
122
400863
1354
Biz de buna da baktık.
06:54
we used multiple sophisticated
bot-detection algorithms
bot-detection algorithms
123
402241
3598
Gelişmiş bot tespit
algoritmaları kullanarak
algoritmaları kullanarak
06:57
to find the bots in our data
and to pull them out.
and to pull them out.
124
405863
3074
verilerimizdeki botları bulup çıkardık.
07:01
So we pulled them out,
we put them back in
we put them back in
125
409347
2659
Onları çıkardık, geri koyduk
07:04
and we compared what happens
to our measurement.
to our measurement.
126
412030
3119
ve ölçümlerimize ne olduğuna baktık.
07:07
And what we found was that, yes indeed,
127
415173
2293
Şunu bulduk, evet, gerçekten de botlar
07:09
bots were accelerating
the spread of false news online,
the spread of false news online,
128
417490
3682
internette yalan haberlerin
yayılmasını hızlandırıyordu
yayılmasını hızlandırıyordu
07:13
but they were accelerating
the spread of true news
the spread of true news
129
421196
2651
ama doğruların yayılmasını da
07:15
at approximately the same rate.
130
423871
2405
aynı ölçüde hızlandırıyorlardı.
07:18
Which means bots are not responsible
131
426300
2858
Yani gerçeklerin ve yalanların
07:21
for the differential diffusion
of truth and falsity online.
of truth and falsity online.
132
429182
4713
yayılışındaki farklılıkların
sorumlusu botlar değil.
sorumlusu botlar değil.
07:25
We can't abdicate that responsibility,
133
433919
2849
Bu sorumluluğu başkasına atamayız
07:28
because we, humans,
are responsible for that spread.
are responsible for that spread.
134
436792
4259
çünkü o yayılmanın sorumlusu
biz insanlarız.
biz insanlarız.
07:34
Now, everything
that I have told you so far,
that I have told you so far,
135
442472
3334
Şimdiye kadar anlattıklarım
07:37
unfortunately for all of us,
136
445830
1754
ne yazık ki
07:39
is the good news.
137
447608
1261
işin iyi yanıydı.
07:42
The reason is because
it's about to get a whole lot worse.
it's about to get a whole lot worse.
138
450670
4450
Bunun sebebi daha da kötüye
gidecek olması.
gidecek olması.
07:47
And two specific technologies
are going to make it worse.
are going to make it worse.
139
455850
3682
Bunu kötüleştirecek
iki belli başlı teknoloji var.
iki belli başlı teknoloji var.
07:52
We are going to see the rise
of a tremendous wave of synthetic media.
of a tremendous wave of synthetic media.
140
460207
5172
Sentetik medya dalgasında
ciddi bir artış göreceğiz.
ciddi bir artış göreceğiz.
07:57
Fake video, fake audio
that is very convincing to the human eye.
that is very convincing to the human eye.
141
465403
6031
Dışarıdan bakıldığında ikna edici görünen
sahte video, sahte seslendirme.
sahte video, sahte seslendirme.
08:03
And this will powered by two technologies.
142
471458
2754
Ve iki teknoloji bunu besleyecek.
08:06
The first of these is known
as "generative adversarial networks."
as "generative adversarial networks."
143
474236
3833
İlki "üretken çekişmeli ağlar"
olarak biliniyor.
olarak biliniyor.
08:10
This is a machine-learning model
with two networks:
with two networks:
144
478093
2563
Bu, iki ağlı bir makine öğrenimi modeli:
08:12
a discriminator,
145
480680
1547
Bir şeyin gerçek mi sahte mi
08:14
whose job it is to determine
whether something is true or false,
whether something is true or false,
146
482251
4200
olduğunu belirlemekle görevli
bir ayrıştırıcı
bir ayrıştırıcı
08:18
and a generator,
147
486475
1167
ve sentetik medya
08:19
whose job it is to generate
synthetic media.
synthetic media.
148
487666
3150
üretmekle yükümlü üretici.
08:22
So the synthetic generator
generates synthetic video or audio,
generates synthetic video or audio,
149
490840
5102
Sentetik üretici,
sentetik video veya sesi üretir
sentetik video veya sesi üretir
08:27
and the discriminator tries to tell,
"Is this real or is this fake?"
"Is this real or is this fake?"
150
495966
4675
ve ayrıştırıcı şunu belirlemeyi dener:
"Bu sahte mi, gerçek mi?"
"Bu sahte mi, gerçek mi?"
08:32
And in fact, it is the job
of the generator
of the generator
151
500665
2874
Aslında üreticinin işi
08:35
to maximize the likelihood
that it will fool the discriminator
that it will fool the discriminator
152
503563
4435
yarattığı sentetik video ve sesin
ayrıştıcı tarafından
ayrıştıcı tarafından
08:40
into thinking the synthetic
video and audio that it is creating
video and audio that it is creating
153
508022
3587
gerçek sanılması ihtimalini
08:43
is actually true.
154
511633
1730
artırmaktır.
08:45
Imagine a machine in a hyperloop,
155
513387
2373
Bizi kandırmakta ustalaşmaya çalışan,
08:47
trying to get better
and better at fooling us.
and better at fooling us.
156
515784
2803
döngüye takılmış bir makine hayal edin.
08:51
This, combined with the second technology,
157
519114
2500
Bu, ikinci teknolojiyle,
08:53
which is essentially the democratization
of artificial intelligence to the people,
of artificial intelligence to the people,
158
521638
5722
yapay zekânın demokratikleştirilmesiyle,
yani makine öğrenimi
yani makine öğrenimi
08:59
the ability for anyone,
159
527384
2189
veya yapay zekâ konusunda
09:01
without any background
in artificial intelligence
in artificial intelligence
160
529597
2830
herhangi bir eğitimi olmayan
kişilerin bile
kişilerin bile
09:04
or machine learning,
161
532451
1182
sentetik medya üretmek için
09:05
to deploy these kinds of algorithms
to generate synthetic media
to generate synthetic media
162
533657
4103
bu tür algoritmaları
kullanabilmesiyle birleşince
kullanabilmesiyle birleşince
09:09
makes it ultimately so much easier
to create videos.
to create videos.
163
537784
4547
videoların yaratılması
fazlasıyla kolaylaşıyor.
fazlasıyla kolaylaşıyor.
09:14
The White House issued
a false, doctored video
a false, doctored video
164
542355
4421
Beyaz Saray bir gazetecinin
mikrofonunu almaya çalışan stajyerle
mikrofonunu almaya çalışan stajyerle
09:18
of a journalist interacting with an intern
who was trying to take his microphone.
who was trying to take his microphone.
165
546800
4288
etkileşimini gösteren sahte,
üstünde oynanmış bir video yayınladı.
üstünde oynanmış bir video yayınladı.
09:23
They removed frames from this video
166
551427
1999
Eylemlerini daha dramatik kılmak için
09:25
in order to make his actions
seem more punchy.
seem more punchy.
167
553450
3287
bu videodan bazı kareleri çıkardılar.
09:29
And when videographers
and stuntmen and women
and stuntmen and women
168
557157
3385
Bu teknik konusunda
09:32
were interviewed
about this type of technique,
about this type of technique,
169
560566
2427
videograflar ve dublörlerle görüşüldüğünde
09:35
they said, "Yes, we use this
in the movies all the time
in the movies all the time
170
563017
3828
"Evet, yumruklarımız ve tekmelerimiz
daha etkileyici ve saldırgan görünsün diye
daha etkileyici ve saldırgan görünsün diye
09:38
to make our punches and kicks
look more choppy and more aggressive."
look more choppy and more aggressive."
171
566869
4763
filmlerde bunu hep kullanırız." dediler.
09:44
They then put out this video
172
572268
1867
Sonra bu videoyu yayınladılar
09:46
and partly used it as justification
173
574159
2500
ve bahsi geçen gazeteci olan
Jim Acosta'nın,
Jim Acosta'nın,
09:48
to revoke Jim Acosta,
the reporter's, press pass
the reporter's, press pass
174
576683
3999
Beyaz Saray basın kartını
09:52
from the White House.
175
580706
1339
iptal etmekte kullandılar.
09:54
And CNN had to sue
to have that press pass reinstated.
to have that press pass reinstated.
176
582069
4809
Basın kartının yeniden çıkarılması için
CNN dava açmak zorunda kaldı.
CNN dava açmak zorunda kaldı.
10:00
There are about five different paths
that I can think of that we can follow
that I can think of that we can follow
177
588538
5603
Bugün bu son derece zor
sorunları çözmek için
sorunları çözmek için
10:06
to try and address some
of these very difficult problems today.
of these very difficult problems today.
178
594165
3739
izleyebileceğimiz beş yol aklıma geliyor.
10:10
Each one of them has promise,
179
598379
1810
Hepsinin potansiyeli var
10:12
but each one of them
has its own challenges.
has its own challenges.
180
600213
2999
ama kendilerine göre zorlukları da var.
10:15
The first one is labeling.
181
603236
2008
İlki etiketleme.
10:17
Think about it this way:
182
605268
1357
Bunu şöyle düşünün:
10:18
when you go to the grocery store
to buy food to consume,
to buy food to consume,
183
606649
3611
Yiyecek almak için markete gittiğinizde
10:22
it's extensively labeled.
184
610284
1904
hepsi detaylı şekilde etiketlenmiş.
10:24
You know how many calories it has,
185
612212
1992
Kaç kalorisi olduğunu,
10:26
how much fat it contains --
186
614228
1801
ne kadar yağ içerdiğini biliyorsunuz
10:28
and yet when we consume information,
we have no labels whatsoever.
we have no labels whatsoever.
187
616053
4278
ama tükettiğimiz bilgilerin
hiçbir etiketi yok.
hiçbir etiketi yok.
10:32
What is contained in this information?
188
620355
1928
Bu bilgi neleri kapsıyor?
10:34
Is the source credible?
189
622307
1453
Kaynağı güvenilir mi?
10:35
Where is this information gathered from?
190
623784
2317
Bilgi nereden toplanmış?
10:38
We have none of that information
191
626125
1825
Bilgileri tüketirken
10:39
when we are consuming information.
192
627974
2103
bu bilgiler bize verilmiyor.
10:42
That is a potential avenue,
but it comes with its challenges.
but it comes with its challenges.
193
630101
3238
Bu izlenebilecek bir yol
ama kendine özgü sorunları var.
ama kendine özgü sorunları var.
10:45
For instance, who gets to decide,
in society, what's true and what's false?
in society, what's true and what's false?
194
633363
6451
Mesela bir toplumda neyin doğru
neyin yanlış olduğuna kim karar verir?
neyin yanlış olduğuna kim karar verir?
10:52
Is it the governments?
195
640387
1642
Hükûmet mi?
10:54
Is it Facebook?
196
642053
1150
Facebook mu?
10:55
Is it an independent
consortium of fact-checkers?
consortium of fact-checkers?
197
643601
3762
Bilgileri kontrol eden
bağımsız bir kurul mu?
bağımsız bir kurul mu?
10:59
And who's checking the fact-checkers?
198
647387
2466
Peki onları kim kontrol edecek?
11:02
Another potential avenue is incentives.
199
650427
3084
Bir diğer yol, teşvik.
11:05
We know that during
the US presidential election
the US presidential election
200
653535
2634
ABD başkanlık seçimi sırasında
11:08
there was a wave of misinformation
that came from Macedonia
that came from Macedonia
201
656193
3690
Makedonya'dan bir yanlış bilgi dalgası
geldiğini biliyoruz.
geldiğini biliyoruz.
11:11
that didn't have any political motive
202
659907
2337
Amaçları siyasi değil,
11:14
but instead had an economic motive.
203
662268
2460
ekonomikti.
11:16
And this economic motive existed,
204
664752
2148
Bu ekonomik amaç, var olabilmesini
11:18
because false news travels
so much farther, faster
so much farther, faster
205
666924
3524
yalan haberin,
doğrulardan çok daha hızlı,
doğrulardan çok daha hızlı,
11:22
and more deeply than the truth,
206
670472
2010
çok daha derinlere yayılmasına borçlu
11:24
and you can earn advertising dollars
as you garner eyeballs and attention
as you garner eyeballs and attention
207
672506
4960
ve bu tür bilgilerle
insanların ilgisini çekerek
insanların ilgisini çekerek
11:29
with this type of information.
208
677490
1960
reklam geliri elde edebilirsiniz.
11:31
But if we can depress the spread
of this information,
of this information,
209
679474
3833
Ama bu bilginin yayılmasını baskılarsak
11:35
perhaps it would reduce
the economic incentive
the economic incentive
210
683331
2897
belki de daha baştan
yaratılmasına sebep olan
yaratılmasına sebep olan
11:38
to produce it at all in the first place.
211
686252
2690
ekonomik teşvikleri de azaltırız.
11:40
Third, we can think about regulation,
212
688966
2500
Üçüncüsü, denetim.
11:43
and certainly, we should think
about this option.
about this option.
213
691490
2325
Bu seçeneği düşünmemiz gerektiği kesin.
11:45
In the United States, currently,
214
693839
1611
Şu anda ABD'de
11:47
we are exploring what might happen
if Facebook and others are regulated.
if Facebook and others are regulated.
215
695474
4848
Facebook ve benzerleri denetim altına
alınsa ne olacağını araştırıyoruz.
alınsa ne olacağını araştırıyoruz.
11:52
While we should consider things
like regulating political speech,
like regulating political speech,
216
700346
3801
Siyasi söylemleri denetlemeyi,
onları siyasi söylem olarak etiketlemeyi,
onları siyasi söylem olarak etiketlemeyi,
11:56
labeling the fact
that it's political speech,
that it's political speech,
217
704171
2508
dış mihrakların siyasi söylemleri
finanse etmesini
finanse etmesini
11:58
making sure foreign actors
can't fund political speech,
can't fund political speech,
218
706703
3819
engellemeyi göz önünde
bulundurmamız gerekse de
bulundurmamız gerekse de
12:02
it also has its own dangers.
219
710546
2547
bunların da kendince tehlikeleri var.
12:05
For instance, Malaysia just instituted
a six-year prison sentence
a six-year prison sentence
220
713522
4878
Mesela Malezya yalan bilgi yaydığı
tespit edilenlere
tespit edilenlere
12:10
for anyone found spreading misinformation.
221
718424
2734
altı yıl hapis cezası getirdi.
12:13
And in authoritarian regimes,
222
721696
2079
Otoriter rejimlerde
12:15
these kinds of policies can be used
to suppress minority opinions
to suppress minority opinions
223
723799
4666
bu tür düzenlemeler
azınlık görüşlerini bastırmak
azınlık görüşlerini bastırmak
12:20
and to continue to extend repression.
224
728489
3508
ve baskının kapsamını genişletmek
amacıyla kullanılabilir.
amacıyla kullanılabilir.
12:24
The fourth possible option
is transparency.
is transparency.
225
732680
3543
Dördüncü olasılık, şeffaflık.
12:28
We want to know
how do Facebook's algorithms work.
how do Facebook's algorithms work.
226
736843
3714
Facebook'un algoritmalarının
nasıl çalıştığını bilmek istiyoruz.
nasıl çalıştığını bilmek istiyoruz.
12:32
How does the data
combine with the algorithms
combine with the algorithms
227
740581
2880
Algoritmalarla birleşen veriler
12:35
to produce the outcomes that we see?
228
743485
2838
nasıl oluyor da
gördüğümüz sonuçları doğuruyor?
gördüğümüz sonuçları doğuruyor?
12:38
We want them to open the kimono
229
746347
2349
Kapıyı açmalarını
12:40
and show us exactly the inner workings
of how Facebook is working.
of how Facebook is working.
230
748720
4214
ve Facebook'un nasıl işlediğini
göstermelerini istiyoruz.
göstermelerini istiyoruz.
12:44
And if we want to know
social media's effect on society,
social media's effect on society,
231
752958
2779
Sosyal medyanın toplumdaki
etkilerini öğrenmek istiyorsak
etkilerini öğrenmek istiyorsak
12:47
we need scientists, researchers
232
755761
2086
bilim insanları, araştırmacılar
12:49
and others to have access
to this kind of information.
to this kind of information.
233
757871
3143
ve benzerlerinin bu tür bilgilere
erişmesine ihtiyacımız var.
erişmesine ihtiyacımız var.
12:53
But at the same time,
234
761038
1547
Ama aynı zamanda
12:54
we are asking Facebook
to lock everything down,
to lock everything down,
235
762609
3801
Facebook'tan her şeyi kilitlemesini,
12:58
to keep all of the data secure.
236
766434
2173
tüm verileri güvende tutmasını istiyoruz.
13:00
So, Facebook and the other
social media platforms
social media platforms
237
768631
3159
Bu yüzden Facebook
ve diğer sosyal medya platformları
ve diğer sosyal medya platformları
13:03
are facing what I call
a transparency paradox.
a transparency paradox.
238
771814
3134
şeffaflık paradoksu dediğim şeyle
karşı karşıya.
karşı karşıya.
13:07
We are asking them, at the same time,
239
775266
2674
Onlardan hem açık ve şeffaf olmalarını
13:09
to be open and transparent
and, simultaneously secure.
and, simultaneously secure.
240
777964
4809
hem de güvenli olmalarını istiyoruz.
13:14
This is a very difficult needle to thread,
241
782797
2691
Bu, zor bir görev
13:17
but they will need to thread this needle
242
785512
1913
ama sosyal teknolojilerin
potansiyelini değerlendirip
potansiyelini değerlendirip
13:19
if we are to achieve the promise
of social technologies
of social technologies
243
787449
3787
tehlikelerinden kaçınacaksak
13:23
while avoiding their peril.
244
791260
1642
bu görevi başarmalılar.
13:24
The final thing that we could think about
is algorithms and machine learning.
is algorithms and machine learning.
245
792926
4691
Düşünmemiz gereken son konu,
algoritmalar ve makine öğrenimi.
algoritmalar ve makine öğrenimi.
13:29
Technology devised to root out
and understand fake news, how it spreads,
and understand fake news, how it spreads,
246
797641
5277
Yalan haberlerin köküne inip
onları, nasıl yayıldıklarını anlamamızı,
onları, nasıl yayıldıklarını anlamamızı,
13:34
and to try and dampen its flow.
247
802942
2331
akışı yavaşlatmamızı
sağlayacak teknolojiler.
sağlayacak teknolojiler.
13:37
Humans have to be in the loop
of this technology,
of this technology,
248
805824
2897
İnsanlar bu teknolojiden haberdar olmalı
13:40
because we can never escape
249
808745
2278
çünkü her teknolojik çözümün
13:43
that underlying any technological
solution or approach
solution or approach
250
811047
4038
veya yaklaşımın temelinde,
doğruyu ve yalanı nasıl tanımlıyoruz,
doğruyu ve yalanı nasıl tanımlıyoruz,
13:47
is a fundamental ethical
and philosophical question
and philosophical question
251
815109
4047
doğrunun ve yalanın ne olduğunu
13:51
about how do we define truth and falsity,
252
819180
3270
tanımlama gücünü kime veriyoruz,
13:54
to whom do we give the power
to define truth and falsity
to define truth and falsity
253
822474
3180
hangi görüş doğru,
hangi söylemlere izin verilmeli gibi
hangi söylemlere izin verilmeli gibi
13:57
and which opinions are legitimate,
254
825678
2460
ahlaki ve felsefi soruların
14:00
which type of speech
should be allowed and so on.
should be allowed and so on.
255
828162
3706
yattığı gerçeğinden asla kaçamayız.
14:03
Technology is not a solution for that.
256
831892
2328
Bunun çözümü teknoloji değil.
14:06
Ethics and philosophy
is a solution for that.
is a solution for that.
257
834244
3698
Bunun çözümü ahlak ve felsefe.
14:10
Nearly every theory
of human decision making,
of human decision making,
258
838950
3318
İnsanların karar vermesi, iş birliği
14:14
human cooperation and human coordination
259
842292
2761
ve koordinasyonu hakkındaki
tüm teorilerin özünde
tüm teorilerin özünde
14:17
has some sense of the truth at its core.
260
845077
3674
bir tür gerçek anlayışı yatar.
14:21
But with the rise of fake news,
261
849347
2056
Ama yalan haberlerin,
14:23
the rise of fake video,
262
851427
1443
sahte videoların,
14:24
the rise of fake audio,
263
852894
1882
sahte seslendirmelerin artışıyla
14:26
we are teetering on the brink
of the end of reality,
of the end of reality,
264
854800
3924
gerçeğin kıyısındaki bir noktaya geldik,
14:30
where we cannot tell
what is real from what is fake.
what is real from what is fake.
265
858748
3889
neyin gerçek neyin yalan olduğunu
ayırt edemiyoruz
ayırt edemiyoruz
14:34
And that's potentially
incredibly dangerous.
incredibly dangerous.
266
862661
3039
ve bu, çok tehlikeli olabilir.
14:38
We have to be vigilant
in defending the truth
in defending the truth
267
866931
3948
Yanlış bilgilendirmeye karşı
gerçekleri savunmak adına
gerçekleri savunmak adına
14:42
against misinformation.
268
870903
1534
tetikte olmalıyız.
14:44
With our technologies, with our policies
269
872919
3436
Teknolojilerimiz, politikalarımız
14:48
and, perhaps most importantly,
270
876379
1920
ve belki de en önemlisi
14:50
with our own individual responsibilities,
271
878323
3214
bireysel sorumluluklarımızla,
14:53
decisions, behaviors and actions.
272
881561
3555
kararlarımız, davranışlarımız
ve eylemlerimizle.
ve eylemlerimizle.
14:57
Thank you very much.
273
885553
1437
Çok teşekkürler.
14:59
(Applause)
274
887014
3517
(Alkışlar)