TEDxCERN
Sinan Aral: How we can protect truth in the age of misinformation
Синан Арал: Как можем да защитим истината в епохата на дезинформацията
Filmed:
Readability: 5.3
1,289,169 views
Фалшивите новини могат да променят изборите, да потопят икономики и да сеят раздор в ежедневието. Ученият по данните Синан Арал демистифицира как и защо те се разпространяват толкова бързо -- цитирайки едно от най-големите изследвания на дезинформацията -- и идентифицира пет стратегии, които да ни помогнат да разплетем заплетената мрежа между вярното и невярното.
Double-click the English transcript below to play the video.
Така, на 23 април 2013 г.,
00:13
So, on April 23 of 2013,
0
1468
5222
00:18
the Associated Press
put out the following tweet on Twitter.
put out the following tweet on Twitter.
1
6714
5514
Асошиейтид Прес
публикуваха следното в Туитър.
публикуваха следното в Туитър.
00:24
It said, "Breaking news:
2
12252
2397
В него се казваше:
"Новини от последните минути:
"Новини от последните минути:
00:26
Two explosions at the White House
3
14673
2571
Две експлозии в Белия дом
00:29
and Barack Obama has been injured."
4
17268
2333
и Барак Обама е ранен".
00:32
This tweet was retweeted 4,000 times
in less than five minutes,
in less than five minutes,
5
20212
5425
Този туийт беше ретуитнат 4000 пъти
за по-малко от пет минути
за по-малко от пет минути
00:37
and it went viral thereafter.
6
25661
2217
и след това стана широко популярен.
00:40
Now, this tweet wasn't real news
put out by the Associated Press.
put out by the Associated Press.
7
28760
4350
Този туит не беше истинска новина
качена от Асошиейтид Прес.
качена от Асошиейтид Прес.
00:45
In fact it was false news, or fake news,
8
33134
3333
Всъщност беше грешна новина
или фалшива новина,
или фалшива новина,
00:48
that was propagated by Syrian hackers
9
36491
2825
разпространена от
сирийски хакери,
сирийски хакери,
00:51
that had infiltrated
the Associated Press Twitter handle.
the Associated Press Twitter handle.
10
39340
4694
проникнали в туитър акаунта
на Асошиейтид прес.
на Асошиейтид прес.
00:56
Their purpose was to disrupt society,
but they disrupted much more.
but they disrupted much more.
11
44407
3889
Тяхната цел била да смутят обществото,
но те смущават много повече.
но те смущават много повече.
01:00
Because automated trading algorithms
12
48320
2476
Тъй като автоматизираните алгоритми
за търговия
за търговия
01:02
immediately seized
on the sentiment on this tweet,
on the sentiment on this tweet,
13
50820
3360
веднага прихванали настроението
на този туийт,
на този туийт,
01:06
and began trading based on the potential
14
54204
2968
те започнали търгуване, основано
на възможността
на възможността
01:09
that the president of the United States
had been injured or killed
had been injured or killed
15
57196
3381
президентът на Съединените Американски
Щати да е ранен или убит
Щати да е ранен или убит
01:12
in this explosion.
16
60601
1200
при тази експлозия.
01:14
And as they started tweeting,
17
62188
1992
Щом започнали да туитват
01:16
they immediately sent
the stock market crashing,
the stock market crashing,
18
64204
3349
веднага докарали фондовия
пазар до срив
пазар до срив
01:19
wiping out 140 billion dollars
in equity value in a single day.
in equity value in a single day.
19
67577
5167
унищожавайки 140 милиарда долара стойност
на собствения капитал за един ден.
на собствения капитал за един ден.
01:25
Robert Mueller, special counsel
prosecutor in the United States,
prosecutor in the United States,
20
73062
4476
Робърт Мюлер, специален адвокат
прокурор в САЩ,
прокурор в САЩ,
01:29
issued indictments
against three Russian companies
against three Russian companies
21
77562
3892
издава обвинителни актове
срещу три руски компании
срещу три руски компании
01:33
and 13 Russian individuals
22
81478
2619
и 13 руснаци
01:36
on a conspiracy to defraud
the United States
the United States
23
84121
3167
за конспирация с цел
измама на САЩ
измама на САЩ
01:39
by meddling in the 2016
presidential election.
presidential election.
24
87312
3780
като се намесват в президентските
избори през 2016 г.
избори през 2016 г.
01:43
And what this indictment tells as a story
25
91855
3564
Това, което обвинението разказва
като история,
като история,
01:47
is the story of the Internet
Research Agency,
Research Agency,
26
95443
3142
е историята на Агенцията за
проучвания в интернет,
проучвания в интернет,
01:50
the shadowy arm of the Kremlin
on social media.
on social media.
27
98609
3594
сенчестата ръка на Кремъл
в социалните медии.
в социалните медии.
01:54
During the presidential election alone,
28
102815
2777
Само по време на президентските избори
01:57
the Internet Agency's efforts
29
105616
1889
усилията на Интернет агенцията
01:59
reached 126 million people
on Facebook in the United States,
on Facebook in the United States,
30
107529
5167
достигат 126 милиона души във
Фейсбук в САЩ,
Фейсбук в САЩ,
02:04
issued three million individual tweets
31
112720
3277
публикува 3 милиона отделни туийта
02:08
and 43 hours' worth of YouTube content.
32
116021
3842
и 43 часа съдържание в ЮТюб.
02:11
All of which was fake --
33
119887
1652
Като всичкото е фалшиво --
02:13
misinformation designed to sow discord
in the US presidential election.
in the US presidential election.
34
121563
6323
дезинформация, създадена да сее
раздор в президентските избори на САЩ.
раздор в президентските избори на САЩ.
02:20
A recent study by Oxford University
35
128996
2650
Скорошно изследване на
Оксфордския университет
Оксфордския университет
02:23
showed that in the recent
Swedish elections,
Swedish elections,
36
131670
3270
показва, че в последните
шведски избори
шведски избори
02:26
one third of all of the information
spreading on social media
spreading on social media
37
134964
4375
една трета от цялата информация,
разпространявана в интернет
разпространявана в интернет
02:31
about the election
38
139363
1198
за изборите,
02:32
was fake or misinformation.
39
140585
2087
била фалшива или дезинформация.
02:35
In addition, these types
of social-media misinformation campaigns
of social-media misinformation campaigns
40
143037
5078
Допълнително, тези типове кампании
на дезинформация в социалните медии
на дезинформация в социалните медии
02:40
can spread what has been called
"genocidal propaganda,"
"genocidal propaganda,"
41
148139
4151
могат да разпространят т.нар.
"геноцидна пропаганда",
"геноцидна пропаганда",
02:44
for instance against
the Rohingya in Burma,
the Rohingya in Burma,
42
152314
3111
например срещу малцинството
рохинджа в Бирма,
рохинджа в Бирма,
02:47
triggering mob killings in India.
43
155449
2303
което задейства масови убийства в Индия.
02:49
We studied fake news
44
157776
1494
Изучавахме фалшиви новини
02:51
and began studying it
before it was a popular term.
before it was a popular term.
45
159294
3219
и започнахме да ги изучаваме преди
да станат популярен термин.
да станат популярен термин.
02:55
And we recently published
the largest-ever longitudinal study
the largest-ever longitudinal study
46
163030
5040
И скоро публикувахме най-голямото
досега лонгитюдно изследване
досега лонгитюдно изследване
03:00
of the spread of fake news online
47
168094
2286
на разпространението на фалшиви
новини онлайн
новини онлайн
03:02
on the cover of "Science"
in March of this year.
in March of this year.
48
170404
3204
на корицата на "Сайънс" през
март тази година.
март тази година.
03:06
We studied all of the verified
true and false news stories
true and false news stories
49
174523
4161
Изследвахме всички потвърдени
верни и неверни новини,
верни и неверни новини,
03:10
that ever spread on Twitter,
50
178708
1753
разпространявани в Туитър
03:12
from its inception in 2006 to 2017.
51
180485
3818
от създаването му през 2006 г. до 2017 г.
03:16
And when we studied this information,
52
184612
2314
И след това изследвахме тази информация,
03:18
we studied verified news stories
53
186950
2876
изследвахме потвърдените новини,
03:21
that were verified by six
independent fact-checking organizations.
independent fact-checking organizations.
54
189850
3918
които бяха потвърдени от шест независими
организации, проверяващи факти.
организации, проверяващи факти.
03:25
So we knew which stories were true
55
193792
2762
Така че знаехме кои истории са верни
и кои истории са неверни.
03:28
and which stories were false.
56
196578
2126
Можем да измерим тяхното разпространение,
03:30
We can measure their diffusion,
57
198728
1873
03:32
the speed of their diffusion,
58
200625
1651
скоростта на това разпространение,
03:34
the depth and breadth of their diffusion,
59
202300
2095
дълбочината и обхвата
на разпространението,
на разпространението,
03:36
how many people become entangled
in this information cascade and so on.
in this information cascade and so on.
60
204419
4142
колко хора са били въвличани в
тази информационна каскада и т.н.
тази информационна каскада и т.н.
Това, което направихме
с труда,
с труда,
03:40
And what we did in this paper
61
208942
1484
03:42
was we compared the spread of true news
to the spread of false news.
to the spread of false news.
62
210450
3865
бе да сравним разпространението на
истинските спрямо неверните новини.
истинските спрямо неверните новини.
03:46
And here's what we found.
63
214339
1683
И ето какво открихме.
03:48
We found that false news
diffused further, faster, deeper
diffused further, faster, deeper
64
216046
3979
Открихме, че неверните новини се
разпростират повече, по-бързо и по-дълбоко
разпростират повече, по-бързо и по-дълбоко
03:52
and more broadly than the truth
65
220049
1806
и в по-голям обхват от истината
03:53
in every category of information
that we studied,
that we studied,
66
221879
3003
във всички категории информация,
които изследвахме,
които изследвахме,
03:56
sometimes by an order of magnitude.
67
224906
2499
понякога с огромна разлика.
03:59
And in fact, false political news
was the most viral.
was the most viral.
68
227842
3524
Действително неверните политически
новини бяха най-широко разпространени.
новини бяха най-широко разпространени.
04:03
It diffused further, faster,
deeper and more broadly
deeper and more broadly
69
231390
3147
Разпространяваха се далеч, по-бързо,
по-дълбоко и в по-голям обхват
по-дълбоко и в по-голям обхват
04:06
than any other type of false news.
70
234561
2802
от много други типове неверни новини.
04:09
When we saw this,
71
237387
1293
Щом видяхме това
04:10
we were at once worried but also curious.
72
238704
2841
веднага се разтревожихме,
но бяхме и любопитни.
но бяхме и любопитни.
04:13
Why?
73
241569
1151
Защо?
04:14
Why does false news travel
so much further, faster, deeper
so much further, faster, deeper
74
242744
3373
Защо неверните новини пътуват
толкова по-надалеч, по-бързо и по-дълбоко
толкова по-надалеч, по-бързо и по-дълбоко
04:18
and more broadly than the truth?
75
246141
1864
и в по-голям обхват от истината?
04:20
The first hypothesis
that we came up with was,
that we came up with was,
76
248339
2961
Първата хипотеза,
която съставихме, беше:
която съставихме, беше:
04:23
"Well, maybe people who spread false news
have more followers or follow more people,
have more followers or follow more people,
77
251324
4792
"Може би хората, които разпространяват
неверните новини имат повече последователи
неверните новини имат повече последователи
или следват повече хора, или
туийтват по-често.
туийтват по-често.
04:28
or tweet more often,
78
256140
1557
04:29
or maybe they're more often 'verified'
users of Twitter, with more credibility,
users of Twitter, with more credibility,
79
257721
4126
Или може би те са "потвърдени" Туитър
потребители, с повече правдоподобност,
потребители, с повече правдоподобност,
04:33
or maybe they've been on Twitter longer."
80
261871
2182
или са в Туитър по-дълго време".
04:36
So we checked each one of these in turn.
81
264077
2298
Проверихме всяко едно от тези неща.
04:38
And what we found
was exactly the opposite.
was exactly the opposite.
82
266691
2920
И това, което открихме,
беше точно обратното.
беше точно обратното.
Разпространяващите неверни новини,
имаха по-малко последователи,
имаха по-малко последователи,
04:41
False-news spreaders had fewer followers,
83
269635
2436
04:44
followed fewer people, were less active,
84
272095
2254
следваха по-малко хора,
по-малко активни са,
по-малко активни са,
04:46
less often "verified"
85
274373
1460
по-рядко са "потвърдени"
04:47
and had been on Twitter
for a shorter period of time.
for a shorter period of time.
86
275857
2960
и ползват Туитър от
по-кратък период.
по-кратък период.
04:50
And yet,
87
278841
1189
И все пак вероятността
04:52
false news was 70 percent more likely
to be retweeted than the truth,
to be retweeted than the truth,
88
280054
5033
неверните новини да бъдат ретуитнати
беше 70% по-висока от тази на истината,
беше 70% по-висока от тази на истината,
04:57
controlling for all of these
and many other factors.
and many other factors.
89
285111
3363
като се вземат предвид тези и
много други фактори.
много други фактори.
05:00
So we had to come up
with other explanations.
with other explanations.
90
288498
2690
Така че трябваше да намерим
други обяснения.
други обяснения.
05:03
And we devised what we called
a "novelty hypothesis."
a "novelty hypothesis."
91
291212
3467
И създадохме т. нар.
"хипотеза на новостта".
"хипотеза на новостта".
05:07
So if you read the literature,
92
295038
1960
Ако прочетете литературата,
05:09
it is well known that human attention
is drawn to novelty,
is drawn to novelty,
93
297022
3754
добре известно е, че човешкото внимание
се привлича от новостите,
се привлича от новостите,
05:12
things that are new in the environment.
94
300800
2519
нещата, които са нови в средата.
05:15
And if you read the sociology literature,
95
303343
1985
Ако четете литературата
на социологията,
на социологията,
05:17
you know that we like to share
novel information.
novel information.
96
305352
4300
знаете, че обичаме да
споделяме нова информация.
споделяме нова информация.
05:21
It makes us seem like we have access
to inside information,
to inside information,
97
309676
3838
Кара ни да изглеждаме все едно
имаме достъп до вътрешна информация
имаме достъп до вътрешна информация
05:25
and we gain in status
by spreading this kind of information.
by spreading this kind of information.
98
313538
3785
и покачваме статута си като
разпространяваме такава информация.
разпространяваме такава информация.
05:29
So what we did was we measured the novelty
of an incoming true or false tweet,
of an incoming true or false tweet,
99
317792
6452
Измерихме новостта на
постъпващ верен и неверен туит
постъпващ верен и неверен туит
05:36
compared to the corpus
of what that individual had seen
of what that individual had seen
100
324268
4055
сравнено с всичко, което
човек е видял
човек е видял
05:40
in the 60 days prior on Twitter.
101
328347
2952
през 60-те дни преди това в Туитър.
05:43
But that wasn't enough,
because we thought to ourselves,
because we thought to ourselves,
102
331323
2659
Но това не беше достатъчно,
защото се замислихме
защото се замислихме
05:46
"Well, maybe false news is more novel
in an information-theoretic sense,
in an information-theoretic sense,
103
334006
4208
"Може би неверните новини са по-нови
в информационно-теоретичен смисъл,
в информационно-теоретичен смисъл,
05:50
but maybe people
don't perceive it as more novel."
don't perceive it as more novel."
104
338238
3258
но може би хората
не ги възприемат като по-нови"
не ги възприемат като по-нови"
За да разберем възприятията
на хората спрямо неверните новини
на хората спрямо неверните новини
05:53
So to understand people's
perceptions of false news,
perceptions of false news,
105
341849
3927
05:57
we looked at the information
and the sentiment
and the sentiment
106
345800
3690
разгледахме информацията
и усещанията,
и усещанията,
06:01
contained in the replies
to true and false tweets.
to true and false tweets.
107
349514
4206
съдържащи се в отговорите на
истински и неистински туитове.
истински и неистински туитове.
06:06
And what we found
108
354022
1206
И това, което открихме,
06:07
was that across a bunch
of different measures of sentiment --
of different measures of sentiment --
109
355252
4214
беше, че сред няколко
различни мерки на усещане --
различни мерки на усещане --
06:11
surprise, disgust, fear, sadness,
110
359490
3301
изненада, отвращение, страх, тъга,
06:14
anticipation, joy and trust --
111
362815
2484
очакване, радост и доверие --
06:17
false news exhibited significantly more
surprise and disgust
surprise and disgust
112
365323
5857
при неверните новини се наблюдаваше
значително повече изненада и отвращение
значително повече изненада и отвращение
06:23
in the replies to false tweets.
113
371204
2806
в отговорите на неверните туитове.
06:26
And true news exhibited
significantly more anticipation,
significantly more anticipation,
114
374392
3789
А сред истинските новини се наблюдаваше
значително повече очакване,
значително повече очакване,
06:30
joy and trust
115
378205
1547
радост и доверие
06:31
in reply to true tweets.
116
379776
2547
в отговорите на верните туитове.
06:34
The surprise corroborates
our novelty hypothesis.
our novelty hypothesis.
117
382347
3786
Изненадата потвърди
нашата теория на новостта.
нашата теория на новостта.
06:38
This is new and surprising,
and so we're more likely to share it.
and so we're more likely to share it.
118
386157
4609
Това е ново и изненадващо,
затова сме по-склонни да го споделим.
затова сме по-склонни да го споделим.
06:43
At the same time,
there was congressional testimony
there was congressional testimony
119
391092
2925
Междувременно се случваха
конгресните изслушвания
конгресните изслушвания
06:46
in front of both houses of Congress
in the United States,
in the United States,
120
394041
3036
пред двете камари
на Конгреса в САЩ,
на Конгреса в САЩ,
06:49
looking at the role of bots
in the spread of misinformation.
in the spread of misinformation.
121
397101
3738
където се разглеждаше ролята на ботовете
при разпространението на дезинформацията.
при разпространението на дезинформацията.
06:52
So we looked at this too --
122
400863
1354
Затова разгледахме и това --
06:54
we used multiple sophisticated
bot-detection algorithms
bot-detection algorithms
123
402241
3598
използвахме множество изпипани
алгоритми за засичане на ботове,
алгоритми за засичане на ботове,
06:57
to find the bots in our data
and to pull them out.
and to pull them out.
124
405863
3074
за да открием ботовете в нашите данни
и да ги извадим от изследването.
и да ги извадим от изследването.
07:01
So we pulled them out,
we put them back in
we put them back in
125
409347
2659
Изтеглихме ги,
после ги вкарахме отново
после ги вкарахме отново
07:04
and we compared what happens
to our measurement.
to our measurement.
126
412030
3119
и сравнихме какво се
случва с измерванията ни.
случва с измерванията ни.
07:07
And what we found was that, yes indeed,
127
415173
2293
И открихме, че действително
07:09
bots were accelerating
the spread of false news online,
the spread of false news online,
128
417490
3682
ботовете увеличават скоростта на
разпространение на неверни новини онлайн,
разпространение на неверни новини онлайн,
07:13
but they were accelerating
the spread of true news
the spread of true news
129
421196
2651
но те ускоряват и разпространението
на истинските новини
на истинските новини
07:15
at approximately the same rate.
130
423871
2405
с приблизително същия темп.
07:18
Which means bots are not responsible
131
426300
2858
Което означава, че ботовете
не са причината
не са причината
за диференциалното разпространение
на истината и неистината онлайн.
на истината и неистината онлайн.
07:21
for the differential diffusion
of truth and falsity online.
of truth and falsity online.
132
429182
4713
07:25
We can't abdicate that responsibility,
133
433919
2849
Не можем да избегнем отговорност,
07:28
because we, humans,
are responsible for that spread.
are responsible for that spread.
134
436792
4259
защото ние хората сме
отговорни за това разпространение.
отговорни за това разпространение.
07:34
Now, everything
that I have told you so far,
that I have told you so far,
135
442472
3334
Всичко, което ви
казах досега,
казах досега,
07:37
unfortunately for all of us,
136
445830
1754
за съжаление на всички нас,
07:39
is the good news.
137
447608
1261
е добрата новина.
07:42
The reason is because
it's about to get a whole lot worse.
it's about to get a whole lot worse.
138
450670
4450
Причината е, защото
сега ще стане много по-лошо.
сега ще стане много по-лошо.
07:47
And two specific technologies
are going to make it worse.
are going to make it worse.
139
455850
3682
И две конкретни технологии
ще влошат нещата.
ще влошат нещата.
07:52
We are going to see the rise
of a tremendous wave of synthetic media.
of a tremendous wave of synthetic media.
140
460207
5172
Ще видим възхода на
огромна вълна на синтетичните медии.
огромна вълна на синтетичните медии.
07:57
Fake video, fake audio
that is very convincing to the human eye.
that is very convincing to the human eye.
141
465403
6031
Фалшиви видеа, фалшиво аудио, които са
много убедителни за човешкото око.
много убедителни за човешкото око.
08:03
And this will powered by two technologies.
142
471458
2754
И това ще бъде задвижено
от две технологии.
от две технологии.
08:06
The first of these is known
as "generative adversarial networks."
as "generative adversarial networks."
143
474236
3833
Първата е позната като
"генеративно-състезателни мрежи".
"генеративно-състезателни мрежи".
08:10
This is a machine-learning model
with two networks:
with two networks:
144
478093
2563
Това е модел на машинно самообучение
с две мрежи:
с две мрежи:
08:12
a discriminator,
145
480680
1547
дискриминатор,
08:14
whose job it is to determine
whether something is true or false,
whether something is true or false,
146
482251
4200
чиято работа е да определи дали
нещо е истина или лъжа,
нещо е истина или лъжа,
08:18
and a generator,
147
486475
1167
и генератор,
08:19
whose job it is to generate
synthetic media.
synthetic media.
148
487666
3150
чиято работа е да генерира
синтетична медия.
синтетична медия.
08:22
So the synthetic generator
generates synthetic video or audio,
generates synthetic video or audio,
149
490840
5102
Синтетичният генератор
създава синтетично видео или аудио,
създава синтетично видео или аудио,
08:27
and the discriminator tries to tell,
"Is this real or is this fake?"
"Is this real or is this fake?"
150
495966
4675
а дискриминаторът се опитва да различи
"дали това е истинско, или е фалшиво?"
"дали това е истинско, или е фалшиво?"
08:32
And in fact, it is the job
of the generator
of the generator
151
500665
2874
И всъщност е работа
на генератора
на генератора
08:35
to maximize the likelihood
that it will fool the discriminator
that it will fool the discriminator
152
503563
4435
да максимизира вероятността,
да заблуди дискриминатора,
да заблуди дискриминатора,
08:40
into thinking the synthetic
video and audio that it is creating
video and audio that it is creating
153
508022
3587
че синтетичното видео
или аудио, което създава,
или аудио, което създава,
08:43
is actually true.
154
511633
1730
е всъщност истинско.
08:45
Imagine a machine in a hyperloop,
155
513387
2373
Представете си машина в хиперлууп,
08:47
trying to get better
and better at fooling us.
and better at fooling us.
156
515784
2803
опитваща се да стане по-добра
и по-добра в това да ни заблуждава.
и по-добра в това да ни заблуждава.
08:51
This, combined with the second technology,
157
519114
2500
Това в комбинация с втората технология,
08:53
which is essentially the democratization
of artificial intelligence to the people,
of artificial intelligence to the people,
158
521638
5722
която по същество е демократизацията на
изкуствения интелект към хората,
изкуствения интелект към хората,
08:59
the ability for anyone,
159
527384
2189
възможността всеки,
09:01
without any background
in artificial intelligence
in artificial intelligence
160
529597
2830
без какъвто и да е опит с
изкуствения интелект
изкуствения интелект
09:04
or machine learning,
161
532451
1182
или машинното самообучение,
09:05
to deploy these kinds of algorithms
to generate synthetic media
to generate synthetic media
162
533657
4103
да използва такъв вид алгоритми,
за да генерира синтетични медии,
за да генерира синтетични медии,
09:09
makes it ultimately so much easier
to create videos.
to create videos.
163
537784
4547
по същество прави създаването на
видеа много по-лесно.
видеа много по-лесно.
09:14
The White House issued
a false, doctored video
a false, doctored video
164
542355
4421
Белият дом публикува невярно
и подправено видео
и подправено видео
09:18
of a journalist interacting with an intern
who was trying to take his microphone.
who was trying to take his microphone.
165
546800
4288
от спречкването на журналист със стажант,
който опитва да му вземе микрофона.
който опитва да му вземе микрофона.
09:23
They removed frames from this video
166
551427
1999
Изрязани са кадри от видеото,
09:25
in order to make his actions
seem more punchy.
seem more punchy.
167
553450
3287
за да изглеждат действията му
по-груби.
по-груби.
09:29
And when videographers
and stuntmen and women
and stuntmen and women
168
557157
3385
И когато видеографи и
каскадьори
каскадьори
09:32
were interviewed
about this type of technique,
about this type of technique,
169
560566
2427
са интервюирани за
този вид техника
този вид техника
09:35
they said, "Yes, we use this
in the movies all the time
in the movies all the time
170
563017
3828
те казват "Да, използваме я
във филмите през цялото време,
във филмите през цялото време,
09:38
to make our punches and kicks
look more choppy and more aggressive."
look more choppy and more aggressive."
171
566869
4763
за да изглеждат ударите и ритниците
по-резки и по-агресивни."
по-резки и по-агресивни."
09:44
They then put out this video
172
572268
1867
След това пуснаха това видео
09:46
and partly used it as justification
173
574159
2500
и в известна степен го използваха
като оправдание
като оправдание
09:48
to revoke Jim Acosta,
the reporter's, press pass
the reporter's, press pass
174
576683
3999
да изземат журналистическия пропуск
на репортера Джим Акоста
на репортера Джим Акоста
09:52
from the White House.
175
580706
1339
от Белия дом.
09:54
And CNN had to sue
to have that press pass reinstated.
to have that press pass reinstated.
176
582069
4809
И СиЕнЕн трябваше да водят дело, за да
възстановят журналистическия пропуск.
възстановят журналистическия пропуск.
Има около 5 различни пътя, за които
се сещам и, по които можем да поемем,
се сещам и, по които можем да поемем,
10:00
There are about five different paths
that I can think of that we can follow
that I can think of that we can follow
177
588538
5603
10:06
to try and address some
of these very difficult problems today.
of these very difficult problems today.
178
594165
3739
за да се опитаме да решим някои
от тези много трудни проблеми днес.
от тези много трудни проблеми днес.
10:10
Each one of them has promise,
179
598379
1810
Всеки от тях дава надежда,
10:12
but each one of them
has its own challenges.
has its own challenges.
180
600213
2999
но всеки от тях
има своите предизвикателства.
има своите предизвикателства.
10:15
The first one is labeling.
181
603236
2008
Първият е "поставяне на етикети".
10:17
Think about it this way:
182
605268
1357
Помислете по следния начин:
10:18
when you go to the grocery store
to buy food to consume,
to buy food to consume,
183
606649
3611
когато отидете в магазина,
за да си купите храна за консумация
за да си купите храна за консумация
10:22
it's extensively labeled.
184
610284
1904
тя е с информативен етикет.
10:24
You know how many calories it has,
185
612212
1992
Знаете колко калории има в нея,
10:26
how much fat it contains --
186
614228
1801
колко мазнини съдържа --
10:28
and yet when we consume information,
we have no labels whatsoever.
we have no labels whatsoever.
187
616053
4278
но когато консумираме информация,
няма никакви етикети.
няма никакви етикети.
10:32
What is contained in this information?
188
620355
1928
Какво се съдържа в тази информация?
10:34
Is the source credible?
189
622307
1453
Източникът надежден ли е?
10:35
Where is this information gathered from?
190
623784
2317
Откъде е събрана тази информация?
10:38
We have none of that information
191
626125
1825
Не разполагаме с тази информация,
10:39
when we are consuming information.
192
627974
2103
когато консумираме информация.
10:42
That is a potential avenue,
but it comes with its challenges.
but it comes with its challenges.
193
630101
3238
Това е потенциално решение,
но то съдържа предизвикателства.
но то съдържа предизвикателства.
Например, кой в обществото ще решава
кое е вярно и кое е невярно?
кое е вярно и кое е невярно?
10:45
For instance, who gets to decide,
in society, what's true and what's false?
in society, what's true and what's false?
194
633363
6451
10:52
Is it the governments?
195
640387
1642
Правителствата?
10:54
Is it Facebook?
196
642053
1150
Фейсбук?
10:55
Is it an independent
consortium of fact-checkers?
consortium of fact-checkers?
197
643601
3762
Независим консорциум на
проверяващите фактите?
проверяващите фактите?
10:59
And who's checking the fact-checkers?
198
647387
2466
И кой проверява проверяващите?
11:02
Another potential avenue is incentives.
199
650427
3084
Друг възможен път е този на стимулите.
11:05
We know that during
the US presidential election
the US presidential election
200
653535
2634
Знаем, че по време на
президентските избори в САЩ
президентските избори в САЩ
11:08
there was a wave of misinformation
that came from Macedonia
that came from Macedonia
201
656193
3690
имаше вълна на дезинформация
с произход Македония,
с произход Македония,
11:11
that didn't have any political motive
202
659907
2337
която нямаше политически мотив,
11:14
but instead had an economic motive.
203
662268
2460
а вместо това имаше икономически мотив.
11:16
And this economic motive existed,
204
664752
2148
И този икономически мотив съществуваше,
защото неверните новини се движат
по-далеч, по-бързо,
по-далеч, по-бързо,
11:18
because false news travels
so much farther, faster
so much farther, faster
205
666924
3524
11:22
and more deeply than the truth,
206
670472
2010
и по-дълбоко от истината
11:24
and you can earn advertising dollars
as you garner eyeballs and attention
as you garner eyeballs and attention
207
672506
4960
и можеш да спечелиш пари от реклама
докато събираш погледи и внимание
докато събираш погледи и внимание
11:29
with this type of information.
208
677490
1960
с този вид информация.
11:31
But if we can depress the spread
of this information,
of this information,
209
679474
3833
Ако можем да ограничим
разпространението на тази информация
разпространението на тази информация
11:35
perhaps it would reduce
the economic incentive
the economic incentive
210
683331
2897
това вероятно ще намали
икономическия стимул
икономическия стимул
11:38
to produce it at all in the first place.
211
686252
2690
за самото ѝ създаване.
11:40
Third, we can think about regulation,
212
688966
2500
Трето, можем да мислим за регулации
11:43
and certainly, we should think
about this option.
about this option.
213
691490
2325
и със сигурност трябва да помислим
за този вариант.
за този вариант.
11:45
In the United States, currently,
214
693839
1611
В САЩ в момента
11:47
we are exploring what might happen
if Facebook and others are regulated.
if Facebook and others are regulated.
215
695474
4848
разглеждаме какво може да се случи,
ако Фейсбук и други се регулират.
ако Фейсбук и други се регулират.
11:52
While we should consider things
like regulating political speech,
like regulating political speech,
216
700346
3801
Докато трябва да помислим за неща като
това да регулираме политическата реч,
това да регулираме политическата реч,
11:56
labeling the fact
that it's political speech,
that it's political speech,
217
704171
2508
да обозначим факта, че е
политическа реч,
политическа реч,
11:58
making sure foreign actors
can't fund political speech,
can't fund political speech,
218
706703
3819
да се уверим, че чуждестранни лица
не могат да финансират политическа реч,
не могат да финансират политическа реч,
12:02
it also has its own dangers.
219
710546
2547
това също води до своите опасности.
12:05
For instance, Malaysia just instituted
a six-year prison sentence
a six-year prison sentence
220
713522
4878
Например, Малайзия тъкмо въведе
шестгодишна ефективна присъда
шестгодишна ефективна присъда
12:10
for anyone found spreading misinformation.
221
718424
2734
за всеки, който
разпространява дезинформация.
разпространява дезинформация.
12:13
And in authoritarian regimes,
222
721696
2079
И в авторитарните режими
12:15
these kinds of policies can be used
to suppress minority opinions
to suppress minority opinions
223
723799
4666
този тип политики могат да се използват
за потискане на мнението на малцинствата
за потискане на мнението на малцинствата
12:20
and to continue to extend repression.
224
728489
3508
и за продължаване на репресиите.
12:24
The fourth possible option
is transparency.
is transparency.
225
732680
3543
Четвъртата възможност
е прозрачността.
е прозрачността.
12:28
We want to know
how do Facebook's algorithms work.
how do Facebook's algorithms work.
226
736843
3714
Искаме да знаем как
работят алгоритмите на Фейсбук.
работят алгоритмите на Фейсбук.
12:32
How does the data
combine with the algorithms
combine with the algorithms
227
740581
2880
Как данните се комбинират
с алгоритмите,
с алгоритмите,
12:35
to produce the outcomes that we see?
228
743485
2838
за да произвеждат резултатите,
които виждаме?
които виждаме?
12:38
We want them to open the kimono
229
746347
2349
Искаме да отворят кимоното
12:40
and show us exactly the inner workings
of how Facebook is working.
of how Facebook is working.
230
748720
4214
и да ни покажат точно зъбните колела
на начина на работа на Фейсбук.
на начина на работа на Фейсбук.
12:44
And if we want to know
social media's effect on society,
social media's effect on society,
231
752958
2779
И ако искаме да разберем ефектът
на социалните медии върху обществото
на социалните медии върху обществото
12:47
we need scientists, researchers
232
755761
2086
трябва учени, изследователи
12:49
and others to have access
to this kind of information.
to this kind of information.
233
757871
3143
и други да имат достъп до
този вид информация.
този вид информация.
12:53
But at the same time,
234
761038
1547
Но същевременно,
12:54
we are asking Facebook
to lock everything down,
to lock everything down,
235
762609
3801
искаме Фейсбук да
заключи всичко,
заключи всичко,
12:58
to keep all of the data secure.
236
766434
2173
да съхранява данните по сигурен начин.
13:00
So, Facebook and the other
social media platforms
social media platforms
237
768631
3159
Фейсбук и другите платформи
на социалните медии
на социалните медии
13:03
are facing what I call
a transparency paradox.
a transparency paradox.
238
771814
3134
са изправени пред това, което
наричам парадоск на прозрачността.
наричам парадоск на прозрачността.
13:07
We are asking them, at the same time,
239
775266
2674
Едновременно искаме от тях
13:09
to be open and transparent
and, simultaneously secure.
and, simultaneously secure.
240
777964
4809
да са отворени и прозрачни,
и в същотото време, да са сигурни.
и в същотото време, да са сигурни.
13:14
This is a very difficult needle to thread,
241
782797
2691
Това е много трудна игла за вдяване,
13:17
but they will need to thread this needle
242
785512
1913
но те ще трябва да вдянат конеца в иглата,
13:19
if we are to achieve the promise
of social technologies
of social technologies
243
787449
3787
ако искаме да достигнем потенциала
на социалните технологии,
на социалните технологии,
13:23
while avoiding their peril.
244
791260
1642
и да избегнем рисковете им.
13:24
The final thing that we could think about
is algorithms and machine learning.
is algorithms and machine learning.
245
792926
4691
Последното нещо, за което се сетихме
са алгоритмите и машинното самообучение.
са алгоритмите и машинното самообучение.
13:29
Technology devised to root out
and understand fake news, how it spreads,
and understand fake news, how it spreads,
246
797641
5277
Технология, създадена, да намира и разбира
фалшивите новини, разпространението им
фалшивите новини, разпространението им
13:34
and to try and dampen its flow.
247
802942
2331
и да се опита да ограничи потока им.
13:37
Humans have to be in the loop
of this technology,
of this technology,
248
805824
2897
Хората трябва да са в течение
с тази технология,
с тази технология,
13:40
because we can never escape
249
808745
2278
защото не можем да избягаме
13:43
that underlying any technological
solution or approach
solution or approach
250
811047
4038
от това, че при всяко технологично
решение или подход
решение или подход
13:47
is a fundamental ethical
and philosophical question
and philosophical question
251
815109
4047
съществува фундаментален етически
и философски въпрос
и философски въпрос
13:51
about how do we define truth and falsity,
252
819180
3270
как да дефинираме истината и неистната,
13:54
to whom do we give the power
to define truth and falsity
to define truth and falsity
253
822474
3180
на кого даваме властта да дефинира
истината и неистината
истината и неистината
13:57
and which opinions are legitimate,
254
825678
2460
и кои мнения са легитимни,
14:00
which type of speech
should be allowed and so on.
should be allowed and so on.
255
828162
3706
кой тип реч
трябва да се позволява и т.н.
трябва да се позволява и т.н.
14:03
Technology is not a solution for that.
256
831892
2328
Технологията не е решение за това.
14:06
Ethics and philosophy
is a solution for that.
is a solution for that.
257
834244
3698
Етиката и философията са
решение за това.
решение за това.
14:10
Nearly every theory
of human decision making,
of human decision making,
258
838950
3318
Почти всяка теория за
взимането на решения от хората,
взимането на решения от хората,
14:14
human cooperation and human coordination
259
842292
2761
сътрудничеството и координацията
между хората
между хората
14:17
has some sense of the truth at its core.
260
845077
3674
в същността си има идея за истината.
14:21
But with the rise of fake news,
261
849347
2056
Но с възхода на фалшивите новини,
14:23
the rise of fake video,
262
851427
1443
възхода на фалшивите видеа,
14:24
the rise of fake audio,
263
852894
1882
възхода на фалшивото аудио,
14:26
we are teetering on the brink
of the end of reality,
of the end of reality,
264
854800
3924
пълзим по ръба на края
на реалността.
на реалността.
14:30
where we cannot tell
what is real from what is fake.
what is real from what is fake.
265
858748
3889
където не можем да кажем
кое е истинско и кое - фалшиво.
кое е истинско и кое - фалшиво.
14:34
And that's potentially
incredibly dangerous.
incredibly dangerous.
266
862661
3039
И това потенциално
е невероятно опасно.
е невероятно опасно.
14:38
We have to be vigilant
in defending the truth
in defending the truth
267
866931
3948
Трябва да сме бдителни
при защитаването на истината
при защитаването на истината
14:42
against misinformation.
268
870903
1534
срещу дезинформацията.
14:44
With our technologies, with our policies
269
872919
3436
С нашите технологии, с нашите политики
14:48
and, perhaps most importantly,
270
876379
1920
и може би най-важното
14:50
with our own individual responsibilities,
271
878323
3214
с нашите индивидуални отговорности,
14:53
decisions, behaviors and actions.
272
881561
3555
решения, поведение и действия.
14:57
Thank you very much.
273
885553
1437
Много ви благодаря.
14:59
(Applause)
274
887014
3517
(аплодисменти)