ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Клэр Уордл: Как вы можете помочь создать атмосферу доверия в интернете

Filmed:
1,319,606 views

Как нам остановить распространение недостоверного, а порой и опасного контента, при этом сохранив в основе интернета свободу слова? Эксперт в области работы с дезинформацией, Клэр Уордл, изучает новые проблемы нашего загрязнённого интернет-пространства и намечает план, чтобы создать атмосферу доверия в интернете — при помощи постоянных пользователей. «Давайте вместе изменим нашу общую информационную систему», — говорит она.
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matterдело who you are or where you liveжить,
0
1548
2516
Неважно, кто вы и где вы живёте,
00:16
I'm guessingугадывание that you have
at leastнаименее one relativeотносительный
1
4088
2356
я думаю, что у вас есть
хотя бы один родственник,
00:18
that likesнравится to forwardвперед those emailsэлектронная почта.
2
6468
2334
который любит рассылать
те самые сообщения.
00:21
You know the onesте, I'm talkingговорящий about --
3
9206
1900
Вы понимаете, какие я имею в виду —
00:23
the onesте, with dubiousсомнительный claimsтребования
or conspiracyзаговор videosвидео.
4
11130
2854
те самые со спорными заявлениями
и видео о теориях заговора.
00:26
And you've probablyвероятно
alreadyуже mutedприглушенный them on Facebookfacebook
5
14315
2668
И, возможно, вы уже скрыли
их публикации в Facebook
00:29
for sharingразделение socialСоциальное postsсообщений like this one.
6
17007
2348
из-за постов, которыми они делятся.
00:31
It's an imageобраз of a bananaбанан
7
19379
1404
Здесь изображён банан,
00:32
with a strangeстранный redкрасный crossпересекать
runningБег throughчерез the centerцентр.
8
20807
2667
в центре которого странное красное пятно.
00:35
And the textтекст around it is warningпредупреждение people
9
23498
2139
И текст над ним предупреждает людей,
00:37
not to eatесть fruitsфрукты that look like this,
10
25661
2158
чтобы они не ели подобного рода фрукты,
00:39
suggestingпредлагая they'veони имеют been
injectedвведенный with bloodкровь
11
27843
2028
предполагая, что в них впрыснули кровь,
00:41
contaminatedзагрязненный with the HIVВИЧ virusвирус.
12
29895
2130
заражённую ВИЧ-инфекцией.
00:44
And the socialСоциальное shareдоля messageсообщение
aboveвыше it simplyпросто saysговорит,
13
32049
2603
И сверху в репосте просто написано:
00:46
"Please forwardвперед to saveспасти livesжизни."
14
34676
2181
«Разошлите всем, чтобы спасти жизни».
00:49
Now, fact-checkersфакт-чекеры have been debunkingразвенчание
this one for yearsлет,
15
37672
3294
Фактчекеры развенчивают
этот слух уже годами,
00:52
but it's one of those rumorsслухи
that just won'tне будет dieумереть.
16
40990
2809
но он из тех, что просто
так не забываются.
00:55
A zombieживой мертвец rumorслух.
17
43823
1271
Зомби-слух.
00:57
And, of courseкурс, it's entirelyполностью falseложный.
18
45513
2093
И, конечно же, он совершенно ложный.
01:00
It mightмог бы be temptingзаманчивый to laughсмех
at an exampleпример like this, to say,
19
48180
2959
И, может быть, сложно не засмеяться
над подобным примером:
01:03
"Well, who would believe this, anywayтак или иначе?"
20
51163
1884
«Ну кто в такое поверит?»
01:05
But the reasonпричина it's a zombieживой мертвец rumorслух
21
53419
1626
Но слух этот зомбирует потому,
01:07
is because it tapsкраны into people'sнародный
deepestглубочайшее fearsбоится about theirих ownсвоя safetyбезопасность
22
55069
3889
что пробуждает самые потаённые
страхи людей за свою безопасность
01:10
and that of the people they love.
23
58982
2175
и безопасность тех, кого они любят.
01:13
And if you spendпроводить as enoughдостаточно time
as I have looking at misinformationдезинформация,
24
61783
3273
А если вы прочитаете так же много
ложной информации, как и я,
01:17
you know that this is just
one exampleпример of manyмногие
25
65080
2420
вы увидите, что это
лишь один пример из многих,
01:19
that tapsкраны into people'sнародный deepestглубочайшее
fearsбоится and vulnerabilitiesуязвимости.
26
67524
3047
что пробуждают самые
потаённые страхи и слабости людей.
01:23
Everyкаждый day, acrossчерез the worldМир,
we see scoresмножество of newновый memesмемы on InstagramInstagram
27
71214
4369
Каждый день по всему миру публикуются
всё новые и новые посты в Instagram,
01:27
encouragingобнадеживающий parentsродители
not to vaccinateвакцинировать theirих childrenдети.
28
75607
3039
которые призывают родителей
не делать прививки своим детям.
01:30
We see newновый videosвидео on YouTubeYouTube
explainingобъясняя that climateклимат changeизменение is a hoaxобман.
29
78670
4532
А в новых видео на Youtube объясняют,
что изменения климата — это «утка».
01:35
And acrossчерез all platformsплатформы, we see
endlessбесконечный postsсообщений designedпредназначенный to demonizeдемонизировать othersдругие
30
83226
4302
И на всех платформах мы видим
бесконечные посты, оскорбляющие других
01:39
on the basisоснова of theirих raceраса,
religionрелигия or sexualityсексуальность.
31
87552
3501
по признаку их расы, религии
или сексуальной ориентации.
01:44
Welcomeжеланный to one of the centralцентральный
challengesпроблемы of our time.
32
92314
3030
Представляю вам одну
из ключевых задач нашего времени.
01:47
How can we maintainподдерживать an internetинтернет
with freedomсвобода of expressionвыражение at the coreядро,
33
95647
4025
Как мы можем сохранить в основе
интернета свободу слова
01:51
while alsoтакже ensuringобеспечение that the contentсодержание
that's beingявляющийся disseminatedдиссеминированный
34
99696
3303
и при этом сделать так,
чтобы распространяемый контент
01:55
doesn't causeпричина irreparableНепоправимый harmsХармс
to our democraciesдемократии, our communitiesсообщества
35
103023
3886
не причинял непоправимый вред
нашей демократии, нашему обществу
01:58
and to our physicalфизическое and mentalумственный well-beingблагополучие?
36
106933
2238
и нашему физическому
и душевному благополучию?
02:01
Because we liveжить in the informationИнформация ageвозраст,
37
109998
2087
Поскольку мы живём в век информации,
02:04
yetвсе же the centralцентральный currencyвалюта
uponна whichкоторый we all dependзависеть -- informationИнформация --
38
112109
3547
основная валюта, от которой
все мы зависим, — информация —
02:07
is no longerдольше deemedсчитается entirelyполностью trustworthyзаслуживающий доверия
39
115680
2357
больше не считается
в полной мере надёжной,
02:10
and, at timesраз, can appearпоявиться
downrightсовершенно dangerousопасно.
40
118061
2328
а порой она может быть просто опасной.
02:12
This is thanksблагодаря in partчасть to the runawayубегай
growthрост of socialСоциальное sharingразделение platformsплатформы
41
120811
3937
Отчасти это благодаря стремительному
росту обмена в соцсетях,
02:16
that allowпозволять us to scrollсвиток throughчерез,
42
124772
1642
который позволяет нам пролистывать
02:18
where liesвранье and factsфакты sitсидеть sideбоковая сторона by sideбоковая сторона,
43
126438
2222
ленту, где ложь и правда стоят бок о бок,
02:20
but with noneникто of the traditionalтрадиционный
signalsсигналы of trustworthinessкредитоспособность.
44
128684
3071
без единого привычного
признака надёжности.
02:24
And goodnessдоброта -- our languageязык around this
is horriblyужасно muddledзапутаны.
45
132268
3619
И о боже — наш язык
в этой теме ужасно запутан.
02:27
People are still obsessedодержимый
with the phraseфраза "fakeне настоящие newsНовости,"
46
135911
3103
Люди одержимы этой фразой
«фейковые новости»,
02:31
despiteнесмотря the factфакт that
it's extraordinarilyчрезвычайно unhelpfulбесполезно
47
139038
2531
несмотря на то, что она
абсолютно бесполезная
02:33
and used to describeописывать a numberномер of things
that are actuallyна самом деле very differentдругой:
48
141593
3460
и обозначает несколько понятий,
которые на самом деле сильно различаются:
02:37
liesвранье, rumorsслухи, hoaxesмистификаций,
conspiraciesзаговоры, propagandaпропаганда.
49
145077
3386
ложь, слухи, «утки», заговоры, пропаганда.
02:40
And I really wishжелание
we could stop usingс помощью a phraseфраза
50
148911
2912
И я бы хотела, чтобы мы
перестали использовать фразу,
02:43
that's been co-optedкооптированный by politiciansполитики
right around the worldМир,
51
151847
2862
которую применяют политики по всему миру,
02:46
from the left and the right,
52
154733
1471
от левых до правых,
02:48
used as a weaponоружие to attackатака
a freeсвободно and independentнезависимый pressНажмите.
53
156228
3222
в качестве оружия против
свободной и независимой прессы.
02:52
(ApplauseАплодисменты)
54
160307
4702
(Аплодисменты)
02:57
Because we need our professionalпрофессиональный
newsНовости mediaСМИ now more than ever.
55
165033
3462
Ведь сейчас мы нуждаемся в наших
профессиональных СМИ как никогда.
03:00
And besidesКроме, mostбольшинство of this contentсодержание
doesn't even masqueradeмаскарад as newsНовости.
56
168882
3373
И кроме того, бóльшую часть
контента не маскируют под новости.
03:04
It's memesмемы, videosвидео, socialСоциальное postsсообщений.
57
172279
2642
Это мемы, видео, посты.
03:06
And mostбольшинство of it is not fakeне настоящие;
it's misleadingвводящий в заблуждение.
58
174945
3453
И бóльшая часть из них не фейк;
они просто вводят нас в заблуждение.
03:10
We tendиметь тенденцию to fixateзакреплять on what's trueправда or falseложный.
59
178422
3015
Мы привыкли заострять внимание
на том, что верно или неверно.
03:13
But the biggestсамый большой concernбеспокойство is actuallyна самом деле
the weaponizationвепонизации of contextконтекст.
60
181461
4032
Но самая большая проблема — это
применение контекста в качестве оружия.
03:18
Because the mostбольшинство effectiveэффективный disinformationдезинформация
61
186855
1968
Потому что самой эффективной
03:20
has always been that
whichкоторый has a kernelядро of truthправда to it.
62
188847
3048
дезинформацией всегда была та,
в которой есть доля правды.
03:23
Let's take this exampleпример
from LondonЛондон, from MarchМарт 2017,
63
191919
3476
Возьмём вот этот пример
из Лондона, март 2017 года,
03:27
a tweetчирикать that circulatedраспространен widelyшироко
64
195419
1540
твит, широко распространённый
03:28
in the aftermathотава of a terroristтеррорист incidentинцидент
on WestminsterWestminster BridgeМост.
65
196983
3587
вследствие теракта
на Вестминстерском мосту.
03:32
This is a genuineподлинный imageобраз, not fakeне настоящие.
66
200594
2428
Это настоящая фотография, не фейк.
03:35
The womanженщина who appearsпоявляется in the photographфотография
was interviewedинтервью afterwardsвпоследствии,
67
203046
3169
Потом у женщины с этой
фотографии взяли интервью,
03:38
and she explainedобъяснил that
she was utterlyвконец traumatizedтравмированный.
68
206239
2409
и она объяснила,
что была глубоко шокирована.
03:40
She was on the phoneТелефон to a lovedлюбимый one,
69
208672
1738
По телефону она говорила с близкими
03:42
and she wasn'tне было looking
at the victimжертва out of respectуважение.
70
210434
2618
и не смотрела на жертву из уважения.
03:45
But it still was circulatedраспространен widelyшироко
with this IslamophobicИсламофобия framingобрамление,
71
213076
3960
Но этот твит по-прежнему
распространяли в исламофобском ключе
03:49
with multipleмножественный hashtagsХештеги,
includingв том числе: #BanIslamБанИслам.
72
217060
3046
с множеством хэштегов, включая
#BanIslam («Запретить ислам»).
03:52
Now, if you workedработал at Twitterщебет,
what would you do?
73
220425
2398
Если бы вы работали в Твиттере,
что бы вы сделали?
03:54
Would you take that down,
or would you leaveоставлять it up?
74
222847
2562
Вы бы его удалили или оставили?
03:58
My gutпотрошить reactionреакция, my emotionalэмоциональный reactionреакция,
is to take this down.
75
226553
3429
Моей инстинктивной, эмоциональной
реакцией было бы удалить это.
04:02
I hateненавидеть the framingобрамление of this imageобраз.
76
230006
2142
Я против того, в каком
ключе это представлено.
04:04
But freedomсвобода of expressionвыражение
is a humanчеловек right,
77
232585
2388
Но свобода слова — это право человека,
04:06
and if we startНачало takingпринятие down speechречь
that makesмарки us feel uncomfortableнеудобный,
78
234997
3225
и если мы начнём удалять высказывания,
от которых нам некомфортно,
04:10
we're in troubleбеда.
79
238246
1230
то мы окажемся в беде.
04:11
And this mightмог бы look like a clear-cutчеткий caseдело,
80
239500
2294
И этот случай может показаться очевидным,
04:13
but, actuallyна самом деле, mostбольшинство speechречь isn't.
81
241818
1698
но чаще всего это не так.
04:15
These linesлинии are incrediblyневероятно
difficultсложно to drawпривлечь.
82
243540
2436
И границы невероятно сложно провести.
04:18
What's a well-meaningблагонамеренный
decisionрешение by one personчеловек
83
246000
2281
То, что для одного человека
решение во благо,
04:20
is outrightпрямой censorshipцензура to the nextследующий.
84
248305
2077
для другого — явная цензура.
04:22
What we now know is that
this accountСчет, TexasТехас Loneодинокий Starзвезда,
85
250759
2929
Мы знаем, что аккаунт Texas Lone Star
04:25
was partчасть of a widerШире Russianрусский
disinformationдезинформация campaignкампания,
86
253712
3230
был частью более широкой
российской кампании по дезинформации,
04:28
one that has sinceпоскольку been takenвзятый down.
87
256966
2151
который после этого был удалён.
04:31
Would that changeизменение your viewПосмотреть?
88
259141
1563
Изменило бы это ваш взгляд?
04:33
It would mineмой,
89
261322
1159
Мой бы изменило,
04:34
because now it's a caseдело
of a coordinatedкоординированный campaignкампания
90
262505
2301
потому что теперь это случай
намеренной кампании
04:36
to sowсвиноматка discordдиссонанс.
91
264830
1215
с целью сеять распри.
04:38
And for those of you who'dкто бы like to think
92
266069
1961
А те из вас, кому хотелось бы думать,
04:40
that artificialискусственный intelligenceинтеллект
will solveрешать all of our problemsпроблемы,
93
268054
2831
что искусственный интеллект
решит все наши проблемы,
04:42
I think we can agreeдать согласие
that we're a long way away
94
270909
2225
думаю, вы согласитесь,
что нам ещё далеко
04:45
from AIискусственный интеллект that's ableв состоянии to make senseсмысл
of postsсообщений like this.
95
273158
2587
до ИИ, который бы смог
осмыслить подобные посты.
04:48
So I'd like to explainобъяснять
threeтри interlockingблокировка issuesвопросы
96
276856
2507
Я хотела бы объяснить
три взаимосвязанных аспекта,
04:51
that make this so complexсложный
97
279387
2373
которые всё это сильно усложняют,
04:53
and then think about some waysпути
we can considerрассматривать these challengesпроблемы.
98
281784
3122
и затем поразмышлять о том,
как мы можем эти задачи решить.
04:57
First, we just don't have
a rationalрациональный relationshipотношения to informationИнформация,
99
285348
3890
Во-первых, у нас нет рациональных
взаимоотношений с информацией,
05:01
we have an emotionalэмоциональный one.
100
289262
1468
а есть лишь эмоциональные.
05:02
It's just not trueправда that more factsфакты
will make everything OK,
101
290754
3794
И большее количество фактов
ситуацию не улучшит,
05:06
because the algorithmsалгоритмы that determineопределить
what contentсодержание we see,
102
294572
3100
ведь алгоритмы, которые
определяют контент в нашей ленте, —
05:09
well, they're designedпредназначенный to rewardнаграда
our emotionalэмоциональный responsesответы.
103
297696
3127
что ж, они призваны поощрять
наши эмоциональные порывы.
05:12
And when we're fearfulнапуганный,
104
300847
1381
А когда мы напуганы,
05:14
oversimplifiedслишком упрощенный narrativesнарративы,
conspiratorialзаговорщический explanationsобъяснения
105
302252
3174
поверхностная информация,
объяснения заговоров
05:17
and languageязык that demonizesдемонизирует othersдругие
is farдалеко more effectiveэффективный.
106
305450
3418
и уничижающие других слова
более чем эффективны.
05:21
And besidesКроме, manyмногие of these companiesкомпании,
107
309538
1874
Кроме того, у многих из этих компаний
05:23
theirих businessбизнес modelмодель
is attachedприложенный to attentionвнимание,
108
311436
2546
бизнес-модель связана с вниманием,
05:26
whichкоторый meansозначает these algorithmsалгоритмы
will always be skewedперекос towardsв направлении emotionэмоция.
109
314006
3690
что означает: эти алгоритмы всегда
будут склоняться в сторону эмоций.
05:30
Secondвторой, mostбольшинство of the speechречь
I'm talkingговорящий about here is legalправовой.
110
318371
4298
Во-вторых, бóльшая часть высказываний,
о которых я говорю, законны.
05:35
It would be a differentдругой matterдело
111
323081
1446
И было бы совсем другое дело,
05:36
if I was talkingговорящий about
childребенок sexualполовой abuseзлоупотребление imageryобразность
112
324551
2341
если бы я говорила о растлении детей
05:38
or contentсодержание that incitesподстрекает violenceнасилие.
113
326916
1927
или о контенте, провоцирующем насилие.
05:40
It can be perfectlyв совершенстве legalправовой
to postпосле an outrightпрямой lieложь.
114
328867
3270
Публиковать откровенную ложь
может быть совершенно законно.
05:45
But people keep talkingговорящий about takingпринятие down
"problematicпроблематичный" or "harmfulвредный" contentсодержание,
115
333130
4034
Но люди продолжают говорить об удалении
«проблемного» или «вредоносного» контента,
05:49
but with no clearЧисто definitionопределение
of what they mean by that,
116
337188
2609
причём не давая чёткого
определения тому, о чём говорят,
05:51
includingв том числе Markотметка ZuckerbergЦукерберг,
117
339821
1264
включая Марка Цукерберга,
05:53
who recentlyв последнее время calledназывается for globalГлобальный
regulationрегулирование to moderateумеренный speechречь.
118
341109
3412
который недавно призывал разработать
единые правила регулирования сети.
05:56
And my concernбеспокойство is that
we're seeingвидя governmentsправительства
119
344870
2215
И я обеспокоена тем, что у нас на глазах
05:59
right around the worldМир
120
347109
1292
государства по всему миру
06:00
rollingпрокатка out hastyпоспешный policyполитика decisionsрешения
121
348425
2676
принимают поспешные
политические решения,
06:03
that mightмог бы actuallyна самом деле triggerвызывать
much more seriousсерьезный consequencesпоследствия
122
351125
2746
которые могут повлечь намного
более серьёзные последствия
06:05
when it comesвыходит to our speechречь.
123
353895
1714
в отношении свободы слова.
06:08
And even if we could decideпринимать решение
whichкоторый speechречь to take up or take down,
124
356006
3706
И даже если бы мы могли решить,
какое высказывание удалить или оставить,
06:11
we'veмы в never had so much speechречь.
125
359736
2174
у нас никогда их не было
в таком количестве.
06:13
Everyкаждый secondвторой, millionsмиллионы
of piecesкуски of contentсодержание
126
361934
2131
Каждую секунду люди со всего мира
06:16
are uploadedзакачанный by people
right around the worldМир
127
364089
2107
загружают миллионы единиц контента
06:18
in differentдругой languagesязыки,
128
366220
1168
на разных языках,
06:19
drawingРисование on thousandsтысячи
of differentдругой culturalкультурный contextsконтексты.
129
367412
2768
относящихся к тысячам разных
культурных контекстов.
06:22
We'veУ нас simplyпросто never had
effectiveэффективный mechanismsмеханизмы
130
370204
2532
У нас просто никогда не было
эффективных механизмов
06:24
to moderateумеренный speechречь at this scaleмасштаб,
131
372760
1738
проверки постов в таком масштабе,
06:26
whetherбудь то poweredпитание by humansлюди
or by technologyтехнологии.
132
374522
2801
с которыми бы справились
люди или технологии.
06:30
And thirdв третьих, these companiesкомпании --
GoogleGoogle, Twitterщебет, Facebookfacebook, WhatsAppWhatsApp --
133
378284
3944
И в-третьих, эти компании —
Google, Twitter, Facebook, WhatsApp —
06:34
they're partчасть of a widerШире
informationИнформация ecosystemэкосистема.
134
382252
2841
являются частью более широкой
информационной экосистемы.
06:37
We like to layпрокладывать all the blameвина
at theirих feetноги, but the truthправда is,
135
385117
3352
Мы любим возлагать всю вину
на них, но правда в том,
06:40
the massмасса mediaСМИ and electedизбран officialsдолжностные лица
can alsoтакже playиграть an equalравный roleроль
136
388493
3830
что СМИ и депутаты могут
играть такую же роль
06:44
in amplifyingусиливающий rumorsслухи and conspiraciesзаговоры
when they want to.
137
392347
2913
в распространении слухов и заговоров,
когда они этого захотят.
06:47
As can we, when we mindlesslyбездумно forwardвперед
divisiveразделяющий or misleadingвводящий в заблуждение contentсодержание
138
395800
4944
Как и мы, когда бездумно рассылаем
спорный или недостоверный контент
06:52
withoutбез tryingпытаясь.
139
400768
1285
без особых усилий.
06:54
We're addingдобавление to the pollutionзагрязнение.
140
402077
1800
Мы способствуем засорению.
06:57
I know we're all looking for an easyлегко fixфиксировать.
141
405236
2618
Я знаю, что все мы ищем простое решение.
06:59
But there just isn't one.
142
407878
1667
Но такого нет.
07:01
Any solutionрешение will have to be rolledпрокат out
at a massiveмассивный scaleмасштаб, internetинтернет scaleмасштаб,
143
409950
4445
Любое решение должно применяться
глобально в масштабе интернета,
07:06
and yes, the platformsплатформы,
they're used to operatingоперационная at that levelуровень.
144
414419
3261
и да, эти платформы привыкли
действовать на этом уровне.
07:09
But can and should we allowпозволять them
to fixфиксировать these problemsпроблемы?
145
417704
3472
Но можем ли и должны ли мы
позволять им решать эти проблемы?
Они, безусловно, стараются.
07:13
They're certainlyбезусловно tryingпытаясь.
146
421668
1232
07:14
But mostбольшинство of us would agreeдать согласие that, actuallyна самом деле,
we don't want globalГлобальный corporationsкорпорации
147
422924
4086
Но большинство из нас согласится,
мы не хотим, чтобы всемирные корпорации
07:19
to be the guardiansопекуны of truthправда
and fairnessсправедливость onlineонлайн.
148
427034
2332
стояли на страже правды
и справедливости в сети.
07:21
And I alsoтакже think the platformsплатформы
would agreeдать согласие with that.
149
429390
2537
И я также думаю, что платформы
с этим согласятся.
07:24
And at the momentмомент,
they're markingмаркировка theirих ownсвоя homeworkдомашнее задание.
150
432257
2881
И в настоящий момент они
выполняют своё домашнее задание.
07:27
They like to tell us
151
435162
1198
Они любят говорить нам,
07:28
that the interventionsвмешательства
they're rollingпрокатка out are workingза работой,
152
436384
2579
что изменения, которые
они проводят, работают,
07:30
but because they writeзаписывать
theirих ownсвоя transparencyпрозрачность reportsотчеты,
153
438987
2540
но они пишут собственные
отчёты о прозрачности,
07:33
there's no way for us to independentlyнезависимо
verifyпроверить what's actuallyна самом деле happeningпроисходит.
154
441551
3618
и у нас нет возможности самим проверить,
как обстоят дела в действительности.
07:38
(ApplauseАплодисменты)
155
446431
3342
(Аплодисменты)
07:41
And let's alsoтакже be clearЧисто
that mostбольшинство of the changesизменения we see
156
449797
2952
И будем честны, бóльшую
часть изменений мы видим
07:44
only happenслучаться after journalistsжурналисты
undertakeпредпринимать an investigationрасследование
157
452773
2994
лишь после того, как журналисты
предпринимают расследование
07:47
and find evidenceдоказательства of biasсмещение
158
455791
1611
и находят доказательства
07:49
or contentсодержание that breaksбрейки
theirих communityсообщество guidelinesметодические рекомендации.
159
457426
2829
предвзятости или контент,
нарушающий правила их платформы.
07:52
So yes, these companiesкомпании have to playиграть
a really importantважный roleроль in this processобработать,
160
460815
4595
Так что да, эти компании должны
сыграть очень важную роль в этом процессе,
07:57
but they can't controlконтроль it.
161
465434
1560
но они не должны им управлять.
07:59
So what about governmentsправительства?
162
467855
1518
Что насчёт государств?
08:01
ManyМногие people believe
that globalГлобальный regulationрегулирование is our last hopeнадежда
163
469863
3096
Многие верят, что единое регулирование —
наша последняя надежда
08:04
in termsсроки of cleaningуборка up
our informationИнформация ecosystemэкосистема.
164
472983
2880
в рамках очищения нашей
информационной экосистемы.
08:07
But what I see are lawmakersзаконодатели
who are strugglingборющийся to keep up to dateДата
165
475887
3166
Но что я вижу, так это законотворцев,
пытающихся идти в ногу
08:11
with the rapidбыстрый changesизменения in technologyтехнологии.
166
479077
2341
с быстрым развитием технологий.
08:13
And worseхуже, they're workingза работой in the darkтемно,
167
481442
1904
И что хуже, они работают вслепую,
08:15
because they don't have accessдоступ to dataданные
168
483370
1821
потому что у них нет доступа к данным,
08:17
to understandПонимаю what's happeningпроисходит
on these platformsплатформы.
169
485215
2650
чтобы понять, что происходит
на этих платформах.
08:20
And anywayтак или иначе, whichкоторый governmentsправительства
would we trustдоверять to do this?
170
488260
3071
К тому же, каким государствам
мы бы доверились в этом вопросе?
08:23
We need a globalГлобальный responseответ,
not a nationalнациональный one.
171
491355
2770
Нам нужно действовать
на мировом уровне, а не национальном.
08:27
So the missingотсутствует linkссылка is us.
172
495419
2277
Так что недостающее звено — это мы.
08:29
It's those people who use
these technologiesтехнологии everyкаждый day.
173
497720
3123
Те люди, что используют
эти технологии каждый день.
08:33
Can we designдизайн a newновый infrastructureинфраструктура
to supportподдержка qualityкачественный informationИнформация?
174
501260
4591
Можем ли мы создать новую инфраструктуру,
чтобы защитить качественную информацию?
08:38
Well, I believe we can,
175
506371
1230
Что ж, я верю в это,
08:39
and I've got a fewмало ideasидеи about
what we mightмог бы be ableв состоянии to actuallyна самом деле do.
176
507625
3357
и у меня есть несколько идей
о том, что мы могли бы сделать.
08:43
So firstlyв первую очередь, if we're seriousсерьезный
about bringingприведение the publicобщественности into this,
177
511006
3103
Во-первых, если мы всерьёз
хотим вовлечь в это общественность,
08:46
can we take some inspirationвдохновение
from WikipediaВикипедия?
178
514133
2381
почему бы не взять пример с Википедии?
08:48
They'veУ них есть shownпоказанный us what's possibleвозможное.
179
516538
1824
Они показали нам, что возможно.
08:50
Yes, it's not perfectидеально,
180
518386
1151
Да, она не идеальна,
08:51
but they'veони имеют demonstratedпродемонстрировал
that with the right structuresсооружения,
181
519561
2634
но они показали,
что с правильными структурами,
08:54
with a globalГлобальный outlookпрогноз
and lots and lots of transparencyпрозрачность,
182
522219
2635
глобальным видением
и высокой степенью прозрачности
08:56
you can buildстроить something
that will earnзарабатывать the trustдоверять of mostбольшинство people.
183
524878
3096
можно создать то, что заслужит
доверие многих людей.
08:59
Because we have to find a way
to tapнажмите into the collectiveколлектив wisdomмудрость
184
527998
3162
Ведь мы должны найти способ
проникнуть в коллективную мудрость
09:03
and experienceопыт of all usersпользователи.
185
531184
2309
и опыт всех пользователей.
09:05
This is particularlyв частности the caseдело
for womenженщины, people of colorцвет
186
533517
2646
Особенно это актуально
для женщин, «цветных» людей
09:08
and underrepresentedнедопредставленными groupsгруппы.
187
536187
1346
и недопредставленных групп.
09:09
Because guessУгадай what?
188
537557
1166
Потому что знаете что?
09:10
They are expertsэксперты when it comesвыходит
to hateненавидеть and disinformationдезинформация,
189
538747
2735
Они эксперты по части
ненависти и дезинформации,
09:13
because they have been the targetsцели
of these campaignsкампании for so long.
190
541506
3516
потому что они так долго были
мишенями этих кампаний.
09:17
And over the yearsлет,
they'veони имеют been raisingпривлечение flagsфлаги,
191
545046
2350
И в течение этих лет они поднимали флаги,
09:19
and they haven'tне been listenedприслушивался to.
192
547420
1665
но никто их не слушал.
09:21
This has got to changeизменение.
193
549109
1280
Это должно измениться.
09:22
So could we buildстроить a WikipediaВикипедия for trustдоверять?
194
550807
4326
Так смогли бы мы создать
Википедию, основанную на доверии?
09:27
Could we find a way that usersпользователи
can actuallyна самом деле provideпредоставлять insightsпонимание?
195
555157
4189
Смогли бы мы найти способ, чтобы
пользователи могли предлагать идеи?
09:31
They could offerпредлагает insightsпонимание around
difficultсложно content-moderationконтент-модерация decisionsрешения.
196
559370
3697
Они могли бы предлагать идеи
по сложным решениям в модерации контента.
09:35
They could provideпредоставлять feedbackОбратная связь
197
563091
1463
Они могли бы давать отклик,
09:36
when platformsплатформы decideпринимать решение
they want to rollрулон out newновый changesизменения.
198
564578
3041
когда платформы решат,
что хотят внести новые изменения.
09:40
Secondвторой, people'sнародный experiencesопыт
with the informationИнформация is personalizedперсонализированные.
199
568241
4162
Во-вторых, у людей индивидуальные
отношения с информацией.
09:44
My Facebookfacebook newsНовости feedкорм
is very differentдругой to yoursваш.
200
572427
2643
Моя лента в Facebook
сильно отличается от вашей.
09:47
Your YouTubeYouTube recommendationsрекомендации
are very differentдругой to mineмой.
201
575094
2745
Ваши рекомендации в Youtube
сильно отличаются от моих.
09:49
That makesмарки it impossibleневозможно for us
to actuallyна самом деле examineисследовать
202
577863
2492
Из-за этого мы не можем
по-настоящему проверить,
09:52
what informationИнформация people are seeingвидя.
203
580379
2023
какую информацию видят люди.
09:54
So could we imagineпредставить
204
582815
1389
Но что если бы мы
09:56
developingразвивающийся some kindсвоего рода of centralizedцентрализованная
openоткрытый repositoryхранилище for anonymizedанонимный dataданные,
205
584228
4778
разработали что-то вроде централизованной
открытой базы анонимных данных
10:01
with privacyКонфиденциальность and ethicalэтический
concernsпроблемы builtпостроен in?
206
589030
2864
с сохранением конфиденциальности
и соблюдением этики?
10:04
Because imagineпредставить what we would learnучить
207
592220
1778
Ведь представьте, что мы узнали бы,
10:06
if we builtпостроен out a globalГлобальный networkсеть
of concernedобеспокоенный citizensграждане
208
594022
3261
создай мы всемирную сеть
заинтересованных граждан,
10:09
who wanted to donateжертвовать
theirих socialСоциальное dataданные to scienceнаука.
209
597307
3294
желающих пожертвовать
свои социальные данные науке.
10:13
Because we actuallyна самом деле know very little
210
601141
1722
Ведь на самом деле мы мало знаем
10:14
about the long-termдолгосрочный consequencesпоследствия
of hateненавидеть and disinformationдезинформация
211
602887
2881
о долгосрочных последствиях
ненависти и дезинформации
10:17
on people'sнародный attitudesотношения and behaviorsповедения.
212
605792
1975
в отношениях и поведении людей.
10:20
And what we do know,
213
608236
1167
А то, что нам известно,
10:21
mostбольшинство of that has been
carriedосуществляется out in the US,
214
609427
2193
по большей части исследовано в США,
10:23
despiteнесмотря the factфакт that
this is a globalГлобальный problemпроблема.
215
611644
2381
несмотря на то, что это
всемирная проблема.
10:26
We need to work on that, too.
216
614049
1635
Нам тоже нужно работать над этим.
10:28
And thirdв третьих,
217
616192
1150
И в-третьих,
10:29
can we find a way to connectсоединять the dotsточек?
218
617366
2310
можно ли найти способ
связать всё это воедино?
10:31
No one sectorсектор, let aloneв одиночестве nonprofitнекоммерческий,
start-upзапускать or governmentправительство,
219
619700
3438
Ни один сектор, тем более некоммерческий,
стартап или государство,
10:35
is going to solveрешать this.
220
623162
1422
не решат эту проблему.
10:36
But there are very smartумная people
right around the worldМир
221
624608
2564
Но по всему миру находятся
очень умные люди,
10:39
workingза работой on these challengesпроблемы,
222
627196
1381
работающие над этим,
10:40
from newsroomsньюзрумы, civilгражданского societyобщество,
academiaакадемия, activistактивист groupsгруппы.
223
628601
3576
из редакций, гражданского общества,
академии, групп активистов.
10:44
And you can see some of them here.
224
632201
1898
Некоторых из них вы видите здесь.
10:46
Some are buildingздание out indicatorsпоказатели
of contentсодержание credibilityправдоподобие.
225
634123
2927
Одни определяют факторы
надёжности контента.
10:49
Othersдругие are fact-checkingпроверка фактов,
226
637074
1246
Другие проверяют факты,
10:50
so that falseложный claimsтребования, videosвидео and imagesизображений
can be down-rankedвниз-рейтинг by the platformsплатформы.
227
638344
3591
чтобы платформы могли снизить охват
ложных утверждений, видео и картинок.
10:53
A nonprofitнекоммерческий I helpedпомог
to foundнайденный, First DraftПроект,
228
641959
2213
НКО First Draft, которую
я помогла основать,
10:56
is workingза работой with normallyкак обычно competitiveконкурентоспособный
newsroomsньюзрумы around the worldМир
229
644196
2968
работает с конкурентноспособными
редакциями по всему миру,
10:59
to help them buildстроить out investigativeследственный,
collaborativeсовместный programsпрограммы.
230
647188
3503
чтобы помочь им создать
исследовательские коллективные программы.
11:03
And DannyДэнни HillisХиллиса, a softwareпрограммного обеспечения architectархитектор,
231
651231
2309
И Дэнни Хиллис, разработчик структуры ПО,
11:05
is designingпроектирование a newновый systemсистема
calledназывается The UnderlayПодложки,
232
653564
2381
работает над новой системой The Underlay,
11:07
whichкоторый will be a recordзапись
of all publicобщественности statementsзаявления of factфакт
233
655969
2775
которая будет содержать записи
всех публичных утверждений
11:10
connectedсвязанный to theirих sourcesисточники,
234
658768
1329
с указанием их источника,
11:12
so that people and algorithmsалгоритмы
can better judgeсудья what is credibleзаслуживающий доверия.
235
660121
3654
так люди и алгоритмы смогут лучше
оценить, чему можно доверять.
11:16
And educatorsвоспитатели around the worldМир
are testingтестирование differentдругой techniquesметоды
236
664800
3356
А эксперты по образованию во всём мире
тестируют разные методы,
11:20
for findingобнаружение waysпути to make people
criticalкритический of the contentсодержание they consumeпотреблять.
237
668180
3484
чтобы научить людей критически
относиться к потребляемому контенту.
11:24
All of these effortsусилия are wonderfulзамечательно,
but they're workingза работой in silosбункеры,
238
672633
3141
Все эти усилия чудесны,
но они действуют разрозненно,
11:27
and manyмногие of them are woefullyудручающе underfundedнедофинансируются.
239
675798
2680
и многие из них крайне мало финансируются.
11:30
There are alsoтакже hundredsсотни
of very smartумная people
240
678502
2053
К тому же есть сотни очень умных людей,
11:32
workingза работой insideвнутри these companiesкомпании,
241
680579
1652
работающих внутри этих компаний,
11:34
but again, these effortsусилия
can feel disjointedразрозненные,
242
682255
2325
но опять же, эти усилия разрозненны,
11:36
because they're actuallyна самом деле developingразвивающийся
differentдругой solutionsрешения to the sameодна и та же problemsпроблемы.
243
684604
3937
потому что по сути они предлагают разные
решения для одной и той же проблемы.
11:41
How can we find a way
to bringприносить people togetherвместе
244
689205
2269
Как нам найти способ собрать людей вместе
11:43
in one physicalфизическое locationместо нахождения
for daysдней or weeksнедель at a time,
245
691498
3278
в одном физическом пространстве
на дни и недели за раз,
11:46
so they can actuallyна самом деле tackleснасти
these problemsпроблемы togetherвместе
246
694800
2396
чтобы они могли решать
эти проблемы вместе,
11:49
but from theirих differentдругой perspectivesперспективы?
247
697220
1818
но с разных точек зрения?
11:51
So can we do this?
248
699062
1340
Так можем ли мы это сделать?
11:52
Can we buildстроить out a coordinatedкоординированный,
ambitiousамбициозный responseответ,
249
700426
3239
Можем ли мы создать совместное
перспективное решение,
11:55
one that matchesМатчи the scaleмасштаб
and the complexityсложность of the problemпроблема?
250
703689
3709
которое бы соотносилось
с масштабом и сложностью проблемы?
11:59
I really think we can.
251
707819
1373
Я думаю, что мы можем.
12:01
TogetherВместе, let's rebuildперестраивать
our informationИнформация commonsОбще.
252
709216
2959
Давайте вместе изменим
нашу общую информационную систему.
12:04
Thank you.
253
712819
1190
Спасибо.
12:06
(ApplauseАплодисменты)
254
714033
3728
(Аплодисменты)
Translated by Yulia Alexeychuk
Reviewed by Yulia Kallistratova

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com