ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

કલેર વારલ્ડે: તમે કેવી રીતે ઈન્ટરનેટને વિશ્રસ્વનીય માધ્યમ બનાવી શકો?

Filmed:
1,319,606 views

આપણે કેવી રીતે ગેરમાર્ગે દોરનારા અને જોખમી વાચન સામગ્રીને અટકાવવા તેમજ કેવી રીતે ઈન્ટરનેટને વિશ્રસ્વનીય માધ્યમ બનાવ્વુ એના મૂળમાં ? ખોટી માહિતી ફેલાવતી અટકાવવાના નિષ્ણાત કલેર વારલ્ડે લોકોની મદદથી ઈન્ટરનેટની દુનિયાના નવા પડકારો તેમજ આપણા દુષિત ઈન્ટરનેટના માધ્યમને ફેલાવતુ અટકાવવા તેમજ ઈન્ટરનેટને વિશ્રસ્વનીય માધ્યમ બનાવ્વા ઈચ્છે છે "આપણે સૌ સાથે મળીને આપણા માહિતીના માધ્યમનુ (ઈન્ટરનેટનુ) પુનઃનિમાણ કરીએ" - કલેર વારલ્ડે
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matter who you are or where you live,
0
1548
2516
આ બાબતે કશુ લાગુ પડતુ નથી કે. તમે કોણ છો અથવા તમે કયા થી આવો છો
00:16
I'm guessing that you have
at least one relative
1
4088
2356
હું ધારું છું કે તમારે ત્યાં કોઈ એવો સંબંધી હશે જ જે
00:18
that likes to forward those emails.
2
6468
2334
તમને ઈ મેઈલ આપવાનું પસંદ કરતો હશે.
00:21
You know the ones I'm talking about --
3
9206
1900
તમે જાણો છો હું કોના વિશે વાત કરું છું.
00:23
the ones with dubious claims
or conspiracy videos.
4
11130
2854
એ જ જે શંકાસ્પદ દાવો કરનાર અથવા કાવતરું ધરાવનાર વિડિયો ફેલાવે છે.
00:26
And you've probably
already muted them on Facebook
5
14315
2668
અને તમે તેને ફેસબુક પર પણ મુંટ કર્યો જ હશે
00:29
for sharing social posts like this one.
6
17007
2348
તેવી પોસ્ટ શેર કરવા બદલ.
00:31
It's an image of a banana
7
19379
1404
આ એક એવી કેળાની તસવીર છે
00:32
with a strange red cross
running through the center.
8
20807
2667
જે વચ્ચે વિચિત્ર લાલ ચિહ્ન ધરાવે છે.
00:35
And the text around it is warning people
9
23498
2139
એનુ લખાણ એની સાથે લોકોને સાવચેત કરે છે
00:37
not to eat fruits that look like this,
10
25661
2158
કે આ પ્રકારનું ફળ ના ખાવું જોઈએ
00:39
suggesting they've been
injected with blood
11
27843
2028
એવું સૂચન કરે છે કે એ લોહીથી દાખલ કરેલ હોય છે
00:41
contaminated with the HIV virus.
12
29895
2130
જે એચઆઈવી વાયરસથી દુષિત થયેલા છે.
00:44
And the social share message
above it simply says,
13
32049
2603
અને એના ઉપરનો સામાજિક સંદેશ કહે છે કે
00:46
"Please forward to save lives."
14
34676
2181
કૃપા કરીને કોઈનું જીવન બચાવવા આગળ પહોચાડો
00:49
Now, fact-checkers have been debunking
this one for years,
15
37672
3294
હવે હકીકત શોધનારા પણ આ કલ્પિત વાતને ખુલ્લા પાડવા પ્રયત્ન કરી રહ્યા છે
00:52
but it's one of those rumors
that just won't die.
16
40990
2809
પણ આ એક એવી અફવા છે જે ખતમ થતી નથી
00:55
A zombie rumor.
17
43823
1271
એક ઝોમબી જેવી અફવા
00:57
And, of course, it's entirely false.
18
45513
2093
અને ખરેખર આ આખી જ ખોટી છે
01:00
It might be tempting to laugh
at an example like this, to say,
19
48180
2959
કદાચ કહેવામાં આ એક હસી કાઢવા જેવું ઉદાહરણ છે
01:03
"Well, who would believe this, anyway?"
20
51163
1884
સારુ હવે કોણ આમાં વિશ્વાસ કરી રહ્યા છે?
01:05
But the reason it's a zombie rumor
21
53419
1626
કેમ કે આ એક ઝોમબી જેવી અફવા છે
01:07
is because it taps into people's
deepest fears about their own safety
22
55069
3889
કારણ કે આ લોકોના સૌથી ખરાબ ડર કે જે સુરક્ષાનો છે
01:10
and that of the people they love.
23
58982
2175
અને જેમને તેઓ પ્રેમ કરે છે
01:13
And if you spend as enough time
as I have looking at misinformation,
24
61783
3273
અને જો તમે મારી જેમ આ ખોટી માહિતી પર સમય પસાર કર્યો હશે તો
01:17
you know that this is just
one example of many
25
65080
2420
તમે જાણો છો કે આ ન્યાયી છે
ઘણા એક ઉદાહરણ
01:19
that taps into people's deepest
fears and vulnerabilities.
26
67524
3047
તે લોકોના સૌથી estંડાણમાં આવે છે
ભય અને નબળાઈઓ.
01:23
Every day, across the world,
we see scores of new memes on Instagram
27
71214
4369
દરરોજ, સમગ્ર વિશ્વમાં,
આપણે ઇન્સ્ટાગ્રામ પર અનેક નવી મેમ્સ જોયે છે
01:27
encouraging parents
not to vaccinate their children.
28
75607
3039
માતા - પિતા પ્રોત્સાહિત
તેમના બાળકોને રસી ન આપવી.
01:30
We see new videos on YouTube
explaining that climate change is a hoax.
29
78670
4532
અમે યુ ટ્યુબ પર નવી વિડિઓઝ જોયે છે
સમજાવવું કે હવામાન પલટો એ એક દગા છે.
01:35
And across all platforms, we see
endless posts designed to demonize others
30
83226
4302
અને બધા પ્લેટફોર્મ પર, આપણે જોઈએ છીએ
અન્યોને શેતાન કરવા માટે રચાયેલ અનંત પોસ્ટ્સ
01:39
on the basis of their race,
religion or sexuality.
31
87552
3501
તેમની જાતિના આધારે,
ધર્મ અથવા જાતિયતા.
01:44
Welcome to one of the central
challenges of our time.
32
92314
3030
એક કેન્દ્રીયમાં આપનું સ્વાગત છે
અમારા સમય પડકારો.
01:47
How can we maintain an internet
with freedom of expression at the core,
33
95647
4025
આપણે ઇન્ટરનેટ કેવી રીતે જાળવી શકીએ
મૂળમાં અભિવ્યક્તિની સ્વતંત્રતા સાથે,
01:51
while also ensuring that the content
that's being disseminated
34
99696
3303
સામગ્રીની ખાતરી કરતી વખતે
તે ફેલાવવામાં આવી રહી છે
01:55
doesn't cause irreparable harms
to our democracies, our communities
35
103023
3886
બદલી ન શકાય તેવી હાનિનું કારણ નથી
આપણા લોકશાહી, આપણા સમુદાયોને
01:58
and to our physical and mental well-being?
36
106933
2238
અને આપણી શારીરિક અને માનસિક સુખાકારી માટે?
02:01
Because we live in the information age,
37
109998
2087
કારણ કે આપણે માહિતી યુગમાં જીવીએ છીએ,
02:04
yet the central currency
upon which we all depend -- information --
38
112109
3547
હજુ સુધી કેન્દ્રીય ચલણ
જેના પર આપણે બધા આધાર રાખીએ છીએ - માહિતી -
02:07
is no longer deemed entirely trustworthy
39
115680
2357
તે હવે સંપૂર્ણ રીતે વિશ્વસનીય માનવામાં આવતું નથી
02:10
and, at times, can appear
downright dangerous.
40
118061
2328
અને, અમુક સમયે દેખાઈ શકે છે
એકદમ ખતરનાક.
02:12
This is thanks in part to the runaway
growth of social sharing platforms
41
120811
3937
આ ભાગેડુ ભાગ માટે આભાર છે
સામાજિક વહેંચણી પ્લેટફોર્મ વૃદ્ધિ
02:16
that allow us to scroll through,
42
124772
1642
જે અમને દ્વારા સ્ક્રોલ કરવાની મંજૂરી આપે છે,
02:18
where lies and facts sit side by side,
43
126438
2222
જ્યાં જુઠ્ઠાણા અને તથ્યો એક સાથે બેસે છે,
02:20
but with none of the traditional
signals of trustworthiness.
44
128684
3071
પરંતુ પરંપરાગત કંઈ સાથે
વિશ્વાસપાત્રતાના સંકેતો.
02:24
And goodness -- our language around this
is horribly muddled.
45
132268
3619
અને દેવતા - આની આસપાસ આપણી ભાષા
ભયાનક ગડબડ થયેલ છે.
02:27
People are still obsessed
with the phrase "fake news,"
46
135911
3103
લોકો હજી ઓબ્સેસ્ડ છે
"બનાવટી સમાચાર," વાક્ય સાથે
02:31
despite the fact that
it's extraordinarily unhelpful
47
139038
2531
તે હકીકત હોવા છતાં
તે અસાધારણ મદદ વિનાનું છે
02:33
and used to describe a number of things
that are actually very different:
48
141593
3460
અને ઘણી વસ્તુઓનું વર્ણન કરવા માટે વપરાય છે
કે ખરેખર ખૂબ જ અલગ છે:
02:37
lies, rumors, hoaxes,
conspiracies, propaganda.
49
145077
3386
જૂઠ્ઠાણા, અફવાઓ, દગાબાજી,
કાવતરાં, પ્રચાર.
02:40
And I really wish
we could stop using a phrase
50
148911
2912
અને હું ખરેખર ઈચ્છું છું
આપણે કોઈ વાક્યનો ઉપયોગ કરવાનું બંધ કરી શકીએ
02:43
that's been co-opted by politicians
right around the world,
51
151847
2862
તે રાજકારણીઓ દ્વારા પસંદ કરવામાં આવી છે
વિશ્વભરમાં,
02:46
from the left and the right,
52
154733
1471
ડાબી અને જમણી બાજુથી,
02:48
used as a weapon to attack
a free and independent press.
53
156228
3222
હુમલો કરવા માટે એક હથિયાર તરીકે ઉપયોગ
મફત અને સ્વતંત્ર પ્રેસ.
02:52
(Applause)
54
160307
4702
(તાળીઓ)
02:57
Because we need our professional
news media now more than ever.
55
165033
3462
કારણ કે આપણને આપણા વ્યાવસાયિકની જરૂર છે
ન્યૂઝ મીડિયા હવે કરતાં વધુ.
03:00
And besides, most of this content
doesn't even masquerade as news.
56
168882
3373
અને આ ઉપરાંત, આ મોટાભાગની સામગ્રી
સમાચાર તરીકે માસ્કરેડ પણ કરતું નથી.
03:04
It's memes, videos, social posts.
57
172279
2642
તે મેમ્સ, વિડિઓઝ, સામાજિક પોસ્ટ્સ છે.
03:06
And most of it is not fake;
it's misleading.
58
174945
3453
અને તેમાંના મોટાભાગના નકલી નથી;
તે ભ્રામક છે.
03:10
We tend to fixate on what's true or false.
59
178422
3015
આપણે જે સાચું છે કે ખોટું તે નક્કી કરવાનું વલણ ધરાવે છે.
03:13
But the biggest concern is actually
the weaponization of context.
60
181461
4032
પરંતુ સૌથી મોટી ચિંતા ખરેખર છે
સંદર્ભનું શસ્ત્રકરણ.
03:18
Because the most effective disinformation
61
186855
1968
કારણ કે સૌથી અસરકારક
ડિસઇન્ફોર્મેશન
03:20
has always been that
which has a kernel of truth to it.
62
188847
3048
હંમેશા કે કરવામાં આવી છે
જે તેની પાસે સત્યની કર્નલ છે.
03:23
Let's take this example
from London, from March 2017,
63
191919
3476
ચાલો આ ઉદાહરણ લઈએ
લંડનથી, માર્ચ 2017 થી,
03:27
a tweet that circulated widely
64
195419
1540
એક ટ્વીટ જે વ્યાપક રૂપે ફરતું થયું
03:28
in the aftermath of a terrorist incident
on Westminster Bridge.
65
196983
3587
આતંકવાદી ઘટના બાદ
વેસ્ટમિંસ્ટર બ્રિજ પર.
03:32
This is a genuine image, not fake.
66
200594
2428
આ અસલી છબી છે, નકલી નથી.
03:35
The woman who appears in the photograph
was interviewed afterwards,
67
203046
3169
ફોટોગ્રાફમાં દેખાતી મહિલા
પછી ઇન્ટરવ્યુ લેવામાં આવ્યો,
03:38
and she explained that
she was utterly traumatized.
68
206239
2409
અને તે સમજાવી
તે એકદમ આઘાતજનક હતી.
03:40
She was on the phone to a loved one,
69
208672
1738
તે કોઈ પ્રિય વ્યક્તિને ફોન પર હતી,
03:42
and she wasn't looking
at the victim out of respect.
70
210434
2618
અને તે જોઈ રહ્યો ન હતો
આદર બહાર પીડિત પર.
03:45
But it still was circulated widely
with this Islamophobic framing,
71
213076
3960
પરંતુ તે હજી પણ વ્યાપક રૂપે ફરતું હતું
આ ઇસ્લામોફોબીક ફ્રેમિંગ સાથે,
03:49
with multiple hashtags,
including: #BanIslam.
72
217060
3046
બહુવિધ હેશટેગ્સ સાથે,
શામેલ: #BanIslam.
03:52
Now, if you worked at Twitter,
what would you do?
73
220425
2398
હવે, જો તમે ટ્વિટર પર કામ કર્યું હોય,
તમે શું કરશો?
03:54
Would you take that down,
or would you leave it up?
74
222847
2562
તમે તેને નીચે લઈ જાઓ છો,
અથવા તમે તેને છોડી દો?
03:58
My gut reaction, my emotional reaction,
is to take this down.
75
226553
3429
મારી આંતરડાની પ્રતિક્રિયા, મારી ભાવનાત્મક પ્રતિક્રિયા,
આ નીચે લેવાનું છે.
04:02
I hate the framing of this image.
76
230006
2142
મને આ છબીના ઘડતરનો ધિક્કાર છે.
04:04
But freedom of expression
is a human right,
77
232585
2388
પરંતુ અભિવ્યક્તિની સ્વતંત્રતા
માનવ અધિકાર છે,
04:06
and if we start taking down speech
that makes us feel uncomfortable,
78
234997
3225
અને જો આપણે ભાષણ કરવાનું શરૂ કરીએ
જે આપણને અસ્વસ્થતા અનુભવે છે,
04:10
we're in trouble.
79
238246
1230
આપણે મુશ્કેલીમાં છીએ.
04:11
And this might look like a clear-cut case,
80
239500
2294
અને આ સ્પષ્ટ કેસ જેવા દેખાશે,
04:13
but, actually, most speech isn't.
81
241818
1698
પરંતુ, ખરેખર, મોટાભાગના ભાષણ એવું નથી.
04:15
These lines are incredibly
difficult to draw.
82
243540
2436
આ રેખાઓ અવિશ્વસનીય છે
દોરવા માટે મુશ્કેલ.
04:18
What's a well-meaning
decision by one person
83
246000
2281
શું એક સારા અર્થમાં છે
એક વ્યક્તિ દ્વારા નિર્ણય
04:20
is outright censorship to the next.
84
248305
2077
આગામી માટે સંપૂર્ણ સેન્સરશીપ છે.
04:22
What we now know is that
this account, Texas Lone Star,
85
250759
2929
આપણે હવે જે જાણીએ છીએ તે તે છે
આ એકાઉન્ટ, ટેક્સાસ લોન સ્ટાર,
04:25
was part of a wider Russian
disinformation campaign,
86
253712
3230
એક વિશાળ રશિયન ભાગ હતો
ડિસઇન્ફોર્મેશન અભિયાન,
04:28
one that has since been taken down.
87
256966
2151
એક કે જે નીચે લેવામાં આવ્યું છે.
04:31
Would that change your view?
88
259141
1563
શું તે તમારો મત બદલી શકશે?
04:33
It would mine,
89
261322
1159
તે મારું હશે,
04:34
because now it's a case
of a coordinated campaign
90
262505
2301
કારણ કે હવે તે એક કેસ છે
સંકલિત અભિયાનનો
04:36
to sow discord.
91
264830
1215
to sow discord.
04:38
And for those of you who'd like to think
92
266069
1961
અને તમારામાંના માટે જે વિચારવાનું પસંદ કરે છે
04:40
that artificial intelligence
will solve all of our problems,
93
268054
2831
કે કૃત્રિમ બુદ્ધિ
અમારી બધી સમસ્યાઓ હલ કરશે,
04:42
I think we can agree
that we're a long way away
94
270909
2225
મને લાગે છે કે આપણે સહમત થઈ શકીએ
કે આપણે ઘણા લાંબા અંતરે છીએ
04:45
from AI that's able to make sense
of posts like this.
95
273158
2587
એ.આઇ.માંથી જે અર્થપૂર્ણ છે
આની જેમ પોસ્ટ્સ.
04:48
So I'd like to explain
three interlocking issues
96
276856
2507
તેથી હું સમજાવવા માંગું છું
ત્રણ ઇન્ટરલોકિંગ મુદ્દાઓ
04:51
that make this so complex
97
279387
2373
જે આટલું જટિલ બનાવે છે
04:53
and then think about some ways
we can consider these challenges.
98
281784
3122
અને પછી કેટલીક રીતો વિશે વિચારો
અમે આ પડકારો પર વિચાર કરી શકીએ છીએ.
04:57
First, we just don't have
a rational relationship to information,
99
285348
3890
પ્રથમ, અમારી પાસે ફક્ત નથી
માહિતી સાથેનો તર્કસંગત સંબંધ,
05:01
we have an emotional one.
100
289262
1468
આપણી પાસે ભાવનાત્મક છે.
05:02
It's just not true that more facts
will make everything OK,
101
290754
3794
તે માત્ર એટલું સાચું નથી કે વધુ તથ્યો
બધું ઠીક કરશે,
05:06
because the algorithms that determine
what content we see,
102
294572
3100
કારણ કે એલ્ગોરિધમ્સ કે જે નક્કી કરે છે
આપણે કઈ સામગ્રી જોવી,
05:09
well, they're designed to reward
our emotional responses.
103
297696
3127
ઠીક છે, તેઓ ઇનામ માટે રચાયેલ છે
અમારા ભાવનાત્મક પ્રતિભાવો.
05:12
And when we're fearful,
104
300847
1381
અને જ્યારે આપણે ભયભીત હોઈએ છીએ,
05:14
oversimplified narratives,
conspiratorial explanations
105
302252
3174
વધુ વર્ણનાત્મક કથાઓ,
કાવતરું સમજૂતીઓ
05:17
and language that demonizes others
is far more effective.
106
305450
3418
અને ભાષા કે જે અન્ય લોકોને ભૂત કરે છે
વધુ અસરકારક છે.
05:21
And besides, many of these companies,
107
309538
1874
અને આ ઉપરાંત, આમાંની ઘણી કંપનીઓ,
05:23
their business model
is attached to attention,
108
311436
2546
તેમના વ્યવસાય મોડેલ
ધ્યાન સાથે જોડાયેલ છે,
05:26
which means these algorithms
will always be skewed towards emotion.
109
314006
3690
જેનો અર્થ આ અલ્ગોરિધમ્સ છે
હંમેશા લાગણી તરફ વળેલું રહેશે.
05:30
Second, most of the speech
I'm talking about here is legal.
110
318371
4298
બીજું, મોટાભાગનું ભાષણ
હું અહીં વાત કરું છું તે કાનૂની છે.
05:35
It would be a different matter
111
323081
1446
તે જુદી વાત હશે
05:36
if I was talking about
child sexual abuse imagery
112
324551
2341
જો હું વાત કરતો હોત
બાળ જાતીય શોષણની છબી
05:38
or content that incites violence.
113
326916
1927
અથવા એવી સામગ્રી કે જે હિંસાને ભડકાવે છે.
05:40
It can be perfectly legal
to post an outright lie.
114
328867
3270
તે સંપૂર્ણ કાનૂની હોઈ શકે છે
એકદમ અસત્ય પોસ્ટ કરવા માટે.
05:45
But people keep talking about taking down
"problematic" or "harmful" content,
115
333130
4034
પરંતુ લોકો નીચે ઉતરવાની વાત કરતા રહે છે
"સમસ્યાવાળા" અથવા "હાનિકારક" સામગ્રી,
05:49
but with no clear definition
of what they mean by that,
116
337188
2609
પરંતુ કોઈ સ્પષ્ટ વ્યાખ્યા સાથે
તેઓ તેનો અર્થ શું છે,
05:51
including Mark Zuckerberg,
117
339821
1264
માર્ક ઝુકરબર્ગ સહિત,
05:53
who recently called for global
regulation to moderate speech.
118
341109
3412
જેમણે તાજેતરમાં વૈશ્વિક માટે હાકલ કરી છે
મધ્યમ વાણી માટેનું નિયમન.
05:56
And my concern is that
we're seeing governments
119
344870
2215
અને મારી ચિંતા તે છે
આપણે સરકારો જોઈ રહ્યા છીએ
05:59
right around the world
120
347109
1292
વિશ્વભરમાં
06:00
rolling out hasty policy decisions
121
348425
2676
ઉતાવળમાં નીતિ વિષયક નિર્ણય લેવામાં આવે છે
06:03
that might actually trigger
much more serious consequences
122
351125
2746
તે ખરેખર ટ્રિગર કરી શકે છે
વધુ ગંભીર પરિણામો
06:05
when it comes to our speech.
123
353895
1714
જ્યારે તે આપણા ભાષણની વાત આવે છે.
06:08
And even if we could decide
which speech to take up or take down,
124
356006
3706
અને જો આપણે નિર્ણય કરી શકીએ
કઈ ભાષણ લેવા અથવા ઉતારવા,
06:11
we've never had so much speech.
125
359736
2174
અમારે ક્યારેય આટલું ભાષણ કર્યું નથી.
06:13
Every second, millions
of pieces of content
126
361934
2131
દર સેકંડ, લાખો
સામગ્રી ટુકડાઓ
06:16
are uploaded by people
right around the world
127
364089
2107
લોકો દ્વારા અપલોડ કરવામાં આવે છે
વિશ્વભરમાં
06:18
in different languages,
128
366220
1168
વિવિધ ભાષાઓમાં,
06:19
drawing on thousands
of different cultural contexts.
129
367412
2768
હજારો પર ચિત્રકામ
વિવિધ સાંસ્કૃતિક સંદર્ભો.
06:22
We've simply never had
effective mechanisms
130
370204
2532
અમારી પાસે ક્યારેય નહોતું
અસરકારક પદ્ધતિઓ
06:24
to moderate speech at this scale,
131
372760
1738
આ સ્કેલ પર મધ્યમ ભાષણ કરવા માટે,
06:26
whether powered by humans
or by technology.
132
374522
2801
મનુષ્ય દ્વારા સંચાલિત છે કે કેમ
અથવા ટેકનોલોજી દ્વારા.
06:30
And third, these companies --
Google, Twitter, Facebook, WhatsApp --
133
378284
3944
અને ત્રીજું, આ કંપનીઓ -
ગૂગલ, ટ્વિટર, ફેસબુક, વોટ્સએપ -
06:34
they're part of a wider
information ecosystem.
134
382252
2841
તેઓ વિશાળ ભાગ છે
માહિતી ઇકોસિસ્ટમ.
06:37
We like to lay all the blame
at their feet, but the truth is,
135
385117
3352
અમને બધા દોષો ગમવા ગમે છે
તેમના પગ પર, પરંતુ સત્ય એ છે કે,
06:40
the mass media and elected officials
can also play an equal role
136
388493
3830
સમૂહ માધ્યમો અને ચૂંટાયેલા અધિકારીઓ
પણ સમાન ભૂમિકા ભજવી શકે છે
06:44
in amplifying rumors and conspiracies
when they want to.
137
392347
2913
અફવાઓ અને કાવતરાં વધારતા
જ્યારે તેઓ ઇચ્છે છે.
06:47
As can we, when we mindlessly forward
divisive or misleading content
138
395800
4944
જેમ આપણે કરી શકીએ છીએ, જ્યારે આપણે બુદ્ધિહીનતાથી આગળ કરીએ છીએ
વિભાજીત અથવા ગેરમાર્ગે દોરતી સામગ્રી
06:52
without trying.
139
400768
1285
પ્રયત્ન કર્યા વિના.
06:54
We're adding to the pollution.
140
402077
1800
આપણે પ્રદૂષણમાં ઉમેરો કરી રહ્યા છીએ.
06:57
I know we're all looking for an easy fix.
141
405236
2618
હું જાણું છું કે આપણે બધા એક સરળ ફિક્સ શોધી રહ્યા છીએ.
06:59
But there just isn't one.
142
407878
1667
પરંતુ ત્યાં માત્ર એક નથી.
07:01
Any solution will have to be rolled out
at a massive scale, internet scale,
143
409950
4445
કોઈપણ સોલ્યુશન રોલ આઉટ કરવું પડશે
મોટા પાયે, ઇન્ટરનેટ સ્કેલ પર,
07:06
and yes, the platforms,
they're used to operating at that level.
144
414419
3261
અને હા, પ્લેટફોર્મ,
તેઓ તે સ્તર પર operatingપરેટિંગ કરવા માટે વપરાય છે.
07:09
But can and should we allow them
to fix these problems?
145
417704
3472
પરંતુ શું આપણે તેમને મંજૂરી આપી શકીએ?
આ સમસ્યાઓ સુધારવા માટે?
07:13
They're certainly trying.
146
421668
1232
તેઓ ચોક્કસપણે પ્રયાસ કરી રહ્યાં છે.
07:14
But most of us would agree that, actually,
we don't want global corporations
147
422924
4086
પરંતુ આપણામાંના ઘણા સહમત થશે કે, ખરેખર,
અમને વૈશ્વિક કોર્પોરેશનો જોઈએ નહીં
07:19
to be the guardians of truth
and fairness online.
148
427034
2332
સત્યના વાલીઓ બનવા માટે
fairનલાઇન.
07:21
And I also think the platforms
would agree with that.
149
429390
2537
અને મને લાગે છે કે પ્લેટફોર્મ્સ
તે સાથે સંમત થશો.
07:24
And at the moment,
they're marking their own homework.
150
432257
2881
અને આ ક્ષણે,
તેઓ તેમના પોતાના હોમવર્કને ચિહ્નિત કરી રહ્યાં છે.
07:27
They like to tell us
151
435162
1198
તેઓ અમને કહેવાનું પસંદ કરે છે
07:28
that the interventions
they're rolling out are working,
152
436384
2579
કે હસ્તક્ષેપો
તેઓ કામ કરી રહ્યા છે,
07:30
but because they write
their own transparency reports,
153
438987
2540
પરંતુ કારણ કે તેઓ લખે છે
તેમના પોતાના પારદર્શિતા અહેવાલો,
07:33
there's no way for us to independently
verify what's actually happening.
154
441551
3618
આપણા માટે સ્વતંત્ર રીતે રસ્તો નથી
ખરેખર શું થઈ રહ્યું છે તેની ચકાસણી કરો.
07:38
(Applause)
155
446431
3342
(તાળીઓ)
07:41
And let's also be clear
that most of the changes we see
156
449797
2952
અને ચાલો પણ સ્પષ્ટ થઈએ
કે મોટાભાગના બદલાવ આપણે જોઈ રહ્યા છીએ
07:44
only happen after journalists
undertake an investigation
157
452773
2994
માત્ર પત્રકારો પછી થાય છે
તપાસ હાથ ધરી છે
07:47
and find evidence of bias
158
455791
1611
અને પૂર્વગ્રહના પુરાવા શોધે છે
07:49
or content that breaks
their community guidelines.
159
457426
2829
અથવા તૂટતી સામગ્રી
તેમના સમુદાય માર્ગદર્શિકા.
07:52
So yes, these companies have to play
a really important role in this process,
160
460815
4595
તો હા, આ કંપનીઓએ રમવાનું છે
આ પ્રક્રિયામાં ખરેખર મહત્વની ભૂમિકા,
07:57
but they can't control it.
161
465434
1560
પરંતુ તેઓ તેને નિયંત્રિત કરી શકતા નથી.
07:59
So what about governments?
162
467855
1518
તો સરકારોનું શું?
08:01
Many people believe
that global regulation is our last hope
163
469863
3096
ઘણા લોકો માને છે
વૈશ્વિક નિયમન અમારી છેલ્લી આશા છે
08:04
in terms of cleaning up
our information ecosystem.
164
472983
2880
સફાઇ દ્રષ્ટિએ
આપણી માહિતી ઇકોસિસ્ટમ.
08:07
But what I see are lawmakers
who are struggling to keep up to date
165
475887
3166
પરંતુ હું જે જોઉં છું તે ધારાસભ્યો છે
જે અદ્યતન રાખવા સંઘર્ષ કરી રહ્યા છે
08:11
with the rapid changes in technology.
166
479077
2341
તકનીકમાં ઝડપી ફેરફાર સાથે.
08:13
And worse, they're working in the dark,
167
481442
1904
અને ખરાબ, તેઓ અંધારામાં કામ કરી રહ્યા છે,
08:15
because they don't have access to data
168
483370
1821
કારણ કે તેમની પાસે ડેટાની .ક્સેસ નથી
08:17
to understand what's happening
on these platforms.
169
485215
2650
શું થઈ રહ્યું છે તે સમજવા માટે
આ પ્લેટફોર્મ પર.
08:20
And anyway, which governments
would we trust to do this?
170
488260
3071
અને કોઈપણ રીતે, જે સરકારો છે
શું આપણે આ કરવા માટે વિશ્વાસ કરીશું?
08:23
We need a global response,
not a national one.
171
491355
2770
અમને વૈશ્વિક પ્રતિસાદની જરૂર છે,
રાષ્ટ્રીય નથી.
08:27
So the missing link is us.
172
495419
2277
તો ગુમ થયેલ કડી આપણી છે.
08:29
It's those people who use
these technologies every day.
173
497720
3123
તે તે લોકો છે જેનો ઉપયોગ કરે છે
આ તકનીકો દરરોજ.
08:33
Can we design a new infrastructure
to support quality information?
174
501260
4591
શું આપણે કોઈ નવી ઈન્ફ્રાસ્ટ્રક્ચરની રચના કરી શકીએ?
ગુણવત્તાની માહિતીને ટેકો આપવા માટે?
08:38
Well, I believe we can,
175
506371
1230
સારું, હું માનું છું કે આપણે કરી શકીએ,
08:39
and I've got a few ideas about
what we might be able to actually do.
176
507625
3357
અને મને તેના વિશે થોડા વિચારો મળ્યાં છે
અમે ખરેખર કરવા માટે સમર્થ હોઈ શકે છે.
08:43
So firstly, if we're serious
about bringing the public into this,
177
511006
3103
તેથી પ્રથમ, જો આપણે ગંભીર હોય
લોકોને આમાં લાવવા વિશે,
08:46
can we take some inspiration
from Wikipedia?
178
514133
2381
શું આપણે થોડી પ્રેરણા લઈ શકીએ?
વિકિપીડિયાથી?
08:48
They've shown us what's possible.
179
516538
1824
શક્ય છે તે તેઓએ અમને બતાવ્યું છે.
08:50
Yes, it's not perfect,
180
518386
1151
હા, તે સંપૂર્ણ નથી,
08:51
but they've demonstrated
that with the right structures,
181
519561
2634
પરંતુ તેઓએ નિદર્શન કર્યું છે
તે યોગ્ય રચનાઓ સાથે,
08:54
with a global outlook
and lots and lots of transparency,
182
522219
2635
વૈશ્વિક દૃષ્ટિકોણ સાથે
અને ઘણી બધી પારદર્શિતા,
08:56
you can build something
that will earn the trust of most people.
183
524878
3096
તમે કંઈક બનાવી શકો છો
જે મોટાભાગના લોકોનો વિશ્વાસ કમાવશે.
08:59
Because we have to find a way
to tap into the collective wisdom
184
527998
3162
કારણ કે આપણે કોઈ રસ્તો શોધવો પડશે
સામૂહિક શાણપણ માં ટેપ કરવા માટે
09:03
and experience of all users.
185
531184
2309
અને બધા વપરાશકર્તાઓનો અનુભવ.
09:05
This is particularly the case
for women, people of color
186
533517
2646
આ ખાસ કરીને કેસ છે
સ્ત્રીઓ માટે, રંગ લોકો
09:08
and underrepresented groups.
187
536187
1346
અને રજૂઆત જૂથો.
09:09
Because guess what?
188
537557
1166
કેમ કે ધારી શું?
09:10
They are experts when it comes
to hate and disinformation,
189
538747
2735
જ્યારે આવે ત્યારે તેઓ નિષ્ણાતો હોય છે
નફરત અને વિઘટન,
09:13
because they have been the targets
of these campaigns for so long.
190
541506
3516
કારણ કે તેઓ લક્ષ્યો રહ્યા છે
આ અભિયાનો ઘણા લાંબા સમય સુધી.
09:17
And over the years,
they've been raising flags,
191
545046
2350
અને વર્ષોથી,
તેઓ ધ્વજ વધારતા રહ્યા છે,
09:19
and they haven't been listened to.
192
547420
1665
અને તેઓની વાત સાંભળવામાં આવી નથી.
09:21
This has got to change.
193
549109
1280
આ બદલવા માટે મળી છે.
09:22
So could we build a Wikipedia for trust?
194
550807
4326
તો શું આપણે વિશ્વાસ માટે વિકિપીડિયા બનાવી શકીએ?
09:27
Could we find a way that users
can actually provide insights?
195
555157
4189
અમે વપરાશકર્તાઓ કે જે રીતે શોધી શક્યા?
ખરેખર અંતદૃષ્ટિ આપી શકે છે?
09:31
They could offer insights around
difficult content-moderation decisions.
196
559370
3697
તેઓ આસપાસની સમજ આપી શકે
મુશ્કેલ સામગ્રી-મધ્યસ્થતાના નિર્ણયો.
09:35
They could provide feedback
197
563091
1463
તેઓ પ્રતિસાદ આપી શકે છે
09:36
when platforms decide
they want to roll out new changes.
198
564578
3041
જ્યારે પ્લેટફોર્મ નક્કી કરે છે
તેઓ નવા ફેરફારો રોલ કરવા માંગે છે.
09:40
Second, people's experiences
with the information is personalized.
199
568241
4162
બીજું, લોકોના અનુભવો
માહિતી સાથે વ્યક્તિગત થયેલ છે.
09:44
My Facebook news feed
is very different to yours.
200
572427
2643
મારી ફેસબુક ન્યૂઝ ફીડ
તમારા માટે ખૂબ જ અલગ છે.
09:47
Your YouTube recommendations
are very different to mine.
201
575094
2745
તમારી YouTube ભલામણો
ખાણ માટે ખૂબ જ અલગ છે.
09:49
That makes it impossible for us
to actually examine
202
577863
2492
તે આપણા માટે અશક્ય બનાવે છે
ખરેખર પરીક્ષણ કરવા માટે
09:52
what information people are seeing.
203
580379
2023
લોકો કઈ માહિતી જોઈ રહ્યા છે.
09:54
So could we imagine
204
582815
1389
તેથી આપણે કલ્પના કરી શકીએ
09:56
developing some kind of centralized
open repository for anonymized data,
205
584228
4778
કેન્દ્રીયકૃત અમુક પ્રકારના વિકાસ
અનામી ડેટા માટે ખોલો રીપોઝીટરી,
10:01
with privacy and ethical
concerns built in?
206
589030
2864
ગોપનીયતા અને નૈતિકતા સાથે
આંતરિક ચિંતા?
10:04
Because imagine what we would learn
207
592220
1778
કારણ કે કલ્પના કરો કે આપણે શું શીખીશું
10:06
if we built out a global network
of concerned citizens
208
594022
3261
જો આપણે વૈશ્વિક નેટવર્ક બનાવ્યું હોય
સંબંધિત નાગરિકોની
10:09
who wanted to donate
their social data to science.
209
597307
3294
જે દાન કરવા માગતો હતો
વિજ્ toાન માટે તેમના સામાજિક ડેટા.
10:13
Because we actually know very little
210
601141
1722
કારણ કે આપણે ખરેખર બહુ ઓછા જાણીએ છીએ
10:14
about the long-term consequences
of hate and disinformation
211
602887
2881
લાંબા ગાળાના પરિણામો વિશે
નફરત અને ડિસઓનફોર્મેશનનો
10:17
on people's attitudes and behaviors.
212
605792
1975
લોકોના વલણ અને વર્તન પર.
10:20
And what we do know,
213
608236
1167
અને આપણે શું જાણીએ છીએ,
10:21
most of that has been
carried out in the US,
214
609427
2193
કે મોટા ભાગના કરવામાં આવી છે
યુ.એસ. માં હાથ ધરવામાં,
10:23
despite the fact that
this is a global problem.
215
611644
2381
તે હકીકત હોવા છતાં
આ વૈશ્વિક સમસ્યા છે.
10:26
We need to work on that, too.
216
614049
1635
આપણે પણ તેના પર કામ કરવાની જરૂર છે.
10:28
And third,
217
616192
1150
અને ત્રીજું,
10:29
can we find a way to connect the dots?
218
617366
2310
શું આપણે બિંદુઓને કનેક્ટ કરવાનો કોઈ રસ્તો શોધી શકીએ?
10:31
No one sector, let alone nonprofit,
start-up or government,
219
619700
3438
કોઈ એક ક્ષેત્ર, એકલા નફાકારક દો,
શરૂઆત અથવા સરકાર,
10:35
is going to solve this.
220
623162
1422
આ હલ કરવા જઇ રહ્યો છે.
10:36
But there are very smart people
right around the world
221
624608
2564
પરંતુ ત્યાં ખૂબ જ સ્માર્ટ લોકો છે
વિશ્વભરમાં
10:39
working on these challenges,
222
627196
1381
આ પડકારો પર કામ કરવું,
10:40
from newsrooms, civil society,
academia, activist groups.
223
628601
3576
ન્યૂઝરૂમ્સમાંથી, નાગરિક સમાજ,
શિક્ષણ, કાર્યકર જૂથો.
10:44
And you can see some of them here.
224
632201
1898
અને તમે તેમાંથી કેટલાક અહીં જોઈ શકો છો.
10:46
Some are building out indicators
of content credibility.
225
634123
2927
કેટલાક સૂચકાંકો બનાવી રહ્યા છે
સામગ્રી વિશ્વસનીયતા.
10:49
Others are fact-checking,
226
637074
1246
અન્ય લોકો તથ્ય ચકાસી રહ્યા છે,
10:50
so that false claims, videos and images
can be down-ranked by the platforms.
227
638344
3591
જેથી ખોટા દાવા, વિડિઓઝ અને છબીઓ
પ્લેટફોર્મ દ્વારા ડાઉન-રેન્ક કરી શકાય છે.
10:53
A nonprofit I helped
to found, First Draft,
228
641959
2213
એક નફાકારક મેં મદદ કરી
શોધવા માટે, પ્રથમ ડ્રાફ્ટ,
10:56
is working with normally competitive
newsrooms around the world
229
644196
2968
સામાન્ય રીતે સ્પર્ધાત્મક સાથે કામ કરે છે
વિશ્વભરના ન્યૂઝરૂમ્સ
10:59
to help them build out investigative,
collaborative programs.
230
647188
3503
તેમને તપાસમાં વધારો કરવામાં મદદ કરવા માટે,
સહયોગી કાર્યક્રમો.
11:03
And Danny Hillis, a software architect,
231
651231
2309
અને ડેની હિલિસ, એક સ softwareફ્ટવેર આર્કિટેક્ટ,
11:05
is designing a new system
called The Underlay,
232
653564
2381
નવી સિસ્ટમ ડિઝાઇન કરી રહી છે
અન્ડરલે તરીકે ઓળખાતું,
11:07
which will be a record
of all public statements of fact
233
655969
2775
તેમના સ્ત્રોતો સાથે જોડાયેલ
11:10
connected to their sources,
234
658768
1329
જેથી લોકો અને એલ્ગોરિધમ્સ
શું વિશ્વસનીય છે તે વધુ સારી રીતે નિર્ણય કરી શકે છે.
11:12
so that people and algorithms
can better judge what is credible.
235
660121
3654
અને વિશ્વભરના શિક્ષકો
વિવિધ તકનીકોનું પરીક્ષણ કરી રહ્યા છે
11:16
And educators around the world
are testing different techniques
236
664800
3356
લોકોને બનાવવાની રીતો શોધવા માટે
તેઓ જે સામગ્રીનો વપરાશ કરે છે તેની ટીકા કરે છે.
11:20
for finding ways to make people
critical of the content they consume.
237
668180
3484
આ બધા પ્રયત્નો અદભૂત છે,
પરંતુ તેઓ સિલોસમાં કામ કરી રહ્યા છે,
11:24
All of these efforts are wonderful,
but they're working in silos,
238
672633
3141
અને તેમાંથી ઘણાને દુ: ખી રીતે નાણાં ચૂકવવામાં આવ્યા છે.
11:27
and many of them are woefully underfunded.
239
675798
2680
સેંકડો પણ છે
ખૂબ જ સ્માર્ટ લોકો
11:30
There are also hundreds
of very smart people
240
678502
2053
આ કંપનીઓની અંદર કામ કરી રહ્યા છીએ,
11:32
working inside these companies,
241
680579
1652
પરંતુ ફરીથી, આ પ્રયત્નો
નિરાશ લાગે છે,
11:34
but again, these efforts
can feel disjointed,
242
682255
2325
કારણ કે તેઓ ખરેખર વિકાસશીલ છે
સમાન સમસ્યાઓના જુદા જુદા ઉકેલો
11:36
because they're actually developing
different solutions to the same problems.
243
684604
3937
કેવી રીતે આપણે કોઈ રસ્તો શોધી શકીએ
લોકોને સાથે લાવવા માટે
11:41
How can we find a way
to bring people together
244
689205
2269
એક ભૌતિક સ્થાન પર
એક સમયે દિવસો અથવા અઠવાડિયા માટે,
11:43
in one physical location
for days or weeks at a time,
245
691498
3278
જેથી તેઓ ખરેખર હલ કરી શકે
આ સમસ્યાઓ મળીને
11:46
so they can actually tackle
these problems together
246
694800
2396
પરંતુ તેમના વિવિધ દ્રષ્ટિકોણથી?
11:49
but from their different perspectives?
247
697220
1818
તો શું આપણે આ કરી શકીએ?
11:51
So can we do this?
248
699062
1340
અમે એક સંકલિત બનાવી શકો છો,
મહત્વાકાંક્ષી પ્રતિસાદ,
11:52
Can we build out a coordinated,
ambitious response,
249
700426
3239
એક કે જે સ્કેલ સાથે મેળ ખાય છે
અને સમસ્યાની જટિલતા?
11:55
one that matches the scale
and the complexity of the problem?
250
703689
3709
હું ખરેખર લાગે છે કે આપણે કરી શકીએ.
11:59
I really think we can.
251
707819
1373
સાથે મળીને, ફરીથી બાંધીએ
અમારી માહિતી કોમન્સ.
12:01
Together, let's rebuild
our information commons.
252
709216
2959
સાથે મળીને, ફરીથી બાંધીએ
અમારી માહિતી કોમન્સ
12:04
Thank you.
253
712819
1190
આભાર
12:06
(Applause)
254
714033
3728
(તાળીઓ)
Translated by Abhishek Kadiya
Reviewed by RONAK PRAJAPATI

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee