ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com
TED2019

Claire Wardle: How you can help transform the internet into a place of trust

Claire Wardle: Cómo puedes ayudar a transformar internet en un lugar confiable

Filmed:
1,319,606 views

¿Cómo podemos detener la propagación de contenido engañoso, a veces peligroso, mientras mantenemos un internet con libertad de expresión en su núcleo? La experta en información engañosa Claire Wardle explora los nuevos desafíos de nuestro entorno en línea contaminado, y traza un plan para transformar internet en un lugar confiable, con la ayuda de los usuarios cotidianos. "Juntos, reconstruyamos nuestros recursos comunes de información", dice ella.
- Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online. Full bio

Double-click the English transcript below to play the video.

00:13
No matterimportar who you are or where you livevivir,
0
1548
2516
No importa quiénes son o dónde viven,
00:16
I'm guessingadivinación that you have
at leastmenos one relativerelativo
1
4088
2356
supongo que tienen al menos un pariente
00:18
that likesgustos to forwardadelante those emailscorreos electrónicos.
2
6468
2334
al que le gusta reenviar
esos correos electrónicos.
00:21
You know the onesunos I'm talkinghablando about --
3
9206
1900
Ya saben de los que estoy hablando...
00:23
the onesunos with dubiousdudoso claimsreclamaciones
or conspiracyconspiración videosvideos.
4
11130
2854
los que tienen reclamos dudosos
o videos de conspiración.
Y probablemente
ya los han silenciado en Facebook
00:26
And you've probablyprobablemente
alreadyya mutedapagado them on FacebookFacebook
5
14315
2668
00:29
for sharingcompartiendo socialsocial postspublicaciones like this one.
6
17007
2348
por compartir publicaciones sociales
como esta.
00:31
It's an imageimagen of a bananaplátano
7
19379
1404
Es una imagen de un plátano
00:32
with a strangeextraño redrojo crosscruzar
runningcorriendo throughmediante the centercentrar.
8
20807
2667
con una extraña cruz roja
corriendo por el centro.
00:35
And the texttexto around it is warningadvertencia people
9
23498
2139
Y el texto a su alrededor
advierte a las personas
00:37
not to eatcomer fruitsfrutas that look like this,
10
25661
2158
de no comer frutas que se vean así,
00:39
suggestingsugerencia they'veellos tienen been
injectedinyectado with bloodsangre
11
27843
2028
sugiriendo que han sido
inyectadas con sangre
00:41
contaminatedcontaminado with the HIVVIH virusvirus.
12
29895
2130
contaminada con el virus del VIH.
00:44
And the socialsocial sharecompartir messagemensaje
aboveencima it simplysimplemente saysdice,
13
32049
2603
Y el mensaje social compartido arriba
simplemente dice:
00:46
"Please forwardadelante to savesalvar livesvive."
14
34676
2181
"Por favor, reenvíe para salvar vidas".
00:49
Now, fact-checkersverificadores de hechos have been debunkingdesacreditar
this one for yearsaños,
15
37672
3294
Los verificadores de hechos
han desacreditado esto durante años,
00:52
but it's one of those rumorsrumores
that just won'tcostumbre diemorir.
16
40990
2809
pero es uno de esos rumores
que simplemente no morirán.
00:55
A zombiezombi rumorrumor.
17
43823
1271
Un rumor zombie.
00:57
And, of coursecurso, it's entirelyenteramente falsefalso.
18
45513
2093
Y, por supuesto, es completamente falso.
01:00
It mightpodría be temptingtentador to laughrisa
at an exampleejemplo like this, to say,
19
48180
2959
Puede ser tentador reírse
de un ejemplo como este, decir:
01:03
"Well, who would believe this, anywayde todas formas?"
20
51163
1884
"Bueno, ¿quién creería esto,
de todos modos?".
01:05
But the reasonrazón it's a zombiezombi rumorrumor
21
53419
1626
Pero es un rumor zombie
porque aprovecha los temores más profundos
de las personas sobre su propia seguridad
01:07
is because it tapsgolpecitos into people'sla gente
deepestmás profundo fearsmiedos about theirsu ownpropio safetyla seguridad
22
55069
3889
01:10
and that of the people they love.
23
58982
2175
y la de las personas que aman.
01:13
And if you spendgastar as enoughsuficiente time
as I have looking at misinformationdesinformación,
24
61783
3273
Y si pasan tanto tiempo como yo
mirando información engañosa,
saben que este es solo
un ejemplo de muchos que se aprovechan
01:17
you know that this is just
one exampleejemplo of manymuchos
25
65080
2420
01:19
that tapsgolpecitos into people'sla gente deepestmás profundo
fearsmiedos and vulnerabilitiesvulnerabilidades.
26
67524
3047
de los temores y vulnerabilidades
más profundos de las personas.
01:23
EveryCada day, acrossa través de the worldmundo,
we see scorespuntuaciones of newnuevo memesmemes on InstagramInstagram
27
71214
4369
Todos los días, en todo el mundo,
vemos decenas de nuevos memes en Instagram
01:27
encouragingalentador parentspadres
not to vaccinatevacunar theirsu childrenniños.
28
75607
3039
alentando a los padres
a no vacunar a sus hijos.
01:30
We see newnuevo videosvideos on YouTubeYoutube
explainingexplicando that climateclima changecambio is a hoaxfarsa.
29
78670
4532
Vemos nuevos videos en YouTube que dicen
que el cambio climático es un engaño.
01:35
And acrossa través de all platformsplataformas, we see
endlessinterminable postspublicaciones designeddiseñado to demonizedemonizar othersotros
30
83226
4302
Y en todas las plataformas,
vemos un sinfín de publicaciones diseñadas
para demonizar a los demás.
01:39
on the basisbase of theirsu racecarrera,
religionreligión or sexualitysexualidad.
31
87552
3501
sobre la base de su raza,
religión o sexualidad.
01:44
WelcomeBienvenido to one of the centralcentral
challengesdesafíos of our time.
32
92314
3030
Bienvenidos a uno de los desafíos
centrales de nuestro tiempo.
01:47
How can we maintainmantener an internetInternet
with freedomlibertad of expressionexpresión at the corenúcleo,
33
95647
4025
¿Cómo mantener un Internet
con libertad de expresión en el núcleo,
01:51
while alsoademás ensuringasegurando that the contentcontenido
that's beingsiendo disseminateddiseminado
34
99696
3303
a la vez de asegurar
de que el contenido que se difunde
01:55
doesn't causeporque irreparableIrreparable harmsdaños
to our democraciesdemocracias, our communitiescomunidades
35
103023
3886
no causa daños irreparables a
nuestras democracias, nuestras comunidades
01:58
and to our physicalfísico and mentalmental well-beingbienestar?
36
106933
2238
y a nuestro bienestar físico y mental?
02:01
Because we livevivir in the informationinformación ageaños,
37
109998
2087
Porque vivimos
en la era de la información,
02:04
yettodavía the centralcentral currencymoneda
uponsobre whichcual we all dependdepender -- informationinformación --
38
112109
3547
todavía la moneda central
de la que todos dependemos, información,
02:07
is no longermás deemedjuzgado entirelyenteramente trustworthyconfiable
39
115680
2357
ya no se considera totalmente confiable
02:10
and, at timesveces, can appearAparecer
downrightcompletamente dangerouspeligroso.
40
118061
2328
y, a veces, puede parecer
francamente peligrosa.
02:12
This is thanksGracias in partparte to the runawayhuir
growthcrecimiento of socialsocial sharingcompartiendo platformsplataformas
41
120811
3937
Esto se debe en parte
al crecimiento desbocado de
las plataformas de intercambio social.
02:16
that allowpermitir us to scrollvoluta throughmediante,
42
124772
1642
que nos permiten ir allá
02:18
where liesmentiras and factshechos sitsentar sidelado by sidelado,
43
126438
2222
donde mentiras y hechos se sientan juntos,
02:20
but with noneninguna of the traditionaltradicional
signalsseñales of trustworthinessintegridad.
44
128684
3071
pero sin ninguna de las señales
tradicionales de confiabilidad.
02:24
And goodnessbondad -- our languageidioma around this
is horriblyterriblemente muddledconfuso.
45
132268
3619
Y Dios, nuestro lenguaje en torno a esto
está terriblemente confuso.
02:27
People are still obsessedobsesionado
with the phrasefrase "fakefalso newsNoticias,"
46
135911
3103
La gente todavía está obsesionada
con la frase "noticias falsas"
a pesar del hecho de que
es extraordinariamente inútil
02:31
despiteA pesar de the facthecho that
it's extraordinarilyextraordinariamente unhelpfulpoco útil
47
139038
2531
02:33
and used to describedescribir a numbernúmero of things
that are actuallyactualmente very differentdiferente:
48
141593
3460
y solía describir una serie de cosas
que en realidad son muy diferentes:
02:37
liesmentiras, rumorsrumores, hoaxesfraudes,
conspiraciesconspiraciones, propagandapropaganda.
49
145077
3386
mentiras, rumores, engaños,
conspiraciones, propaganda.
02:40
And I really wishdeseo
we could stop usingutilizando a phrasefrase
50
148911
2912
Realmente quiero que
podamos dejar de usar una frase
02:43
that's been co-optedcooptado by politicianspolíticos
right around the worldmundo,
51
151847
2862
que ha sido cooptada
por políticos de todo el mundo,
02:46
from the left and the right,
52
154733
1471
de izquierda a derecha
02:48
used as a weaponarma to attackataque
a freegratis and independentindependiente pressprensa.
53
156228
3222
utilizada como arma para atacar
a una prensa libre e independiente.
02:52
(ApplauseAplausos)
54
160307
4702
(Aplausos)
02:57
Because we need our professionalprofesional
newsNoticias mediamedios de comunicación now more than ever.
55
165033
3462
Porque necesitamos nuestros medios
profesionales ahora más que nunca.
Además, la mayor parte de este contenido
ni siquiera se disfraza de noticia.
03:00
And besidesademás, mostmás of this contentcontenido
doesn't even masquerademascarada as newsNoticias.
56
168882
3373
03:04
It's memesmemes, videosvideos, socialsocial postspublicaciones.
57
172279
2642
Son memes, videos, publicaciones sociales.
03:06
And mostmás of it is not fakefalso;
it's misleadingengañoso.
58
174945
3453
Y la mayor parte no es falsa; es engañosa.
03:10
We tendtender to fixatefijar on what's truecierto or falsefalso.
59
178422
3015
Tendemos a fijarnos
en lo que es verdadero o falso.
03:13
But the biggestmás grande concernpreocupación is actuallyactualmente
the weaponizationnuclearización of contextcontexto.
60
181461
4032
Pero la mayor preocupación es en realidad
la armamentización del contexto.
03:18
Because the mostmás effectiveeficaz disinformationdesinformación
61
186855
1968
Porque la desinformación más efectiva
03:20
has always been that
whichcual has a kernelnúcleo of truthverdad to it.
62
188847
3048
siempre ha sido la que tiene
un núcleo de verdad.
03:23
Let's take this exampleejemplo
from LondonLondres, from Marchmarzo 2017,
63
191919
3476
Tomemos este ejemplo de Londres,
de marzo de 2017,
03:27
a tweetPío that circulatedcirculado widelyextensamente
64
195419
1540
un tuit que circuló ampliamente
03:28
in the aftermathsecuelas of a terroristterrorista incidentincidente
on WestminsterWestminster BridgePuente.
65
196983
3587
tras un incidente terrorista
en el puente de Westminster.
03:32
This is a genuineauténtico imageimagen, not fakefalso.
66
200594
2428
Esta es una imagen genuina, no falsa.
03:35
The womanmujer who appearsaparece in the photographfotografía
was interviewedentrevistado afterwardsdespués,
67
203046
3169
La mujer que aparece en la fotografía
fue entrevistada después,
03:38
and she explainedexplicado that
she was utterlyabsolutamente traumatizedtraumatizado.
68
206239
2409
y explicó que estaba
completamente traumatizada.
03:40
She was on the phoneteléfono to a lovedamado one,
69
208672
1738
Hablaba por teléfono con un ser querido,
03:42
and she wasn'tno fue looking
at the victimvíctima out of respectel respeto.
70
210434
2618
y no miraba a la víctima por respeto.
03:45
But it still was circulatedcirculado widelyextensamente
with this IslamophobicIslamófobo framingenmarcado,
71
213076
3960
Pero aún circulaba ampliamente
con este marco islamofóbico,
03:49
with multiplemúltiple hashtagshashtags,
includingincluso: #BanIslamBanIslam.
72
217060
3046
con múltiples etiquetas,
que incluyen: #BanIslam
03:52
Now, if you workedtrabajó at TwitterGorjeo,
what would you do?
73
220425
2398
Ahora, si trabajaran en Twitter,
¿qué harían?
03:54
Would you take that down,
or would you leavesalir it up?
74
222847
2562
¿Lo quitarían o lo dejarían?
03:58
My gutintestino reactionreacción, my emotionalemocional reactionreacción,
is to take this down.
75
226553
3429
Mi reacción intestinal,
mi reacción emocional, es bajar esto.
04:02
I hateodio the framingenmarcado of this imageimagen.
76
230006
2142
Odio el encuadre de esta imagen.
04:04
But freedomlibertad of expressionexpresión
is a humanhumano right,
77
232585
2388
Pero la libertad de expresión
es un derecho humano,
04:06
and if we startcomienzo takingtomando down speechhabla
that makeshace us feel uncomfortableincómodo,
78
234997
3225
y si comenzamos a hablar mal
de lo que nos hace sentir incómodos,
04:10
we're in troubleproblema.
79
238246
1230
tenemos un problema.
04:11
And this mightpodría look like a clear-cutclaro casecaso,
80
239500
2294
Y esto podría parecer un caso claro,
pero, en realidad, la mayoría no lo son.
04:13
but, actuallyactualmente, mostmás speechhabla isn't.
81
241818
1698
Estas líneas son
increíblemente difíciles de trazar.
04:15
These lineslíneas are incrediblyincreíblemente
difficultdifícil to drawdibujar.
82
243540
2436
04:18
What's a well-meaningbien intencionado
decisiondecisión by one personpersona
83
246000
2281
Lo qué es una decisión
bien intencionada para uno
04:20
is outrighttotal censorshipcensura to the nextsiguiente.
84
248305
2077
es una censura absoluta para la siguiente.
04:22
What we now know is that
this accountcuenta, TexasTexas LoneSolitario StarEstrella,
85
250759
2929
Lo que ahora sabemos es que
esta cuenta, Texas Lone Star,
04:25
was partparte of a widermás ancho Russianruso
disinformationdesinformación campaignCampaña,
86
253712
3230
fue parte de una campaña de
desinformación rusa más amplia,
04:28
one that has sinceya que been takentomado down.
87
256966
2151
una que desde entonces ha sido eliminada.
04:31
Would that changecambio your viewver?
88
259141
1563
¿Eso cambiaría su punto de vista?
04:33
It would minemía,
89
261322
1159
Cambiaría el mío,
04:34
because now it's a casecaso
of a coordinatedcoordinado campaignCampaña
90
262505
2301
porque ahora se trata
de una campaña coordinada
04:36
to sowsembrar discorddiscordia.
91
264830
1215
para sembrar discordia.
04:38
And for those of you who'dquien like to think
92
266069
1961
Y para quienes les gustaría pensar
04:40
that artificialartificial intelligenceinteligencia
will solveresolver all of our problemsproblemas,
93
268054
2831
que la IA resolverá
todos nuestros problemas,
creo que estaremos de acuerdo
que estamos muy lejos
04:42
I think we can agreede acuerdo
that we're a long way away
94
270909
2225
04:45
from AIAI that's ablepoder to make sensesentido
of postspublicaciones like this.
95
273158
2587
de que la IA pueda dar sentido
a publicaciones como esta.
Así que me gustaría explicar
tres problemas entrelazados
04:48
So I'd like to explainexplique
threeTres interlockingenclavamiento issuescuestiones
96
276856
2507
04:51
that make this so complexcomplejo
97
279387
2373
que hacen que esto sea tan complejo
04:53
and then think about some waysformas
we can considerconsiderar these challengesdesafíos.
98
281784
3122
y que luego piensen en formas
para abordar estos desafíos.
04:57
First, we just don't have
a rationalracional relationshiprelación to informationinformación,
99
285348
3890
Primero, simplemente no tenemos
una relación racional con la información,
05:01
we have an emotionalemocional one.
100
289262
1468
Tenemos una emocional.
05:02
It's just not truecierto that more factshechos
will make everything OK,
101
290754
3794
Simplemente, no es cierto que
más hechos harán que todo esté bien,
05:06
because the algorithmsAlgoritmos that determinedeterminar
what contentcontenido we see,
102
294572
3100
porque los algoritmos
que determinan qué contenido vemos
05:09
well, they're designeddiseñado to rewardrecompensa
our emotionalemocional responsesrespuestas.
103
297696
3127
están diseñados para recompensar
nuestras respuestas emocionales.
05:12
And when we're fearfultemeroso,
104
300847
1381
Y cuando tenemos miedo,
05:14
oversimplifiedsimplificado narrativesnarrativas,
conspiratorialconspirador explanationsexplicaciones
105
302252
3174
narraciones demasiado simplificadas,
explicaciones conspirativas
05:17
and languageidioma that demonizesdemoniza othersotros
is farlejos more effectiveeficaz.
106
305450
3418
y el lenguaje que demoniza a los demás
es mucho más efectivo.
05:21
And besidesademás, manymuchos of these companiescompañías,
107
309538
1874
Y además, muchas de estas empresas,
05:23
theirsu businessnegocio modelmodelo
is attachedadjunto to attentionatención,
108
311436
2546
su modelo de negocio
está unido a la atención,
05:26
whichcual meansmedio these algorithmsAlgoritmos
will always be skewedsesgado towardshacia emotionemoción.
109
314006
3690
lo que significa que estos algoritmos
estarán sesgados hacia la emoción.
05:30
SecondSegundo, mostmás of the speechhabla
I'm talkinghablando about here is legallegal.
110
318371
4298
Segundo, la mayor parte del discurso
del que estoy hablando aquí es legal.
05:35
It would be a differentdiferente matterimportar
111
323081
1446
Seria un asunto diferente
05:36
if I was talkinghablando about
childniño sexualsexual abuseabuso imageryimágenes
112
324551
2341
si hablara de imágenes
de abuso sexual infantil
05:38
or contentcontenido that incitesincita violenceviolencia.
113
326916
1927
o contenido que incita a la violencia.
05:40
It can be perfectlyperfectamente legallegal
to postenviar an outrighttotal liementira.
114
328867
3270
Puede ser perfectamente legal
publicar una mentira absoluta.
05:45
But people keep talkinghablando about takingtomando down
"problematicproblemático" or "harmfulperjudicial" contentcontenido,
115
333130
4034
Pero la gente sigue hablando de eliminar
contenido "problemático" o "dañino",
05:49
but with no clearclaro definitiondefinición
of what they mean by that,
116
337188
2609
pero sin una definición clara
de lo que quieren decir,
05:51
includingincluso Markmarca ZuckerbergZuckerberg,
117
339821
1264
incluyendo a Mark Zuckerberg,
05:53
who recentlyrecientemente calledllamado for globalglobal
regulationregulación to moderatemoderar speechhabla.
118
341109
3412
quien recientemente pidió una
regulación global para moderar el habla.
05:56
And my concernpreocupación is that
we're seeingviendo governmentsgobiernos
119
344870
2215
Y mi preocupación es que vemos gobiernos
05:59
right around the worldmundo
120
347109
1292
en todo el mundo
06:00
rollinglaminación out hastyapresurado policypolítica decisionsdecisiones
121
348425
2676
implementar decisiones
políticas apresuradas
06:03
that mightpodría actuallyactualmente triggerdesencadenar
much more seriousgrave consequencesConsecuencias
122
351125
2746
que podrían desencadenar
consecuencias mucho más graves
06:05
when it comesproviene to our speechhabla.
123
353895
1714
cuando se trata de nuestra charla.
06:08
And even if we could decidedecidir
whichcual speechhabla to take up or take down,
124
356006
3706
E incluso si pudiéramos decidir
qué charla dejar o eliminar.
06:11
we'venosotros tenemos never had so much speechhabla.
125
359736
2174
Nunca hemos tenido tantas charlas.
06:13
EveryCada secondsegundo, millionsmillones
of piecespiezas of contentcontenido
126
361934
2131
Cada segundo, se suben
millones de piezas de contenido
06:16
are uploadedcargado by people
right around the worldmundo
127
364089
2107
de personas de todo el mundo
06:18
in differentdiferente languagesidiomas,
128
366220
1168
en diferentes idiomas
06:19
drawingdibujo on thousandsmiles
of differentdiferente culturalcultural contextscontextos.
129
367412
2768
aprovechando miles
de diferentes contextos culturales.
06:22
We'veNosotros tenemos simplysimplemente never had
effectiveeficaz mechanismsmecanismos
130
370204
2532
Simplemente nunca hemos tenido
mecanismos efectivos
para moderar la libre expresión
a esta escala,
06:24
to moderatemoderar speechhabla at this scaleescala,
131
372760
1738
06:26
whethersi poweredmotorizado by humanshumanos
or by technologytecnología.
132
374522
2801
ya sea impulsada por humanos
o por tecnología.
06:30
And thirdtercero, these companiescompañías --
GoogleGoogle, TwitterGorjeo, FacebookFacebook, WhatsAppWhatsApp --
133
378284
3944
Y en tercer lugar, estas empresas
(Google, Twitter, Facebook, WhatsApp)
06:34
they're partparte of a widermás ancho
informationinformación ecosystemecosistema.
134
382252
2841
son parte de un ecosistema
de información más amplio.
06:37
We like to laylaico all the blameculpa
at theirsu feetpies, but the truthverdad is,
135
385117
3352
Nos gusta echarles toda la culpa a ellos,
pero la verdad es que los medios
06:40
the massmasa mediamedios de comunicación and electedelegido officialsoficiales
can alsoademás playjugar an equaligual rolepapel
136
388493
3830
y los funcionarios electos también
pueden desempeñar un papel igual
06:44
in amplifyingamplificando rumorsrumores and conspiraciesconspiraciones
when they want to.
137
392347
2913
en amplificar rumores
y conspiraciones cuando quieren.
06:47
As can we, when we mindlesslysin pensar forwardadelante
divisivedivisivo or misleadingengañoso contentcontenido
138
395800
4944
Como podemos nosotros, al reenviar sin
pensar contenido divisivorio o engañoso
06:52
withoutsin tryingmolesto.
139
400768
1285
sin estar seguros.
06:54
We're addingagregando to the pollutioncontaminación.
140
402077
1800
Estamos agregando más a esa contaminación.
06:57
I know we're all looking for an easyfácil fixfijar.
141
405236
2618
Sé que todos estamos buscando
una solución fácil.
06:59
But there just isn't one.
142
407878
1667
Pero simplemente no la hay.
07:01
Any solutionsolución will have to be rolledarrollado out
at a massivemasivo scaleescala, internetInternet scaleescala,
143
409950
4445
Cualquier solución
tendrá que implementarse
a gran escala, escala de Internet,
07:06
and yes, the platformsplataformas,
they're used to operatingoperando at that levelnivel.
144
414419
3261
y sí, las plataformas, están acostumbradas
a operar a ese nivel.
07:09
But can and should we allowpermitir them
to fixfijar these problemsproblemas?
145
417704
3472
pero ¿podemos y debemos permitirles
que solucionen estos problemas?
Ciertamente lo están intentando.
07:13
They're certainlyciertamente tryingmolesto.
146
421668
1232
07:14
But mostmás of us would agreede acuerdo that, actuallyactualmente,
we don't want globalglobal corporationscorporaciones
147
422924
4086
Estamos de acuerdo en que
no queremos que sean
las corporaciones globales las guardianas
de la verdad y equidad en línea.
07:19
to be the guardiansguardianes of truthverdad
and fairnessjusticia onlineen línea.
148
427034
2332
Y también creo que las plataformas
estarían de acuerdo con eso.
07:21
And I alsoademás think the platformsplataformas
would agreede acuerdo with that.
149
429390
2537
07:24
And at the momentmomento,
they're markingcalificación theirsu ownpropio homeworkdeberes.
150
432257
2881
Y en este momento,
están marcando su propia tarea.
07:27
They like to tell us
151
435162
1198
Les gusta decirnos
que las intervenciones que están
implementando funcionan,
07:28
that the interventionsintervenciones
they're rollinglaminación out are workingtrabajando,
152
436384
2579
pero como hacen sus propios informes
de transparencia,
07:30
but because they writeescribir
theirsu ownpropio transparencytransparencia reportsinformes,
153
438987
2540
07:33
there's no way for us to independentlyindependientemente
verifyverificar what's actuallyactualmente happeningsucediendo.
154
441551
3618
no se puede verificar independientemente
lo que realmente está sucediendo.
07:38
(ApplauseAplausos)
155
446431
3342
(Aplausos)
07:41
And let's alsoademás be clearclaro
that mostmás of the changescambios we see
156
449797
2952
Y seamos claros que la mayoría
de los cambios que vemos
solo suceden después de que
los periodistas inicien una investigación
07:44
only happenocurrir after journalistsperiodistas
undertakeemprender an investigationinvestigación
157
452773
2994
07:47
and find evidenceevidencia of biasparcialidad
158
455791
1611
y encuentren evidencia de sesgo
07:49
or contentcontenido that breaksdescansos
theirsu communitycomunidad guidelineslineamientos.
159
457426
2829
o contenido que rompe
las pautas de su comunidad.
07:52
So yes, these companiescompañías have to playjugar
a really importantimportante rolepapel in this processproceso,
160
460815
4595
Sí, estas compañías tienen que jugar de
verdad un papel importante en el proceso,
07:57
but they can't controlcontrolar it.
161
465434
1560
pero no pueden controlarlo.
07:59
So what about governmentsgobiernos?
162
467855
1518
¿Y qué hay de los gobiernos?
08:01
ManyMuchos people believe
that globalglobal regulationregulación is our last hopeesperanza
163
469863
3096
Muchos creen que la regulación global
es nuestra última esperanza.
08:04
in termscondiciones of cleaninglimpieza up
our informationinformación ecosystemecosistema.
164
472983
2880
en términos de limpieza de
nuestro ecosistema de información.
08:07
But what I see are lawmakerslegisladores
who are strugglingluchando to keep up to datefecha
165
475887
3166
Pero lo que veo son legisladores
que luchan por mantenerse al día
08:11
with the rapidrápido changescambios in technologytecnología.
166
479077
2341
con los rápidos cambios en la tecnología.
08:13
And worsepeor, they're workingtrabajando in the darkoscuro,
167
481442
1904
Y peor, trabajan en la oscuridad,
08:15
because they don't have accessacceso to datadatos
168
483370
1821
porque no tienen acceso a los datos
08:17
to understandentender what's happeningsucediendo
on these platformsplataformas.
169
485215
2650
para entender lo que está
sucediendo en estas plataformas.
08:20
And anywayde todas formas, whichcual governmentsgobiernos
would we trustconfianza to do this?
170
488260
3071
Y de todos modos, ¿en qué gobiernos
confiaríamos para hacer esto?
08:23
We need a globalglobal responserespuesta,
not a nationalnacional one.
171
491355
2770
Necesitamos una respuesta global,
no nacional.
08:27
So the missingdesaparecido linkenlazar is us.
172
495419
2277
Entonces el eslabón perdido
somos nosotros.
08:29
It's those people who use
these technologiestecnologías everycada day.
173
497720
3123
Son esas personas que usan
estas tecnologías todos los días.
08:33
Can we designdiseño a newnuevo infrastructureinfraestructura
to supportapoyo qualitycalidad informationinformación?
174
501260
4591
¿Podemos diseñar una nueva infraestructura
para soportar información de calidad?
08:38
Well, I believe we can,
175
506371
1230
Bueno, creo que podemos
08:39
and I've got a fewpocos ideasideas about
what we mightpodría be ablepoder to actuallyactualmente do.
176
507625
3357
y tengo algunas ideas sobre lo que
realmente podríamos hacer.
08:43
So firstlyen primer lugar, if we're seriousgrave
about bringingtrayendo the publicpúblico into this,
177
511006
3103
En primer lugar, si nos tomamos
en serio atraer al público a esto,
08:46
can we take some inspirationinspiración
from WikipediaWikipedia?
178
514133
2381
¿podemos inspirarnos en Wikipedia?
08:48
They'veHan shownmostrado us what's possibleposible.
179
516538
1824
Nos han mostrado lo que es posible.
08:50
Yes, it's not perfectPerfecto,
180
518386
1151
Si, no es perfecto
08:51
but they'veellos tienen demonstrateddemostrado
that with the right structuresestructuras,
181
519561
2634
pero han demostrado que
con las estructuras correctas,
08:54
with a globalglobal outlookpanorama
and lots and lots of transparencytransparencia,
182
522219
2635
con una perspectiva global
y mucha, mucha transparencia,
08:56
you can buildconstruir something
that will earnganar the trustconfianza of mostmás people.
183
524878
3096
puedes construir algo que se ganará
la confianza de las personas.
08:59
Because we have to find a way
to tapgrifo into the collectivecolectivo wisdomsabiduría
184
527998
3162
Tenemos que encontrar una manera
de aprovechar la sabiduría colectiva
09:03
and experienceexperiencia of all usersusuarios.
185
531184
2309
y la experiencia de todos los usuarios.
09:05
This is particularlyparticularmente the casecaso
for womenmujer, people of colorcolor
186
533517
2646
En particular las mujeres,
las personas de color
y los grupos subrepresentados.
09:08
and underrepresentedsubrepresentada groupsgrupos.
187
536187
1346
09:09
Because guessadivinar what?
188
537557
1166
¿Porque adivinen qué?
09:10
They are expertsexpertos when it comesproviene
to hateodio and disinformationdesinformación,
189
538747
2735
Son expertos en odio y desinformación,
09:13
because they have been the targetsobjetivos
of these campaignscampañas for so long.
190
541506
3516
porque han sido los objetivos de estas
campañas durante mucho tiempo.
09:17
And over the yearsaños,
they'veellos tienen been raisinglevantamiento flagsbanderas,
191
545046
2350
Y a lo largo de los años,
han levantando banderas,
09:19
and they haven'tno tiene been listenedescuchado to.
192
547420
1665
y no han sido escuchados
09:21
This has got to changecambio.
193
549109
1280
Esto tiene que cambiar.
09:22
So could we buildconstruir a WikipediaWikipedia for trustconfianza?
194
550807
4326
¿Podríamos construir
una Wikipedia para la confianza?
09:27
Could we find a way that usersusuarios
can actuallyactualmente provideproporcionar insightsideas?
195
555157
4189
¿Podríamos encontrar una forma en que
los usuarios realmente proporcionen ideas?
09:31
They could offeroferta insightsideas around
difficultdifícil content-moderationmoderación del contenido decisionsdecisiones.
196
559370
3697
Podrían ofrecer ideas sobre decisiones
difíciles de moderación de contenido.
09:35
They could provideproporcionar feedbackrealimentación
197
563091
1463
Podrían comentar
09:36
when platformsplataformas decidedecidir
they want to rollrodar out newnuevo changescambios.
198
564578
3041
cuando las plataformas decidan
implementar nuevos cambios.
09:40
SecondSegundo, people'sla gente experiencesexperiencias
with the informationinformación is personalizedpersonalizado.
199
568241
4162
Segundo, las experiencias de las personas
con la información son personalizadas.
09:44
My FacebookFacebook newsNoticias feedalimentar
is very differentdiferente to yourstuya.
200
572427
2643
Mi fuente de noticias de Facebook
es diferente de la de Uds.
09:47
Your YouTubeYoutube recommendationsrecomendaciones
are very differentdiferente to minemía.
201
575094
2745
Igual sus recomendaciones de YouTube.
09:49
That makeshace it impossibleimposible for us
to actuallyactualmente examineexaminar
202
577863
2492
Eso hace que sea imposible
para nosotros examinar
09:52
what informationinformación people are seeingviendo.
203
580379
2023
qué información está viendo la gente.
09:54
So could we imagineimagina
204
582815
1389
Entonces ¿podríamos imaginar desarrollar
09:56
developingdesarrollando some kindtipo of centralizedcentralizado
openabierto repositoryrepositorio for anonymizedanonimizado datadatos,
205
584228
4778
algún tipo de repositorio abierto
centralizado para datos anonimos,
10:01
with privacyintimidad and ethicalético
concernspreocupaciones builtconstruido in?
206
589030
2864
con privacidad y
preocupaciones éticas incorporadas?
10:04
Because imagineimagina what we would learnaprender
207
592220
1778
Porque imaginen lo que aprenderíamos
10:06
if we builtconstruido out a globalglobal networkred
of concernedpreocupado citizenslos ciudadanos
208
594022
3261
si construyeramos una red global
de ciudadanos preocupados
10:09
who wanted to donatedonar
theirsu socialsocial datadatos to scienceciencia.
209
597307
3294
que quisieran donar
sus datos sociales a la ciencia.
Porque sabemos muy poco
10:13
Because we actuallyactualmente know very little
210
601141
1722
sobre las consecuencias a largo plazo
del odio y la desinformación
10:14
about the long-terma largo plazo consequencesConsecuencias
of hateodio and disinformationdesinformación
211
602887
2881
sobre las actitudes
y comportamientos de las personas.
10:17
on people'sla gente attitudesactitudes and behaviorscomportamientos.
212
605792
1975
10:20
And what we do know,
213
608236
1167
Y lo que sabemos,
10:21
mostmás of that has been
carriedllevado out in the US,
214
609427
2193
la mayoría se ha llevado a cabo en EE. UU.
10:23
despiteA pesar de the facthecho that
this is a globalglobal problemproblema.
215
611644
2381
a pesar del hecho de que
es un problema global.
10:26
We need to work on that, too.
216
614049
1635
Necesitamos trabajar en eso también.
10:28
And thirdtercero,
217
616192
1150
Y tercero,
¿podemos encontrar una manera
de conectar los puntos?
10:29
can we find a way to connectconectar the dotspuntos?
218
617366
2310
10:31
No one sectorsector, let alonesolo nonprofitsin ánimo de lucro,
start-uppuesta en marcha or governmentgobierno,
219
619700
3438
Ningún sector, y mucho menos
sin fines de lucro, start-up o gobierno,
10:35
is going to solveresolver this.
220
623162
1422
va a resolver esto
10:36
But there are very smartinteligente people
right around the worldmundo
221
624608
2564
Pero hay personas
muy inteligentes en todo el mundo.
10:39
workingtrabajando on these challengesdesafíos,
222
627196
1381
trabajando en estos desafíos,
10:40
from newsroomsredacciones, civilcivil societysociedad,
academiaacademia, activistactivista groupsgrupos.
223
628601
3576
de redacciones, sociedad civil,
academia, grupos activistas.
10:44
And you can see some of them here.
224
632201
1898
Pueden ver algunos aquí.
10:46
Some are buildingedificio out indicatorsindicadores
of contentcontenido credibilitycredibilidad.
225
634123
2927
Unos construyen
indicadores de credibilidad de contenido.
Otros verifican hechos,
para que las plataformas
10:49
OthersOtros are fact-checkingverificación de hechos,
226
637074
1246
10:50
so that falsefalso claimsreclamaciones, videosvideos and imagesimágenes
can be down-rankeddown-ranked by the platformsplataformas.
227
638344
3591
puedan clasificar noticias falsas,
videos e imágenes
Una organización
sin fines de lucro, First Draft,
10:53
A nonprofitsin ánimo de lucro I helpedayudado
to foundencontró, First Draftcorriente de aire,
228
641959
2213
10:56
is workingtrabajando with normallynormalmente competitivecompetitivo
newsroomsredacciones around the worldmundo
229
644196
2968
trabaja con redacciones normalmente
competitivas del mundo
10:59
to help them buildconstruir out investigativeinvestigador,
collaborativecolaborativo programsprogramas.
230
647188
3503
para ayudarlos a desarrollar programas
de investigación y colaboración.
11:03
And DannyDanny HillisHillis, a softwaresoftware architectarquitecto,
231
651231
2309
Danny Hillis, un arquitecto de software,
está diseñando un nuevo sistema
llamado The Underlay,
11:05
is designingdiseño a newnuevo systemsistema
calledllamado The UnderlayArpillera,
232
653564
2381
un registro de todas
las declaraciones públicas de hechos
11:07
whichcual will be a recordgrabar
of all publicpúblico statementsdeclaraciones of facthecho
233
655969
2775
conectado a sus fuentes,
11:10
connectedconectado to theirsu sourcesfuentes,
234
658768
1329
para que las personas y los algoritmos
puedan juzgar mejor lo que es creíble.
11:12
so that people and algorithmsAlgoritmos
can better judgejuez what is crediblecreíble.
235
660121
3654
11:16
And educatorseducadores around the worldmundo
are testingpruebas differentdiferente techniquestécnicas
236
664800
3356
Y los educadores de todo el mundo
están probando diferentes técnicas.
11:20
for findinghallazgo waysformas to make people
criticalcrítico of the contentcontenido they consumeconsumir.
237
668180
3484
para encontrar formas de hacer que la
gente critique el contenido que consume.
11:24
All of these effortsesfuerzos are wonderfulmaravilloso,
but they're workingtrabajando in silossilos,
238
672633
3141
Todos estos esfuerzos son maravillosos,
pero están trabajando en silos,
11:27
and manymuchos of them are woefullylamentablemente underfundedinfradotado.
239
675798
2680
y muchos de ellos
no tienen fondos suficientes.
11:30
There are alsoademás hundredscientos
of very smartinteligente people
240
678502
2053
También hay cientos
de personas muy inteligentes.
11:32
workingtrabajando insidedentro these companiescompañías,
241
680579
1652
trabajando en esas empresas,
11:34
but again, these effortsesfuerzos
can feel disjointedDesarticulada,
242
682255
2325
pero de nuevo, esos esfuerzos
pueden sentirse desarticulados,
11:36
because they're actuallyactualmente developingdesarrollando
differentdiferente solutionssoluciones to the samemismo problemsproblemas.
243
684604
3937
porque están desarrollando diferentes
soluciones a los mismos problemas.
11:41
How can we find a way
to bringtraer people togetherjuntos
244
689205
2269
¿Cómo encontrar
una manera de unir a las personas
11:43
in one physicalfísico locationubicación
for daysdías or weekssemanas at a time,
245
691498
3278
en una ubicación física
por días o semanas,
para que puedan abordar
estos problemas juntos,
11:46
so they can actuallyactualmente tackleentrada
these problemsproblemas togetherjuntos
246
694800
2396
pero desde sus diferentes perspectivas?
11:49
but from theirsu differentdiferente perspectivesperspectivas?
247
697220
1818
11:51
So can we do this?
248
699062
1340
¿Podemos hacer eso?
11:52
Can we buildconstruir out a coordinatedcoordinado,
ambitiousambicioso responserespuesta,
249
700426
3239
¿Podemos construir
una respuesta coordinada y ambiciosa,
11:55
one that matchespartidos the scaleescala
and the complexitycomplejidad of the problemproblema?
250
703689
3709
una que coincida con la escala
y la complejidad del problema?
11:59
I really think we can.
251
707819
1373
Realmente creo que podemos.
12:01
TogetherJuntos, let's rebuildreconstruir
our informationinformación commonslos comunes.
252
709216
2959
Juntos, reconstruyamos nuestros
bienes comunes de información.
12:04
Thank you.
253
712819
1190
Gracias.
12:06
(ApplauseAplausos)
254
714033
3728
(Aplausos)
Translated by Ciro Gomez
Reviewed by Lidia Cámara de la Fuente

▲Back to top

ABOUT THE SPEAKER
Claire Wardle - Misinformation expert
Claire Wardle is an expert on user-generated content and verification working to help improve the quality of information online.

Why you should listen

Claire Wardle is the executive director of First Draft, a nonprofit dedicated to educating journalists about reporting in an age of information disorder. Previously, she was a research fellow at the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School; the research director at the Tow Center for Digital Journalism at Columbia Journalism School; the head of social media for the UN Refugee Agency; and director of news services for Storyful. Wardle holds a PhD in communication and an MA in political science from the University of Pennsylvania.

More profile about the speaker
Claire Wardle | Speaker | TED.com