ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com
TED2019

Jack Dorsey: How Twitter needs to change

Jack Dorsey: Cómo Twitter necesita cambiar

Filmed:
2,089,470 views

¿A caso Twitter puede salvarse? En esta extensiva conversación con Chris Anderson y Whitney Pennington Rodgers de TED, Jack Dorsey, el CEO de Twitter, habla sobre el futuro de la plataforma, reconociendo los problemas de acoso y moderación y proponiendo algunos cambios fundamentales que espera que promuevan conversaciones sanas y respetuosas. "¿En realidad estamos ofreciendo algo que las personas valoran cada día?" Pregunta Dorsey.
- Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional. Full bio

Double-click the English transcript below to play the video.

00:13
ChrisChris AndersonAnderson:
What worriespreocupaciones you right now?
0
1131
2408
Chris Anderson:
¿Qué les preocupa ahora?
00:15
You've been very openabierto
about lots of issuescuestiones on TwitterGorjeo.
1
3563
2853
Han sido muy abiertos sobre
muchos problemas en Twitter.
00:18
What would be your topparte superior worrypreocupación
2
6440
2299
¿Cuál es su principal preocupación
sobre el estado actual de la situación?
00:20
about where things are right now?
3
8763
2049
00:23
JackJack DorseyDorsey: Right now,
the healthsalud of the conversationconversacion.
4
11447
2929
Jack Dorsey: En este momento,
es la salud de la conversación.
00:26
So, our purposepropósito is to serveservir
the publicpúblico conversationconversacion,
5
14400
3660
Nuestro propósito es servir
la conversación pública,
00:30
and we have seenvisto
a numbernúmero of attacksataques on it.
6
18084
5056
y hemos visto varios ataques contra ella.
00:35
We'veNosotros tenemos seenvisto abuseabuso, we'venosotros tenemos seenvisto harassmentacoso,
7
23164
2425
Hemos visto abuso, acoso, manipulación,
00:37
we'venosotros tenemos seenvisto manipulationmanipulación,
8
25613
3222
00:40
automationautomatización, humanhumano coordinationcoordinación,
misinformationdesinformación.
9
28859
4265
automatización, coordinación humana
y desinformación.
00:46
So these are all dynamicsdinámica
that we were not expectingesperando
10
34134
4034
Son dinámicas que no esperábamos
00:50
13 yearsaños agohace when we were
startingcomenzando the companyempresa.
11
38192
3718
cuando iniciamos la compañía hace 13 años.
00:53
But we do now see them at scaleescala,
12
41934
2664
Pero ahora vemos su magnitud,
00:56
and what worriespreocupaciones me mostmás
is just our abilitycapacidad to addressdirección it
13
44622
5278
y lo que más me preocupa es
nuestra habilidad para abordarlos
01:01
in a systemicsistémico way that is scalableescalable,
14
49924
3108
de una forma sistemática ampliable
01:05
that has a rigorousriguroso understandingcomprensión
of how we're takingtomando actionacción,
15
53056
6976
que comprenda rigurosamente
la forma en la que actuamos,
01:12
a transparenttransparente understandingcomprensión
of how we're takingtomando actionacción
16
60056
3105
una comprensión clara de
la forma en la que actuamos,
01:15
and a rigorousriguroso appealsapelaciones processproceso
for when we're wrongincorrecto,
17
63185
3101
y un proceso riguroso de apelaciones
para cuando nos equivoquemos,
01:18
because we will be wrongincorrecto.
18
66310
2169
porque nos equivocaremos.
01:20
WhitneyWhitney PenningtonPennington RodgersRodgers:
I'm really gladalegre to hearoír
19
68503
2397
Whitney Pennington Rodgers:
Me alegra mucho saber
01:22
that that's something that concernspreocupaciones you,
20
70924
1928
que es algo que les preocupa,
01:24
because I think there's been
a lot writtenescrito about people
21
72876
2630
porque se ha escrito mucho sobre personas
01:27
who feel they'veellos tienen been abusedabusado
and harassedacosado on TwitterGorjeo,
22
75530
2477
que sufrieron abuso y acoso en Twitter,
y creo que ningunas más que las mujeres,
las mujeres de color
01:30
and I think no one more so
than womenmujer and womenmujer of colorcolor
23
78031
4102
y las mujeres afroamericanas.
01:34
and blacknegro womenmujer.
24
82157
1170
01:35
And there's been datadatos that's come out --
25
83351
1913
Y ha surgido información como
el reporte que publicó Amnistía
Internacional hace unos meses
01:37
AmnestyAmnistía InternationalInternacional put out
a reportinforme a fewpocos monthsmeses agohace
26
85288
2909
01:40
where they showedmostró that a subsetsubconjunto
of activeactivo blacknegro femalehembra TwitterGorjeo usersusuarios
27
88221
4480
que muestra que un subconjunto de
usuarias activas afroamericanas en Twitter
01:44
were receivingrecepción, on averagepromedio,
one in 10 of theirsu tweetstweets
28
92725
3456
recibían, en promedio,
en uno de cada 10 tuits,
01:48
were some formformar of harassmentacoso.
29
96205
2099
algún tipo de acoso.
01:50
And so when you think about healthsalud
for the communitycomunidad on TwitterGorjeo,
30
98328
3907
Cuando piensan en salud
para la comunidad en Twitter,
01:54
I'm interestedinteresado to hearoír,
"healthsalud for everyonetodo el mundo,"
31
102259
4024
me interesa escuchar
que habrá salud para todos
01:58
but specificallyespecíficamente: How are you looking
to make TwitterGorjeo a safeseguro spaceespacio
32
106307
3125
pero ¿cómo harán que Twitter
sea un lugar seguro
02:01
for that subsetsubconjunto, for womenmujer,
for womenmujer of colorcolor and blacknegro womenmujer?
33
109456
4164
para las mujeres, las mujeres de color
y las mujeres afroamericanas?
02:05
JDJD: Yeah.
34
113644
1164
JD: Sí.
02:06
So it's a prettybonita terribleterrible situationsituación
35
114832
2643
Es una situación terrible
02:09
when you're comingviniendo to a serviceServicio
36
117499
1619
cuando ingresan a un servicio
02:11
that, ideallyidealmente, you want to learnaprender
something about the worldmundo,
37
119142
4321
en el que, idealmente,
quieren aprender algo del mundo,
02:15
and you spendgastar the majoritymayoria of your time
reportinginformes abuseabuso, receivingrecepción abuseabuso,
38
123487
5443
pero la mayor parte del tiempo
reportan abuso, reciben abuso
02:20
receivingrecepción harassmentacoso.
39
128954
1804
y reciben acoso.
02:23
So what we're looking mostmás deeplyprofundamente at
is just the incentivesincentivos
40
131373
6321
Estamos investigando a fondo
los incentivos
02:29
that the platformplataforma naturallynaturalmente providesproporciona
and the serviceServicio providesproporciona.
41
137718
3823
que la plataforma ofrece naturalmente
y el servicio que ofrece.
02:34
Right now, the dynamicdinámica of the systemsistema
makeshace it super-easysuper-fácil to harassacosar
42
142262
4577
Por ahora, la dinámica del sistema
hace que sea muy fácil acosar
02:38
and to abuseabuso othersotros throughmediante the serviceServicio,
43
146863
3664
y abusar a otros por medio del servicio
02:42
and unfortunatelyDesafortunadamente, the majoritymayoria
of our systemsistema in the pastpasado
44
150551
3262
y, por desgracia,
la mayor parte de nuestro sistema
02:45
workedtrabajó entirelyenteramente basedbasado on people
reportinginformes harassmentacoso and abuseabuso.
45
153837
5596
se basaba completamente en que
las personas reportaran el acoso y abuso.
02:51
So about midwaya mitad de camino last yearaño,
we decideddecidido that we were going to applyaplicar
46
159457
5075
A mediados del año pasado
decidimos aplicarle
02:56
a lot more machinemáquina learningaprendizaje,
a lot more deepprofundo learningaprendizaje to the problemproblema,
47
164556
3982
más aprendizaje automático,
más aprendizaje profundo al problema,
03:00
and try to be a lot more proactiveproactivo
around where abuseabuso is happeningsucediendo,
48
168562
4538
y tratar de ser más proactivos
en donde sucede el abuso
03:05
so that we can take the burdencarga
off the victimvíctima completelycompletamente.
49
173124
3960
para quitarle ese peso de encima
a la víctima.
03:09
And we'venosotros tenemos madehecho some progressProgreso recentlyrecientemente.
50
177108
2435
Y hemos progresado recientemente.
03:11
About 38 percentpor ciento of abusiveabusivo tweetstweets
are now proactivelyproactivamente identifiedidentificado
51
179567
6689
Alrededor del 38 % de los tuits
abusivos se identifican proactivamente
03:18
by machinemáquina learningaprendizaje algorithmsAlgoritmos
52
186280
1715
por medio del aprendizaje automático
03:20
so that people don't actuallyactualmente
have to reportinforme them.
53
188019
2334
para que las personas
no tengan que reportarlos.
03:22
But those that are identifiedidentificado
are still reviewedrevisado by humanshumanos,
54
190377
3305
Pero tenemos personas
revisando los tuits identificados,
03:25
so we do not take down contentcontenido or accountscuentas
withoutsin a humanhumano actuallyactualmente reviewingrevisando it.
55
193706
5384
así que no borramos contenido
o cuentas sin que alguien las revise.
03:31
But that was from zerocero percentpor ciento
just a yearaño agohace.
56
199114
2759
Y hace un año eso estaba en 0 %.
03:33
So that meantsignificado, at that zerocero percentpor ciento,
57
201897
1931
Eso significa que, en el 0 %
03:35
everycada singlesoltero personpersona who receivedrecibido abuseabuso
had to actuallyactualmente reportinforme it,
58
203852
3650
cada persona que recibía abuso
tenía que reportarlo,
03:39
whichcual was a lot of work for them,
a lot of work for us
59
207526
3579
lo cual era mucho trabajo para ellos,
mucho trabajo para nosotros
03:43
and just ultimatelypor último unfairinjusto.
60
211129
2018
y a final de cuentas era muy injusto.
03:46
The other thing that we're doing
is makingfabricación sure that we, as a companyempresa,
61
214528
3780
También nos estamos asegurando
que nosotros, como compañía,
03:50
have representationrepresentación of all the communitiescomunidades
that we're tryingmolesto to serveservir.
62
218332
3333
contemos con representación
de las comunidades a las que servimos.
03:53
We can't buildconstruir a businessnegocio
that is successfulexitoso
63
221689
2159
No podemos construir un negocio exitoso
03:55
unlessa no ser que we have a diversitydiversidad
of perspectiveperspectiva insidedentro of our wallsmuros
64
223872
3300
a menos que tengamos
una perspectiva interna diversa
03:59
that actuallyactualmente feel these issuescuestiones
everycada singlesoltero day.
65
227196
3732
que viva estos problemas día a día.
04:02
And that's not just with the teamequipo
that's doing the work,
66
230952
3738
Eso no solo aplica para el equipo
que realiza ese trabajo,
04:06
it's alsoademás withindentro our leadershipliderazgo as well.
67
234714
2096
sino también para nuestros directivos.
04:08
So we need to continuecontinuar to buildconstruir empathyempatía
for what people are experiencingexperimentar
68
236834
5757
Necesitamos continuar desarrollando
empatía por lo que viven las personas
04:14
and give them better toolsherramientas to actacto on it
69
242615
3316
y darles mejores herramientas
para defenderse,
04:17
and alsoademás give our customersclientes
a much better and easiermás fácil approachenfoque
70
245955
4252
y también darles a nuestros clientes
un acercamiento mejor y más sencillo
04:22
to handleencargarse de some of the things
that they're seeingviendo.
71
250231
2382
para lidiar con algunas
de las cosas que ven.
04:24
So a lot of what we're doing
is around technologytecnología,
72
252637
3266
Mucho de lo que estamos haciendo
se centra en la tecnología,
04:27
but we're alsoademás looking at
the incentivesincentivos on the serviceServicio:
73
255927
4308
pero también estamos enfocándonos
en los incentivos del servicio:
04:32
What does TwitterGorjeo incentivizeincentivar you to do
when you first openabierto it up?
74
260259
5183
¿Qué es lo que Twitter los incentiva
a hacer cuando lo abren por primera vez?
04:37
And in the pastpasado,
75
265466
1294
En el pasado,
04:40
it's incentedincentió a lot of outrageatropello,
it's incentedincentió a lot of mobmultitud behaviorcomportamiento,
76
268670
5544
incentivó mucha indignación,
comportamiento gregario,
04:46
it's incentedincentió a lot of groupgrupo harassmentacoso.
77
274238
2459
y acoso grupal.
04:48
And we have to look a lot deeperMás adentro
at some of the fundamentalsfundamentos
78
276721
3648
Tenemos que investigar a fondo
algunos de los fundamentos
04:52
of what the serviceServicio is doing
to make the biggermás grande shiftsturnos.
79
280393
2958
de lo que está haciendo el servicio
para hacer cambios grandes.
04:55
We can make a bunchmanojo of smallpequeña shiftsturnos
around technologytecnología, as I just describeddescrito,
80
283375
4031
Podemos hacer muchos cambios pequeños
con tecnología, como describí,
04:59
but ultimatelypor último, we have to look deeplyprofundamente
at the dynamicsdinámica in the networkred itselfsí mismo,
81
287430
4386
pero a final de cuentas tenemos que
observar a fondo las dinámicas en la red,
05:03
and that's what we're doing.
82
291840
1368
y eso estamos haciendo.
05:05
CACalifornia: But what's your sensesentido --
83
293232
2060
CA: Pero ¿qué podrían cambiar
para modificar ese comportamiento?
05:07
what is the kindtipo of thing
that you mightpodría be ablepoder to changecambio
84
295316
3963
05:11
that would actuallyactualmente
fundamentallyfundamentalmente shiftcambio behaviorcomportamiento?
85
299303
2749
05:15
JDJD: Well, one of the things --
86
303386
1480
JD: Bueno, comenzamos el servicio
con el concepto de seguir una cuenta,
05:16
we startedempezado the serviceServicio
with this conceptconcepto of followingsiguiendo an accountcuenta,
87
304890
5340
05:22
as an exampleejemplo,
88
310254
1725
como ejemplo,
05:24
and I don't believe that's why
people actuallyactualmente come to TwitterGorjeo.
89
312003
4349
y no creo que sea la razón
por la cual las personas entran a Twitter.
05:28
I believe TwitterGorjeo is bestmejor
as an interest-basedbasado en intereses networkred.
90
316376
4857
Considero que Twitter es mejor conocida
como una red basada en intereses.
05:33
People come with a particularespecial interestinteresar.
91
321257
3453
Las personas ingresan
con un interés particular.
05:36
They have to do a tontonelada of work
to find and followseguir the relatedrelacionado accountscuentas
92
324734
3487
Deben esforzarse mucho para encontrar
y seguir cuentas relacionadas
05:40
around those interestsintereses.
93
328245
1405
a esos intereses.
05:42
What we could do insteaden lugar
is allowpermitir you to followseguir an interestinteresar,
94
330217
3397
Lo que podemos hacer es permitir
que sigan un interés,
05:45
followseguir a hashtaghashtag, followseguir a trendtendencia,
95
333638
2103
sigan un hashtag, sigan una tendencia,
05:47
followseguir a communitycomunidad,
96
335765
1754
sigan una comunidad,
05:49
whichcual givesda us the opportunityoportunidad
to showespectáculo all of the accountscuentas,
97
337543
4637
lo cual nos brinda la oportunidad
de mostrar todas las cuentas,
05:54
all the topicstemas, all the momentsmomentos,
all the hashtagshashtags
98
342204
3323
todos los temas, todos los momentos,
todos los hashtags
05:57
that are associatedasociado with that
particularespecial topictema and interestinteresar,
99
345551
3992
asociados con ese tema
e interés en particular,
06:01
whichcual really opensabre up
the perspectiveperspectiva that you see.
100
349567
4600
lo cual amplía la perspectiva
de lo que pueden ver.
06:06
But that is a hugeenorme fundamentalfundamental shiftcambio
101
354191
2157
Pero es un cambio fundamental
muy grande
06:08
to biasparcialidad the entiretodo networkred
away from just an accountcuenta biasparcialidad
102
356372
3792
hacer que la red deje de tener
una inclinación hacia las cuentas
06:12
towardshacia a topicstemas and interestinteresar biasparcialidad.
103
360188
2587
y que tenga una inclinación
hacia temas e intereses.
06:15
CACalifornia: Because isn't it the casecaso
104
363283
3148
CA: Pero ¿no es cierto que
06:19
that one reasonrazón why you have
so much contentcontenido on there
105
367375
3541
una de las razones por las cuales
tienen tanto contenido
06:22
is a resultresultado of puttingponiendo millionsmillones
of people around the worldmundo
106
370940
3591
se debe a que tienen a millones
de personas de todo el mundo
06:26
in this kindtipo of gladiatorialgladiatorio
contestconcurso with eachcada other
107
374555
3142
en una especie
de contienda entre gladiadores
06:29
for followersseguidores, for attentionatención?
108
377721
2090
para conseguir seguidores y atención?
06:31
Like, from the pointpunto of viewver
of people who just readleer TwitterGorjeo,
109
379835
4117
Desde el punto de vista de las
personas que solo leen Twitter,
06:35
that's not an issueproblema,
110
383976
1155
eso no es un problema,
06:37
but for the people who actuallyactualmente createcrear it,
everyone'stodos out there sayingdiciendo,
111
385155
3350
pero todos los creadores
06:40
"You know, I wishdeseo I had
a fewpocos more 'likes'Likes,' followersseguidores, retweetsretweets."
112
388529
3236
desean tener más "me gusta",
más seguidores y más retuits.
06:43
And so they're constantlyconstantemente experimentingexperimentando,
113
391789
2148
Así que constantemente
están experimentando
06:45
tryingmolesto to find the pathcamino to do that.
114
393961
1961
para encontrar la manera de logarlo.
06:47
And what we'venosotros tenemos all discovereddescubierto
is that the numbernúmero one pathcamino to do that
115
395946
4126
Y todos hemos descubierto
que la principal forma para lograrlo
06:52
is to be some formformar of provocativeprovocativo,
116
400096
3406
es ser provocativo,
06:55
obnoxiousdesagradable, eloquentlyelocuentemente obnoxiousdesagradable,
117
403526
2980
detestable, elocuentemente detestable,
06:58
like, eloquentelocuente insultsinsultos
are a dreamsueño on TwitterGorjeo,
118
406530
3516
en Twitter aman a los insultos elocuentes
07:02
where you rapidlyrápidamente pilepila up --
119
410070
2603
y rápidamente acumulan...
07:04
and it becomesse convierte this self-fuelingautosuficiente
processproceso of drivingconducción outrageatropello.
120
412697
4608
y se convierte en este proceso
que fomenta indignación.
07:09
How do you defusedesactivar that?
121
417329
2351
¿Cómo disipan eso?
07:12
JDJD: Yeah, I mean, I think you're spotlugar on,
122
420624
2947
JD: Creo que diste en el blanco,
07:15
but that goesva back to the incentivesincentivos.
123
423595
1886
pero eso vuelve a los incentivos.
07:17
Like, one of the choiceselecciones
we madehecho in the earlytemprano daysdías was
124
425505
2632
Una de las decisiones que tomamos
al principio fue
07:20
we had this numbernúmero that showedmostró
how manymuchos people followseguir you.
125
428161
4701
tener un número que mostrara
cuántas personas te seguían.
07:24
We decideddecidido that numbernúmero
should be biggrande and boldnegrita,
126
432886
2959
Decidimos que ese número sería
grande y estaría en negritas,
07:27
and anything that's on the pagepágina
that's biggrande and boldnegrita has importanceimportancia,
127
435869
3740
y todo lo que es grande
y está en negritas es importante,
07:31
and those are the things
that you want to drivemanejar.
128
439633
2278
y es algo que se quiere incrementar.
07:33
Was that the right decisiondecisión at the time?
129
441935
1907
¿Fue la decisión correcta en el momento?
07:35
ProbablyProbablemente not.
130
443866
1153
Probablemente no.
07:37
If I had to startcomienzo the serviceServicio again,
131
445043
1805
Si tuviera que volver a empezar
07:38
I would not emphasizeenfatizar
the followerseguidor countcontar as much.
132
446872
2398
no resaltaría tanto
el número de seguidores.
07:41
I would not emphasizeenfatizar
the "like" countcontar as much.
133
449294
2295
No resaltaría tanto
el número de "me gusta".
07:43
I don't think I would even
createcrear "like" in the first placelugar,
134
451613
3120
Creo que no hubiera creado
los "me gusta" en primer lugar,
07:46
because it doesn't actuallyactualmente pushempujar
135
454757
3267
porque no representan realmente
07:50
what we believe now
to be the mostmás importantimportante thing,
136
458048
3179
lo que ahora creemos
que es lo más importante,
07:53
whichcual is healthysaludable contributioncontribución
back to the networkred
137
461251
3039
lo cual es una contribución sana
hacia la red
07:56
and conversationconversacion to the networkred,
138
464314
2652
y las conversaciones en la red,
07:58
participationparticipación withindentro conversationconversacion,
139
466990
2072
la participación en las conversaciones,
08:01
learningaprendizaje something from the conversationconversacion.
140
469086
2493
y aprender algo de las conversaciones.
08:03
Those are not things
that we thought of 13 yearsaños agohace,
141
471603
2824
No pensamos en eso hace 13 años,
08:06
and we believe are extremelyextremadamente
importantimportante right now.
142
474451
2439
pero ahora creemos que
son aspectos muy importantes.
08:08
So we have to look at
how we displaymonitor the followerseguidor countcontar,
143
476914
3023
Tenemos que observar
cómo mostramos el contador de seguidores,
08:11
how we displaymonitor retweetretweet countcontar,
144
479961
2365
cómo mostramos el contador de retuits,
08:14
how we displaymonitor "likesgustos,"
145
482350
1401
cómo mostramos los "me gusta"
08:15
and just askpedir the deepprofundo questionpregunta:
146
483775
2254
y preguntarnos:
08:18
Is this really the numbernúmero
that we want people to drivemanejar up?
147
486053
3048
¿En verdad queremos que las personas
incrementen este número?
08:21
Is this the thing that,
when you openabierto TwitterGorjeo,
148
489125
2545
¿Esto es lo que,
cuando abran Twitter,
08:23
you see, "That's the thing
I need to increaseincrementar?"
149
491694
2516
observen y quieran incrementar?
08:26
And I don't believe
that's the casecaso right now.
150
494234
2144
Y no creo que sea el caso
en estos momentos.
08:28
(ApplauseAplausos)
151
496402
2103
(Aplausos)
08:30
WPRWPR: I think we should look at
some of the tweetstweets
152
498529
2352
WPR: Creo que deberíamos
ver algunos de los tuits
08:32
that are comingviniendo
in from the audienceaudiencia as well.
153
500905
2169
que vienen de la audiencia.
08:35
CACalifornia: Let's see what you guys are askingpreguntando.
154
503868
2436
CA: Veamos lo que están preguntando.
08:38
I mean, this is -- generallyen general, one
of the amazingasombroso things about TwitterGorjeo
155
506328
3294
Una de las maravillas de Twitter
es cómo puede usarse
para la sabiduría de las masas,
08:41
is how you can use it for crowdmultitud wisdomsabiduría,
156
509646
2294
08:43
you know, that more knowledgeconocimiento,
more questionspreguntas, more pointspuntos of viewver
157
511964
4840
hay más conocimiento, más preguntas,
y más puntos de vista
08:48
than you can imagineimagina,
158
516828
1238
de los que podamos imaginar
08:50
and sometimesa veces, manymuchos of them
are really healthysaludable.
159
518090
3689
y, algunas veces, son muy sanos.
08:53
WPRWPR: I think one I saw that
passedpasado alreadyya quicklycon rapidez down here,
160
521803
2900
WPR: Creo que vi un tuit que decía:
08:56
"What's Twitter'sTwitter planplan to combatcombate
foreignexterior meddlingintromisión in the 2020 US electionelección?"
161
524717
3524
"¿Cómo prevendrán la injerencia
extranjera en las elecciones del 2020?".
09:00
I think that's something
that's an issueproblema we're seeingviendo
162
528265
2571
Considero que es un problema que vemos
09:02
on the internetInternet in generalgeneral,
163
530860
1901
en el internet en general,
09:04
that we have a lot of maliciousmalicioso
automatedautomatizado activityactividad happeningsucediendo.
164
532785
3667
tenemos mucha actividad
automática maliciosa.
09:08
And on TwitterGorjeo, for exampleejemplo,
in facthecho, we have some work
165
536476
5373
Y en Twitter, por ejemplo,
tenemos algunos reportes
09:13
that's come from our friendsamigos
at ZignalZignal LabsLabs,
166
541873
2758
de nuestros amigos de Zignal Labs,
09:16
and maybe we can even see that
to give us an exampleejemplo
167
544655
2656
y tal vez podamos verlos
para darnos una idea
09:19
of what exactlyexactamente I'm talkinghablando about,
168
547335
1927
de lo que estoy hablando,
09:21
where you have these botsbots, if you will,
169
549286
3204
en los que se usan bots
09:24
or coordinatedcoordinado automatedautomatizado
maliciousmalicioso accountcuenta activityactividad,
170
552514
4550
o actividades coordinadas
de cuentas maliciosas automatizadas
09:29
that is beingsiendo used to influenceinfluencia
things like electionselecciones.
171
557088
2764
para influenciar situaciones
tales como las elecciones.
09:31
And in this exampleejemplo we have
from ZignalZignal whichcual they'veellos tienen sharedcompartido with us
172
559876
3843
En este ejemplo que Zignal
compartió con nosotros
09:35
usingutilizando the datadatos that
they have from TwitterGorjeo,
173
563743
2198
usando información de Twitter,
09:37
you actuallyactualmente see that in this casecaso,
174
565965
2441
muestra que, en este caso,
09:40
whiteblanco representsrepresenta the humanshumanos --
humanhumano accountscuentas, eachcada dotpunto is an accountcuenta.
175
568430
4370
lo blanco representa las cuentas humanas,
cada punto es una cuenta.
09:44
The pinkerPinker it is,
176
572824
1359
Entre más rosa esté
09:46
the more automatedautomatizado the activityactividad is.
177
574207
1740
más automatizada es la actividad.
09:47
And you can see how you have
a fewpocos humanshumanos interactinginteractuando with botsbots.
178
575971
5970
Y pueden ver cómo hay pocos
humanos interactuando con bots.
09:53
In this casecaso, it's relatedrelacionado
to the electionelección in IsraelIsrael
179
581965
4419
Este caso está relacionado
con la elección en Israel
09:58
and spreadingextensión misinformationdesinformación
about BennyBenny GantzGantz,
180
586408
2833
y la divulgación de desinformación
sobre Benny Gantz,
10:01
and as we know, in the endfin,
that was an electionelección
181
589265
2662
y, como sabemos, al final fue una elección
10:03
that NetanyahuNetanyahu wonwon by a slimDelgado marginmargen,
182
591951
3724
que Netanyahu ganó por un pequeño margen,
10:07
and that maymayo have been
in some casecaso influencedinfluenciado by this.
183
595699
2842
y eso pudo haber
sido influenciado por esto.
10:10
And when you think about
that happeningsucediendo on TwitterGorjeo,
184
598565
2615
Cuando piensan que esto
está sucediendo en Twitter,
10:13
what are the things
that you're doing, specificallyespecíficamente,
185
601204
2456
¿qué están haciendo
10:15
to ensureasegurar you don't have misinformationdesinformación
like this spreadingextensión in this way,
186
603684
3702
para asegurarse que no haya desinformación
divulgándose de esta forma,
10:19
influencinginfluyendo people in waysformas
that could affectafectar democracydemocracia?
187
607410
4181
influenciando a las personas en maneras
que puedan afectar la democracia?
10:23
JDJD: Just to back up a bitpoco,
188
611615
1771
JD: Para recapitular un poco,
10:25
we askedpreguntó ourselvesNosotros mismos a questionpregunta:
189
613410
2975
nos hicimos una pregunta:
10:28
Can we actuallyactualmente measuremedida
the healthsalud of a conversationconversacion,
190
616409
3816
¿En verdad podemos medir
la salud de la conversación
10:32
and what does that mean?
191
620249
1288
y qué significa eso?
10:33
And in the samemismo way
that you have indicatorsindicadores
192
621561
3382
Y de la misma forma que Uds.
tienen indicadores
10:36
and we have indicatorsindicadores as humanshumanos
in termscondiciones of are we healthysaludable or not,
193
624967
3467
y como humanos tenemos indicadores
que nos dicen si estamos sanos,
10:40
suchtal as temperaturetemperatura,
the flushnessenrojecimiento of your facecara,
194
628458
4658
tales como la temperatura,
el rubor en nuestro rostro,
10:45
we believe that we could find
the indicatorsindicadores of conversationalconversacional healthsalud.
195
633140
4560
creemos que podemos encontrar
indicadores de la salud conversacional.
10:49
And we workedtrabajó with a lablaboratorio
calledllamado CorticoCortico at MITMIT
196
637724
3843
Trabajamos con un laboratorio
llamado Cortico en el MIT
10:54
to proposeproponer fourlas cuatro startermotor de arranque indicatorsindicadores
197
642479
6091
para proponer cuatro
indicadores de entrada
11:00
that we believe we could ultimatelypor último
measuremedida on the systemsistema.
198
648594
3670
que consideramos
que podemos medir en el sistema.
11:05
And the first one is
what we're callingvocación sharedcompartido attentionatención.
199
653249
5604
El primero es la atención compartida.
11:10
It's a measuremedida of how much
of the conversationconversacion is attentiveatento
200
658877
3581
Mide qué porcentaje
de la conversación es atenta
11:14
on the samemismo topictema versusversus disparatedispar.
201
662482
2630
en un mismo tema en vez de dispersa.
11:17
The secondsegundo one is calledllamado sharedcompartido realityrealidad,
202
665739
2783
El segundo se llama realidad compartida,
11:21
and this is what percentageporcentaje
of the conversationconversacion
203
669217
2259
y es el porcentaje de la conversación
11:23
sharesComparte the samemismo factshechos --
204
671500
2005
que comparte los mismos hechos
11:25
not whethersi those factshechos
are truthfulveraz or not,
205
673529
3113
y no si esos hechos son verdaderos o no,
11:28
but are we sharingcompartiendo
the samemismo factshechos as we converseconversar?
206
676666
3009
pero ¿compartimos
los mismos hechos al conversar?
11:32
The thirdtercero is receptivityReceptividad:
207
680235
2353
El tercero es la receptividad,
11:34
How much of the conversationconversacion
is receptivereceptivo or civilcivil
208
682612
3959
es el porcentaje de la conversación
que es receptiva o civil,
11:38
or the inverseinverso, toxictóxico?
209
686595
2944
o, al contrario, tóxica.
11:42
And then the fourthcuarto
is varietyvariedad of perspectiveperspectiva.
210
690213
3222
Y el cuarto es la variedad
de perspectivas.
11:45
So, are we seeingviendo filterfiltrar bubblesburbujas
or echoeco chamberscámaras,
211
693459
3145
¿Estamos viendo filtros burbuja o
cámaras de eco,
11:48
or are we actuallyactualmente gettingconsiguiendo
a varietyvariedad of opinionsopiniones
212
696628
3057
o en realidad estamos teniendo
una variedad de opiniones
11:51
withindentro the conversationconversacion?
213
699709
1635
dentro de la conversación?
11:53
And implicitimplícito in all fourlas cuatro of these
is the understandingcomprensión that,
214
701368
4018
Está implícito dentro de
los cuatro indicadores que,
11:57
as they increaseincrementar, the conversationconversacion
getsse pone healthiermas saludable and healthiermas saludable.
215
705410
3390
al incrementar, la conversación
se hace cada vez más sana.
12:00
So our first steppaso is to see
if we can measuremedida these onlineen línea,
216
708824
4869
Nuestro primer paso es ver
si podemos medirlos en línea,
12:05
whichcual we believe we can.
217
713717
1308
y creemos que sí.
12:07
We have the mostmás momentumimpulso
around receptivityReceptividad.
218
715049
3167
Tenemos mayor impulso en la receptividad.
12:10
We have a toxicitytoxicidad scorePuntuación,
a toxicitytoxicidad modelmodelo, on our systemsistema
219
718240
4317
Tenemos un marcador de toxicidad,
un modelo de toxicidad, en el sistema
12:14
that can actuallyactualmente measuremedida
whethersi you are likelyprobable to walkcaminar away
220
722581
4124
que en realidad puede medir
la probabilidad de que abandonen
12:18
from a conversationconversacion
that you're havingteniendo on TwitterGorjeo
221
726729
2313
una conversación en Twitter
12:21
because you feel it's toxictóxico,
222
729066
1633
porque sienten que es tóxica
12:22
with some prettybonita highalto degreela licenciatura.
223
730723
2512
con un nivel bastante alto.
12:26
We're workingtrabajando to measuremedida the restdescanso,
224
734369
2199
Estamos trabajando para medir el resto
12:28
and the nextsiguiente steppaso is,
225
736592
1964
y el siguiente paso es,
12:30
as we buildconstruir up solutionssoluciones,
226
738580
3359
mientras desarrollamos soluciones,
12:33
to watch how these measurementsmediciones
trendtendencia over time
227
741963
3491
observar la tendencia
de estos indicadores con el tiempo
12:37
and continuecontinuar to experimentexperimentar.
228
745478
1873
y continuar experimentando.
12:39
And our goalGol is to make sure
that these are balancedequilibrado,
229
747375
4041
Nuestro objetivo es asegurarnos
de que estén balanceados,
12:43
because if you increaseincrementar one,
you mightpodría decreasedisminución anotherotro.
230
751440
3066
porque si uno incrementa,
otro puede disminuir.
12:46
If you increaseincrementar varietyvariedad of perspectiveperspectiva,
231
754530
2147
Si la variedad de perspectiva incrementa
12:48
you mightpodría actuallyactualmente decreasedisminución
sharedcompartido realityrealidad.
232
756701
3091
podría disminuir la realidad compartida.
12:51
CACalifornia: Just pickingcosecha up on some
of the questionspreguntas floodinginundación in here.
233
759816
4989
CA: Solo para retomar
el torrente de preguntas aquí.
12:56
JDJD: ConstantConstante questioninginterrogatorio.
234
764829
1271
JD: Preguntas constantes.
12:58
CACalifornia: A lot of people are puzzledperplejo why,
235
766996
3620
CA: Muchos preguntan
13:02
like, how harddifícil is it to get rideliminar
of NazisNazis from TwitterGorjeo?
236
770640
4247
¿qué tan difícil es deshacerse
de los nazis en Twitter?
13:08
JDJD: (LaughsRisas)
237
776309
1322
JD: (Risas)
13:09
So we have policiespolíticas
around violentviolento extremistextremista groupsgrupos,
238
777655
6995
Tenemos políticas sobre
los grupos extremistas violentos,
13:16
and the majoritymayoria of our work
and our termscondiciones of serviceServicio
239
784674
4426
y la mayor parte de nuestro trabajo
y términos del servicio
13:21
workstrabajos on conductconducta, not contentcontenido.
240
789124
3729
se basan en la conducta y no el contenido.
13:24
So we're actuallyactualmente looking for conductconducta.
241
792877
2551
Así que estamos observando la conducta.
13:27
ConductConducta beingsiendo usingutilizando the serviceServicio
242
795452
3014
La conducta usada en el servicio
13:30
to repeatedlyrepetidamente or episodicallyepisódicamente
harassacosar someonealguien,
243
798490
3867
para acosar a alguien
de forma repetida o episódica
13:34
usingutilizando hatefulodioso imageryimágenes
244
802381
2493
usando imágenes de odio
13:36
that mightpodría be associatedasociado with the KKKKKK
245
804898
2106
que podrían asociarse con el KKK
13:39
or the Americanamericano Nazinazi PartyFiesta.
246
807028
3281
o el Partido Nazi Americano.
13:42
Those are all things
that we actacto on immediatelyinmediatamente.
247
810333
4156
Son situaciones en las que actuamos
inmediatamente.
13:47
We're in a situationsituación right now
where that termtérmino is used fairlybastante looselyflojamente,
248
815002
5452
Estamos en una situación en la que
ese término se usa a la ligera
13:52
and we just cannotno poder take
any one mentionmencionar of that wordpalabra
249
820478
5313
y no podemos tomar
cualquier mención de esa palabra
13:57
accusingacusando someonealguien elsemás
250
825815
2117
al acusar a alguien más
13:59
as a factualfactual indicationindicación that they
should be removedremoto from the platformplataforma.
251
827956
3755
como un hecho de que deberían
eliminarlos de la plataforma.
14:03
So a lot of our modelsmodelos
are basedbasado around, numbernúmero one:
252
831735
2627
Muchos de nuestros modelos
se basan en, número uno:
14:06
Is this accountcuenta associatedasociado
with a violentviolento extremistextremista groupgrupo?
253
834386
3140
¿Esta cuenta está asociada
con un grupo violento extremista?
14:09
And if so, we can take actionacción.
254
837550
1983
Y si lo está, podemos actuar.
14:11
And we have donehecho so on the KKKKKK
and the Americanamericano Nazinazi PartyFiesta and othersotros.
255
839557
3852
Y lo hemos hecho con el KKK,
el Partido Nazi Americano y otros.
14:15
And numbernúmero two: Are they usingutilizando
imageryimágenes or conductconducta
256
843433
4183
Y número dos: ¿Están usando
imágenes o conductas
14:19
that would associateasociar them as suchtal as well?
257
847640
2372
que los asociarían como tal?
14:22
CACalifornia: How manymuchos people do you have
workingtrabajando on contentcontenido moderationmoderación
258
850416
2932
CA: ¿Cuántas personas
están moderando el contenido
14:25
to look at this?
259
853372
1250
para evaluar esto?
14:26
JDJD: It variesvaría.
260
854646
1496
JD: Varía.
14:28
We want to be flexibleflexible on this,
261
856166
1595
Queremos ser flexibles con esto
14:29
because we want to make sure
that we're, numbernúmero one,
262
857785
2646
porque queremos asegurarnos
de que estamos, número uno,
14:32
buildingedificio algorithmsAlgoritmos insteaden lugar of just
hiringContratación massivemasivo amountscantidades of people,
263
860455
4424
creando algoritmos en vez de contratar
cantidades masivas de personas
14:36
because we need to make sure
that this is scalableescalable,
264
864903
2824
porque necesitamos asegurarnos
de que esto pueda escalarse
14:39
and there are no amountcantidad of people
that can actuallyactualmente scaleescala this.
265
867751
3454
y las personas no pueden escalarlo.
14:43
So this is why we'venosotros tenemos donehecho so much work
around proactiveproactivo detectiondetección of abuseabuso
266
871229
6629
Por eso hemos trabajado mucho
en la detección proactiva del abuso
que después pueda revisar
una persona.
14:49
that humanshumanos can then reviewrevisión.
267
877882
1391
14:51
We want to have a situationsituación
268
879297
2861
Queremos llegar a un punto
14:54
where algorithmsAlgoritmos are constantlyconstantemente
scouringfregado everycada singlesoltero tweetPío
269
882182
3741
en el que los algoritmos
analicen constantemente cada tuit
14:57
and bringingtrayendo the mostmás
interestinginteresante onesunos to the topparte superior
270
885947
2342
y destaquen los más interesantes
15:00
so that humanshumanos can bringtraer theirsu judgmentjuicio
to whethersi we should take actionacción or not,
271
888313
3902
para que nuestro equipo pueda juzgar
si debemos intervenir o no
basándose en los términos del servicio.
15:04
basedbasado on our termscondiciones of serviceServicio.
272
892239
1524
15:05
WPRWPR: But there's not an amountcantidad
of people that are scalableescalable,
273
893787
2803
WPR: No existe una cantidad
de personas escalable,
15:08
but how manymuchos people do you currentlyactualmente have
monitoringsupervisión these accountscuentas,
274
896614
3497
pero ¿cuántas personas
tienen monitorizando estas cuentas
15:12
and how do you figurefigura out what's enoughsuficiente?
275
900135
2546
y cómo saben cuándo es suficiente?
15:14
JDJD: They're completelycompletamente flexibleflexible.
276
902705
2272
JD: Son completamente flexibles.
15:17
SometimesA veces we associateasociar folksamigos with spamcorreo no deseado.
277
905001
2941
Algunas veces asociamos
a las personas con spam.
15:19
SometimesA veces we associateasociar folksamigos
with abuseabuso and harassmentacoso.
278
907966
3845
Algunas veces los asociamos
con abuso y acoso.
Nos aseguraremos
de que nuestras personas sean flexibles
15:23
We're going to make sure that
we have flexibilityflexibilidad in our people
279
911835
3062
para dirigirlas a donde
sean más necesarias.
15:26
so that we can directdirecto them
at what is mostmás needednecesario.
280
914921
2350
A veces, a las elecciones.
15:29
SometimesA veces, the electionselecciones.
281
917295
1204
Hemos tenido una serie de elecciones
en México, habrá una en la India,
15:30
We'veNosotros tenemos had a stringcuerda of electionselecciones
in MexicoMéjico, one comingviniendo up in IndiaIndia,
282
918523
4927
15:35
obviouslyobviamente, the electionelección last yearaño,
the midtermMediano plazo electionelección,
283
923474
4447
obviamente, la elección del año pasado,
la de mitad del periodo,
15:39
so we just want to be flexibleflexible
with our resourcesrecursos.
284
927945
2472
así que queremos ser flexibles
con nuestros recursos.
15:42
So when people --
285
930441
2129
Cuando las personas...
15:44
just as an exampleejemplo, if you go
to our currentcorriente termscondiciones of serviceServicio
286
932594
6389
por ejemplo, si entran a
nuestros términos del servicio actuales,
15:51
and you bringtraer the pagepágina up,
287
939007
1641
abren la página,
15:52
and you're wonderingpreguntando about abuseabuso
and harassmentacoso that you just receivedrecibido
288
940672
3682
piensan en el abuso y acoso
que acaban de recibir
15:56
and whethersi it was againsten contra
our termscondiciones of serviceServicio to reportinforme it,
289
944378
3634
y se preguntan si va en contra de
los términos del servicio para reportarlo,
16:00
the first thing you see
when you openabierto that pagepágina
290
948036
2559
lo primero que ven al abrir esa página
16:02
is around intellectualintelectual
propertypropiedad protectionproteccion.
291
950619
3088
es la protección de propiedad intelectual.
16:06
You scrollvoluta down and you get to
abuseabuso, harassmentacoso
292
954504
5323
Si se desplazan hacia abajo
llegarán al abuso, acoso
16:11
and everything elsemás
that you mightpodría be experiencingexperimentar.
293
959851
2382
y todo lo demás
que tal vez estén experimentando.
16:14
So I don't know how that happenedsucedió
over the company'scompañía historyhistoria,
294
962257
3195
No sé cómo sucedió eso
en la historia de la compañía,
16:17
but we put that aboveencima
the thing that people want
295
965476
4797
pero lo priorizamos sobre
aquello que las personas
16:24
the mostmás informationinformación on
and to actuallyactualmente actacto on.
296
972146
3222
buscan obtener más información
y formas de actuar.
16:27
And just our orderingordenando showsmuestra the worldmundo
what we believedcreído was importantimportante.
297
975392
5241
Ese orden le muestra al mundo
lo que creíamos que era importante.
16:32
So we're changingcambiando all that.
298
980657
2881
Estamos cambiando todo eso.
Lo estamos ordenando
de forma correcta,
16:35
We're orderingordenando it the right way,
299
983562
1563
16:37
but we're alsoademás simplifyingsimplificando the rulesreglas
so that they're human-readablelegible por humanos
300
985149
3451
y también estamos simplificando las reglas
para que puedan ser legibles
16:40
so that people can actuallyactualmente
understandentender themselvessí mismos
301
988624
4067
y que las personas
puedan entender por sí mismas
16:44
when something is againsten contra our termscondiciones
and when something is not.
302
992715
3448
cuando algo va en contra
de nuestros términos y cuando no.
16:48
And then we're makingfabricación --
303
996187
2161
Y estamos haciendo...
16:50
again, our biggrande focusatención is on removingeliminar
the burdencarga of work from the victimsvíctimas.
304
998372
5200
de nuevo, buscamos quitarle
ese trabajo de encima a las víctimas.
16:55
So that meansmedio pushempujar more
towardshacia technologytecnología,
305
1003596
3734
Eso significa invertir
más en la tecnología
y no en las personas que hacen el trabajo,
16:59
rathermás bien than humanshumanos doing the work --
306
1007354
1873
17:01
that meansmedio the humanshumanos receivingrecepción the abuseabuso
307
1009251
2413
incluyendo las que reciben abuso
17:03
and alsoademás the humanshumanos
havingteniendo to reviewrevisión that work.
308
1011688
3026
y las que revisan ese contenido.
17:06
So we want to make sure
309
1014738
1673
Queremos asegurarnos
17:08
that we're not just encouragingalentador more work
310
1016435
2841
de que no fomentamos más trabajo
17:11
around something
that's supersúper, supersúper negativenegativo,
311
1019300
2629
alrededor de algo tan negativo,
17:13
and we want to have a good balanceequilibrar
betweenEntre the technologytecnología
312
1021953
2674
y queremos tener
un buen balance entre la tecnología
17:16
and where humanshumanos can actuallyactualmente be creativecreativo,
313
1024651
2852
y el lugar donde las personas
puedan ser creativas,
17:19
whichcual is the judgmentjuicio of the rulesreglas,
314
1027527
3090
lo cual juzga las reglas,
17:22
and not just all the mechanicalmecánico stuffcosas
of findinghallazgo and reportinginformes them.
315
1030641
3267
y no solo encontrar y reportar
cosas mecánicamente.
17:25
So that's how we think about it.
316
1033932
1530
Así es como pensamos en eso.
17:27
CACalifornia: I'm curiouscurioso to digcavar in more
about what you said.
317
1035486
2406
CA: Me da curiosidad abordar lo que dices.
17:29
I mean, I love that you said
you are looking for waysformas
318
1037916
2605
Me encanta que digas que buscan maneras
17:32
to re-tweakre-ajustar the fundamentalfundamental
designdiseño of the systemsistema
319
1040545
3462
de modificar el diseño fundamental
del sistema
17:36
to discouragedesalentar some of the reactivereactivo
behaviorcomportamiento, and perhapsquizás --
320
1044031
4875
para disuadir parte
del comportamiento reactivo, y tal vez
17:40
to use TristanTristan Harris-typeTipo Harris languageidioma --
321
1048930
2705
usar el tipo de lenguaje
de Tristan Harris,
17:43
engagecontratar people'sla gente more reflectivereflexivo thinkingpensando.
322
1051659
4288
y captar el pensamiento
reflexivo de las personas.
17:47
How farlejos advancedavanzado is that?
323
1055971
1854
¿Qué tan avanzado está eso?
17:49
What would alternativesalternativas
to that "like" buttonbotón be?
324
1057849
4305
¿Cuáles serían las alternativas
a ese botón de "me gusta"?
17:55
JDJD: Well, first and foremostprincipal,
325
1063518
3575
JD: Primero que nada,
17:59
my personalpersonal goalGol with the serviceServicio
is that I believe fundamentallyfundamentalmente
326
1067117
5753
mi meta personal con el servicio
es que realmente considero
18:04
that publicpúblico conversationconversacion is criticalcrítico.
327
1072894
2702
que la conversación pública es crucial.
18:07
There are existentialexistencial problemsproblemas
facingfrente a the worldmundo
328
1075620
2647
Hay crisis existenciales en el mundo,
18:10
that are facingfrente a the entiretodo worldmundo,
not any one particularespecial nation-stateEstado nacional,
329
1078291
4163
en todo el mundo
y no solo en una nación en particular,
18:14
that globalglobal publicpúblico conversationconversacion benefitsbeneficios.
330
1082478
2649
que se benefician con esa
conversación pública global.
18:17
And that is one of the uniqueúnico
dynamicsdinámica of TwitterGorjeo,
331
1085151
2372
Esa es una de las dinámicas
únicas de Twitter,
18:19
that it is completelycompletamente openabierto,
332
1087547
1814
es completamente abierto,
público y fluido
18:21
it is completelycompletamente publicpúblico,
333
1089385
1596
18:23
it is completelycompletamente fluidfluido,
334
1091005
1399
18:24
and anyonenadie can see any other conversationconversacion
and participateparticipar in it.
335
1092428
4038
y cualquiera puede ver las conversaciones
y participar en ellas.
18:28
So there are conversationsconversaciones
like climateclima changecambio.
336
1096490
2206
Hay conversaciones
sobre el cambio climático,
18:30
There are conversationsconversaciones
like the displacementdesplazamiento in the work
337
1098720
2682
sobre el desplazamiento laboral
debido a la inteligencia artificial,
18:33
throughmediante artificialartificial intelligenceinteligencia.
338
1101426
2000
18:35
There are conversationsconversaciones
like economiceconómico disparitydisparidad.
339
1103450
3006
y sobre la desigualdad económica.
18:38
No matterimportar what any one nation-stateEstado nacional does,
340
1106480
2765
Una nación no podrá resolver el problema
por su cuenta sin importar lo que haga.
18:41
they will not be ablepoder
to solveresolver the problemproblema alonesolo.
341
1109269
2421
Se necesita una coordinación global,
18:43
It takes coordinationcoordinación around the worldmundo,
342
1111714
2643
18:46
and that's where I think
TwitterGorjeo can playjugar a partparte.
343
1114381
3047
y creo que ahí es donde
Twitter puede actuar.
18:49
The secondsegundo thing is that TwitterGorjeo,
right now, when you go to it,
344
1117452
5642
Lo segundo es que, actualmente,
cuando entran a Twitter,
18:55
you don't necessarilynecesariamente walkcaminar away
feelingsensación like you learnedaprendido something.
345
1123118
3746
no sienten que aprendieron algo.
18:58
Some people do.
346
1126888
1276
Algunos sí lo hacen.
19:00
Some people have
a very, very richRico networkred,
347
1128188
3107
Algunos tienen una red muy, muy, valiosa,
19:03
a very richRico communitycomunidad
that they learnaprender from everycada singlesoltero day.
348
1131319
3117
una comunidad muy valiosa
de la que aprenden a diario.
19:06
But it takes a lot of work
and a lot of time to buildconstruir up to that.
349
1134460
3691
Pero toma mucho trabajo
y mucho tiempo construir algo así.
19:10
So we want to get people
to those topicstemas and those interestsintereses
350
1138175
3448
Queremos que las personas
lleguen a esos temas e intereses
19:13
much, much fasterMás rápido
351
1141647
1579
de forma más rápida
19:15
and make sure that
they're findinghallazgo something that,
352
1143250
2566
y asegurarnos de que encuentren algo,
19:18
no matterimportar how much time
they spendgastar on TwitterGorjeo --
353
1146728
2360
sin importar cuánto tiempo
estén en Twitter...
19:21
and I don't want to maximizemaximizar
the time on TwitterGorjeo,
354
1149112
2358
y no quiero incrementar
el tiempo en Twitter,
19:23
I want to maximizemaximizar
what they actuallyactualmente take away from it
355
1151494
2910
quiero incrementar
lo que se llevan de ahí,
19:26
and what they learnaprender from it, and --
356
1154428
2030
lo que aprenden, y...
19:29
CACalifornia: Well, do you, thoughaunque?
357
1157598
1328
CA: ¿Seguro?
19:30
Because that's the corenúcleo questionpregunta
that a lot of people want to know.
358
1158950
3244
Porque eso es realmente
lo que la gente quiere saber.
19:34
SurelySeguramente, JackJack, you're constrainedconstreñido,
to a hugeenorme extentgrado,
359
1162218
3638
Claro, Jack, están atados en gran medida
por el hecho de que son
una compañía pública,
19:37
by the facthecho that you're a publicpúblico companyempresa,
360
1165880
2007
19:39
you've got investorsinversionistas pressingprensado on you,
361
1167911
1774
tienen inversionistas presionándolos,
19:41
the numbernúmero one way you make your moneydinero
is from advertisingpublicidad --
362
1169709
3559
y su principal forma de ganar dinero
es por medio de publicidad
19:45
that dependsdepende on userusuario engagementcompromiso.
363
1173292
2772
que depende de la participación
de los usuarios.
19:48
Are you willingcomplaciente to sacrificesacrificio
userusuario time, if need be,
364
1176088
4700
¿Están dispuestos a sacrificar el tiempo
de usuario, si fuera necesario,
19:52
to go for a more reflectivereflexivo conversationconversacion?
365
1180812
3729
para tener conversaciones más reflexivas?
19:56
JDJD: Yeah; more relevancepertinencia meansmedio
lessMenos time on the serviceServicio,
366
1184565
3111
JD: Sí, más relevancia significa
menos tiempo en el servicio,
19:59
and that's perfectlyperfectamente fine,
367
1187700
1937
eso me parece bien
20:01
because we want to make sure
that, like, you're comingviniendo to TwitterGorjeo,
368
1189661
3099
porque queremos asegurarnos
de que entren a Twitter,
20:04
and you see something immediatelyinmediatamente
that you learnaprender from and that you pushempujar.
369
1192784
4520
e inmediatamente vean algo
de lo que aprendan y que lo promuevan.
20:09
We can still serveservir an adanuncio againsten contra that.
370
1197328
3420
Y eso puede tener publicidad.
20:12
That doesn't mean you need to spendgastar
any more time to see more.
371
1200772
2921
No significa que deben
pasar más tiempo ahí para ver más.
20:15
The secondsegundo thing we're looking at --
372
1203717
1733
Lo segundo que estamos observando...
CA: Pero con esa meta
de uso diario activo,
20:17
CACalifornia: But just -- on that goalGol,
dailydiariamente activeactivo usageuso,
373
1205474
2698
20:20
if you're measuringmedición that,
that doesn't necessarilynecesariamente mean things
374
1208196
3245
si lo están midiendo
no significa necesariamente algo
20:23
that people valuevalor everycada day.
375
1211465
1738
que las personas valoren cada día.
20:25
It maymayo well mean
376
1213227
1161
Podría significar
20:26
things that people are drawndibujado to
like a mothpolilla to the flamellama, everycada day.
377
1214412
3306
cosas que atraen a las personas,
como polilla a las llamas.
20:29
We are addictedfanático, because we see
something that pissesmear us off,
378
1217742
3022
Somos adictos porque vemos
algo que nos molesta,
20:32
so we go in and addañadir fuelcombustible to the firefuego,
379
1220788
3178
así que vamos a añadirle leña al fuego,
20:35
and the dailydiariamente activeactivo usageuso goesva up,
380
1223990
1927
y el uso diario activo incrementa,
20:37
and there's more adanuncio revenueingresos there,
381
1225941
1715
genera más ingresos de publicidad,
20:39
but we all get angriermás enojado with eachcada other.
382
1227680
2752
pero nos molestamos más con los demás.
20:42
How do you definedefinir ...
383
1230456
2509
¿Cómo definen...?
20:44
"DailyDiario activeactivo usageuso" seemsparece like a really
dangerouspeligroso termtérmino to be optimizingoptimizando.
384
1232989
4126
El "uso diario activo" suena como algo
peligroso para optimizar.
20:49
(ApplauseAplausos)
385
1237139
5057
(Aplausos)
20:54
JDJD: TakenTomado alonesolo, it is,
386
1242220
1268
JD: Lo es, por su cuenta,
20:55
but you didn't let me
finishterminar the other metricmétrico,
387
1243512
2346
pero no me dejaste
terminar la otra métrica,
20:57
whichcual is, we're watchingacecho for conversationsconversaciones
388
1245882
3727
y es que buscamos conversaciones
21:01
and conversationconversacion chainscadenas.
389
1249633
2129
y cadenas de conversaciones.
21:03
So we want to incentivizeincentivar
healthysaludable contributioncontribución back to the networkred,
390
1251786
5076
Queremos incentivar
las contribuciones sanas hacia la red
21:08
and what we believe that is
is actuallyactualmente participatingparticipativo in conversationconversacion
391
1256886
4181
y creemos que eso es, en realidad,
participar en una conversación
21:13
that is healthysaludable,
392
1261091
1197
que sea sana,
21:14
as defineddefinido by those fourlas cuatro indicatorsindicadores
I articulatedarticulado earliermás temprano.
393
1262312
5037
como se define por los cuatro indicadores
que formulé anteriormente.
21:19
So you can't just optimizeoptimizar
around one metricmétrico.
394
1267373
2657
Así que no solo
se puede optimizar una métrica.
21:22
You have to balanceequilibrar and look constantlyconstantemente
395
1270054
2752
Se tienen que balancear
y tenemos que buscar constantemente
21:24
at what is actuallyactualmente going to createcrear
a healthysaludable contributioncontribución to the networkred
396
1272830
4083
lo que en realidad va a crear
una contribución sana en la red
21:28
and a healthysaludable experienceexperiencia for people.
397
1276937
2341
y una experiencia sana para las personas.
21:31
UltimatelyPor último, we want to get to a metricmétrico
398
1279302
1866
Queremos llegar a una métrica
21:33
where people can tell us,
"Hey, I learnedaprendido something from TwitterGorjeo,
399
1281192
3757
en la cual las personas puedan decirnos
que aprendieron algo de Twitter
21:36
and I'm walkingpara caminar away
with something valuablevalioso."
400
1284973
2167
y se llevan algo valioso.
21:39
That is our goalGol ultimatelypor último over time,
401
1287164
2043
Esa es nuestra finalidad con el tiempo,
21:41
but that's going to take some time.
402
1289231
1809
pero nos tomará algo de tiempo.
21:43
CACalifornia: You come over to manymuchos,
I think to me, as this enigmaenigma.
403
1291064
5282
CA: Eres un enigma para muchos
y para mí también.
21:48
This is possiblyposiblemente unfairinjusto,
but I wokedespertó up the other night
404
1296370
4396
Esto tal vez sea injusto,
pero la otra noche desperté
21:52
with this pictureimagen of how I foundencontró I was
thinkingpensando about you and the situationsituación,
405
1300790
3879
con una imagen de cómo
pensaba en ti y en esta situación,
21:56
that we're on this great voyageviaje with you
on this shipenviar calledllamado the "TwittanicTwittanic" --
406
1304693
6903
estamos contigo en esta travesía
en un barco llamado "El Twittanic" --
22:03
(LaughterRisa)
407
1311620
1281
(Risas)
22:04
and there are people on boardtablero in steerageentrepuente
408
1312925
4357
y hay personas a bordo en el entrepuente
22:09
who are expressingexpresando discomfortincomodidad,
409
1317306
2203
expresando incomodidad,
22:11
and you, unlikediferente a manymuchos other captainscapitanes,
410
1319533
2543
y tú, a diferencia de otros capitanes,
22:14
are sayingdiciendo, "Well, tell me, talk to me,
listen to me, I want to hearoír."
411
1322100
3431
dices, "Bueno, dime, háblame,
escúchame, quiero escuchar".
22:17
And they talk to you, and they say,
"We're worriedpreocupado about the icebergiceberg aheadadelante."
412
1325555
3619
Y te hablan y dicen, "Nos preocupa
el iceberg que está adelante".
22:21
And you go, "You know,
that is a powerfulpoderoso pointpunto,
413
1329198
2242
Y dices, "Ese un muy buen punto,
22:23
and our shipenviar, franklyfrancamente,
hasn'tno tiene been builtconstruido properlycorrectamente
414
1331464
2430
y nuestro barco no
se construyó correctamente
22:25
for steeringgobierno as well as it mightpodría."
415
1333918
1669
para maniobrar como debería".
22:27
And we say, "Please do something."
416
1335611
1658
Y decimos, "Por favor, haz algo".
22:29
And you go to the bridgepuente,
417
1337293
1411
Y vas al puente de mando,
22:30
and we're waitingesperando,
418
1338728
2295
te esperamos,
22:33
and we look, and then you're showingdemostración
this extraordinaryextraordinario calmcalma,
419
1341047
4548
te miramos, y te ves
extremadamente calmado,
22:37
but we're all standingen pie outsidefuera de,
sayingdiciendo, "JackJack, turngiro the fuckingmaldito wheelrueda!"
420
1345619
3883
pero todos estamos afuera gritando:
"¡Jack, mueve el maldito timón!".
22:41
You know?
421
1349526
1151
¿Sabes?
22:42
(LaughterRisa)
422
1350701
1335
(Risas)
22:44
(ApplauseAplausos)
423
1352060
2381
(Aplausos)
22:46
I mean --
424
1354465
1166
Digo...
22:47
(ApplauseAplausos)
425
1355655
1734
(Aplausos)
22:49
It's democracydemocracia at stakeestaca.
426
1357413
4594
La democracia está en juego.
22:54
It's our culturecultura at stakeestaca.
It's our worldmundo at stakeestaca.
427
1362031
2821
Nuestra cultura está en juego.
Nuestro mundo está en juego.
22:56
And TwitterGorjeo is amazingasombroso and shapesformas so much.
428
1364876
4706
Twitter es genial y moldea muchas cosas.
23:01
It's not as biggrande as some
of the other platformsplataformas,
429
1369606
2233
No es tan grande como otras plataformas,
23:03
but the people of influenceinfluencia use it
to setconjunto the agendaagenda,
430
1371863
2804
pero los influyentes lo usan
para impulsar sus agendas,
23:06
and it's just harddifícil to imagineimagina a more
importantimportante rolepapel in the worldmundo than to ...
431
1374691
6787
y es difícil imaginar un papel
más importante en el mundo que...
23:13
I mean, you're doing a brilliantbrillante jobtrabajo
of listeningescuchando, JackJack, and hearingaudición people,
432
1381502
3784
Estás haciendo un excelente trabajo
escuchando, Jack, escuchando a la gente,
23:17
but to actuallyactualmente dialmarcar up the urgencyurgencia
and movemovimiento on this stuffcosas --
433
1385310
4445
pero en verdad incrementar la urgencia
y abordar estas cosas...
23:21
will you do that?
434
1389779
2201
¿lo harás?
23:24
JDJD: Yes, and we have been
movingemocionante substantiallysustancialmente.
435
1392750
3815
JD: Sí, y lo hemos abordado
considerablemente.
23:28
I mean, there's been
a fewpocos dynamicsdinámica in Twitter'sTwitter historyhistoria.
436
1396589
3225
Hemos tenido varias dinámicas
en la historia de Twitter.
23:31
One, when I camevino back to the companyempresa,
437
1399838
2083
Cuando regresé a la compañía,
23:35
we were in a prettybonita direterrible stateestado
in termscondiciones of our futurefuturo,
438
1403477
6256
estábamos en un estado terrible
en cuanto a nuestro futuro,
23:41
and not just from how people
were usingutilizando the platformplataforma,
439
1409757
4634
no solo en la forma en la que
las personas usaban la plataforma,
sino también desde
una narrativa corporativa.
23:46
but from a corporatecorporativo narrativenarrativa as well.
440
1414415
2047
23:48
So we had to fixfijar
a bunchmanojo of the foundationFundación,
441
1416486
3204
Tuvimos que arreglar
muchos de los fundamentos,
23:51
turngiro the companyempresa around,
442
1419714
1969
transformar la compañía,
23:53
go throughmediante two crazyloca layoffsdespidos,
443
1421707
3111
pasar por dos grandes despidos,
23:56
because we just got too biggrande
for what we were doing,
444
1424842
3793
porque crecimos demasiado
para lo que estábamos haciendo,
24:00
and we focusedcentrado all of our energyenergía
445
1428659
2060
y enfocamos toda nuestra energía
24:02
on this conceptconcepto of servingservicio
the publicpúblico conversationconversacion.
446
1430743
3508
en el concepto de servir
la conversación pública.
24:06
And that tooktomó some work.
447
1434275
1451
Eso tomó algo de trabajo.
24:07
And as we divedbuceado into that,
448
1435750
2608
Mientras nos adentramos en eso,
24:10
we realizeddio cuenta some of the issuescuestiones
with the fundamentalsfundamentos.
449
1438382
2992
nos dimos cuenta de algunos de los
problemas con nuestros fundamentos.
24:14
We could do a bunchmanojo of superficialsuperficial things
to addressdirección what you're talkinghablando about,
450
1442120
4656
Podíamos hacer muchas cosas superficiales
para resolver lo que mencionas,
pero necesitamos
que los cambios duren
24:18
but we need the changescambios to last,
451
1446800
1790
24:20
and that meansmedio going really, really deepprofundo
452
1448614
2459
y eso implica profundizar muchísimo
24:23
and payingpago attentionatención
to what we startedempezado 13 yearsaños agohace
453
1451097
4350
y prestarle atención a lo que
iniciamos hace 13 años
24:27
and really questioninginterrogatorio
454
1455471
2261
y preguntarnos
24:29
how the systemsistema workstrabajos
and how the frameworkmarco de referencia workstrabajos
455
1457756
2566
cómo funciona el sistema
y cómo funciona la estructura
24:32
and what is needednecesario for the worldmundo todayhoy,
456
1460346
3833
y qué necesita el mundo actualmente,
24:36
givendado how quicklycon rapidez everything is movingemocionante
and how people are usingutilizando it.
457
1464203
4024
basándose en lo rápido en lo que todo
se mueve y cómo lo usa la gente.
24:40
So we are workingtrabajando as quicklycon rapidez as we can,
but quicknessrapidez will not get the jobtrabajo donehecho.
458
1468251
6544
Trabajamos lo más rápido posible,
pero ser rápidos no es suficiente.
24:46
It's focusatención, it's prioritizationpriorización,
459
1474819
2611
Debemos enfocarnos, priorizar,
24:49
it's understandingcomprensión
the fundamentalsfundamentos of the networkred
460
1477454
2946
entender los fundamentos de la red,
24:52
and buildingedificio a frameworkmarco de referencia that scalesescamas
461
1480424
2842
construir un marco escalable
24:55
and that is resilientelástico to changecambio,
462
1483290
2351
y resistente a los cambios,
24:57
and beingsiendo openabierto about where we are
and beingsiendo transparenttransparente about where are
463
1485665
5429
y ser abiertos y claros
sobre dónde nos encontramos
25:03
so that we can continuecontinuar to earnganar trustconfianza.
464
1491118
2179
para seguir inspirando confianza.
25:06
So I'm proudorgulloso of all the frameworksmarcos
that we'venosotros tenemos put in placelugar.
465
1494141
3331
Estoy orgulloso de los marcos
que hemos implementado.
25:09
I'm proudorgulloso of our directiondirección.
466
1497496
2888
Estoy orgulloso de nuestra dirección.
25:12
We obviouslyobviamente can movemovimiento fasterMás rápido,
467
1500915
2718
Pudimos abordarlo más rápido,
25:15
but that requirednecesario just stoppingparada a bunchmanojo
of stupidestúpido stuffcosas we were doing in the pastpasado.
468
1503657
4719
pero requería detener un montón
de cosas estúpidas que estábamos haciendo.
25:21
CACalifornia: All right.
469
1509067
1164
CA: Está bien.
25:22
Well, I suspectsospechar there are manymuchos people here
who, if givendado the chanceoportunidad,
470
1510255
4067
Sospecho que muchos aquí,
si tuvieran la oportunidad,
25:26
would love to help you
on this change-makingcambio de decisiones agendaagenda you're on,
471
1514346
3989
estarían encantados de ayudarte
con esta agenda de cambios,
25:30
and I don't know if WhitneyWhitney --
472
1518359
1542
y no sé si Whitney...
25:31
JackJack, thank you for comingviniendo here
and speakingHablando so openlyabiertamente.
473
1519925
2761
Gracias por venir y por hablar
de forma tan abierta, Jack.
25:34
It tooktomó couragevalor.
474
1522710
1527
Tomó mucho valor hacerlo.
25:36
I really appreciateapreciar what you said,
and good lucksuerte with your missionmisión.
475
1524261
3384
En verdad aprecio lo que dijiste
y buena suerte con tu misión.
25:39
JDJD: Thank you so much.
ThanksGracias for havingteniendo me.
476
1527669
2095
JD: Muchas gracias.
Gracias por invitarme.
25:41
(ApplauseAplausos)
477
1529788
3322
(Aplausos)
25:45
Thank you.
478
1533134
1159
Gracias.
Translated by Karin Valles
Reviewed by Lidia Cámara de la Fuente

▲Back to top

ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com