ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com
TED2019

Jack Dorsey: How Twitter needs to change

Jack Dorsey: Comment Twitter doit changer

Filmed:
2,089,470 views

Twitter peut-il être sauvé ? Dans une conversation de grande envergure avec Chris Anderson et Whitney Pennington Rodgers de TED, le PDG de Twitter Jack Dorsey discute de l'avenir de la plateforme -- reconnaissant des problèmes concernant le harcèlement et la modération et proposant des changements fondamentaux qui, il l'espère, encourageront des conversations saines et respectueuses. « Offrons-nous quelque chose que les gens apprécient chaque jour ? » demande Dorsey.
- Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both. Full bio - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading. Full bio - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional. Full bio

Double-click the English transcript below to play the video.

00:13
ChrisChris AndersonAnderson:
What worriesdes soucis you right now?
0
1131
2408
Chris Anderson :
Qu’est-ce qui vous inquiète ?
Vous avez été très ouvert
sur beaucoup de problèmes sur Twitter.
00:15
You've been very openouvrir
about lots of issuesproblèmes on TwitterTwitter.
1
3563
2853
00:18
What would be your topHaut worryinquiéter
2
6440
2299
Quelle serait votre principale inquiétude
00:20
about where things are right now?
3
8763
2049
quant à l’état actuel des choses ?
00:23
JackJack DorseyDorsey: Right now,
the healthsanté of the conversationconversation.
4
11447
2929
Jack Dorsey : Actuellement,
la santé de la conversation.
00:26
So, our purposeobjectif is to serveservir
the publicpublic conversationconversation,
5
14400
3660
Notre objectif est de servir
le débat public
00:30
and we have seenvu
a numbernombre of attacksattaques on it.
6
18084
5056
et nous y avons vu
un certain nombre d’attaques.
00:35
We'veNous avons seenvu abuseabuser de, we'venous avons seenvu harassmentharcèlement,
7
23164
2425
Nous avons vu des abus, du harcèlement,
00:37
we'venous avons seenvu manipulationmanipulation,
8
25613
3222
de la manipulation,
00:40
automationAutomation, humanHumain coordinationcoordination,
misinformationdésinformation.
9
28859
4265
de l’automatisation,
de la coordination humaine,
de la désinformation.
00:46
So these are all dynamicsdynamique
that we were not expectingattendant
10
34134
4034
Ce sont des dynamiques
auxquelles nous ne nous attendions pas
00:50
13 yearsannées agodepuis when we were
startingdépart the companycompagnie.
11
38192
3718
il y a 13 ans, quand nous étions
en train de lancer l’entreprise.
00:53
But we do now see them at scaleéchelle,
12
41934
2664
Mais nous les voyons maintenant
à grande échelle
00:56
and what worriesdes soucis me mostles plus
is just our abilitycapacité to addressadresse it
13
44622
5278
et ce qui m’inquiète le plus
est notre capacité à résoudre cela
01:01
in a systemicsystémique way that is scalableévolutif,
14
49924
3108
de façon systémique
et adaptée à l’échelle,
01:05
that has a rigorousrigoureux understandingcompréhension
of how we're takingprise actionaction,
15
53056
6976
avec une compréhension rigoureuse
de comment nous agissons,
01:12
a transparenttransparent understandingcompréhension
of how we're takingprise actionaction
16
60056
3105
une vision transparente
de comment nous agissons
01:15
and a rigorousrigoureux appealsappels processprocessus
for when we're wrongfaux,
17
63185
3101
et une procédure d’appel rigoureuse
pour les fois où nous avons tort,
01:18
because we will be wrongfaux.
18
66310
2169
car nous aurons tort.
01:20
WhitneyWhitney PenningtonPennington RodgersRodgers:
I'm really gladcontent de to hearentendre
19
68503
2397
Whitney Pennington Rodgers :
Je suis ravie d’entendre
01:22
that that's something that concernspréoccupations you,
20
70924
1928
que cela vous inquiète
01:24
because I think there's been
a lot writtenécrit about people
21
72876
2630
car il y a beaucoup d’articles
sur des personnes
qui se sont senties maltraitées,
harcelées sur Twitter
01:27
who feel they'veils ont been abusedabusé
and harassedharcelés on TwitterTwitter,
22
75530
2477
01:30
and I think no one more so
than womenfemmes and womenfemmes of colorCouleur
23
78031
4102
et je crois que personne ne l’a plus été
que les femmes, les femmes de couleur
01:34
and blacknoir womenfemmes.
24
82157
1170
et les femmes noires.
01:35
And there's been dataLes données that's come out --
25
83351
1913
Des données ont été publiées --
01:37
AmnestyAmnesty InternationalInternational put out
a reportrapport a fewpeu monthsmois agodepuis
26
85288
2909
Amnesty International a publié
un rapport il y a quelques mois
01:40
where they showedmontré that a subsetsous-ensemble
of activeactif blacknoir femalefemelle TwitterTwitter usersutilisateurs
27
88221
4480
où ils ont montré que pour un sous-groupe
de femmes noires utilisant Twitter,
01:44
were receivingrecevoir, on averagemoyenne,
one in 10 of theirleur tweetsTweets
28
92725
3456
en moyenne un tweet sur 10 reçus
01:48
were some formforme of harassmentharcèlement.
29
96205
2099
présentait une forme de harcèlement.
01:50
And so when you think about healthsanté
for the communitycommunauté on TwitterTwitter,
30
98328
3907
Quand vous pensez à la santé
de la communauté sur Twitter,
01:54
I'm interestedintéressé to hearentendre,
"healthsanté for everyonetoutes les personnes,"
31
102259
4024
cela m’intéresse d’entendre
« de la santé pour tout le monde »,
mais en particulier : comment allez-vous
faire de Twitter un espace sûr
01:58
but specificallyPlus précisément: How are you looking
to make TwitterTwitter a safesûr spaceespace
32
106307
3125
02:01
for that subsetsous-ensemble, for womenfemmes,
for womenfemmes of colorCouleur and blacknoir womenfemmes?
33
109456
4164
pour ce sous-groupe, pour les femmes,
pour les femmes de couleur
et les femmes noires ?
02:05
JDJD: Yeah.
34
113644
1164
JD : Ouais.
02:06
So it's a prettyjoli terribleterrible situationsituation
35
114832
2643
C’est une situation effroyable
02:09
when you're comingvenir to a serviceun service
36
117499
1619
quand vous venez sur un service
02:11
that, ideallyidéalement, you want to learnapprendre
something about the worldmonde,
37
119142
4321
où, idéalement, vous voulez apprendre
quelque chose sur le monde
02:15
and you spenddépenser the majoritymajorité of your time
reportingrapport abuseabuser de, receivingrecevoir abuseabuser de,
38
123487
5443
et vous passez la majorité de votre temps
à signaler des abus, à être agressée,
02:20
receivingrecevoir harassmentharcèlement.
39
128954
1804
à être harcelée.
02:23
So what we're looking mostles plus deeplyprofondément at
is just the incentivesmesures incitatives
40
131373
6321
Nous reconsidérons
en profondeur les incitations
02:29
that the platformPlate-forme naturallynaturellement providesfournit
and the serviceun service providesfournit.
41
137718
3823
que la plateforme offre naturellement
et le service qu’elle fournit.
02:34
Right now, the dynamicdynamique of the systemsystème
makesfait du it super-easysuper-facile to harassharceler
42
142262
4577
Actuellement, la dynamique du système
rend cela très facile de harceler
02:38
and to abuseabuser de othersautres throughpar the serviceun service,
43
146863
3664
et d’agresser les autres via le service
02:42
and unfortunatelymalheureusement, the majoritymajorité
of our systemsystème in the pastpassé
44
150551
3262
et malheureusement, auparavant,
la majorité de notre système
02:45
workedtravaillé entirelyentièrement basedbasé on people
reportingrapport harassmentharcèlement and abuseabuser de.
45
153837
5596
était entièrement basé sur le signalement
du harcèlement et des agressions.
02:51
So about midwayà mi-chemin last yearan,
we decideddécidé that we were going to applyappliquer
46
159457
5075
Vers le milieu de l’année dernière,
nous avons décidé d’appliquer
02:56
a lot more machinemachine learningapprentissage,
a lot more deepProfond learningapprentissage to the problemproblème,
47
164556
3982
beaucoup plus d’apprentissage automatique,
d’apprentissage profond au problème
03:00
and try to be a lot more proactiveproactif
around where abuseabuser de is happeningévénement,
48
168562
4538
et d’essayer d’être plus proactifs
là où il y a des agressions
03:05
so that we can take the burdencharge
off the victimvictime completelycomplètement.
49
173124
3960
afin de pouvoir soulager complètement
les victimes de ce fardeau.
03:09
And we'venous avons madefabriqué some progressle progrès recentlyrécemment.
50
177108
2435
Récemment, nous avons réalisé des progrès.
03:11
About 38 percentpour cent of abusiveabusives tweetsTweets
are now proactivelyproactivement identifiedidentifié
51
179567
6689
Environ 38 % des tweets abusifs
sont identifiés de façon proactive
par des algorithmes
d’apprentissage automatique
03:18
by machinemachine learningapprentissage algorithmsalgorithmes
52
186280
1715
03:20
so that people don't actuallyréellement
have to reportrapport them.
53
188019
2334
afin que les gens
n’aient pas à les signaler.
03:22
But those that are identifiedidentifié
are still reviewedrévisé by humanshumains,
54
190377
3305
Ceux qui sont identifiés
sont passés en revue par des êtres humains
03:25
so we do not take down contentcontenu or accountscomptes
withoutsans pour autant a humanHumain actuallyréellement reviewingrévision it.
55
193706
5384
afin de ne pas supprimer
du contenu ou des comptes
sans que quelqu’un ne les contrôle.
03:31
But that was from zerozéro percentpour cent
just a yearan agodepuis.
56
199114
2759
C’était à zéro pourcent il y a un an.
03:33
So that meantsignifiait, at that zerozéro percentpour cent,
57
201897
1931
À ce zéro pourcent,
03:35
everychaque singleunique personla personne who receivedreçu abuseabuser de
had to actuallyréellement reportrapport it,
58
203852
3650
toute personne étant agressée
devant le signaler,
03:39
whichlequel was a lot of work for them,
a lot of work for us
59
207526
3579
ce qui représentait beaucoup de travail
pour elle, pour nous
03:43
and just ultimatelyen fin de compte unfairdéloyale.
60
211129
2018
et était fondamentalement injuste.
Une autre chose que nous faisons,
03:46
The other thing that we're doing
is makingfabrication sure that we, as a companycompagnie,
61
214528
3780
c’est de nous s’assurer
qu’en tant qu’entreprise,
03:50
have representationreprésentation of all the communitiescommunautés
that we're tryingen essayant to serveservir.
62
218332
3333
nous avons une représentation
de toutes les communautés
que nous servons.
03:53
We can't buildconstruire a businessEntreprise
that is successfulréussi
63
221689
2159
Nous ne pouvons pas bâtir
une entreprise fructueuse
03:55
unlesssauf si we have a diversityla diversité
of perspectivela perspective insideà l'intérieur of our wallsdes murs
64
223872
3300
sans avoir de diversité de points de vue
au sein de nos murs
03:59
that actuallyréellement feel these issuesproblèmes
everychaque singleunique day.
65
227196
3732
qui ressentent ces problèmes au quotidien.
04:02
And that's not just with the teaméquipe
that's doing the work,
66
230952
3738
Ce n’est pas valable qu’avec l’équipe
qui accomplit le travail
04:06
it's alsoaussi withindans our leadershipdirection as well.
67
234714
2096
mais aussi avec notre direction.
04:08
So we need to continuecontinuer to buildconstruire empathyempathie
for what people are experiencingéprouver
68
236834
5757
Nous devons continuer
à développer de l’empathie
pour ce que les gens vivent,
04:14
and give them better toolsoutils to actacte on it
69
242615
3316
leur offrir de meilleurs outils
pour agir en fonction de leur vécu
04:17
and alsoaussi give our customersles clients
a much better and easierPlus facile approachapproche
70
245955
4252
et offrir à nos clients une approche
meilleure et plus simple
04:22
to handlemanipuler some of the things
that they're seeingvoyant.
71
250231
2382
pour gérer le genre de choses
que nous voyons.
04:24
So a lot of what we're doing
is around technologyLa technologie,
72
252637
3266
Une grande partie de notre travail
a trait à la technologie
04:27
but we're alsoaussi looking at
the incentivesmesures incitatives on the serviceun service:
73
255927
4308
mais nous considérons également
les incitations du service :
04:32
What does TwitterTwitter incentivizeinciter you to do
when you first openouvrir it up?
74
260259
5183
qu’est-ce que Twitter vous encourage-t-il
à faire quand vous l’ouvrez ?
04:37
And in the pastpassé,
75
265466
1294
Auparavant,
04:40
it's incentedincité a lot of outrageoutrage,
it's incentedincité a lot of mobMob behaviorcomportement,
76
268670
5544
il encourageait fortement l’indignation,
le comportement de foule,
04:46
it's incentedincité a lot of groupgroupe harassmentharcèlement.
77
274238
2459
le harcèlement collectif.
04:48
And we have to look a lot deeperPlus profond
at some of the fundamentalsprincipes de base
78
276721
3648
Nous devons considérer plus en profondeur
certains des principes fondamentaux
04:52
of what the serviceun service is doing
to make the biggerplus gros shiftséquipes.
79
280393
2958
de ce que le service fait
pour affecter de plus grands changements.
04:55
We can make a bunchbouquet of smallpetit shiftséquipes
around technologyLa technologie, as I just describeddécrit,
80
283375
4031
Nous pouvons faire de petits changements
concernant la technologie
04:59
but ultimatelyen fin de compte, we have to look deeplyprofondément
at the dynamicsdynamique in the networkréseau itselfse,
81
287430
4386
mais fondamentalement,
nous devons considérer en profondeur
les dynamiques dans le réseau même
05:03
and that's what we're doing.
82
291840
1368
et c’est ce que nous faisons.
05:05
CACA: But what's your sensesens --
83
293232
2060
CA : Quelle est votre impression --
05:07
what is the kindgentil of thing
that you mightpourrait be ablecapable to changechangement
84
295316
3963
quel genre de choses
que vous pourriez changer
05:11
that would actuallyréellement
fundamentallyfondamentalement shiftdécalage behaviorcomportement?
85
299303
2749
modifieraient fondamentalement
les comportements ?
05:15
JDJD: Well, one of the things --
86
303386
1480
JD : Une des choses --
05:16
we startedcommencé the serviceun service
with this conceptconcept of followingSuivant an accountCompte,
87
304890
5340
nous avons démarré le service
avec ce concept de suivre un compte,
05:22
as an exampleExemple,
88
310254
1725
en tant qu’exemple,
05:24
and I don't believe that's why
people actuallyréellement come to TwitterTwitter.
89
312003
4349
et je ne crois pas
que ce soit la raison pour laquelle
les gens viennent sur Twitter.
05:28
I believe TwitterTwitter is bestmeilleur
as an interest-basedintérêt networkréseau.
90
316376
4857
Je crois que Twitter est surtout
un réseau basé sur les centres d’intérêt.
05:33
People come with a particularparticulier interestintérêt.
91
321257
3453
Les gens y viennent
avec un centre d’intérêt particulier.
05:36
They have to do a tonton of work
to find and followsuivre the relateden relation accountscomptes
92
324734
3487
Il leur faut beaucoup de travail
pour trouver et suivre les comptes
associés à ces centres d’intérêt.
05:40
around those interestsintérêts.
93
328245
1405
05:42
What we could do insteadau lieu
is allowpermettre you to followsuivre an interestintérêt,
94
330217
3397
Nous pourrions plutôt vous permettre
de suivre un centre d’intérêt,
05:45
followsuivre a hashtaghashtag, followsuivre a trendtendance,
95
333638
2103
suivre un hashtag, suivre une tendance,
05:47
followsuivre a communitycommunauté,
96
335765
1754
suivre une communauté,
05:49
whichlequel givesdonne us the opportunityopportunité
to showmontrer all of the accountscomptes,
97
337543
4637
ce qui nous offre l’opportunité
de montrer tous les comptes,
05:54
all the topicsles sujets, all the momentsdes moments,
all the hashtagshashtags
98
342204
3323
tous les sujets, tous les moments,
tous les hashtags
05:57
that are associatedassocié with that
particularparticulier topicsujet and interestintérêt,
99
345551
3992
qui sont associés à ce sujet
et centre d’intérêt en particulier,
06:01
whichlequel really openss'ouvre up
the perspectivela perspective that you see.
100
349567
4600
ce qui ouvre les perspectives
que vous voyez.
06:06
But that is a hugeénorme fundamentalfondamental shiftdécalage
101
354191
2157
Mais c’est un changement fondamental
06:08
to biasbiais the entiretout networkréseau
away from just an accountCompte biasbiais
102
356372
3792
faisant passer tous le réseau
d’une subjectivité liée à un compte
06:12
towardsvers a topicsles sujets and interestintérêt biasbiais.
103
360188
2587
à une subjectivité liée
à un sujet et centre d’intérêt.
06:15
CACA: Because isn't it the caseCas
104
363283
3148
CA : N’est-il pas vrai
06:19
that one reasonraison why you have
so much contentcontenu on there
105
367375
3541
qu’une des raisons pour lesquelles
vous avez là tant de contenu
06:22
is a resultrésultat of puttingen mettant millionsdes millions
of people around the worldmonde
106
370940
3591
résulte du fait d’avoir mis des millions
de personnes à travers le monde
06:26
in this kindgentil of gladiatorialcombats de gladiateurs
contestconcours with eachchaque other
107
374555
3142
en compétition les uns contre les autres
tels des gladiateurs
06:29
for followersdisciples, for attentionattention?
108
377721
2090
pour des abonnés, pour de l’attention ?
06:31
Like, from the pointpoint of viewvue
of people who just readlis TwitterTwitter,
109
379835
4117
Du point de vue des gens
qui ne font que lire Twitter,
06:35
that's not an issueproblème,
110
383976
1155
ce n’est pas un problème,
06:37
but for the people who actuallyréellement createcréer it,
everyone'stout le monde out there sayingen disant,
111
385155
3350
mais pour les gens qui créent,
tout le monde dit :
06:40
"You know, I wishsouhait I had
a fewpeu more 'likes'Aime,' followersdisciples, retweetsretweets."
112
388529
3236
« J’aimerais avoir quelques “j’aime”,
abonnés, retweets de plus. »
06:43
And so they're constantlyconstamment experimentingexpérimenter,
113
391789
2148
Ils font constamment des expérimentations,
06:45
tryingen essayant to find the pathchemin to do that.
114
393961
1961
essayent de trouver comment faire cela.
06:47
And what we'venous avons all discovereddécouvert
is that the numbernombre one pathchemin to do that
115
395946
4126
Nous avons tous découvert
qu’un moyen pour y arriver,
06:52
is to be some formforme of provocativeprovocante,
116
400096
3406
c’est d’être provocateur,
06:55
obnoxiousodieux, eloquentlyavec éloquence obnoxiousodieux,
117
403526
2980
odieux, odieux de façon éloquente,
06:58
like, eloquentéloquent insultsinsultes
are a dreamrêver on TwitterTwitter,
118
406530
3516
les insultes éloquentes
sont un rêve sur Twitter,
07:02
where you rapidlyrapidement pilepile up --
119
410070
2603
vous êtes vite suivi --
07:04
and it becomesdevient this self-fuelingauto alimente
processprocessus of drivingau volant outrageoutrage.
120
412697
4608
cela devient un processus
d’outrage s’autoalimentant.
07:09
How do you defusedésamorcer that?
121
417329
2351
Comment arrêter cela ?
07:12
JDJD: Yeah, I mean, I think you're spotplace on,
122
420624
2947
JD : Je pense que vous
touchez au cœur du problème,
07:15
but that goesva back to the incentivesmesures incitatives.
123
423595
1886
mais cela en revient aux incitations.
07:17
Like, one of the choicesles choix
we madefabriqué in the earlyde bonne heure daysjournées was
124
425505
2632
Un des choix que nous avons faits
au tout début a été
07:20
we had this numbernombre that showedmontré
how manybeaucoup people followsuivre you.
125
428161
4701
que nous avions ce nombre montrant
combien vous avez d’abonnés.
07:24
We decideddécidé that numbernombre
should be biggros and boldaudacieux,
126
432886
2959
Nous avons décidé que ce nombre
devrait être en grand et en gras,
07:27
and anything that's on the pagepage
that's biggros and boldaudacieux has importanceimportance,
127
435869
3740
que toute chose sur la page étant
en grand et en gras avait de l’importance
07:31
and those are the things
that you want to driveconduire.
128
439633
2278
et était ce que vous deviez
aspirer à stimuler.
07:33
Was that the right decisiondécision at the time?
129
441935
1907
Était-ce la bonne décision à l’époque ?
07:35
ProbablySans doute not.
130
443866
1153
Probablement pas.
07:37
If I had to startdébut the serviceun service again,
131
445043
1805
Si je devais relancer le service,
07:38
I would not emphasizesouligner
the followersuiveur countcompter as much.
132
446872
2398
je ne valoriserais pas autant
le nombre d’abonnés.
07:41
I would not emphasizesouligner
the "like" countcompter as much.
133
449294
2295
Je ne valoriserais pas autant
le nombre de « j’aime ».
07:43
I don't think I would even
createcréer "like" in the first placeendroit,
134
451613
3120
Je ne pense pas que je créerais
de « j’aime » du tout
07:46
because it doesn't actuallyréellement pushpousser
135
454757
3267
car cela n’est pas un moteur
07:50
what we believe now
to be the mostles plus importantimportant thing,
136
458048
3179
de ce que nous croyons aujourd’hui
être la chose la plus importante :
07:53
whichlequel is healthyen bonne santé contributioncontribution
back to the networkréseau
137
461251
3039
les contributions saines au réseau
07:56
and conversationconversation to the networkréseau,
138
464314
2652
et la conversation avec le réseau,
07:58
participationparticipation withindans conversationconversation,
139
466990
2072
la participation à la conversation,
08:01
learningapprentissage something from the conversationconversation.
140
469086
2493
l’apprentissage de quelque chose
via cette conversation.
08:03
Those are not things
that we thought of 13 yearsannées agodepuis,
141
471603
2824
Nous n’avons pas pensé
à ces choses-là il y a 13 ans
et nous les croyons
extrêmement importantes aujourd’hui.
08:06
and we believe are extremelyextrêmement
importantimportant right now.
142
474451
2439
08:08
So we have to look at
how we displayafficher the followersuiveur countcompter,
143
476914
3023
Nous devons considérer
la façon d’afficher le nombre d’abonnés,
08:11
how we displayafficher retweetretweet countcompter,
144
479961
2365
la façon d’afficher le nombre de retweets,
08:14
how we displayafficher "likesaime,"
145
482350
1401
le nombre de « j’aime »
08:15
and just askdemander the deepProfond questionquestion:
146
483775
2254
et poser la question profonde :
08:18
Is this really the numbernombre
that we want people to driveconduire up?
147
486053
3048
est-ce vraiment le nombre
que les gens veulent faire augmenter ?
08:21
Is this the thing that,
when you openouvrir TwitterTwitter,
148
489125
2545
Est-ce la chose que,
quand vous ouvrez Twitter,
08:23
you see, "That's the thing
I need to increaseaugmenter?"
149
491694
2516
c’est cela que vous devez augmenter.
08:26
And I don't believe
that's the caseCas right now.
150
494234
2144
Je ne crois pas que ce soit le cas.
08:28
(ApplauseApplaudissements)
151
496402
2103
(Applaudissements)
08:30
WPRWpr: I think we should look at
some of the tweetsTweets
152
498529
2352
WPR : Nous devrions regarder
certains des tweets venant du public.
08:32
that are comingvenir
in from the audiencepublic as well.
153
500905
2169
08:35
CACA: Let's see what you guys are askingdemandant.
154
503868
2436
CA : Voyons voir ce que vous demandez.
08:38
I mean, this is -- generallygénéralement, one
of the amazingincroyable things about TwitterTwitter
155
506328
3294
C’est -- en général, une des choses
géniales concernant Twitter,
08:41
is how you can use it for crowdfoule wisdomsagesse,
156
509646
2294
c’est son utilisation
pour la sagesse de foule :
08:43
you know, that more knowledgeconnaissance,
more questionsdes questions, more pointspoints of viewvue
157
511964
4840
plus de savoir, plus de questions,
plus de points de vue
08:48
than you can imagineimaginer,
158
516828
1238
que vous ne pouvez l’imaginer
08:50
and sometimesparfois, manybeaucoup of them
are really healthyen bonne santé.
159
518090
3689
et parfois, la plupart
sont vraiment sains.
08:53
WPRWpr: I think one I saw that
passedpassé alreadydéjà quicklyrapidement down here,
160
521803
2900
WPR : Je crois en avoir vu un
passer rapidement disant :
08:56
"What's Twitter'sDe Twitter planplan to combatcombat
foreignétranger meddlingl’ingérence in the 2020 US electionélection?"
161
524717
3524
« Comment Twitter compte-t-il lutter
contre les ingérences étrangères ? »
09:00
I think that's something
that's an issueproblème we're seeingvoyant
162
528265
2571
Je crois que c’est un problème
observé sur Internet en général :
09:02
on the internetl'Internet in generalgénéral,
163
530860
1901
09:04
that we have a lot of maliciousmalveillants
automatedautomatique activityactivité happeningévénement.
164
532785
3667
il y a beaucoup d’activité
automatisée et malicieuse.
09:08
And on TwitterTwitter, for exampleExemple,
in factfait, we have some work
165
536476
5373
Sur Twitter, par exemple,
nous avons un travail
09:13
that's come from our friendscopains
at ZignalZignal Zignal LabsLabs,
166
541873
2758
venant de nos amis à Zignal Labs
09:16
and maybe we can even see that
to give us an exampleExemple
167
544655
2656
et nous pouvons peut-être le voir
et prendre un exemple
09:19
of what exactlyexactement I'm talkingparlant about,
168
547335
1927
de ce dont je parle :
09:21
where you have these botsbots, if you will,
169
549286
3204
vous avez ces robots, si vous voulez,
09:24
or coordinatedcoordonné automatedautomatique
maliciousmalveillants accountCompte activityactivité,
170
552514
4550
ou une activité de compte coordonnée,
automatisée et malicieuse
09:29
that is beingétant used to influenceinfluence
things like electionsélections.
171
557088
2764
utilisée pour influencer
des choses comme les élections.
09:31
And in this exampleExemple we have
from ZignalZignal Zignal whichlequel they'veils ont sharedpartagé with us
172
559876
3843
Dans cet exemple
que Zignal a partagé avec nous
09:35
usingen utilisant the dataLes données that
they have from TwitterTwitter,
173
563743
2198
et utilisant les données
qu’ils ont sur Twitter,
09:37
you actuallyréellement see that in this caseCas,
174
565965
2441
vous voyez que dans ce cas
09:40
whiteblanc representsreprésente the humanshumains --
humanHumain accountscomptes, eachchaque dotpoint is an accountCompte.
175
568430
4370
le blanc représente des êtres humains --
des comptes humains,
chaque point est un compte.
09:44
The pinkerPinker it is,
176
572824
1359
Plus il est rose,
09:46
the more automatedautomatique the activityactivité is.
177
574207
1740
plus l’activité est automatisée.
09:47
And you can see how you have
a fewpeu humanshumains interactinginteragir with botsbots.
178
575971
5970
Il y a quelques êtres humains
interagissant avec des robots.
09:53
In this caseCas, it's relateden relation
to the electionélection in IsraelIsraël
179
581965
4419
Dans ce cas, il s’agit
des élections en Israël
09:58
and spreadingdiffusion misinformationdésinformation
about BennyBenny GantzGantz,
180
586408
2833
et de la diffusion de désinformation
au sujet de Benny Gantz
10:01
and as we know, in the endfin,
that was an electionélection
181
589265
2662
et, finalement, c’est une élection
10:03
that NetanyahuNetanyahou wona gagné by a slimsvelte marginmarge de,
182
591951
3724
que Netanyahu a gagnée de justesse
10:07
and that maymai have been
in some caseCas influencedinfluencé by this.
183
595699
2842
et elle a pu être influencée par cela.
10:10
And when you think about
that happeningévénement on TwitterTwitter,
184
598565
2615
Quand vous pensez
à ce qu’il se passe sur Twitter,
10:13
what are the things
that you're doing, specificallyPlus précisément,
185
601204
2456
quelles choses en particulier faites-vous
10:15
to ensureassurer you don't have misinformationdésinformation
like this spreadingdiffusion in this way,
186
603684
3702
pour vous assurer de ne pas avoir
une telle diffusion de la désinformation
10:19
influencingqui influencent people in waysfaçons
that could affectaffecter democracyla démocratie?
187
607410
4181
influençant les gens de façons
pouvant avoir un effet sur la démocratie ?
10:23
JDJD: Just to back up a bitbit,
188
611615
1771
JD : Pour revenir un peu en arrière,
10:25
we askeda demandé ourselvesnous-mêmes a questionquestion:
189
613410
2975
nous nous sommes posé une question :
10:28
Can we actuallyréellement measuremesure
the healthsanté of a conversationconversation,
190
616409
3816
pouvons-nous mesurer
la santé d’une conversation
10:32
and what does that mean?
191
620249
1288
et qu’est-ce que cela signifie ?
10:33
And in the sameMême way
that you have indicatorsindicateurs
192
621561
3382
Comme vous avez des indicateurs
10:36
and we have indicatorsindicateurs as humanshumains
in termstermes of are we healthyen bonne santé or not,
193
624967
3467
et nous avons des indicateurs
pour savoir si nous sommes en bonne santé
10:40
suchtel as temperaturetempérature,
the flushnessflushness of your facevisage,
194
628458
4658
tels que la température,
la rougeur de votre visage,
10:45
we believe that we could find
the indicatorsindicateurs of conversationalconversationnel healthsanté.
195
633140
4560
nous croyions pouvoir trouver
les indicateurs de la santé
de la conversation.
10:49
And we workedtravaillé with a lablaboratoire
calledappelé CorticoCortico Cortico at MITMIT
196
637724
3843
Nous avons travaillé
avec un labo du MIT appelé Cortico
10:54
to proposeproposer fourquatre starterdémarreur indicatorsindicateurs
197
642479
6091
pour proposer quatre indicateurs initiaux
11:00
that we believe we could ultimatelyen fin de compte
measuremesure on the systemsystème.
198
648594
3670
que nous croyons pouvoir
utiliser pour mesurer le système.
11:05
And the first one is
what we're callingappel sharedpartagé attentionattention.
199
653249
5604
Le premier est ce que nous appelons
« attention partagée ».
11:10
It's a measuremesure of how much
of the conversationconversation is attentiveattentif
200
658877
3581
C’est une mesure indiquant
si la conversation est attentive
11:14
on the sameMême topicsujet versuscontre disparatedisparate.
201
662482
2630
plutôt que disparate sur un sujet.
11:17
The secondseconde one is calledappelé sharedpartagé realityréalité,
202
665739
2783
Le deuxième s’appelle
« réalité partagée » :
11:21
and this is what percentagepourcentage
of the conversationconversation
203
669217
2259
quel pourcentage de la conversation
11:23
sharesactions the sameMême factsfaits --
204
671500
2005
partage les mêmes faits --
11:25
not whetherqu'il s'agisse those factsfaits
are truthfulvéridique or not,
205
673529
3113
non pas est-ce que ces faits
sont vrais ou faux,
11:28
but are we sharingpartage
the sameMême factsfaits as we converseConverse?
206
676666
3009
mais partageons-nous les mêmes faits
durant notre conversation ?
11:32
The thirdtroisième is receptivityréceptivité:
207
680235
2353
Le troisième est la réceptivité :
11:34
How much of the conversationconversation
is receptiveréceptif or civilcivil
208
682612
3959
quelle part de la conversation
est réceptive ou civile
11:38
or the inverseinverse, toxictoxique?
209
686595
2944
ou au contraire, toxique ?
11:42
And then the fourthQuatrième
is varietyvariété of perspectivela perspective.
210
690213
3222
Le quatrième est la diversité
des points de vue.
11:45
So, are we seeingvoyant filterfiltre bubblesbulles
or echoécho chamberschambres,
211
693459
3145
Observons-nous des bulles de filtres
ou des chambres d’écho
11:48
or are we actuallyréellement gettingobtenir
a varietyvariété of opinionsdes avis
212
696628
3057
ou avons-nous une diversité d’opinions
11:51
withindans the conversationconversation?
213
699709
1635
dans la conversation ?
11:53
And implicitimplicite in all fourquatre of these
is the understandingcompréhension that,
214
701368
4018
Implicitement avec ces quatre indicateurs,
nous nous entendons pour dire
11:57
as they increaseaugmenter, the conversationconversation
getsobtient healthierplus sain and healthierplus sain.
215
705410
3390
que lorsqu’ils augmentent, la conversation
devient de plus en plus saine.
12:00
So our first stepétape is to see
if we can measuremesure these onlineen ligne,
216
708824
4869
Notre première étape est de voir
si nous pouvons les mesurer en ligne,
12:05
whichlequel we believe we can.
217
713717
1308
ce que nous croyons possible.
12:07
We have the mostles plus momentumélan
around receptivityréceptivité.
218
715049
3167
Nous avons le plus de dynamisme
concernant la réceptivité.
12:10
We have a toxicitytoxicité scoreBut,
a toxicitytoxicité modelmaquette, on our systemsystème
219
718240
4317
Nous avons un score de toxicité,
un modèle de toxicité, dans notre système
12:14
that can actuallyréellement measuremesure
whetherqu'il s'agisse you are likelyprobable to walkmarche away
220
722581
4124
qui peut mesurer si vous allez
probablement vous retirer
12:18
from a conversationconversation
that you're havingayant on TwitterTwitter
221
726729
2313
d’une conversation
que vous avez sur Twitter
12:21
because you feel it's toxictoxique,
222
729066
1633
car vous la trouvez toxique,
12:22
with some prettyjoli highhaute degreedegré.
223
730723
2512
dont l’exactitude est plutôt élevée.
12:26
We're workingtravail to measuremesure the restdu repos,
224
734369
2199
Nous travaillons à mesurer le reste
12:28
and the nextprochain stepétape is,
225
736592
1964
et la prochaine étape est,
12:30
as we buildconstruire up solutionssolutions,
226
738580
3359
alors que nous élaborons des solutions,
12:33
to watch how these measurementsdes mesures
trendtendance over time
227
741963
3491
d’observer la tendance
de ces mesures au fil du temps
12:37
and continuecontinuer to experimentexpérience.
228
745478
1873
et de continuer à expérimenter.
12:39
And our goalobjectif is to make sure
that these are balancedéquilibré,
229
747375
4041
Notre objectif est de nous assurer
qu’ils soient équilibrés
12:43
because if you increaseaugmenter one,
you mightpourrait decreasediminution anotherun autre.
230
751440
3066
car si vous en augmentez un,
vous pourriez en abaisser un autre.
12:46
If you increaseaugmenter varietyvariété of perspectivela perspective,
231
754530
2147
Si vous améliorez
la diversité des points de vue,
12:48
you mightpourrait actuallyréellement decreasediminution
sharedpartagé realityréalité.
232
756701
3091
vous pourriez faire baisser
la réalité partagée.
12:51
CACA: Just pickingcueillette up on some
of the questionsdes questions floodinginondation in here.
233
759816
4989
CA : Je recueille certaines des questions
qui nous inondent là-haut.
12:56
JDJD: ConstantConstante questioninginterrogatoire.
234
764829
1271
JD : Plein de questions.
12:58
CACA: A lot of people are puzzledperplexe why,
235
766996
3620
CA : Beaucoup de gens
sont perplexes quant à pourquoi,
13:02
like, how harddifficile is it to get riddébarrasser
of NazisNazis from TwitterTwitter?
236
770640
4247
à quel point est-il difficile
de se débarrasser des nazis sur Twitter ?
13:08
JDJD: (LaughsRires)
237
776309
1322
JD : (Rit)
13:09
So we have policiespolitiques
around violentviolent extremistextrémiste groupsgroupes,
238
777655
6995
Nous avons des politiques concernant
les groupes extrémistes violents
13:16
and the majoritymajorité of our work
and our termstermes of serviceun service
239
784674
4426
et la majorité de notre travail
et nos conditions d’utilisation
13:21
workstravaux on conductconduite, not contentcontenu.
240
789124
3729
sont basées sur le comportement,
pas le contenu.
13:24
So we're actuallyréellement looking for conductconduite.
241
792877
2551
Nous considérons le comportement.
13:27
Conductconduire beingétant usingen utilisant the serviceun service
242
795452
3014
Le comportement,
c’est l’utilisation du service
13:30
to repeatedlyà plusieurs reprises or episodicallyépisodiquement
harassharceler someoneQuelqu'un,
243
798490
3867
pour harceler quelqu’un
de façon répétée ou épisodique,
13:34
usingen utilisant hatefulodieux imageryimagerie
244
802381
2493
utiliser des images haineuses
13:36
that mightpourrait be associatedassocié with the KKKKKK
245
804898
2106
pouvant être associées
avec le Ku Klux Klan
13:39
or the AmericanAméricain NaziNazi PartyParti.
246
807028
3281
ou le parti nazi américain.
13:42
Those are all things
that we actacte on immediatelyimmédiatement.
247
810333
4156
Ce sont des choses pour lesquelles
nous prenons des mesures immédiates.
13:47
We're in a situationsituation right now
where that termterme is used fairlyéquitablement looselylibrement,
248
815002
5452
Nous sommes actuellement
dans une situation
où ce terme est employé à tout vent
13:52
and we just cannotne peux pas take
any one mentionmention of that wordmot
249
820478
5313
et nous ne pouvons pas prendre
une allusion à ce mot
13:57
accusingaccuser someoneQuelqu'un elseautre
250
825815
2117
en accusant quelqu’un d’autre
13:59
as a factualfactuel indicationindication that they
should be removedsupprimé from the platformPlate-forme.
251
827956
3755
comme une indication factuelle
qu’il devrait être banni de la plateforme.
14:03
So a lot of our modelsdes modèles
are basedbasé around, numbernombre one:
252
831735
2627
Beaucoup de nos modèles
sont basés, numéro un :
14:06
Is this accountCompte associatedassocié
with a violentviolent extremistextrémiste groupgroupe?
253
834386
3140
ce compte est-il associé
à un groupe extrémiste violent ?
14:09
And if so, we can take actionaction.
254
837550
1983
Si oui, nous pouvons prendre des mesures.
14:11
And we have doneterminé so on the KKKKKK
and the AmericanAméricain NaziNazi PartyParti and othersautres.
255
839557
3852
Nous l’avons fait avec le Ku Klux Klan,
le parti nazi américain et d’autres.
14:15
And numbernombre two: Are they usingen utilisant
imageryimagerie or conductconduite
256
843433
4183
Numéro deux : utilise-t-il des images
ou a-t-il un comportement
14:19
that would associateassocié them as suchtel as well?
257
847640
2372
qui les y associerait ?
14:22
CACA: How manybeaucoup people do you have
workingtravail on contentcontenu moderationmodération
258
850416
2932
CA : Combien de gens
avez-vous à travailler
sur la modération du contenu ?
14:25
to look at this?
259
853372
1250
14:26
JDJD: It variesvarie.
260
854646
1496
JD : Cela dépend.
14:28
We want to be flexibleflexible on this,
261
856166
1595
Nous voulons être flexibles
14:29
because we want to make sure
that we're, numbernombre one,
262
857785
2646
car nous voulons nous assurer
que, premièrement,
14:32
buildingbâtiment algorithmsalgorithmes insteadau lieu of just
hiringembauche massivemassif amountsles montants of people,
263
860455
4424
nous développons des algorithmes
au lieu d’embaucher beaucoup de gens
14:36
because we need to make sure
that this is scalableévolutif,
264
864903
2824
car nous devons nous assurer
que cela puisse être étendu
14:39
and there are no amountmontant of people
that can actuallyréellement scaleéchelle this.
265
867751
3454
et à si grande échelle, cela ne peut pas
être fait par des humains.
14:43
So this is why we'venous avons doneterminé so much work
around proactiveproactif detectiondétection of abuseabuser de
266
871229
6629
C’est pourquoi nous avons
réalisé tant de travail
sur la détection proactive d’abus
14:49
that humanshumains can then reviewla revue.
267
877882
1391
que des humains peuvent vérifier.
14:51
We want to have a situationsituation
268
879297
2861
Nous voulons avoir une situation
14:54
where algorithmsalgorithmes are constantlyconstamment
scouringà récurer everychaque singleunique tweetTweet
269
882182
3741
où des algorithmes parcourent
constamment tous les tweets
14:57
and bringingapportant the mostles plus
interestingintéressant onesceux to the topHaut
270
885947
2342
et font remonter les plus intéressants
15:00
so that humanshumains can bringapporter theirleur judgmentjugement
to whetherqu'il s'agisse we should take actionaction or not,
271
888313
3902
pour que des humains puissent
exercer leur jugement
sur la prise de mesures ou non
d’après nos conditions d’utilisation.
15:04
basedbasé on our termstermes of serviceun service.
272
892239
1524
15:05
WPRWpr: But there's not an amountmontant
of people that are scalableévolutif,
273
893787
2803
WPR : C'est impossible à faire
avec des humains,
15:08
but how manybeaucoup people do you currentlyactuellement have
monitoringsurveillance these accountscomptes,
274
896614
3497
mais combien de personnes
avez-vous actuellement
à surveiller ces comptes
15:12
and how do you figurefigure out what's enoughassez?
275
900135
2546
et comment déterminez-vous
le nombre suffisant ?
15:14
JDJD: They're completelycomplètement flexibleflexible.
276
902705
2272
JD : C’est entièrement flexible.
15:17
SometimesParfois we associateassocié folksgens with spamSpam.
277
905001
2941
Parfois, nous assignons des gens au spam.
15:19
SometimesParfois we associateassocié folksgens
with abuseabuser de and harassmentharcèlement.
278
907966
3845
Parfois, nous assignons des gens
aux abus et au harcèlement.
Nous allons nous assurer d’avoir
la flexibilité dans nos effectifs
15:23
We're going to make sure that
we have flexibilityla flexibilité in our people
279
911835
3062
afin d’orienter leur travail
sur ce qui est nécessaire.
15:26
so that we can directdirect them
at what is mostles plus needednécessaire.
280
914921
2350
15:29
SometimesParfois, the electionsélections.
281
917295
1204
Parfois, les élections.
15:30
We'veNous avons had a stringchaîne of electionsélections
in MexicoMexique, one comingvenir up in IndiaInde,
282
918523
4927
Il y a eu une série d’élections
au Mexique, à venir en Inde,
15:35
obviouslyévidemment, the electionélection last yearan,
the midtermà mi-parcours electionélection,
283
923474
4447
évidemment, les élections
de mi-mandat l’année dernière,
15:39
so we just want to be flexibleflexible
with our resourcesRessources.
284
927945
2472
donc nous voulons être flexibles
avec nos ressources.
15:42
So when people --
285
930441
2129
Quand les gens --
15:44
just as an exampleExemple, if you go
to our currentactuel termstermes of serviceun service
286
932594
6389
par exemple, si vous allez
voir nos conditions d’utilisation,
vous chargez la page
15:51
and you bringapporter the pagepage up,
287
939007
1641
15:52
and you're wonderingme demandant about abuseabuser de
and harassmentharcèlement that you just receivedreçu
288
940672
3682
et vous vous interrogez
sur les abus, le harcèlement
dont vous avez été victime
15:56
and whetherqu'il s'agisse it was againstcontre
our termstermes of serviceun service to reportrapport it,
289
944378
3634
et si cela va à l’encontre
de nos conditions d’utilisation
pour les signaler,
16:00
the first thing you see
when you openouvrir that pagepage
290
948036
2559
la première chose que vous voyez
en ouvrant cette page
16:02
is around intellectualintellectuel
propertypropriété protectionprotection.
291
950619
3088
concerne la protection
de la propriété intellectuelle.
16:06
You scrollrouleau down and you get to
abuseabuser de, harassmentharcèlement
292
954504
5323
Si vous allez plus bas,
vous arrivez aux abus et au harcèlement
16:11
and everything elseautre
that you mightpourrait be experiencingéprouver.
293
959851
2382
et tout ce à quoi
vous pourriez faire face.
16:14
So I don't know how that happenedarrivé
over the company'ssociété historyhistoire,
294
962257
3195
J’ignore comment cela s’est passé
dans l’histoire de l’entreprise
16:17
but we put that aboveau dessus
the thing that people want
295
965476
4797
mais nous avons placé cela au-dessus
de ce au sujet de quoi les gens veulent
16:24
the mostles plus informationinformation on
and to actuallyréellement actacte on.
296
972146
3222
le plus d’informations
et une prise de mesures.
16:27
And just our orderingvous passez votre commande showsmontre the worldmonde
what we believeda cru was importantimportant.
297
975392
5241
L’ordre montre au monde
ce que nous pensions important.
16:32
So we're changingen changeant all that.
298
980657
2881
Nous changeons tout cela.
Nous réordonnons cela comme il faut
16:35
We're orderingvous passez votre commande it the right way,
299
983562
1563
16:37
but we're alsoaussi simplifyingsimplifier the rulesrègles
so that they're human-readablelisible par l'homme
300
985149
3451
mais nous simplifions aussi les règles
pour qu’elles soient intelligibles
16:40
so that people can actuallyréellement
understandcomprendre themselvesse
301
988624
4067
et que les gens puissent
comprendre d’eux-mêmes
16:44
when something is againstcontre our termstermes
and when something is not.
302
992715
3448
quand une chose va ou non à l’encontre
de nos conditions d’utilisation.
16:48
And then we're makingfabrication --
303
996187
2161
Puis nous faisons --
16:50
again, our biggros focusconcentrer is on removingenlever
the burdencharge of work from the victimsles victimes.
304
998372
5200
de nouveau, nous mettons l’accent
sur le fait de soulager les victimes
de la charge de travail.
16:55
So that meansveux dire pushpousser more
towardsvers technologyLa technologie,
305
1003596
3734
Cela signifie de délester
plus de travail sur la technologie
16:59
ratherplutôt than humanshumains doing the work --
306
1007354
1873
plutôt qu’il soit réalisé
par des humains --
17:01
that meansveux dire the humanshumains receivingrecevoir the abuseabuser de
307
1009251
2413
que ce soit les humains victimes d’abus
17:03
and alsoaussi the humanshumains
havingayant to reviewla revue that work.
308
1011688
3026
ainsi que les humains devant les examiner.
17:06
So we want to make sure
309
1014738
1673
Nous voulons nous assurer
17:08
that we're not just encouragingencourageant more work
310
1016435
2841
de ne pas seulement
encourager plus de travail
17:11
around something
that's supersuper, supersuper negativenégatif,
311
1019300
2629
autour de quelque chose
de très, très négatif
17:13
and we want to have a good balanceéquilibre
betweenentre the technologyLa technologie
312
1021953
2674
et nous voulons avoir un équilibre
entre la technologie
17:16
and where humanshumains can actuallyréellement be creativeCréatif,
313
1024651
2852
et là où les humains
peuvent être créatifs,
17:19
whichlequel is the judgmentjugement of the rulesrègles,
314
1027527
3090
c’est-à-dire l’appréciation des règles
17:22
and not just all the mechanicalmécanique stuffdes trucs
of findingdécouverte and reportingrapport them.
315
1030641
3267
et pas seulement l’aspect mécanique :
la recherche et le signalement.
17:25
So that's how we think about it.
316
1033932
1530
Voilà comment nous voyons cela.
17:27
CACA: I'm curiouscurieuse to digcreuser in more
about what you said.
317
1035486
2406
CA : Je suis curieux de creuser
ce que vous avez dit.
17:29
I mean, I love that you said
you are looking for waysfaçons
318
1037916
2605
J’aime que vous ayez dit
que vous cherchiez des moyens
17:32
to re-tweakre-tweak the fundamentalfondamental
designconception of the systemsystème
319
1040545
3462
de remettre au point
la conception du système
17:36
to discouragedécourager les some of the reactiveréactif
behaviorcomportement, and perhapspeut être --
320
1044031
4875
pour décourager des comportements
réactifs et peut-être --
17:40
to use TristanTristan Harris-typeHarris-type languagela langue --
321
1048930
2705
pour utiliser un langage
à la Tristan Harris --
17:43
engageengager people'sles gens more reflectiveréfléchissant thinkingen pensant.
322
1051659
4288
motiver la pensée plus réflexive des gens.
17:47
How farloin advancedAvancée is that?
323
1055971
1854
À quel stade en est-ce ?
17:49
What would alternativessolutions de rechange
to that "like" buttonbouton be?
324
1057849
4305
Quelles seraient des alternatives
au bouton « j’aime » ?
17:55
JDJD: Well, first and foremostavant toute chose,
325
1063518
3575
JD : Avant tout,
17:59
my personalpersonnel goalobjectif with the serviceun service
is that I believe fundamentallyfondamentalement
326
1067117
5753
mon objectif personnel avec le service
est que je crois fondamentalement
18:04
that publicpublic conversationconversation is criticalcritique.
327
1072894
2702
qu’une conversation publique
est essentielle.
18:07
There are existentialexistentiel problemsproblèmes
facingorienté vers the worldmonde
328
1075620
2647
Le monde fait face
à des problèmes existentiels --
18:10
that are facingorienté vers the entiretout worldmonde,
not any one particularparticulier nation-stateÉtat-nation,
329
1078291
4163
le monde entier y fait face,
pas un État-nation en particulier --
18:14
that globalglobal publicpublic conversationconversation benefitsavantages.
330
1082478
2649
auxquels une conversation
publique bénéficie.
18:17
And that is one of the uniqueunique
dynamicsdynamique of TwitterTwitter,
331
1085151
2372
C’est l’une des dynamiques
uniques à Twitter :
18:19
that it is completelycomplètement openouvrir,
332
1087547
1814
c’est entièrement ouvert,
18:21
it is completelycomplètement publicpublic,
333
1089385
1596
c’est entièrement public,
18:23
it is completelycomplètement fluidliquide,
334
1091005
1399
c’est complètement fluide
18:24
and anyonen'importe qui can see any other conversationconversation
and participateparticiper in it.
335
1092428
4038
et tout le monde peut voir et participer
à toutes les conversations.
18:28
So there are conversationsconversations
like climateclimat changechangement.
336
1096490
2206
Il y a des conversations
comme le changement climatique,
18:30
There are conversationsconversations
like the displacementdéplacement in the work
337
1098720
2682
les déplacements dans le travail
18:33
throughpar artificialartificiel intelligenceintelligence.
338
1101426
2000
via l’intelligence artificielle,
18:35
There are conversationsconversations
like economicéconomique disparitydisparité.
339
1103450
3006
la disparité économique.
18:38
No mattermatière what any one nation-stateÉtat-nation does,
340
1106480
2765
Peu importe ce qu’un État-nation fait,
18:41
they will not be ablecapable
to solverésoudre the problemproblème aloneseul.
341
1109269
2421
il ne pourra pas
résoudre le problème seul.
18:43
It takes coordinationcoordination around the worldmonde,
342
1111714
2643
Cela nécessite une coordination
à travers le monde
18:46
and that's where I think
TwitterTwitter can playjouer a partpartie.
343
1114381
3047
et c’est là que je pense
que Twitter peut jouer un rôle.
18:49
The secondseconde thing is that TwitterTwitter,
right now, when you go to it,
344
1117452
5642
La deuxième chose est qu’actuellement,
quand vous allez sur Twitter,
18:55
you don't necessarilynécessairement walkmarche away
feelingsentiment like you learnedappris something.
345
1123118
3746
vous n’en partez pas nécessairement
avec le sentiment
d’avoir appris quelque chose.
18:58
Some people do.
346
1126888
1276
Pour certains, c’est le cas.
19:00
Some people have
a very, very richriches networkréseau,
347
1128188
3107
Certains ont un réseau très, très riche,
19:03
a very richriches communitycommunauté
that they learnapprendre from everychaque singleunique day.
348
1131319
3117
une communauté très riche
et ils apprennent chaque jour.
19:06
But it takes a lot of work
and a lot of time to buildconstruire up to that.
349
1134460
3691
Mais il faut beaucoup de travail
et de temps pour établir cela.
19:10
So we want to get people
to those topicsles sujets and those interestsintérêts
350
1138175
3448
Nous voulons que les gens en viennent
à ces sujets et centres d’intérêt
19:13
much, much fasterPlus vite
351
1141647
1579
bien plus rapidement
19:15
and make sure that
they're findingdécouverte something that,
352
1143250
2566
et nous assurer
qu’ils trouvent quelque chose,
19:18
no mattermatière how much time
they spenddépenser on TwitterTwitter --
353
1146728
2360
peu importe le temps
qu’ils passent sur Twitter --
19:21
and I don't want to maximizemaximiser
the time on TwitterTwitter,
354
1149112
2358
je ne veux pas maximiser
le temps sur Twitter,
19:23
I want to maximizemaximiser
what they actuallyréellement take away from it
355
1151494
2910
je veux maximiser ce qu’ils en tirent
19:26
and what they learnapprendre from it, and --
356
1154428
2030
et ce qu’ils y apprennent...
19:29
CACA: Well, do you, thoughbien que?
357
1157598
1328
CA : Est-ce vraiment le cas ?
19:30
Because that's the corecoeur questionquestion
that a lot of people want to know.
358
1158950
3244
C’est la question principale
à laquelle les gens veulent une réponse.
19:34
SurelySûrement, JackJack, you're constrainedcontraint,
to a hugeénorme extentampleur,
359
1162218
3638
Certainement, Jack, vous êtes
considérablement contraint
19:37
by the factfait that you're a publicpublic companycompagnie,
360
1165880
2007
par le fait d’être une entreprise privée,
19:39
you've got investorsinvestisseurs pressingpressage on you,
361
1167911
1774
des investisseurs font pression sur vous,
19:41
the numbernombre one way you make your moneyargent
is from advertisingLa publicité --
362
1169709
3559
la façon principale dont vous gagnez
de l’argent, c’est la publicité --
19:45
that dependsdépend on userutilisateur engagementengagement.
363
1173292
2772
cela dépend de l’engagement
des utilisateurs.
19:48
Are you willingprêt to sacrificesacrifice
userutilisateur time, if need be,
364
1176088
4700
Êtes-vous prêt à sacrifier
le temps des utilisateurs, si besoin est,
19:52
to go for a more reflectiveréfléchissant conversationconversation?
365
1180812
3729
pour vous diriger
vers une conversation plus réflexive ?
19:56
JDJD: Yeah; more relevancepertinence meansveux dire
lessMoins time on the serviceun service,
366
1184565
3111
JD : Plus de pertinence signifie
moins de temps sur le service
19:59
and that's perfectlyà la perfection fine,
367
1187700
1937
et c’est très bien
20:01
because we want to make sure
that, like, you're comingvenir to TwitterTwitter,
368
1189661
3099
car je veux m’assurer
que vous veniez sur Twitter
20:04
and you see something immediatelyimmédiatement
that you learnapprendre from and that you pushpousser.
369
1192784
4520
et que vous voyiez immédiatement
quelque chose à apprendre
et qui vous fait avancer.
20:09
We can still serveservir an adun d againstcontre that.
370
1197328
3420
Nous pouvons toujours
placer une annonce là-dessus.
20:12
That doesn't mean you need to spenddépenser
any more time to see more.
371
1200772
2921
Vous n’avez pas à passer
plus de temps pour voir plus.
20:15
The secondseconde thing we're looking at --
372
1203717
1733
Secondement, nous considérons...
20:17
CACA: But just -- on that goalobjectif,
dailydu quotidien activeactif usageusage,
373
1205474
2698
CA : Sur cet objectif,
l’utilisation active quotidienne,
20:20
if you're measuringmesure that,
that doesn't necessarilynécessairement mean things
374
1208196
3245
si vous mesurez cela, cela ne signifie pas
que ce sont des choses
20:23
that people valuevaleur everychaque day.
375
1211465
1738
que les gens apprécient chaque jour.
20:25
It maymai well mean
376
1213227
1161
Ce pourrait être des choses les attirant
tels des papillons vers une flamme.
20:26
things that people are drawntiré to
like a mothpapillon de nuit to the flameflamme, everychaque day.
377
1214412
3306
20:29
We are addictedintoxiqué, because we see
something that pissesfait chier us off,
378
1217742
3022
Nous sommes accros car nous voyons
quelque chose qui nous énerve,
20:32
so we go in and addajouter fuelcarburant to the fireFeu,
379
1220788
3178
nous ajoutons de l’huile sur le feu,
l’utilisation active quotidienne augmente,
20:35
and the dailydu quotidien activeactif usageusage goesva up,
380
1223990
1927
20:37
and there's more adun d revenuerevenu there,
381
1225941
1715
il y a plus de revenus publicitaires
20:39
but we all get angrierfurieux with eachchaque other.
382
1227680
2752
mais nous sommes tous
plus en colère envers les autres.
20:42
How do you definedéfinir ...
383
1230456
2509
Comme définissez-vous...
20:44
"DailyTous les jours activeactif usageusage" seemssemble like a really
dangerousdangereux termterme to be optimizingoptimisation.
384
1232989
4126
« Utilisation active quotidienne » semble
être un terme dangereux à optimiser.
20:49
(ApplauseApplaudissements)
385
1237139
5057
(Applaudissements)
20:54
JDJD: TakenPrise aloneseul, it is,
386
1242220
1268
JD : Tout seul, ça l’est,
20:55
but you didn't let me
finishterminer the other metricmétrique,
387
1243512
2346
mais vous ne m’avez pas
laissé finir l’autre métrique :
20:57
whichlequel is, we're watchingen train de regarder for conversationsconversations
388
1245882
3727
nous observons les conversations
21:01
and conversationconversation chainsChaînes.
389
1249633
2129
et les chaînes de conversations.
21:03
So we want to incentivizeinciter
healthyen bonne santé contributioncontribution back to the networkréseau,
390
1251786
5076
Nous voulons encourager
des contributions saines pour le réseau
21:08
and what we believe that is
is actuallyréellement participatingparticipant in conversationconversation
391
1256886
4181
et ce que nous croyons que c'est,
c’est la participation à une conversation
21:13
that is healthyen bonne santé,
392
1261091
1197
qui est saine,
21:14
as defineddéfini by those fourquatre indicatorsindicateurs
I articulatedarticulés earlierplus tôt.
393
1262312
5037
telle que définie
par ces quatre indicateurs
que j’ai présentés plus tôt.
21:19
So you can't just optimizeoptimiser
around one metricmétrique.
394
1267373
2657
Vous ne pouvez pas optimiser
une seule métrique.
21:22
You have to balanceéquilibre and look constantlyconstamment
395
1270054
2752
Il faut un équilibre
et constamment considérer
21:24
at what is actuallyréellement going to createcréer
a healthyen bonne santé contributioncontribution to the networkréseau
396
1272830
4083
ce qui va créer une contribution
saine pour le réseau
21:28
and a healthyen bonne santé experienceexpérience for people.
397
1276937
2341
et une expérience saine pour les gens.
21:31
UltimatelyEn fin de compte, we want to get to a metricmétrique
398
1279302
1866
Finalement, nous voulons
établir une métrique
21:33
where people can tell us,
"Hey, I learnedappris something from TwitterTwitter,
399
1281192
3757
où les gens peuvent nous dire :
« J’ai appris quelque chose sur Twitter
21:36
and I'm walkingen marchant away
with something valuablede valeur."
400
1284973
2167
et je repars avec une chose
qui a de la valeur. »
21:39
That is our goalobjectif ultimatelyen fin de compte over time,
401
1287164
2043
C’est notre objectif ultime,
21:41
but that's going to take some time.
402
1289231
1809
mais cela va prendre du temps.
21:43
CACA: You come over to manybeaucoup,
I think to me, as this enigmaénigme.
403
1291064
5282
CA : Pour beaucoup, je pense pour moi,
vous paraissez être une énigme.
21:48
This is possiblypeut-être unfairdéloyale,
but I wokeréveillé up the other night
404
1296370
4396
C’est peut-être injuste
mais je me suis réveillé l’autre soir
21:52
with this picturephoto of how I founda trouvé I was
thinkingen pensant about you and the situationsituation,
405
1300790
3879
avec cette image qui me faisait penser
à vous et à la situation :
21:56
that we're on this great voyagevoyage with you
on this shipnavire calledappelé the "TwittanicTwittanic (Twittanique)" --
406
1304693
6903
nous étions en voyage avec vous
sur un bateau appelé « Twittanic » --
22:03
(LaughterRires)
407
1311620
1281
(Rires)
22:04
and there are people on boardplanche in steerageentrepont
408
1312925
4357
et il y a des gens sur l’entrepont
22:09
who are expressingexprimer discomfortinconfort,
409
1317306
2203
qui expriment un malaise
22:11
and you, unlikecontrairement à manybeaucoup other captainscapitaines,
410
1319533
2543
et vous, contrairement
à de nombreux capitaines,
22:14
are sayingen disant, "Well, tell me, talk to me,
listen to me, I want to hearentendre."
411
1322100
3431
leur dites : « Dites-moi, parlez-moi,
écoutez-moi, je veux entendre. »
22:17
And they talk to you, and they say,
"We're worriedinquiet about the icebergiceberg aheaddevant."
412
1325555
3619
Ils vous parlent et vous disent :
« L’iceberg devant nous inquiète. »
22:21
And you go, "You know,
that is a powerfulpuissant pointpoint,
413
1329198
2242
Et vous dites :
« C’est une très bonne remarque
22:23
and our shipnavire, franklyfranchement,
hasn'tn'a pas been builtconstruit properlycorrectement
414
1331464
2430
et notre bateau n’a pas été fait
de façon appropriée
22:25
for steeringpilotage as well as it mightpourrait."
415
1333918
1669
pour tourner autant que nécessaire. »
22:27
And we say, "Please do something."
416
1335611
1658
Nous disons : « Agissez. »
22:29
And you go to the bridgepont,
417
1337293
1411
Vous allez sur le pont
22:30
and we're waitingattendre,
418
1338728
2295
et nous attendons,
22:33
and we look, and then you're showingmontrer
this extraordinaryextraordinaire calmcalme,
419
1341047
4548
nous regardons et vous faites preuve
d’un calme extraordinaire,
22:37
but we're all standingpermanent outsideà l'extérieur,
sayingen disant, "JackJack, turntour the fuckingputain de wheelroue!"
420
1345619
3883
mais nous sommes tous dehors à dire :
« Jack, allez, tournez le gouvernail ! »
22:41
You know?
421
1349526
1151
Vous voyez ?
22:42
(LaughterRires)
422
1350701
1335
(Rires)
22:44
(ApplauseApplaudissements)
423
1352060
2381
(Applaudissements)
22:46
I mean --
424
1354465
1166
Je veux dire --
22:47
(ApplauseApplaudissements)
425
1355655
1734
(Applaudissements)
22:49
It's democracyla démocratie at stakepieu.
426
1357413
4594
La démocratie est en jeu.
22:54
It's our cultureCulture at stakepieu.
It's our worldmonde at stakepieu.
427
1362031
2821
Notre culture est en jeu.
Notre monde est en jeu.
22:56
And TwitterTwitter is amazingincroyable and shapesformes so much.
428
1364876
4706
Twitter est génial
et façonne tant de choses.
Ce n’est pas aussi grand
que d’autres plateformes,
23:01
It's not as biggros as some
of the other platformsplateformes,
429
1369606
2233
23:03
but the people of influenceinfluence use it
to setensemble the agendaordre du jour,
430
1371863
2804
mais les gens influents
l’utilisent pour établir un programme
23:06
and it's just harddifficile to imagineimaginer a more
importantimportant rolerôle in the worldmonde than to ...
431
1374691
6787
et il est difficile d’imaginer un rôle
plus important au monde que de...
23:13
I mean, you're doing a brilliantbrillant jobemploi
of listeningécoute, JackJack, and hearingaudition people,
432
1381502
3784
Vous faites un excellent travail
en écoutant et entendant les gens, Jack,
23:17
but to actuallyréellement dialcadran up the urgencyurgence
and movebouge toi on this stuffdes trucs --
433
1385310
4445
mais élevez l’état d’urgence
et faites avancer les choses --
23:21
will you do that?
434
1389779
2201
ferez-vous cela ?
23:24
JDJD: Yes, and we have been
movingen mouvement substantiallysubstantiellement.
435
1392750
3815
JD : Oui, et nous avons
fait des progrès substantiels.
23:28
I mean, there's been
a fewpeu dynamicsdynamique in Twitter'sDe Twitter historyhistoire.
436
1396589
3225
Il y a eu quelques dynamiques
dans l’histoire de Twitter.
23:31
One, when I camevenu back to the companycompagnie,
437
1399838
2083
Un : quand je suis revenu
dans l’entreprise,
23:35
we were in a prettyjoli direterribles stateEtat
in termstermes of our futureavenir,
438
1403477
6256
nous étions dans un état déplorable
concernant notre avenir
23:41
and not just from how people
were usingen utilisant the platformPlate-forme,
439
1409757
4634
et pas seulement quant à la façon
dont les gens utilisaient la plateforme,
23:46
but from a corporateentreprise narrativerécit as well.
440
1414415
2047
mais aussi d’un point de vue
de l’entreprise.
23:48
So we had to fixréparer
a bunchbouquet of the foundationfondation,
441
1416486
3204
Nous avons dû réparer quelques fondations,
23:51
turntour the companycompagnie around,
442
1419714
1969
redresser l’entreprise,
23:53
go throughpar two crazyfou layoffsmises à pied,
443
1421707
3111
en passer par deux folles
périodes de licenciements,
23:56
because we just got too biggros
for what we were doing,
444
1424842
3793
car nous étions devenus trop gros
pour ce que nous faisions,
24:00
and we focusedconcentré all of our energyénergie
445
1428659
2060
et nous avons concentré
toute notre énergie
24:02
on this conceptconcept of servingportion
the publicpublic conversationconversation.
446
1430743
3508
sur ce concept qu’est
servir le débat public.
24:06
And that tooka pris some work.
447
1434275
1451
Cela a nécessité du travail.
24:07
And as we diveda plongé into that,
448
1435750
2608
En nous plongeant là-dedans,
24:10
we realizedréalisé some of the issuesproblèmes
with the fundamentalsprincipes de base.
449
1438382
2992
nous avons vu les problèmes
avec des principes fondamentaux.
24:14
We could do a bunchbouquet of superficialsuperficiel things
to addressadresse what you're talkingparlant about,
450
1442120
4656
Nous pouvions faire
des choses superficielles
pour régler ce dont vous parlez,
24:18
but we need the changeschangements to last,
451
1446800
1790
mais les changements doivent durer
24:20
and that meansveux dire going really, really deepProfond
452
1448614
2459
et cela signifie aller très en profondeur
24:23
and payingpayant attentionattention
to what we startedcommencé 13 yearsannées agodepuis
453
1451097
4350
et prêter attention
à ce que nous avons démarré il y a 13 ans
24:27
and really questioninginterrogatoire
454
1455471
2261
et remettre en question
24:29
how the systemsystème workstravaux
and how the frameworkcadre workstravaux
455
1457756
2566
comment le système
et la structure fonctionnent
24:32
and what is needednécessaire for the worldmonde todayaujourd'hui,
456
1460346
3833
et ce dont le monde a besoin aujourd’hui,
24:36
givendonné how quicklyrapidement everything is movingen mouvement
and how people are usingen utilisant it.
457
1464203
4024
étant données la rapidité à laquelle
tout avance et l’utilisation des gens.
24:40
So we are workingtravail as quicklyrapidement as we can,
but quicknessrapidité will not get the jobemploi doneterminé.
458
1468251
6544
Nous travaillons aussi vite que possible,
mais la rapidité
n’accomplira pas le travail.
24:46
It's focusconcentrer, it's prioritizationpriorisation,
459
1474819
2611
C’est la concentration, la priorisation,
24:49
it's understandingcompréhension
the fundamentalsprincipes de base of the networkréseau
460
1477454
2946
la compréhension des principes
fondamentaux du réseau
24:52
and buildingbâtiment a frameworkcadre that scalesBalance
461
1480424
2842
et l’établissement
d’une structure à grande échelle
24:55
and that is resilientrésiliente to changechangement,
462
1483290
2351
et s’adaptant aux changements,
24:57
and beingétant openouvrir about where we are
and beingétant transparenttransparent about where are
463
1485665
5429
être ouverts et transparents
quant à où nous en sommes
25:03
so that we can continuecontinuer to earnGagnez trustconfiance.
464
1491118
2179
afin de continuer
à gagner la confiance des gens.
25:06
So I'm proudfier of all the frameworkscadres
that we'venous avons put in placeendroit.
465
1494141
3331
Je suis fier des bases
que nous avons mises en place.
25:09
I'm proudfier of our directiondirection.
466
1497496
2888
Je suis fier de notre direction.
25:12
We obviouslyévidemment can movebouge toi fasterPlus vite,
467
1500915
2718
Nous pouvons évidemment aller plus vite,
25:15
but that requiredChamps obligatoires just stoppingarrêt a bunchbouquet
of stupidstupide stuffdes trucs we were doing in the pastpassé.
468
1503657
4719
mais cela nécessitait de mettre un terme
à des trucs stupides que nous faisions.
25:21
CACA: All right.
469
1509067
1164
CA : Très bien.
25:22
Well, I suspectsuspect there are manybeaucoup people here
who, if givendonné the chancechance,
470
1510255
4067
Je suppose qu’il y a beaucoup de gens ici
qui, s’ils en avaient l’opportunité,
25:26
would love to help you
on this change-makingl’élaboration des changements agendaordre du jour you're on,
471
1514346
3989
aimeraient vous aider
à réaliser ces changements
25:30
and I don't know if WhitneyWhitney --
472
1518359
1542
et je ne sais pas si Whitney --
25:31
JackJack, thank you for comingvenir here
and speakingParlant so openlyouvertement.
473
1519925
2761
Jack, merci d’être venu
et d’avoir parlé si ouvertement.
25:34
It tooka pris couragecourage.
474
1522710
1527
Cela a nécessité du courage.
25:36
I really appreciateapprécier what you said,
and good luckla chance with your missionmission.
475
1524261
3384
J’apprécie ce que vous avez dit
et bon courage pour votre mission.
25:39
JDJD: Thank you so much.
ThanksMerci for havingayant me.
476
1527669
2095
JD : Merci beaucoup.
Merci de m’avoir invité.
25:41
(ApplauseApplaudissements)
477
1529788
3322
(Applaudissements)
25:45
Thank you.
478
1533134
1159
Merci.
Translated by Morgane Quilfen
Reviewed by Emmanuel Parfond

▲Back to top

ABOUT THE SPEAKERS
Jack Dorsey - Entrepreneur, programmer
Jack Dorsey is the CEO of Twitter, CEO & Chairman of Square, and a cofounder of both.

Why you should listen
More profile about the speaker
Jack Dorsey | Speaker | TED.com
Chris Anderson - TED Curator
After a long career in journalism and publishing, Chris Anderson became the curator of the TED Conference in 2002 and has developed it as a platform for identifying and disseminating ideas worth spreading.

Why you should listen

Chris Anderson is the Curator of TED, a nonprofit devoted to sharing valuable ideas, primarily through the medium of 'TED Talks' -- short talks that are offered free online to a global audience.

Chris was born in a remote village in Pakistan in 1957. He spent his early years in India, Pakistan and Afghanistan, where his parents worked as medical missionaries, and he attended an American school in the Himalayas for his early education. After boarding school in Bath, England, he went on to Oxford University, graduating in 1978 with a degree in philosophy, politics and economics.

Chris then trained as a journalist, working in newspapers and radio, including two years producing a world news service in the Seychelles Islands.

Back in the UK in 1984, Chris was captivated by the personal computer revolution and became an editor at one of the UK's early computer magazines. A year later he founded Future Publishing with a $25,000 bank loan. The new company initially focused on specialist computer publications but eventually expanded into other areas such as cycling, music, video games, technology and design, doubling in size every year for seven years. In 1994, Chris moved to the United States where he built Imagine Media, publisher of Business 2.0 magazine and creator of the popular video game users website IGN. Chris eventually merged Imagine and Future, taking the combined entity public in London in 1999, under the Future name. At its peak, it published 150 magazines and websites and employed 2,000 people.

This success allowed Chris to create a private nonprofit organization, the Sapling Foundation, with the hope of finding new ways to tackle tough global issues through media, technology, entrepreneurship and, most of all, ideas. In 2001, the foundation acquired the TED Conference, then an annual meeting of luminaries in the fields of Technology, Entertainment and Design held in Monterey, California, and Chris left Future to work full time on TED.

He expanded the conference's remit to cover all topics, including science, business and key global issues, while adding a Fellows program, which now has some 300 alumni, and the TED Prize, which grants its recipients "one wish to change the world." The TED stage has become a place for thinkers and doers from all fields to share their ideas and their work, capturing imaginations, sparking conversation and encouraging discovery along the way.

In 2006, TED experimented with posting some of its talks on the Internet. Their viral success encouraged Chris to begin positioning the organization as a global media initiative devoted to 'ideas worth spreading,' part of a new era of information dissemination using the power of online video. In June 2015, the organization posted its 2,000th talk online. The talks are free to view, and they have been translated into more than 100 languages with the help of volunteers from around the world. Viewership has grown to approximately one billion views per year.

Continuing a strategy of 'radical openness,' in 2009 Chris introduced the TEDx initiative, allowing free licenses to local organizers who wished to organize their own TED-like events. More than 8,000 such events have been held, generating an archive of 60,000 TEDx talks. And three years later, the TED-Ed program was launched, offering free educational videos and tools to students and teachers.

More profile about the speaker
Chris Anderson | Speaker | TED.com
Whitney Pennington Rodgers - TED Current Affairs Curator
Whitney Pennington Rodgers is an award-winning journalist and media professional.

Why you should listen

Prior to joining TED as current affairs curator, Whitney Pennington Rodgers produced for NBC's primetime news magazine Dateline NBC. She earned a duPont-Columbia award and a News & Documentary Emmy or her contributions to the Dateline NBC hour "The Cosby Accusers Speak" -- an extensive group interview with 27 of the women who accused entertainer Bill Cosby of sexual misconduct.

Pennington Rodgers has worked at NBC's in-house production company Peacock Productions, The Today Show, Nightly News, Rock Center with Brian Williams and New Jersey-centric public affairs shows Caucus: New Jersey and One-on-One with Steve Adubato. Prior to beginning her career in media, she had a short stint as a fourth-grade teacher through the Teach for America program.

Pennington Rodgers received her Bachelor's in journalism and media studies from Rutgers University. She completed her Master's of Journalism at the University of California at Berkeley, where she produced a documentary about recruitment of nonblack students at historically black colleges and universities.

More profile about the speaker
Whitney Pennington Rodgers | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee