ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

Tristan Harris: Hoe een handvol technologiebedrijven elke dag miljarden breinen controleren

Filmed:
2,591,029 views

"Een handvol mensen die werken bij een handvol technologiebedrijven bepalen elke dag de gedachten van miljarden mensen", zegt vormgevingsdenker Tristan Harris. Van Facebook notificaties via Snapstreaks tot Youtube's automatisch afspelen, ze strijden allemaal om één ding: je aandacht. Harris deelt hoe deze bedrijven gebruik maken van psychologie voor hun eigen profijt en roept op tot een vormgeving renaissance waarin onze technologie ons aanmoedigt om de tijdlijn te beleven die we willen.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imaginestel je voor
0
960
1200
Beeld je eens in
dat je een ruimte in gaat,
00:15
walkingwandelen into a roomkamer,
1
3000
1200
00:17
a controlcontrole roomkamer with a bunchbos of people,
2
5480
2136
een controlekamer met een aantal mensen,
100 mensen gebogen over een bureau
met kleine wijzerplaatjes.
00:19
a hundredhonderd people, hunchedgebogen
over a deskbureau with little dialswijzerplaten,
3
7640
2840
00:23
and that that controlcontrole roomkamer
4
11280
1520
En dat die controlekamer
00:25
will shapevorm the thoughtsgedachten and feelingsgevoelens
5
13680
3696
de gedachten en gevoelens zal bepalen
00:29
of a billionmiljard people.
6
17400
1240
van een miljard mensen.
Dit mag dan wel klinken
als science fiction,
00:32
This mightmacht soundgeluid like sciencewetenschap fictionfictie,
7
20560
1880
00:35
but this actuallywerkelijk existsbestaat
8
23320
2216
maar het bestaat al,
00:37
right now, todayvandaag.
9
25560
1200
nu, vandaag.
00:40
I know because I used to be
in one of those controlcontrole roomskamers.
10
28040
3360
Ik weet het, omdat ik vroeger
in één van deze controlekamers zat.
00:44
I was a designontwerp ethicistethicus at GoogleGoogle,
11
32159
2297
Ik was een ontwerpethicus bij Google,
waar ik bestudeerde hoe je de gedachten
van mensen ethisch kunt besturen.
00:46
where I studiedbestudeerd how do you ethicallyethisch
steersturen people'sPeople's thoughtsgedachten?
12
34480
3360
00:50
Because what we don't talk about
is how the handfulhandvol of people
13
38560
2896
Want waar we niet over praten,
is hoe een handvol mensen
bij een handvol technologiebedrijven
00:53
workingwerkend at a handfulhandvol
of technologytechnologie companiesbedrijven
14
41480
2536
00:56
throughdoor theirhun choiceskeuzes will steersturen
what a billionmiljard people are thinkinghet denken todayvandaag.
15
44040
5040
met hun keuzes bepalen
wat een miljard mensen vandaag denken.
Als jij je telefoon tevoorschijn haalt
01:02
Because when you pullTrekken out your phonetelefoon
16
50400
1736
01:04
and they designontwerp how this workswerken
or what's on the feedeten geven,
17
52160
3096
en zij ontwerpen hoe die werkt
of wat er op je overzicht staat,
01:07
it's schedulingplanning little blocksblokken
of time in our mindsgeesten.
18
55280
3216
claimt hij kleine blokjes tijd
in onze gedachten.
01:10
If you see a notificationkennisgeving,
it schedulesschema 's you to have thoughtsgedachten
19
58520
3136
Als je een berichtje ziet,
plaatst dat gedachten in je hoofd
01:13
that maybe you didn't intendvan plan zijn to have.
20
61680
2040
die je misschien niet
van plan was te hebben.
01:16
If you swipeswipe over that notificationkennisgeving,
21
64400
2616
Als je over dat bericht veegt,
zorgt dat dat je wat tijd zult besteden
door ergens ingezogen te worden
01:19
it schedulesschema 's you into spendinguitgaven
a little bitbeetje of time
22
67040
2381
01:21
gettingkrijgen suckedzoog into something
23
69445
1381
01:22
that maybe you didn't intendvan plan zijn
to get suckedzoog into.
24
70850
2955
waar je niet van plan was
om te worden ingezogen.
Wanneer we praten over technologie
01:27
When we talk about technologytechnologie,
25
75320
1520
hebben we het meestal
over haar onbegrensde mogelijkheden;
01:30
we tendde neiging hebben to talk about it
as this blueblauw skyhemel opportunitykans.
26
78040
2696
01:32
It could go any directionrichting.
27
80760
1480
het kan elke kant op gaan.
Maar serieus,
01:35
And I want to get seriousernstig for a momentmoment
28
83400
1856
ik zal je vertellen waarom het
een hele specifieke richting uit gaat.
01:37
and tell you why it's going
in a very specificspecifiek directionrichting.
29
85280
2680
01:40
Because it's not evolvingevoluerende randomlywillekeurig.
30
88840
2200
Want het evolueert
niet eender welke kant uit.
Er is een verborgen doel dat bepaalt
hoe onze technologie zich ontwikkeld
01:44
There's a hiddenverborgen goaldoel
drivinghet rijden the directionrichting
31
92000
2016
01:46
of all of the technologytechnologie we make,
32
94040
2136
01:48
and that goaldoel is the racerace
for our attentionaandacht.
33
96200
2920
en dat doel is de race voor onze aandacht.
01:52
Because everyelk newnieuwe siteplaats --
34
100840
2736
Want iedere nieuwe site --
01:55
TEDTED, electionsverkiezingen, politicianspolitici,
35
103600
2736
TED, verkiezingen, politici,
01:58
gamesspellen, even meditationMeditatie appsapps --
36
106360
1976
spelletjes, zelfs meditatie apps --
02:00
have to competeconcurreren for one thing,
37
108360
1960
moet strijden om één ding.
02:03
whichwelke is our attentionaandacht,
38
111160
1736
Dat is onze aandacht.
02:04
and there's only so much of it.
39
112920
1600
En daar hebben we maar zoveel van.
02:08
And the bestbeste way to get people'sPeople's attentionaandacht
40
116440
2416
De beste manier om iemand
z'n aandacht te krijgen,
02:10
is to know how someone'siemands mindgeest workswerken.
41
118880
2440
is door te weten
hoe iemand z'n brein werkt.
02:13
And there's a wholegeheel bunchbos
of persuasiveovertuigend techniquestechnieken
42
121800
2336
En er zijn een heleboel
overredingstechnieken
02:16
that I learnedgeleerd in collegecollege at a lablaboratorium
calledriep the PersuasiveOvertuigend TechnologyTechnologie LabLab
43
124160
3496
die ik leerde tijdens m'n studies
in het 'overredingstechnologie lab'
02:19
to get people'sPeople's attentionaandacht.
44
127680
1600
om de aandacht te krijgen.
02:21
A simpleeenvoudig examplevoorbeeld is YouTubeYouTube.
45
129880
1480
Een simpel voorbeeld is YouTube.
02:24
YouTubeYouTube wants to maximizemaximaliseren
how much time you spendbesteden.
46
132000
2936
YouTube wil je zo lang mogelijk
op hun site houden.
02:26
And so what do they do?
47
134960
1200
Dus wat doen ze?
02:28
They autoplayautomatisch afspelen the nextvolgende videovideo-.
48
136840
2280
Ze spelen automatisch de volgende video.
Stel dat dat goed werkt
en ze houden je wat langer vast.
02:31
And let's say that workswerken really well.
49
139760
1816
02:33
They're gettingkrijgen a little bitbeetje
more of people'sPeople's time.
50
141600
2416
Als je Netflix bent,
dan kijk je daar naar en zegt:
02:36
Well, if you're NetflixNetflix,
you look at that and say,
51
144040
2376
"Dat verkleint mijn marktaandeel,
02:38
well, that's shrinkingkrimpen my marketmarkt sharedelen,
52
146440
1858
dus ik ga de volgende aflevering
automatisch afspelen."
02:40
so I'm going to autoplayautomatisch afspelen the nextvolgende episodeaflevering.
53
148322
2000
02:43
But then if you're FacebookFacebook,
54
151320
1376
Maar Facebook zeg dan:
"Dat verkleint mijn marktaandeel,
02:44
you say, that's shrinkingkrimpen
all of my marketmarkt sharedelen,
55
152720
2336
dus nu moet ik alle videos
op de nieuwsfeed automatisch afspelen
02:47
so now I have to autoplayautomatisch afspelen
all the videosvideos in the newsfeednewsfeed
56
155080
2656
nog voor je op 'play' klikt."
02:49
before waitingaan het wachten for you to clickKlik playspelen.
57
157760
1762
02:52
So the internetinternet is not evolvingevoluerende at randomwillekeurig.
58
160320
3160
Dus het internet
evolueert niet in het wilde weg.
02:56
The reasonreden it feelsvoelt
like it's suckingzuigen us in the way it is
59
164320
4416
De reden dat het op dit moment
voelt alsof het ons erin zuigt,
03:00
is because of this racerace for attentionaandacht.
60
168760
2376
is vanwege die race om onze aandacht.
03:03
We know where this is going.
61
171160
1416
We weten waar dit heen gaat;
technologie is niet neutraal.
03:04
TechnologyTechnologie is not neutralneutrale,
62
172600
1520
03:07
and it becomeswordt this racerace
to the bottombodem of the brainhersenen stemstam
63
175320
3416
Het wordt die race naar het
diepste punt van de hersenstam;
03:10
of who can go lowerlager to get it.
64
178760
2200
over wie het diepste kan gaan.
03:13
Let me give you an examplevoorbeeld of SnapchatSnapchat.
65
181920
2336
Laat me je een voorbeeld
geven van Snapchat.
Mocht je het niet weten,
03:16
If you didn't know,
SnapchatSnapchat is the numberaantal one way
66
184280
3696
Snapchat is onder Amerikaanse tieners
de populairste manier om te communiceren.
03:20
that teenagerstieners in
the UnitedVerenigd StatesStaten communicatecommuniceren.
67
188000
2256
Dus als je, net als ik,
berichtjes gebruikt om te communiceren:
03:22
So if you're like me, and you use
texttekst messagesberichten to communicatecommuniceren,
68
190280
4176
Snapchat is hetzelfde voor tieners;
het heeft wel 100 miljoen gebruikers.
03:26
SnapchatSnapchat is that for teenagerstieners,
69
194480
1776
03:28
and there's, like,
a hundredhonderd millionmiljoen of them that use it.
70
196280
2696
Zij introduceerden iets
wat ze 'Snapstreaks' noemen,
03:31
And they inventeduitgevonden
a featurekenmerk calledriep SnapstreaksSnapstreaks,
71
199000
2216
wat het aantal dagen op rij toont
03:33
whichwelke showsshows the numberaantal of daysdagen in a rowrij
72
201240
1896
dat twee mensen met elkaar
hebben gecommuniceerd.
03:35
that two people have
communicatedgecommuniceerd with eachelk other.
73
203160
2616
03:37
In other wordstekst, what they just did
74
205800
1856
Wat ze dus doen,
03:39
is they gavegaf two people
something they don't want to loseverliezen.
75
207680
2960
is twee mensen iets geven
wat ze niet willen verliezen.
03:44
Because if you're a teenagertiener,
and you have 150 daysdagen in a rowrij,
76
212000
3456
Want als je een tiener bent
en je hebt 150 dagen op een rij,
dan wil je dat niet verliezen.
03:47
you don't want that to go away.
77
215480
1976
Bedenk wat dit voor kleine blokjes tijd
in het brein van kinderen claimt.
03:49
And so think of the little blocksblokken of time
that that schedulesschema 's in kids'Kids mindsgeesten.
78
217480
4160
03:54
This isn't theoreticaltheoretisch:
when kidskinderen go on vacationvakantie,
79
222160
2336
Dit is geen theorie:
als kinderen op vakantie gaan,
03:56
it's been showngetoond they give theirhun passwordswachtwoorden
to up to fivevijf other friendsvrienden
80
224520
3256
blijken ze hun paswoorden
aan tot wel vijf vrienden te geven
03:59
to keep theirhun SnapstreaksSnapstreaks going,
81
227800
2216
om hun Snapstreaks gaande te houden
04:02
even when they can't do it.
82
230040
2016
als zij het zelf niet kunnen doen.
04:04
And they have, like, 30 of these things,
83
232080
1936
En ze hebben er wel 30,
04:06
and so they have to get throughdoor
takingnemen photosfoto's of just picturesafbeeldingen or wallswanden
84
234040
3376
dus moeten ze foto's nemen
van plaatjes of muren of plafonds
04:09
or ceilingsplafonds just to get throughdoor theirhun day.
85
237440
2480

om de dag door te komen.
04:13
So it's not even like
they're havingmet realecht conversationsconversaties.
86
241200
2696
Ze hebben dus niet eens
echte conversaties.
We zijn geneigd om te denken:
04:15
We have a temptationverleiding to think about this
87
243920
1936
04:17
as, oh, they're just usinggebruik makend van SnapchatSnapchat
88
245880
2696
oh, die gebruiken Snapchat
zoals wij vroeger de telefoon.
04:20
the way we used to
gossiproddel on the telephonetelefoon.
89
248600
2016
Dat kan geen kwaad.
04:22
It's probablywaarschijnlijk OK.
90
250640
1200
04:24
Well, what this missesmisses
is that in the 1970s,
91
252480
2256
Maar als we in de jaren 70
zaten te kletsen aan de telefoon,
04:26
when you were just
gossipingroddelen on the telephonetelefoon,
92
254760
2615
zaten er aan de andere kant
van het scherm geen 100 ingenieurs
04:29
there wasn'twas niet a hundredhonderd engineersingenieurs
on the other sidekant of the screenscherm
93
257399
3017
die exact wisten hoe je
psychologisch in elkaar steekt
04:32
who knewwist exactlyprecies
how your psychologypsychologie workedwerkte
94
260440
2056
04:34
and orchestratedgeorkestreerd you
into a doubledubbele bindbinden with eachelk other.
95
262520
2640
en je van twee kanten
aan het lijntje hielden.
04:38
Now, if this is makingmaking you
feel a little bitbeetje of outrageverontwaardiging,
96
266440
3400
Als je hier een beetje boos van wordt,
04:42
noticekennisgeving that that thought
just comeskomt over you.
97
270680
2576
merk dan op dat die gedachte
je vanzelf binnenvalt.
04:45
OutrageVerontwaardiging is a really good way alsoook
of gettingkrijgen your attentionaandacht,
98
273280
3320
Woede is ook een hele goede manier
om je aandacht te krijgen.
04:49
because we don't chooseKiezen outrageverontwaardiging.
99
277880
1576
Want we kiezen niet voor woede,
het overkomt ons.
04:51
It happensgebeurt to us.
100
279480
1416
04:52
And if you're the FacebookFacebook newsfeednewsfeed,
101
280920
1856
Als jij de Facebook nieuwsfeed bent,
of je dat nu wilt of niet,
04:54
whetherof you'dje zou want to or not,
102
282800
1416
dan profiteer je ervan als iemand boos is.
04:56
you actuallywerkelijk benefitvoordeel when there's outrageverontwaardiging.
103
284240
2736
04:59
Because outrageverontwaardiging
doesn't just schedulerooster a reactionreactie
104
287000
2936
Want woede plaatst niet alleen
een reactie in jouw
emotionele tijd en ruimte,
05:01
in emotionalemotioneel time, spaceruimte, for you.
105
289960
2880
we willen die woede
ook delen met andere mensen.
05:05
We want to sharedelen that outrageverontwaardiging
with other people.
106
293440
2416
We willen het delen en zeggen:
"Kan je geloven dat ze dat zeiden?"
05:07
So we want to hitraken sharedelen and say,
107
295880
1576
05:09
"Can you believe the thing
that they said?"
108
297480
2040
05:12
And so outrageverontwaardiging workswerken really well
at gettingkrijgen attentionaandacht,
109
300520
3376
Dus woede werkt heel goed
om aandacht te krijgen,
zo goed dat als Facebook de keuze had
05:15
suchzodanig that if FacebookFacebook had a choicekeuze
betweentussen showingtonen you the outrageverontwaardiging feedeten geven
110
303920
3896
tussen het tonen van een woedende
en een kalme nieuwsfeed,
05:19
and a calmkalmte newsfeednewsfeed,
111
307840
1320
ze je de woedende feed
zouden willen tonen.
05:22
they would want
to showtonen you the outrageverontwaardiging feedeten geven,
112
310120
2136
Niet omdat iemand dat bewust koos,
05:24
not because someoneiemand
consciouslybewust chosekoos that,
113
312280
2056
maar omdat dat beter werkt
om je aandacht te krijgen.
05:26
but because that workedwerkte better
at gettingkrijgen your attentionaandacht.
114
314360
2680
05:31
And the newsfeednewsfeed controlcontrole roomkamer
is not accountableverantwoordelijk to us.
115
319120
5480
En de controlekamer van de nieuwsfeed
hoeft ons geen
verantwoording af te leggen.
Het hoeft alleen maar
de aandacht te maximaliseren.
05:37
It's only accountableverantwoordelijk
to maximizingmaximaliseren attentionaandacht.
116
325040
2296
05:39
It's alsoook accountableverantwoordelijk,
117
327360
1216
Het is ook verantwoordelijk,
vanwege het bedrijfsmodel van adverteren,
05:40
because of the businessbedrijf modelmodel-
of advertisingreclame,
118
328600
2376
05:43
for anybodyiemand who can paybetalen the mostmeest
to actuallywerkelijk walklopen into the controlcontrole roomkamer
119
331000
3336
jegens degene die de controlekamer
genoeg kan betalen om te kunnen zeggen:
05:46
and say, "That groupgroep over there,
120
334360
1576
"Die groep daar.
05:47
I want to schedulerooster these thoughtsgedachten
into theirhun mindsgeesten."
121
335960
2640
Ik wil deze gedachten
in hun hoofd brengen."
05:51
So you can targetdoel,
122
339760
1200
Je kunt gewoon richten.
05:54
you can preciselyprecies targetdoel a lieliggen
123
342040
1936
Je kunt je leugens precies richten
op de mensen die het meest vatbaar zijn.
05:56
directlydirect to the people
who are mostmeest susceptiblevatbaar.
124
344000
2920
06:00
And because this is profitablewinstgevend,
it's only going to get worseerger.
125
348080
2880
En omdat dit winstgevend is,
zal dit enkel nog verergeren.
06:05
So I'm here todayvandaag
126
353040
1800
Dus ben ik vandaag hier,
06:08
because the costskosten are so obviousduidelijk.
127
356160
2000
omdat de prijs zo duidelijk is.
Ik ken geen dringender probleem dan dit,
06:12
I don't know a more urgentdringend
problemprobleem than this,
128
360280
2136
want dit probleem zit onder
alle andere problemen.
06:14
because this problemprobleem
is underneathonder all other problemsproblemen.
129
362440
3120
06:18
It's not just takingnemen away our agencyagentschap
130
366720
3176
Het ontneemt ons niet alleen de vrijheid
om onze aandacht te besteden
en het leven te leven wat we willen.
06:21
to spendbesteden our attentionaandacht
and liveleven the liveslevens that we want,
131
369920
2600
06:25
it's changingveranderen the way
that we have our conversationsconversaties,
132
373720
3536
Het verandert de manier
waarop we onze conversaties voeren,
06:29
it's changingveranderen our democracydemocratie,
133
377280
1736
het verandert onze democratie
en het verandert ons vermogen
06:31
and it's changingveranderen our abilityvermogen
to have the conversationsconversaties
134
379040
2616
om de gesprekken en relaties
te hebben die we met elkaar willen.
06:33
and relationshipsrelaties we want with eachelk other.
135
381680
2000
06:37
And it affectsbeïnvloedt everyoneiedereen,
136
385160
1776
Het treft iedereen,
06:38
because a billionmiljard people
have one of these in theirhun pocketzak-.
137
386960
3360
omdat een miljard mensen
er zo een in zijn zak heeft.
06:45
So how do we fixrepareren this?
138
393360
1400
Hoe herstellen we dit?
06:49
We need to make threedrie radicalradicaal changesveranderingen
139
397080
2936
We moeten drie dingen radicaal veranderen
06:52
to technologytechnologie and to our societymaatschappij.
140
400040
1800
aan de technologie
en aan onze samenleving.
06:55
The first is we need to acknowledgeerkennen
that we are persuadablepersuadable.
141
403720
3800
Ten eerste moeten we inzien
dat we overreed kunnen worden.
Zodra je inziet dat je geest
geprogrammeerd kan worden
07:00
OnceEenmaal you startbegin understandingbegrip
142
408840
1376
07:02
that your mindgeest can be scheduledgepland
into havingmet little thoughtsgedachten
143
410240
2776
om kleine gedachten te hebben
met kleine blokjes tijd
die je niet gekozen hebt,
07:05
or little blocksblokken of time
that you didn't chooseKiezen,
144
413040
2576
zou je dat inzicht niet willen gebruiken
om jezelf ertegen te beschermen?
07:07
wouldn'tzou het niet we want to use that understandingbegrip
145
415640
2056
07:09
and protectbeschermen againsttegen the way
that that happensgebeurt?
146
417720
2160
07:12
I think we need to see ourselvesonszelf
fundamentallyfundamenteel in a newnieuwe way.
147
420600
3296
Ik denk dat we onszelf
fundamenteel anders moeten zien.
Het is bijna als een nieuwe periode
in de historie, zoals de Verlichting,
07:15
It's almostbijna like a newnieuwe periodperiode
of humanmenselijk historygeschiedenis,
148
423920
2216
07:18
like the EnlightenmentVerlichting,
149
426160
1216
maar dan een Verlichting
in zelfbewustzijn:
07:19
but almostbijna a kindsoort of
self-awarezelfbewust EnlightenmentVerlichting,
150
427400
2216
dat we overreed kunnen worden
07:21
that we can be persuadedovergehaald,
151
429640
2080
en dat er iets zou kunnen zijn
wat we willen beschermen.
07:24
and there mightmacht be something
we want to protectbeschermen.
152
432320
2240
07:27
The secondtweede is we need newnieuwe modelsmodellen
and accountabilityverantwoording systemssystemen
153
435400
4576
Ten tweede zullen we nieuwe modellen
en verantwoordingssystemen nodig hebben,
07:32
so that as the worldwereld- getskrijgt better
and more and more persuasiveovertuigend over time --
154
440000
3496
zodat als de wereld beter
en steeds overredender wordt --
want het zal alleen maar
overredender worden --
07:35
because it's only going
to get more persuasiveovertuigend --
155
443520
2336
dat de mensen in die controlekamers
07:37
that the people in those controlcontrole roomskamers
156
445880
1856
verantwoordelijk en transparant
zijn voor wat wij willen.
07:39
are accountableverantwoordelijk and transparenttransparant
to what we want.
157
447760
2456
07:42
The only formformulier of ethicalethisch
persuasionoverreding that existsbestaat
158
450240
2696
De enige vorm van ethische
overreding die bestaat,
07:44
is when the goalsdoelen of the persuaderPersuader
159
452960
1936
is wanneer de doelen van de overreder
07:46
are aligneduitgelijnd with the goalsdoelen
of the persuadeepersuadee.
160
454920
2200
overeenstemmen met
de doelen van de overrede.
Dat betekent vraagtekens zetten bij zaken
als het bedrijfsmodel van adverteren.
07:49
And that involvesimpliceert questioningOndervragen biggroot things,
like the businessbedrijf modelmodel- of advertisingreclame.
161
457640
3840
07:54
LastlyTot slot,
162
462720
1576
Tot slot
hebben we een renaissance
van design nodig,
07:56
we need a designontwerp renaissanceRenaissance,
163
464320
1680
07:59
because onceeen keer you have
this viewuitzicht of humanmenselijk naturenatuur,
164
467080
3056
want heb je eenmaal
dit inzicht in de menselijke aard,
08:02
that you can steersturen the timelinestijdlijnen
of a billionmiljard people --
165
470160
2976
dat je de tijdlijn van een miljard
mensen kan sturen --
08:05
just imaginestel je voor, there's people
who have some desireverlangen
166
473160
2736
realiseer je dat er mensen zijn
die een wens hebben
08:07
about what they want to do
and what they want to be thinkinghet denken
167
475920
2856
over wat ze willen doen,
en denken, en voelen,
08:10
and what they want to be feelinggevoel
and how they want to be informedop de hoogte,
168
478800
3136
en hoe ze willen geïnformeerd worden,
en we worden gewoon
in die andere richtingen getrokken.
08:13
and we're all just tuggedtrok
into these other directionsroutebeschrijving.
169
481960
2536
Een miljard mensen wordt gewoon in
verschillende richtingen getrokken.
08:16
And you have a billionmiljard people just tuggedtrok
into all these differentverschillend directionsroutebeschrijving.
170
484520
3696
Beeld je een volledige
design-renaissance in
08:20
Well, imaginestel je voor an entiregeheel designontwerp renaissanceRenaissance
171
488240
2056
08:22
that triedbeproefd to orchestrateorkestreren
the exactexact and mostmeest empoweringempowerment
172
490320
3096
die is gericht op het produceren
van de meest nuttige
en meest gewenste tijdlijn.
08:25
time-well-spentgoed-tijd way
for those timelinestijdlijnen to happengebeuren.
173
493440
3136
En dat zou twee zaken inhouden:
08:28
And that would involvebetrekken bij two things:
174
496600
1656
de eerste is bescherming
tegen tijdlijnen die we niet willen,
08:30
one would be protectingbescherming
againsttegen the timelinestijdlijnen
175
498280
2136
08:32
that we don't want to be experiencingervaren,
176
500440
1856
de gedachten die we niet willen denken,
08:34
the thoughtsgedachten that we
wouldn'tzou het niet want to be happeninggebeurtenis,
177
502320
2416
zodat wanneer die 'ping' klinkt,
we er niet door worden weggezogen.
08:36
so that when that dingding happensgebeurt,
not havingmet the dingding that sendsverzendt us away;
178
504760
3336
De tweede zou ons in staat stellen
om het leven te leiden dat we willen.
08:40
and the secondtweede would be empoweringempowerment us
to liveleven out the timelinetijdlijn that we want.
179
508120
3616
08:43
So let me give you a concretebeton examplevoorbeeld.
180
511760
1880
Laat me je een voorbeeld geven.
Vandaag zegt je vriend
bijvoorbeeld een etentje af
08:46
TodayVandaag, let's say your friendvriend
cancelsgeannuleerd dinneravondeten on you,
181
514280
2456
08:48
and you are feelinggevoel a little bitbeetje lonelyeenzaam.
182
516760
3775
en je voelt je een beetje eenzaam.
08:52
And so what do you do in that momentmoment?
183
520559
1817
Dus wat doe je op dat moment?
Je opent Facebook.
08:54
You openOpen up FacebookFacebook.
184
522400
1279
08:56
And in that momentmoment,
185
524960
1696
Op dat moment
08:58
the designersontwerpers in the controlcontrole roomkamer
want to schedulerooster exactlyprecies one thing,
186
526680
3376
willen de ontwerpers
in de controlekamer maar één ding:
09:02
whichwelke is to maximizemaximaliseren how much time
you spendbesteden on the screenscherm.
187
530080
3040
je zo lang mogelijk aan het scherm houden.
09:06
Now, insteadin plaats daarvan, imaginestel je voor if those designersontwerpers
createdaangemaakt a differentverschillend timelinetijdlijn
188
534640
3896
Wat nu als die designers
in plaats daarvan een tijdlijn maakten
09:10
that was the easiestgemakkelijkst way,
usinggebruik makend van all of theirhun datagegevens,
189
538560
3496
die op basis van alle
gegevens die ze hadden
jou zouden helpen uit te gaan
met mensen waar je om geeft?
09:14
to actuallywerkelijk help you get out
with the people that you carezorg about?
190
542080
3096
09:17
Just think, alleviatingverlichten
all lonelinesseenzaamheid in societymaatschappij,
191
545200
5416
Stel je voor hoe alle eenzaamheid
in de samenleving zou worden verzacht
09:22
if that was the timelinetijdlijn that FacebookFacebook
wanted to make possiblemogelijk for people.
192
550640
3496
als Facebook de mensen
die tijdlijn zou willen bieden.
09:26
Or imaginestel je voor a differentverschillend conversationgesprek.
193
554160
1715
Of beeld je een ander gesprek in.
Stel je wil iets heel controversieels
posten op Facebook,
09:27
Let's say you wanted to postpost
something supercontroversialsupercontroversial on FacebookFacebook,
194
555899
3317
wat belangrijk is om te kunnen doen,
09:31
whichwelke is a really importantbelangrijk
thing to be ablein staat to do,
195
559240
2416
over controversiële zaken praten.
09:33
to talk about controversialcontroversieel topicstopics.
196
561680
1696
Op dit moment is er
dat grote vak voor je opmerking,
09:35
And right now, when there's
that biggroot commentcommentaar boxdoos,
197
563400
2336
alsof het je vraagt:
welke toets wil je indrukken?
09:37
it's almostbijna askingvragen you,
what keysleutel do you want to typetype?
198
565760
3376
09:41
In other wordstekst, it's schedulingplanning
a little timelinetijdlijn of things
199
569160
2816
Ofwel, het heeft
allerlei dingetjes gepland
die je op het scherm zult blijven doen.
09:44
you're going to continuevoortzetten
to do on the screenscherm.
200
572000
2136
Beeld je in dat er in plaats daarvan
een andere knop was die zei:
09:46
And imaginestel je voor insteadin plaats daarvan that there was
anothereen ander buttonknop there sayinggezegde,
201
574160
2976
"Waar zou je nu
het meest bij gebaat zijn?"
09:49
what would be mostmeest
time well spentdoorgebracht for you?
202
577160
2056
En je klikt op 'een etentje geven'.
09:51
And you clickKlik "hostgastheer a dinneravondeten."
203
579240
1576
09:52
And right there
underneathonder the itemitem it said,
204
580840
2096
En vlak daaronder staat:
"Wie wil er naar het etentje komen?"
09:54
"Who wants to RSVPRSVP for the dinneravondeten?"
205
582960
1696
09:56
And so you'dje zou still have a conversationgesprek
about something controversialcontroversieel,
206
584680
3256
Je zou nog steeds een gesprek
hebben over iets controversieels,
09:59
but you'dje zou be havingmet it in the mostmeest
empoweringempowerment placeplaats on your timelinetijdlijn,
207
587960
3736
maar je zou het hebben
op de beste plaats op jouw tijdlijn,
10:03
whichwelke would be at home that night
with a bunchbos of a friendsvrienden over
208
591720
3016
namelijk die avond thuis,
met een paar vrienden om erover te praten.
10:06
to talk about it.
209
594760
1200
10:09
So imaginestel je voor we're runninglopend, like,
a find and replacevervangen
210
597000
3160
Dus beeld je in dat we
een 'zoek en vervang' doen
op alle tijdlijnen die ons momenteel
tot meer en meer schermtijd verleiden
10:13
on all of the timelinestijdlijnen
that are currentlymomenteel steeringstuurinrichting us
211
601000
2576
10:15
towardsnaar more and more
screenscherm time persuasivelyovertuigend
212
603600
2560
10:19
and replacingvervangen all of those timelinestijdlijnen
213
607080
2536
en al die tijdlijnen vervangen
door wat we in ons leven willen.
10:21
with what do we want in our liveslevens.
214
609640
1640
10:26
It doesn't have to be this way.
215
614960
1480
Het hoeft niet zo te zijn.
10:30
InsteadIn plaats daarvan of handicappinghandicaps our attentionaandacht,
216
618360
2256
In plaats van onze aandacht
het lastig te maken,
10:32
imaginestel je voor if we used all of this datagegevens
and all of this powermacht
217
620640
2816
stel dat we deze data en ons inzicht
in de menselijke natuur zouden gebruiken
10:35
and this newnieuwe viewuitzicht of humanmenselijk naturenatuur
218
623480
1616
om ons een bovenmenselijk
vermogen te geven om te focussen,
10:37
to give us a superhumanbovenmenselijke abilityvermogen to focusfocus
219
625120
2856
10:40
and a superhumanbovenmenselijke abilityvermogen to put
our attentionaandacht to what we caredverzorgd about
220
628000
4136
een bovenmenselijk talent om onze
aandacht te geven aan waar we van houden,
10:44
and a superhumanbovenmenselijke abilityvermogen
to have the conversationsconversaties
221
632160
2616
en een bovenmenselijk talent
om conversaties te hebben
10:46
that we need to have for democracydemocratie.
222
634800
2000
die we nodig hebben voor democratie.
10:51
The mostmeest complexcomplex challengesuitdagingen in the worldwereld-
223
639600
2680
De meest complexe uitdagingen ter wereld
10:56
requirevereisen not just us
to use our attentionaandacht individuallyindividueel.
224
644280
3120
vereisen niet alleen
onze individuele aandacht.
Ze vereisen het gezamenlijk gebruiken
en coördineren van onze aandacht.
11:00
They requirevereisen us to use our attentionaandacht
and coordinatecoördinaat it togethersamen.
225
648440
3320
De klimaatverandering zal vereisen
11:04
ClimateKlimaat changeverandering is going to requirevereisen
that a lot of people
226
652440
2816
dat heel wat mensen hun aandacht
samen kunnen coördineren
11:07
are beingwezen ablein staat
to coordinatecoördinaat theirhun attentionaandacht
227
655280
2096
11:09
in the mostmeest empoweringempowerment way togethersamen.
228
657400
1896
in de meest krachtige manier.
11:11
And imaginestel je voor creatinghet creëren van
a superhumanbovenmenselijke abilityvermogen to do that.
229
659320
3080
Stel dat we een bovenmenselijk vermogen
ontwikkelen om dat te doen.
11:19
SometimesSoms the world's's werelds
mostmeest pressingpersing and importantbelangrijk problemsproblemen
230
667000
4160
Soms zijn 's werelds meest dringende
en belangrijke problemen
11:24
are not these hypotheticalhypothetisch futuretoekomst things
that we could createcreëren in the futuretoekomst.
231
672040
3840
niet deze hypothetische dingen die
we zouden kunnen creëren in de toekomst.
Soms bevinden zich de meest
dringende problemen vlak voor onze neus,
11:28
SometimesSoms the mostmeest pressingpersing problemsproblemen
232
676560
1736
11:30
are the onesdegenen that are
right underneathonder our nosesneuzen,
233
678320
2336
11:32
the things that are alreadynu al directingRegie
a billionmiljard people'sPeople's thoughtsgedachten.
234
680680
3120
de dingen die al de gedachten
van een miljard mensen bepalen.
In plaats van opgewonden te worden
over de nieuwe 'augmented reality'
11:36
And maybe insteadin plaats daarvan of gettingkrijgen excitedopgewonden
about the newnieuwe augmentedaangevuld realityrealiteit
235
684600
3376
11:40
and virtualvirtueel realityrealiteit
and these coolkoel things that could happengebeuren,
236
688000
3296
en virtual reality en de coole dingen
die zouden kunnen gebeuren,
11:43
whichwelke are going to be susceptiblevatbaar
to the samedezelfde racerace for attentionaandacht,
237
691320
3296
die ook onderhevig zullen zijn
aan dezelfde race voor aandacht,
moeten we misschien eerst
de strijd om de aandacht verhelpen
11:46
if we could fixrepareren the racerace for attentionaandacht
238
694640
2176
11:48
on the thing that's alreadynu al
in a billionmiljard people'sPeople's pocketspockets.
239
696840
2720
op het ding dat iedereen
al in zijn zak heeft.
In plaats ons van gek te laten maken
11:52
Maybe insteadin plaats daarvan of gettingkrijgen excitedopgewonden
240
700040
1576
11:53
about the mostmeest excitingopwindend
newnieuwe coolkoel fancyzin in hebben educationonderwijs appsapps,
241
701640
4176
door de spannendste, nieuwe,
coole, chique onderwijs apps,
kunnen we iets doen aan hoe
het brein van kinderen wordt verkwist
11:57
we could fixrepareren the way
kids'Kids mindsgeesten are gettingkrijgen manipulatedgemanipuleerd
242
705840
2896
aan het heen en weer zenden
van lege berichten.
12:00
into sendingBezig met verzenden emptyleeg messagesberichten
back and forthvoort.
243
708760
2480
12:04
(ApplauseApplaus)
244
712040
4296
(Applaus)
In plaats van ons zorgen te maken
12:08
Maybe insteadin plaats daarvan of worryingzorgwekkend
245
716360
1256
12:09
about hypotheticalhypothetisch futuretoekomst
runawayWeglopen artificialkunstmatig intelligencesintelligenties
246
717640
3776
over gevaarlijke losgeslagen
artificiële intelligentie in de toekomst
12:13
that are maximizingmaximaliseren for one goaldoel,
247
721440
1880
die maar één doel voor ogen hebben,
zouden we iets kunnen doen
12:16
we could solveoplossen the runawayWeglopen
artificialkunstmatig intelligenceintelligentie-
248
724680
2656
aan de losgeslagen artificiële
intelligentie die nu al bestaat,
12:19
that alreadynu al existsbestaat right now,
249
727360
2056
12:21
whichwelke are these newsfeedsnewsfeeds
maximizingmaximaliseren for one thing.
250
729440
2920
namelijk die nieuwsfeeds
met maar één doel voor ogen.
Net zoals we in plaats van weg te lopen
en op andere planeten te gaan leven,
12:26
It's almostbijna like insteadin plaats daarvan of runninglopend away
to colonizekoloniseren newnieuwe planetsplaneten,
251
734080
3816
we beter kunnen zorgen
voor die waar we al zijn.
12:29
we could fixrepareren the one
that we're alreadynu al on.
252
737920
2056
12:32
(ApplauseApplaus)
253
740000
4120
(Applaus)
12:40
SolvingOplossen this problemprobleem
254
748040
1776
Dit probleem oplossen
12:41
is criticalkritisch infrastructureinfrastructuur
for solvingoplossen everyelk other problemprobleem.
255
749840
3800
is cruciaal voor het oplossen
van alle andere problemen.
12:46
There's nothing in your life
or in our collectivecollectief problemsproblemen
256
754600
4016
Alles in ons leven
en in onze collectieve problemen
vereist het vermogen om onze aandacht
te richten op waar we om geven.
12:50
that does not requirevereisen our abilityvermogen
to put our attentionaandacht where we carezorg about.
257
758640
3560
Aan het einde van ons leven
12:55
At the endeinde of our liveslevens,
258
763800
1240
12:58
all we have is our attentionaandacht and our time.
259
766240
2640
hebben we alleen
onze aandacht en onze tijd.
Waar kunnen we die het best aan besteden?
13:01
What will be time well spentdoorgebracht for oursDe onze?
260
769800
1896
13:03
Thank you.
261
771720
1216
Dank je.
13:04
(ApplauseApplaus)
262
772960
3120
(Applaus)
13:17
ChrisChris AndersonAnderson: TristanTristan, thank you.
Hey, stayverblijf up here a secsec.
263
785760
2936
Chris Anderson: Tristan,
dank je. Wacht nog even.
13:20
First of all, thank you.
264
788720
1336
Allereerst, dank je.
13:22
I know we askedgevraagd you to do this talk
on prettymooi shortkort noticekennisgeving,
265
790080
2776
Ik weet dat we je heel laat
gevraagd hebben om te spreken
en dat je een stressvolle week had
om dit samen te rapen, dus dank je.
13:24
and you've had quiteheel a stressfulstressvolle weekweek
266
792880
2216
13:27
gettingkrijgen this thing togethersamen, so thank you.
267
795120
2440
13:30
Some people listeninghet luisteren mightmacht say,
what you complainklagen about is addictionverslaving,
268
798680
3976
Sommige luisteraars zullen zeggen
dat je eigenlijk klaagt over verslaving
13:34
and all these people doing this stuffspul,
for them it's actuallywerkelijk interestinginteressant.
269
802680
3496
en voor de mensen die dit doen,
is het feitelijk interessant.
Al deze design beslissingen
13:38
All these designontwerp decisionsbeslissingen
270
806200
1256
hebben gebruikersinhoud voortgebracht
die fantastisch interessant is.
13:39
have builtgebouwd usergebruiker contentinhoud
that is fantasticallyfantastisch interestinginteressant.
271
807480
3096
13:42
The world's's werelds more interestinginteressant
than it ever has been.
272
810600
2416
De wereld is interessanter dan ooit.
Wat is daar mis mee?
13:45
What's wrongfout with that?
273
813040
1256
Tristan Harris: Ik vind
dit heel interessant.
13:46
TristanTristan HarrisHarris:
I think it's really interestinginteressant.
274
814320
2256
Als je YouTube bent, bijvoorbeeld,
13:48
One way to see this
is if you're just YouTubeYouTube, for examplevoorbeeld,
275
816600
4016
13:52
you want to always showtonen
the more interestinginteressant nextvolgende videovideo-.
276
820640
2656
wil je altijd een volgende
interessante video tonen.
Je wil die suggesties steeds beter maken.
13:55
You want to get better and better
at suggestingsuggereren that nextvolgende videovideo-,
277
823320
3016
Maar zelfs al kon je
de perfecte video voorstellen
13:58
but even if you could proposevoorstellen
the perfectperfect nextvolgende videovideo-
278
826360
2456
die iedereen zou willen bekijken,
14:00
that everyoneiedereen would want to watch,
279
828840
1656
je maakt de kijker alleen maar
verslaafd aan video's kijken.
14:02
it would just be better and better
at keepingbewaring you hookedverslaafd on the screenscherm.
280
830520
3336
Wat we missen is het uitvinden
wat onze grenzen zouden zijn.
14:05
So what's missingmissend in that equationvergelijking
281
833880
1656
14:07
is figuringuitzoeken out what
our boundariesgrenzen would be.
282
835560
2136
Je zou willen dat YouTube
iets wist over in slaap vallen.
14:09
You would want YouTubeYouTube to know
something about, say, fallingvallend asleepin slaap.
283
837720
3216
De CEO van Netflix zei pas:
14:12
The CEOCEO of NetflixNetflix recentlykort geleden said,
284
840960
1616
"Onze grootste concurrenten
zijn Facebook, YouTube en slaap."
14:14
"our biggestgrootste competitorsconcurrenten
are FacebookFacebook, YouTubeYouTube and sleepslaap."
285
842600
2736
14:17
And so what we need to recognizeherken
is that the humanmenselijk architecturearchitectuur is limitedbeperkt
286
845360
4456
Ook moeten we inzien
dat de mens niet onbegrensd is
en dat we zekere grenzen
of dimensies in ons leven hebben
14:21
and that we have certainzeker boundariesgrenzen
or dimensionsdimensies of our liveslevens
287
849840
2976
die we geëerbiedigd
en gerespecteerd willen zien.
14:24
that we want to be honoredgeëerd and respectedgerespecteerd,
288
852840
1976
Technologie kan hierbij helpen.
14:26
and technologytechnologie could help do that.
289
854840
1816
14:28
(ApplauseApplaus)
290
856680
2616
(Applaus)
14:31
CACA: I mean, could you make the casegeval
291
859320
1696
CA: Zou je kunnen zeggen
14:33
that partdeel of the problemprobleem here is that
we'vewij hebben got a naNBïveve modelmodel- of humanmenselijk naturenatuur?
292
861040
6056
dat een deel van het probleem hier is
dat we een naïeve menselijke aard hebben?
Veel hiervan is gerechtvaardigd
omdat we dit zelf willen
14:39
So much of this is justifiedgerechtvaardigd
in termstermen of humanmenselijk preferencevoorkeur,
293
867120
2736
en die algoritmes
doen juist geweldig hun werk
14:41
where we'vewij hebben got these algorithmsalgoritmen
that do an amazingverbazingwekkend jobbaan
294
869880
2616
in het bedienen van die voorkeur.
14:44
of optimizingoptimaliseren for humanmenselijk preferencevoorkeur,
295
872520
1696
Maar welke voorkeur?
14:46
but whichwelke preferencevoorkeur?
296
874240
1336
14:47
There's the preferencesvoorkeuren
of things that we really carezorg about
297
875600
3496
We hebben voorkeuren omtrent dingen
waarom we echt geven
als we erover nadenken
14:51
when we think about them
298
879120
1376
14:52
versusversus the preferencesvoorkeuren
of what we just instinctivelyinstinctief clickKlik on.
299
880520
3056
versus onze instinctieve voorkeuren.
14:55
If we could implantimplantaat that more nuancedgenuanceerd
viewuitzicht of humanmenselijk naturenatuur in everyelk designontwerp,
300
883600
4656
Als we die nuances in de menselijke aard
in de ontwerpen konden implementeren,
15:00
would that be a stepstap forwardvooruit?
301
888280
1456
zou dat een stap vooruit zijn?
15:01
THTH: AbsolutelyAbsoluut. I mean, I think right now
302
889760
1976
TH: Absoluut.
Nu is het alsof onze technologie
eigenlijk alleen aan ons oerbrein vraagt:
15:03
it's as if all of our technologytechnologie
is basicallyeigenlijk only askingvragen our lizardhagedis brainhersenen
303
891760
3496
hoe hou ik je impulsief bezig
met het eerstvolgende kleine dingetje.
15:07
what's the bestbeste way
to just impulsivelyimpulsief get you to do
304
895280
2496
15:09
the nextvolgende tiniestkleinste thing with your time,
305
897800
2136
In plaats van
15:11
insteadin plaats daarvan of askingvragen you in your life
306
899960
1656
waar kun je in jouw leven
nu het best tijd aan besteden?
15:13
what we would be mostmeest
time well spentdoorgebracht for you?
307
901640
2176
Wat zou de perfecte tijdlijn zijn,
15:15
What would be the perfectperfect timelinetijdlijn
that mightmacht includeomvatten something laterlater,
308
903840
3296
waar ben je op dit moment bij gebaat,
tijdens je laatste dag bij TED.
15:19
would be time well spentdoorgebracht for you
here at TEDTED in your last day here?
309
907160
3176
CA: Dus als Facebook
en Google ons zouden vragen:
15:22
CACA: So if FacebookFacebook and GoogleGoogle
and everyoneiedereen said to us first up,
310
910360
2976
"Hey, wil je dat we je
beschouwende brein verbeteren
15:25
"Hey, would you like us
to optimizeoptimaliseren for your reflectivereflecterende brainhersenen
311
913360
2896
of je oerbrein? Kies maar."
15:28
or your lizardhagedis brainhersenen? You chooseKiezen."
312
916280
1656
15:29
THTH: Right. That would be one way. Yes.
313
917960
2080
TH: Precies. Dat zou een manier zijn, ja.
15:34
CACA: You said persuadabilitypersuadability,
that's an interestinginteressant wordwoord to me
314
922358
2858
CA: Je zei overreedbaarheid,
dat is een interessant woord,
15:37
because to me there's
two differentverschillend typestypes of persuadabilitypersuadability.
315
925240
2856
want volgens mij zijn er
twee soorten overreedbaarheid.
Er is de overreedbaarheid
die we nu toepassen,
15:40
There's the persuadabilitypersuadability
that we're tryingproberen right now
316
928120
2536
van redeneren, denken en debatteren.
15:42
of reasonreden and thinkinghet denken
and makingmaking an argumentargument,
317
930680
2176
Maar ik denk dat je bijna
over een andere soort praat,
15:44
but I think you're almostbijna
talkingpratend about a differentverschillend kindsoort,
318
932880
2696
een meer instinctieve soort,
15:47
a more visceralviscerale typetype of persuadabilitypersuadability,
319
935590
1906
van overreed worden
zonder te weten dat je nadenkt.
15:49
of beingwezen persuadedovergehaald withoutzonder
even knowingwetende that you're thinkinghet denken.
320
937520
2896
TH: Exact. De reden dat ik zo
veel om dit probleem geef,
15:52
THTH: ExactlyPrecies. The reasonreden
I carezorg about this problemprobleem so much is
321
940440
2856
is dat ik studeerde in het
Persuasive Technology Lab op Stanford
15:55
I studiedbestudeerd at a lablaboratorium calledriep
the PersuasiveOvertuigend TechnologyTechnologie LabLab at StanfordStanford
322
943320
3176
dat studenten exact
deze technieken leerde.
15:58
that taughtonderwezen people
exactlyprecies these techniquestechnieken.
323
946520
2096
Er zijn conferenties en workshops
die mensen al deze listige manieren leren
16:00
There's conferencesconferenties and workshopsworkshops
that teachonderwijzen people all these covertCovert waysmanieren
324
948640
3456
om de aandacht van mensen te krijgen
en hun leven te manipuleren.
16:04
of gettingkrijgen people'sPeople's attentionaandacht
and orchestratingorkestreren people'sPeople's liveslevens.
325
952120
2976
En het is omdat de meesten
niet weten dat dat bestaat
16:07
And it's because mostmeest people
don't know that that existsbestaat
326
955120
2656
dat deze conversatie zo belangrijk is.
16:09
that this conversationgesprek is so importantbelangrijk.
327
957800
1896
16:11
CACA: TristanTristan, you and I, we bothbeide know
so manyveel people from all these companiesbedrijven.
328
959720
3776
CA: Tristan, jij en ik kennen beiden
zo veel mensen van deze bedrijven.
16:15
There are actuallywerkelijk manyveel here in the roomkamer,
329
963520
1976
Er zijn er zelfs veel hier aanwezig.
16:17
and I don't know about you,
but my experienceervaring of them
330
965520
2477
Ik weet niet wat jij denkt,
maar mijn ervaring is
dat er geen tekort is aan goede wil.
16:20
is that there is
no shortagetekort of good intentvoornemen.
331
968021
2075
Mensen willen een betere wereld.
16:22
People want a better worldwereld-.
332
970120
2176
Ze zijn eigenlijk - ze willen het echt.
16:24
They are actuallywerkelijk -- they really want it.
333
972320
3520
16:28
And I don't think anything you're sayinggezegde
is that these are evilonheil people.
334
976320
4176
Ik denk niet dat je wil zeggen
dat dit kwaadwillige mensen zijn.
16:32
It's a systemsysteem where there's
these unintendedonbedoelde consequencesgevolgen
335
980520
3696
Het is een systeem
dat ongewilde consequenties heeft
die uit de hand zijn gelopen.
16:36
that have really got out of controlcontrole --
336
984240
1856
TH: Ja, de strijd om de aandacht.
16:38
THTH: Of this racerace for attentionaandacht.
337
986120
1496
Het is de klassieke race naar de bodem
wanneer je aandacht wil hebben
16:39
It's the classicklassiek racerace to the bottombodem
when you have to get attentionaandacht,
338
987640
3176
en het is zo gespannen.
16:42
and it's so tensegespannen.
339
990840
1216
De enige manier om meer te krijgen
is lager op de hersenstam gaan,
16:44
The only way to get more
is to go lowerlager on the brainhersenen stemstam,
340
992080
2736
lager naar woede, lager naar emotie,
16:46
to go lowerlager into outrageverontwaardiging,
to go lowerlager into emotionemotie,
341
994840
2416
16:49
to go lowerlager into the lizardhagedis brainhersenen.
342
997280
1696
lager in het oerbrein.
16:51
CACA: Well, thank you so much for helpinghelpen us
all get a little bitbeetje wiserwijzer about this.
343
999000
3816
CA: Heel erg bedankt om ons
hierover iets wijzer te maken.
Tristan Harris, dank je.
TH: Dank je.
16:54
TristanTristan HarrisHarris, thank you.
THTH: Thank you very much.
344
1002840
2416
16:57
(ApplauseApplaus)
345
1005280
2240
(Applaus)
Translated by Maxime Van Damme
Reviewed by Peter Van de Ven

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com