ABOUT THE SPEAKER
Sebastian Deterding - Designer
Sebastian Deterding is an interface designer who thinks deeply about persuasive and gameful design.

Why you should listen

Sebastian Deterding is a designer and researcher working on user experience, video games, persuasive technology and gameful design. He is interested in how code shapes conduct -- and how to put that knowledge into practice. He is a PhD researcher in Communication at the Graduate School of the Research Center for Media and Communication, Hamburg University. He is also an affiliated researcher at the Hans Bredow Institute for Media Research in Hamburg, and works as an independent user experience designer.

More profile about the speaker
Sebastian Deterding | Speaker | TED.com
TEDxHogeschoolUtrecht

Sebastian Deterding: What your designs say about you

Sebastian Deterding : Ce que vous conceptions disent de vous

Filmed:
667,868 views

Qu'est-ce que votre chaise dit de vos valeurs ? Le concepteur Sebastian Deterding montre comment nos visions de moralité et de ce qu'est la belle vie se reflètent dans la conception des objets qui nous entourent.
- Designer
Sebastian Deterding is an interface designer who thinks deeply about persuasive and gameful design. Full bio

Double-click the English transcript below to play the video.

00:16
We are todayaujourd'hui talkingparlant about moralmoral persuasionpersuasion.
0
392
2651
Aujourd'hui nous parlons de persuasion morale.
00:18
What is moralmoral and immoralimmoral
1
3043
1549
Qu'est-ce qui est moral et immoral
00:20
in tryingen essayant to changechangement people'sles gens behaviorscomportements
2
4592
2416
dans le fait de changer les comportements des gens
00:22
by usingen utilisant technologyLa technologie and usingen utilisant designconception?
3
7008
2351
en ayant recours à la technologie et au design ?
00:25
And I don't know what you expectattendre,
4
9359
1852
Et je ne sais pas à quoi vous vous attendez,
00:27
but when I was thinkingen pensant about that issueproblème,
5
11211
2048
mais pendant que je réfléchissais à la question,
00:29
I earlyde bonne heure on realizedréalisé
6
13259
1233
je me suis vite rendu compte
00:30
what I'm not ablecapable to give you are answersréponses.
7
14492
3334
que je ne suis pas en mesure de vous apporter des réponses.
00:33
I'm not ablecapable to tell you what is moralmoral or immoralimmoral
8
17826
2316
Je ne suis pas capable de vous dire ce qui est moral et immoral
00:36
because we're livingvivant in a pluralistpluraliste societysociété.
9
20142
2916
parce que nous vivons dans une société pluraliste.
00:38
My valuesvaleurs can be radicallyradicalement differentdifférent
10
23058
2633
Mes valeurs peuvent être radicalement différentes
00:41
from your valuesvaleurs.
11
25691
1884
de vos valeurs.
00:43
WhichQui meansveux dire that what I considerconsidérer moralmoral or immoralimmoral basedbasé on that
12
27575
3419
Ce qui signifie que ce que je considère comme moral ou immoral d'après ça
00:46
mightpourrait not necessarilynécessairement be what you considerconsidérer moralmoral or immoralimmoral.
13
30994
3731
ne serait pas forcément ce que vous considdérez moral ou immoral.
00:50
But I alsoaussi realizedréalisé that there is one thing that I could give you.
14
34725
2866
Mais je me suis aussi rendu compte qu'il y a une chose que je pouvais vous donner.
00:53
And that is what this guy behindderrière me gavea donné the worldmonde --
15
37591
3059
Et c'est ce que ce type derrière moi a donné au monde,
00:56
SocratesSocrates.
16
40650
911
Socrate.
00:57
It is questionsdes questions.
17
41561
1447
Ce sont des questions.
00:58
What I can do and what I would like to do with you
18
43008
2625
Ce que je peux faire et ce que je souhaite faire avec vous
01:01
is give you, like that initialinitiale questionquestion,
19
45633
2020
c'est vous donner, comme cette question de départ,
01:03
a setensemble of questionsdes questions
20
47653
1315
un ensemble de questions
01:04
to figurefigure out for yourselftoi même,
21
48968
2033
pour que vous trouviez par vous-mêmes
01:06
layercouche by layercouche,
22
51001
1434
couche après couche,
01:08
like peelingpeeling an onionoignon,
23
52435
2217
comme quand on pèle un oignon
01:10
gettingobtenir at the corecoeur of what you believe
24
54652
2216
pour arriver au coeur de ce en quoi vous croyez
01:12
is moralmoral or immoralimmoral persuasionpersuasion.
25
56868
3332
être la persuasion morale ou immorale.
01:16
And I'd like to do that with a couplecouple of examplesexemples
26
60200
2868
Et j'aimerais le faire avec deux ou trois exemples
01:18
of technologiesles technologies where people have used gameJeu elementséléments
27
63068
2983
de technologies où les gens ont utilisé des éléments de jeux
01:21
to get people to do things.
28
66051
3317
pour amener les gens à faire des choses.
01:25
So it's a first very simplesimple, a very obviousévident questionquestion
29
69368
3466
J'aimerais donc vous soumettre
01:28
I would like to give you:
30
72834
1533
une première question très simple et très évidente :
01:30
What are your intentionsintentions if you are designingconception something?
31
74367
2818
Quelles sont vos intentions si vous concevez quelque chose ?
01:33
And obviouslyévidemment intentionsintentions are not the only thing,
32
77185
3233
Et évidemment, il n'y a pas que les intentions manifestes,
01:36
so here is anotherun autre exampleExemple for one of these applicationsapplications.
33
80418
3383
alors voici un autre exemple d'une de ces applications.
01:39
There are a couplecouple of these kindssortes of eco-dashboardsEco-tableaux de bord right now --
34
83801
2899
Il y a deux ou trois de ces tableaux de bord écologiques en ce moment,
01:42
so dashboardstableaux de bord builtconstruit into carsdes voitures
35
86700
1901
des tableaux de bord installés dans des voitures
01:44
whichlequel try to motivatemotiver you to driveconduire more fuelcarburant efficientlyefficacement.
36
88601
2733
qui essayent de vous motiver à adapter votre conduite pour économiser du carburant.
01:47
This here is Nissan'sNissan MyLeafMyLeaf,
37
91334
1617
Voici le Nissan MyLeaf,
01:48
where your drivingau volant behaviorcomportement is comparedpar rapport
38
92951
2297
où votre style de conduite est comparé
01:51
with the drivingau volant behaviorcomportement of other people,
39
95248
1719
à celui d'autres gens,
01:52
so you can competerivaliser for who drivesdisques around
40
96967
1953
pour que vous puissiez rivaliser et être celui qui a
01:54
the mostles plus fuelcarburant efficientlyefficacement.
41
98920
1398
la conduite la plus économe en carburant.
01:56
And these things are very effectiveefficace, it turnsse tourne out,
42
100318
2266
Et ces trucs-là s'avèrent très efficaces,
01:58
so effectiveefficace that they motivatemotiver people
43
102584
2617
si efficaces qu'ils motivent les gens
02:01
to engageengager in unsafenon sécurisé drivingau volant behaviorscomportements --
44
105201
2082
à adopter des styles de conduite à risque,
02:03
like not stoppingarrêt on a redrouge headlightphare.
45
107283
1742
comme de ne pas s'arrêter à un feu rouge.
02:04
Because that way you have to stop and restartredémarrer the enginemoteur,
46
109025
2221
Parce que si vous le faites, vous devez arrêter et redémarrer le moteur,
02:07
and that would use quiteassez some fuelcarburant, wouldn'tne serait pas it?
47
111246
3920
et ça consommerait pas mal de carburant, non ?
02:11
So despitemalgré this beingétant a very well-intendedbien intentionnés applicationapplication,
48
115166
4345
Alors même si c'est une application très bien intentionnée,
02:15
obviouslyévidemment there was a sidecôté effecteffet of that.
49
119511
2580
elle a manifestement un effet secondaire.
02:17
And here'svoici anotherun autre exampleExemple for one of these sidecôté effectseffets.
50
122091
2149
Et voici un autre exemple de ces effets secondaires.
02:20
CommendableLouable:
51
124240
1401
Recommandable :
02:21
a sitesite that allowspermet parentsParents to give theirleur kidsdes gamins little badgesbadges
52
125641
3649
un site qui permet aux parents de donner à leurs enfants de petits badges
02:25
for doing the things that parentsParents want theirleur kidsdes gamins to do --
53
129290
2200
pour avoir fait les choses que les parents veulent que leurs enfants fassent,
02:27
like tyingvente liée theirleur shoeschaussures.
54
131490
1335
comme de lacer leurs chaussures.
02:28
And at first that soundsdes sons very niceagréable,
55
132825
2354
Et de prime abord, ça a l'air très sympa,
02:31
very benignbénin, well intendedprévu.
56
135179
1961
très innocent et plein de bonnes intentions.
02:33
But it turnsse tourne out, if you look into researchrecherche on people'sles gens mindsetmentalité,
57
137140
3884
Mais il s'avère, si vous examinez les recherches sur l'état d'esprit des gens,
02:36
that caringsoins about outcomesrésultats,
58
141024
2035
que se soucier des résultats,
02:38
caringsoins about publicpublic recognitionreconnaissance,
59
143059
1797
se soucier de la reconnaissance publique,
02:40
caringsoins about these kindssortes of publicpublic tokensjetons of recognitionreconnaissance
60
144856
3385
se soucier de ce genre de marques de reconnaissance publique
02:44
is not necessarilynécessairement very helpfulutile
61
148241
2518
n'est pas forcément très utile
02:46
for your long-termlong terme psychologicalpsychologique well-beingbien-être.
62
150759
2197
pour votre bien-être psychologique à long terme.
02:48
It's better if you carese soucier about learningapprentissage something.
63
152956
2834
C'est mieux si vous vous souciez d'apprendre quelque chose.
02:51
It's better when you carese soucier about yourselftoi même
64
155790
1833
C'est mieux quand vous vous souciez de vous-même
02:53
than how you appearapparaître in frontde face of other people.
65
157623
2986
plutôt que de l'apparence que vous donnez aux autres.
02:56
So that kindgentil of motivationalmotivationnelle tooloutil that is used
66
160609
3181
Ce genre d'outil destiné à vous motiver qu'on utilise
02:59
actuallyréellement in and of itselfse
67
163790
1784
en fait pour lui-même
03:01
has a long-termlong terme sidecôté effecteffet
68
165574
2184
a un effet secondaire à long terme
03:03
in that everychaque time we use a technologyLa technologie
69
167758
1717
dans la mesure où chaque fois qu'une technologie
03:05
that usesles usages something like publicpublic recognitionreconnaissance or statusstatut,
70
169475
3315
qui utilise quelque chose comme la reconnaissance ou le statut publics,
03:08
we're actuallyréellement positivelypositivement endorsingfaisant siennes this
71
172790
2400
nous l'entérinons en fait positivement
03:11
as a good and a normalnormal thing to carese soucier about --
72
175190
3434
comme quelque chose de bon et de normal dont se soucier,
03:14
that way, possiblypeut-être havingayant a detrimentalnuisible effecteffet
73
178624
2685
et de cette façon, on a potentiellement un effet préjudiciable
03:17
on the long-termlong terme psychologicalpsychologique well-beingbien-être of ourselvesnous-mêmes as a cultureCulture.
74
181309
4082
au bien-être psychologique à long terme pour nous-mêmes en tant que culture.
03:21
So that's a secondseconde, very obviousévident questionquestion:
75
185391
2468
Et donc, c'est une deuxième question évidente :
03:23
What are the effectseffets of what you're doing?
76
187859
2632
Quels sont les effets de ce que vous faites ?
03:26
The effectseffets that you're havingayant with the devicedispositif,
77
190491
2105
Les effets que vous avez avec le dispositif,
03:28
like lessMoins fuelcarburant,
78
192596
1417
comme l'économie de carburant
03:29
as well as the effectseffets of the actualréel toolsoutils you're usingen utilisant
79
194013
2783
de même que les effets des outils mêmes que vous utilisez
03:32
to get people to do things --
80
196796
2032
pour amener les gens à faire des choses -
03:34
publicpublic recognitionreconnaissance.
81
198828
1583
la reconnaissance publique.
03:36
Now is that all -- intentionintention, effecteffet?
82
200411
2950
C'est tout ? L'intention, l'effet ?
03:39
Well there are some technologiesles technologies
83
203361
1520
Hé bien il y a des technologies
03:40
whichlequel obviouslyévidemment combinecombiner bothtous les deux.
84
204881
1734
qui combine manifestement les deux.
03:42
BothTous les deux good long-termlong terme and short-termcourt terme effectseffets
85
206615
2365
Les effets à court terme et à long terme
03:44
and a positivepositif intentionintention like FredFred Stutzman'sDe Stutzman FreedomLiberté,
86
208980
3052
et une intention positive comme la liberté de Fred Stutzman,
03:47
where the wholeentier pointpoint of that applicationapplication
87
212032
1559
où le but de cette application
03:49
is, well, we're usuallyd'habitude so bombardedbombardé
88
213591
3271
est, en fait, nous sommes généralement tellement bombardés
03:52
with callsappels and requestsdemande by other people,
89
216862
1201
d'appels et de demandes d'autres personnes,
03:53
with this devicedispositif you can shutfermer off the InternetInternet connectivityconnectivité
90
218063
2616
avec ce dispositif, vous pouvez fermer la connectivité Internet
03:56
of your PCPC of choicechoix for a presetpréréglé amountmontant of time
91
220679
3384
du PC de votre choix pour une durée prédéfinie
03:59
to actuallyréellement get some work doneterminé.
92
224063
2200
pour pouvoir vraiment travailler.
04:02
And I think mostles plus of us will agreese mettre d'accord,
93
226263
1333
Et je pense que la plupart d'entre nous conviendront,
04:03
well that's something well intendedprévu
94
227596
1449
que c'est un truc bien intentionné
04:04
and alsoaussi has good consequencesconséquences.
95
229045
2117
et qui a également de bonnes conséquences.
04:07
In the wordsmots of MichelMichel FoucaultFoucault,
96
231162
2117
Pour reprendre les mots de Michel Foucault,
04:09
"It is a technologyLa technologie of the selfsoi."
97
233279
2217
« C'est une technologie du soi ».
04:11
It is a technologyLa technologie that empowershabilités the individualindividuel
98
235496
2351
C'est une technologie qui permet à l'individu
04:13
to determinedéterminer its ownposséder life coursecours,
99
237847
2348
de déterminer sa propre trajectoire de vie,
04:16
to shapeforme itselfse.
100
240195
1884
de se façonner.
04:17
But the problemproblème is,
101
242079
1116
Mais le problème c'est,
04:19
as FoucaultFoucault pointspoints out,
102
243195
1801
comme Foucault le souligne ,
04:20
that everychaque technologyLa technologie of the selfsoi
103
244996
1799
que chaque technologie du soi
04:22
has a technologyLa technologie of dominationdomination as its flipflip sidecôté.
104
246795
3167
a pour revers une technologie de domination.
04:25
As you see in today'saujourd'hui modernmoderne liberallibéral democraciesdémocraties,
105
249962
4334
Comme on le voit dans les démocraties libérales modernes d'aujourd'hui,
04:30
the societysociété, the stateEtat,
106
254296
2119
la société, l'État,
04:32
not only allowspermet us to determinedéterminer our selfsoi, to shapeforme our selfsoi,
107
256415
4379
non seulement nous permet de déterminer notre moi, de le façonner,
04:36
it alsoaussi demandsdemandes it of us.
108
260794
1818
elle l'exige aussi de nous.
04:38
It demandsdemandes that we optimizeoptimiser ourselvesnous-mêmes,
109
262612
2334
Elle exige que nous nous auto-optimisions
04:40
that we controlcontrôle ourselvesnous-mêmes,
110
264946
1550
que nous nous contrôlions nous-mêmes,
04:42
that we self-manages’autogérer continuouslycontinuellement
111
266496
2449
que nous nous gérions en permanence
04:44
because that's the only way
112
268945
1801
parce que c'est la seule façon
04:46
in whichlequel suchtel a liberallibéral societysociété workstravaux.
113
270746
2715
de fonctionner pour une telle société libérale.
04:49
These technologiesles technologies want us to stayrester in the gameJeu
114
273461
4293
Ces technologies veulent que nous restions dans le jeu
04:53
that societysociété has devisedmis au point for us.
115
277754
2642
que la société a mis au point pour nous.
04:56
They want us to fiten forme in even better.
116
280396
2465
Elles veulent que nous y adaptions mieux encore.
04:58
They want us to optimizeoptimiser ourselvesnous-mêmes to fiten forme in.
117
282861
2859
Elles veulent que nous nous optimisions pour nous y adapter.
05:01
Now I don't say that is necessarilynécessairement a badmal thing.
118
285720
3530
Je ne dis pas que c'est forcément un mal.
05:05
I just think that this exampleExemple
119
289250
2633
Je pense simplement que cet exemple
05:07
pointspoints us to a generalgénéral realizationréalisation,
120
291883
2316
nous indique une prise de conscience générale,
05:10
and that is no mattermatière what technologyLa technologie or designconception you look at,
121
294199
3719
que peu importe quelle technologie ou quelle conception on considère,
05:13
even something we considerconsidérer as well intendedprévu and as good in its effectseffets --
122
297918
5066
même ce que nous considérons ainsi bien intentionné et aussi bon dans ses effets,
05:18
like Stutzman'sDe Stutzman FreedomLiberté --
123
302984
1233
comme la liberté de Stutzman,
05:20
comesvient with certaincertain valuesvaleurs embeddedintégré in it.
124
304217
2700
comporte certaines valeurs.
05:22
And we can questionquestion these valuesvaleurs.
125
306917
1683
Et nous pouvons nous interroger sur ces valeurs.
05:24
We can questionquestion: Is it a good thing
126
308600
1931
Nous pouvons nous demander : est-ce une bonne chose
05:26
that all of us continuouslycontinuellement self-optimizeoptimisation automatique ourselvesnous-mêmes
127
310531
3883
que nous nous auto-optimisions en permanence
05:30
to fiten forme better into that societysociété?
128
314414
1902
pour nous adapter mieux à cette société ?
05:32
Or to give you anotherun autre exampleExemple,
129
316316
1499
Ou pour vous donner un autre exemple,
05:33
what about a piecepièce of persuasivepersuasive technologyLa technologie
130
317815
1884
que pensez-vous d'une technologie persuasive
05:35
that convincesconvainc MuslimMusulmane womenfemmes to wearporter theirleur headscarvesfoulard?
131
319699
3700
qui convainc les femmes musulmanes de porter leur foulard ?
05:39
Is that a good or a badmal technologyLa technologie
132
323399
2284
Est-ce une bonne ou une mauvaise technologie
05:41
in its intentionsintentions or in its effectseffets?
133
325683
2516
dans ses intentions ou ses effets ?
05:44
Well that basicallyen gros dependsdépend
134
328199
1400
Hé bien ça dépend essentiellement
05:45
on the kindgentil of valuesvaleurs that you bringapporter to bearours
135
329599
2684
du type de valeurs que vous apportez
05:48
to make these kindssortes of judgmentsjugements.
136
332283
2116
pour rendre ce genre de jugements.
05:50
So that's a thirdtroisième questionquestion:
137
334399
2034
Voilà une troisième question :
05:52
What valuesvaleurs do you use to judgejuge?
138
336433
1552
Quelles valeurs utilisez-vous pour juger ?
05:53
And speakingParlant of valuesvaleurs,
139
337985
1849
Et en parlant de valeurs,
05:55
I've noticedremarqué that in the discussiondiscussion about moralmoral persuasionpersuasion onlineen ligne,
140
339834
3286
j'ai remarqué que dans le débat en ligne sur la persuasion morale,
05:59
and when I'm talkingparlant with people,
141
343120
1798
et quand je parle avec les gens,
06:00
more oftensouvent than not there is a weirdbizarre biasbiais.
142
344918
2789
très souvent, il y a un préjugé bizarre.
06:03
And that biasbiais is that we're askingdemandant,
143
347707
3260
Et ce préjugé est que nous demandons,
06:06
is this or that "still" ethicaléthique?
144
350967
3117
est-ce que ceci ou cela est « toujours» éthique ?
06:09
Is it "still" permissibleadmissible?
145
354084
2334
C'est « toujours » acceptable ?
06:12
We're askingdemandant things like,
146
356418
1268
Nous demandons des choses comme,
06:13
Is this OxfamOxfam donationdon formforme --
147
357686
2266
Est-ce que ce formulaire de don à Oxfam,
06:15
where the regularordinaire monthlymensuel donationdon is the presetpréréglé defaultpar défaut
148
359952
3016
où le don mensuel régulier est la valeur prédéfinie par défaut
06:18
and people, maybe withoutsans pour autant intendingavec l’intention it,
149
362968
2084
et que les gens, peut-être sans que ce soit voulu,
06:20
are that way encouragedencouragé or nudgedpoussa
150
365052
2815
sont ainsi encouragés ou poussés
06:23
into givingdonnant a regularordinaire donationdon insteadau lieu of a one-timenon récurrents donationdon --
151
367867
2397
à faire un don régulièrement au lieu d'un don unique,
06:26
is that still permissibleadmissible?
152
370264
1366
est-ce encore acceptable ?
06:27
Is it still ethicaléthique?
153
371630
1386
Est-ce encore éthique ?
06:28
We're fishingpêche at the lowfaible endfin.
154
373016
1684
On prend les choses par le mauvais bout.
06:30
But in factfait, that questionquestion
155
374700
1877
Mais en fait, cette question
06:32
"Is it still ethicaléthique?"
156
376577
910
« Est-ce encore éthique? »
06:33
is just one way of looking at ethicsdéontologie.
157
377487
2330
n'est qu'une façon de voir l'éthique.
06:35
Because if you look at the beginningdébut of ethicsdéontologie
158
379817
2591
Parce que si vous regardez le début de l'éthique
06:38
in WesternWestern cultureCulture,
159
382408
2225
dans la culture occidentale,
06:40
you see a very differentdifférent ideaidée
160
384633
2165
vous voyez une idée très différente
06:42
of what ethicsdéontologie alsoaussi could be.
161
386798
1536
de ce que l'éthique pourrait aussi bien être.
06:44
For AristotleAristote, ethicsdéontologie was not about the questionquestion,
162
388334
4098
Pour Aristote, l'éthique ne concernait pas la question,
06:48
is that still good, or is it badmal?
163
392432
2485
est-ce toujours bien ou est-ce mal ?
06:50
EthicsDéontologie was about the questionquestion of how to livevivre life well.
164
394917
3450
L'éthique concernait la question de savoir comment vivre bien.
06:54
And he put that in the wordmot "aretearete,"
165
398367
2162
Et il a mis cette notion dans le mot « arete»
06:56
whichlequel we, from the [AncientAntique GreekGrec], translateTraduire as "virtuevertu."
166
400529
2921
que nous traduisons à partir du grec ancien, par « vertu. »
06:59
But really it meansveux dire excellenceExcellence.
167
403450
1625
Mais il signifie en fait excellence.
07:00
It meansveux dire livingvivant up to your ownposséder fullplein potentialpotentiel
168
405075
3999
Cela signifie vivre votre plein potentiel
07:04
as a humanHumain beingétant.
169
409074
2228
d'être humain.
07:07
And that is an ideaidée
170
411302
1184
Et c'est une idée,
07:08
that, I think, that PaulPaul RichardRichard BuchananBuchanan nicelybien put in a recentrécent essayessai
171
412486
3506
je crois, que Paul Richard Buchanan a joliment exprimée dans un essai récent
07:11
where he said, "ProductsProduits are vividvives argumentsarguments
172
415992
2451
lorsqu'il a dit, « Les produits sont des arguments vifs
07:14
about how we should livevivre our livesvies."
173
418443
2098
sur la façon dont nous devons vivre nos vies. »
07:16
Our designsconceptions are not ethicaléthique or unethicalcontraire à l’éthique
174
420541
2886
Nos modèles ne sont pas éthiques ou contraire à l'éthique
07:19
in that they're usingen utilisant ethicaléthique or unethicalcontraire à l’éthique meansveux dire of persuadingpersuader us.
175
423427
4614
dans la mesure où ils utilisent des moyens éthiques ou contraire à l'éthique pour nous persuader.
07:23
They have a moralmoral componentcomposant
176
428041
1567
Ils ont une composante morale
07:25
just in the kindgentil of visionvision and the aspirationaspiration of the good life
177
429608
4089
seulement dans le genre de vision et d'aspiration à la belle vie
07:29
that they presentprésent to us.
178
433697
2696
qu'ils nous présentent.
07:32
And if you look into the designedconçu environmentenvironnement around us
179
436393
3315
Et si vous examinez l'environnement conçu autour de nous
07:35
with that kindgentil of lenslentille,
180
439708
1196
à travers ce filtre,
07:36
askingdemandant, "What is the visionvision of the good life
181
440904
2221
en vous demandant, « Quelle est la vision de la belle vie
07:39
that our productsdes produits, our designconception, presentprésent to us?",
182
443125
3018
que nos produits, notre conception, nous présentent? «,
07:42
then you oftensouvent get the shiversfrissons,
183
446143
2300
alors ça vous donne souvent des frissons,
07:44
because of how little we expectattendre of eachchaque other,
184
448443
2352
en raison du peu que nous attendons l'un de l'autre,
07:46
of how little we actuallyréellement seemsembler to expectattendre
185
450795
2718
du peu que nous semblons réellement attendre
07:49
of our life and what the good life looksregards like.
186
453513
3583
de notre vie et de ce à quoi ressemble la belle vie.
07:52
So that's the fourthQuatrième questionquestion I'd like to leavelaisser you with:
187
457096
3801
Donc, voilà la quatrième question, sur laquelle je voudrais vous laisser :
07:56
What visionvision of the good life
188
460897
1483
Quelle vision de la belle vie
07:58
do your designsconceptions conveytransmettre?
189
462380
3665
transparaissent dans vos conceptions ?
08:01
And speakingParlant of designconception,
190
466045
1102
Et en parlant de conception,
08:03
you noticeremarquer that I alreadydéjà broadenedélargi the discussiondiscussion.
191
467147
3732
vous remarquez que j'ai déjà élargi la discussion.
08:06
Because it's not just persuasivepersuasive technologyLa technologie that we're talkingparlant about here,
192
470879
4735
Parce que nous ne parlons pas que de technologie persuasive ici,
08:11
it's any piecepièce of designconception that we put out here in the worldmonde.
193
475614
4200
mais de toute conception que nous apportons dans le monde.
08:15
I don't know whetherqu'il s'agisse you know
194
479814
1382
Je ne sais pas si vous connaissez
08:17
the great communicationla communication researcherchercheur PaulPaul WatzlawickWatzlawick
195
481196
1668
le grand chercheur en communication Paul Watzlawick
08:18
who, back in the '60s, madefabriqué the argumentargument
196
482864
1848
qui, dans les années 1960, a soutenu que
08:20
we cannotne peux pas not communicatecommuniquer.
197
484712
1335
nous ne pouvons pas ne pas communiquer.
08:21
Even if we choosechoisir to be silentsilencieux,
198
486047
2533
Même si nous choisissons de garder le silence,
08:24
we chosechoisi to be silentsilencieux. We're communicatingcommunicant something by choosingchoisir to be silentsilencieux.
199
488580
4397
nous avons choisi de garder le silence. Nous communiquons quelque chose en choisissant de garder le silence.
08:28
And in the sameMême way that we cannotne peux pas not communicatecommuniquer,
200
492977
2604
Et de la même manière que nous ne pouvons pas ne pas communiquer,
08:31
we cannotne peux pas not persuadepersuader.
201
495581
1517
nous ne pouvons pas ne pas convaincre.
08:32
WhateverQuelle que soit we do or refrains’abstenir from doing,
202
497098
2299
Tout ce que nous faisons ou nous abstenons de faire,
08:35
whateverpeu importe we put out there as a piecepièce of designconception
203
499397
2866
tout ce que nous apportons comme morceau de conception
08:38
into the worldmonde
204
502263
1267
dans le monde
08:39
has a persuasivepersuasive componentcomposant.
205
503530
2284
a une composante persuasive.
08:41
It triesessais to affectaffecter people.
206
505814
2116
Il essaie d'affecter les gens.
08:43
It putsmet a certaincertain visionvision of the good life
207
507930
2184
Il met en place une certaine vision de la belle vie
08:46
out there in frontde face of us.
208
510114
1337
là devant nous.
08:47
WhichQui is what Peter-PaulPeter-Paul VerbeekVerbeek,
209
511451
1986
Et c'est ce que Peter-Paul Verbeek,
08:49
the DutchNéerlandais philosopherphilosophe of technologyLa technologie, saysdit.
210
513437
2146
le philosophe néerlandais de la technologie, dit.
08:51
No mattermatière whetherqu'il s'agisse we as designersconcepteurs intendintention it or not,
211
515583
4566
Peu importe que nous en tant que concepteurs en ayons l'intention ou pas,
08:56
we materializese matérialiser moralitymoralité.
212
520149
1764
nous matérialisons la moralité.
08:57
We make certaincertain things harderPlus fort and easierPlus facile to do.
213
521913
3051
Nous rendons certaines choses plus difficiles et plus faciles à faire.
09:00
We organizeorganiser the existenceexistence of people.
214
524964
1950
Nous organisons l'existence des gens.
09:02
We put a certaincertain visionvision of what good or badmal
215
526914
2750
Nous mettons une certaine vision de ce qui est bon ou mauvais
09:05
or normalnormal or usualhabituel is in frontde face of people
216
529664
3368
ou normal ou habituel devant les gens
09:08
by everything we put out there in the worldmonde.
217
533032
2549
par tout ce que nous mettons dans le monde.
09:11
Even something as innocuousinnofensif as a setensemble of schoolécole chairschaises
218
535581
3516
Même quelque chose d'aussi anodin que l'arrangement des chaises à l'école
09:14
is a persuasivepersuasive technologyLa technologie.
219
539097
1434
est une technologie persuasive.
09:16
Because it presentsprésente and materializesse concrétise
220
540531
2816
Parce qu'il présente et matérialise
09:19
a certaincertain visionvision of the good life --
221
543347
1934
une certaine vision de la belle vie,
09:21
the good life in whichlequel teachingenseignement and learningapprentissage and listeningécoute
222
545281
3482
la belle vie dans laquelle l'enseignement et l'apprentissage et l'écoute
09:24
is about one personla personne teachingenseignement, the othersautres listeningécoute,
223
548763
2935
se résume à une personne qui enseigne, et les autres qui l'écoutent,
09:27
in whichlequel it is about, learningapprentissage is doneterminé while sittingséance,
224
551698
3752
dans laquelle l'apprentissage se fait en étant assis,
09:31
in whichlequel you learnapprendre for yourselftoi même,
225
555450
2230
dans laquelle vous apprenez par vous-même,
09:33
in whichlequel you're not supposedsupposé to changechangement these rulesrègles
226
557680
2250
dans laquelle vous n'êtes pas censé changer ces règles
09:35
because the chairschaises are fixedfixé to the groundsol.
227
559930
3250
parce que les chaises sont fixées au sol.
09:39
And even something as innocuousinnofensif as a singleunique designconception chairchaise --
228
563180
3383
Et même quelque chose d'aussi anodin qu'une seule chaise design,
09:42
like this one by ArneArne JacobsenJacobsen --
229
566563
1301
comme celle-ci par Arne Jacobsen,
09:43
is a persuasivepersuasive technologyLa technologie.
230
567864
1701
est une technologie persuasive.
09:45
Because, again, it communicatescommunique an ideaidée of the good life.
231
569565
3415
Parce que, une fois encore, elle communique une idée de la belle vie.
09:48
A good life --
232
572980
1499
Une belle vie,
09:50
a life that you say you as a designerdesigner consentconsentement to
233
574479
2201
une vie à la quelle vous consentez en tant que concepteur
09:52
by sayingen disant, "In the good life,
234
576680
2087
en disant, « Dans la belle vie,
09:54
goodsdes biens are producedproduit as sustainablydurablement or unsustainablyinsoutenable as this chairchaise.
235
578767
4014
les biens sont produits aussi durablement ou non que cette chaise.
09:58
WorkersTravailleurs are treatedtraité as well or as badlymal
236
582781
2622
Les travailleurs sont traités aussi bien ou mal
10:01
as the workersouvriers were treatedtraité who builtconstruit that chairchaise."
237
585403
2644
qu'on été traités les travailleurs qui ont construit cette chaise. »
10:03
The good life is a life where designconception is importantimportant
238
588047
2333
La belle vie est une vie où la conception est importante
10:06
because somebodyquelqu'un obviouslyévidemment tooka pris the time and spentdépensé the moneyargent
239
590380
2734
parce que de toute évidence, quelqu'un a pris le temps et a dépensé l'argent
10:09
for that kindgentil of well-designedbien conçu chairchaise,
240
593114
1864
pour ce genre de chaise bien conçue,
10:10
where traditiontradition is importantimportant
241
594978
1419
où la tradition est importante
10:12
because this is a traditionaltraditionnel classicclassique
242
596397
1801
parce que c'est un classique traditionnel
10:14
and someoneQuelqu'un caredsoigné about this,
243
598198
1512
et quelqu'un s'est soucié de ça,
10:15
and where there is something as conspicuousbien visible consumptionconsommation,
244
599710
1952
et où il y a quelque chose comme la consommation flagrante,
10:17
where it is okay and normalnormal
245
601662
1568
où 'il est bien et normal
10:19
to spenddépenser a humungousgigantesque amountmontant of moneyargent on suchtel a chairchaise
246
603230
3019
de dépenser une gigantesque somme d'argent pour une telle chaise
10:22
to signalsignal to other people what your socialsocial statusstatut is.
247
606249
3415
pour signaler votre statut social à d'autres personnes.
10:25
So these are the kindssortes of layerscouches, the kindssortes of questionsdes questions
248
609664
3167
Donc c'est le genre de couches, le genre de questions
10:28
I wanted to leadconduire you throughpar todayaujourd'hui --
249
612831
1753
que je voulais vous faire traverser aujourd'hui,
10:30
the questionquestion of, What are the intentionsintentions
250
614584
2148
la question de ce que sont les intentions
10:32
that you bringapporter to bearours when you're designingconception something?
251
616732
2466
que vous apportez lorsque vous concevez une chose.
10:35
What are the effectseffets, intendedprévu and unintendedinvolontaires, that you're havingayant?
252
619198
3500
Quels sont les effets, prévus et involontaires, que vous avez ?
10:38
What are the valuesvaleurs you're usingen utilisant
253
622698
1565
Quelles sont les valeurs que vous utilisez
10:40
to judgejuge those?
254
624263
1352
pour les juger ?
10:41
What are the virtuesvertus, the aspirationsaspirations
255
625615
1467
Quelles sont les vertus, les aspirations
10:42
that you're actuallyréellement expressingexprimer in that?
256
627082
2719
que vous exprimez réellement dans cette chose ?
10:45
And how does that applyappliquer,
257
629801
2095
Et comment cela s'applique-t-il,
10:47
not just to persuasivepersuasive technologyLa technologie,
258
631896
1992
non seulement à la technologie persuasive
10:49
but to everything you designconception?
259
633888
2334
mais à tout ce que vous concevez ?
10:52
Do we stop there?
260
636222
1902
Est-ce qu'on s'arrête là ?
10:54
I don't think so.
261
638124
1633
Je ne le pense pas.
10:55
I think that all of these things are eventuallyfinalement informedinformé
262
639757
4465
Je pense que toutes ces choses sont finalement informés
11:00
by the corecoeur of all of this --
263
644222
1718
par le cœur de tout cela,
11:01
and this is nothing but life itselfse.
264
645940
3115
et ce n'est rien d'autre que la vie elle-même.
11:04
Why, when the questionquestion of what the good life is
265
649055
2900
Pourquoi, lorsque la question de ce qu'est la belle vie
11:07
informsinforme everything that we designconception,
266
651955
2351
informe tout ce que nous concevons,
11:10
should we stop at designconception and not askdemander ourselvesnous-mêmes,
267
654306
2583
devrions-nous nous arrêter à la conception et ne pas nous demander,
11:12
how does it applyappliquer to our ownposséder life?
268
656889
2733
comment cela s'applique-t-il à notre propre vie ?
11:15
"Why should the lamplampe or the housemaison be an artart objectobjet,
269
659622
2735
« Pourquoi la lampe ou la maison devrait-elle être un objet d'art,
11:18
but not our life?"
270
662357
1231
mais pas notre vie ? »
11:19
as MichelMichel FoucaultFoucault putsmet it.
271
663588
1616
comme le dit Michel Foucault.
11:21
Just to give you a practicalpratique exampleExemple of BusterBuster BensonBenson.
272
665204
3551
Juste pour vous donner un exemple concret de Buster Benson.
11:24
This is BusterBuster settingréglage up a pull-upPull-up machinemachine
273
668755
2515
Voici Buster en train de construire un appareil de musculation
11:27
at the officeBureau of his newNouveau startupCommencez HabitHabitude LabsLabs,
274
671270
2453
au bureau de sa nouvelle compagnie Habit Labs,
11:29
where they're tryingen essayant to buildconstruire up other applicationsapplications
275
673723
2017
où ils essayaient de construire d'autres applications
11:31
like HealthSanté MonthMois for people.
276
675740
1982
comme Health Month (le mois de la santé) pour les gens.
11:33
And why is he buildingbâtiment a thing like this?
277
677722
2580
Et pourquoi construit-il un truc pareil?
11:36
Well here is the setensemble of axiomsaxiomes
278
680302
2005
Bien, voici l'ensemble des axiomes
11:38
that HabitHabitude LabsLabs, Buster'sDe Buster startupCommencez, put up for themselvesse
279
682307
3203
que Habit Labs, la compagnie de Buster, a établi pour eux-mêmes
11:41
on how they wanted to work togetherensemble as a teaméquipe
280
685510
3121
sur la façon dont ils voulaient travailler en équipe
11:44
when they're buildingbâtiment these applicationsapplications --
281
688631
1824
quand ils construisent ces applications,
11:46
a setensemble of moralmoral principlesdes principes they setensemble themselvesse
282
690455
2052
un ensemble de principes moraux qu'ils se fixent
11:48
for workingtravail togetherensemble --
283
692507
1748
pour travailler ensemble,
11:50
and one of them beingétant,
284
694255
1398
et l'un d'eux étant,
11:51
"We take carese soucier of our ownposséder healthsanté and managegérer our ownposséder burnoutépuisement professionnel."
285
695653
3082
« Nous prenons soin de notre propre santé et gérons notre propre épuisement. »
11:54
Because ultimatelyen fin de compte how can you askdemander yourselvesvous
286
698735
3750
Parce qu'en fin de compte, comment pouvez-vous vous poser la question à vous-même
11:58
and how can you find an answerrépondre
287
702485
1467
et comment pouvez-vous trouver une réponse
11:59
on what visionvision of the good life
288
703952
2300
quant à quelle vision de la belle vie
12:02
you want to conveytransmettre and createcréer with your designsconceptions
289
706252
3101
vous voulez transmettre et créer avec vos conceptions
12:05
withoutsans pour autant askingdemandant the questionquestion,
290
709353
1682
sans poser la question,
12:06
what visionvision of the good life
291
711035
1484
quelle vision de la belle vie
12:08
do you yourselftoi même want to livevivre?
292
712519
2900
voulez-vous vivre vous-même ?
12:11
And with that, I thank you.
293
715419
4250
Et sur ce, je vous remercie.
12:15
(ApplauseApplaudissements)
294
719669
2963
(Applaudissements)
Translated by Elisabeth Buffard
Reviewed by Ekaterina Atanasova

▲Back to top

ABOUT THE SPEAKER
Sebastian Deterding - Designer
Sebastian Deterding is an interface designer who thinks deeply about persuasive and gameful design.

Why you should listen

Sebastian Deterding is a designer and researcher working on user experience, video games, persuasive technology and gameful design. He is interested in how code shapes conduct -- and how to put that knowledge into practice. He is a PhD researcher in Communication at the Graduate School of the Research Center for Media and Communication, Hamburg University. He is also an affiliated researcher at the Hans Bredow Institute for Media Research in Hamburg, and works as an independent user experience designer.

More profile about the speaker
Sebastian Deterding | Speaker | TED.com