ABOUT THE SPEAKER
Thomas Goetz - Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.”

Why you should listen

Thomas Goetz is the co-founder of Iodine, a new company that gives consumers better information -- and better visualizations -- of their health data. The former executive editor of Wired, Goetz has a Master's of Public Health from UC Berkeley. In 2010 he published The Decision Tree, a fascinating look at modern medical decisionmaking and technology. Former FDA commissioner Dr. David Kessler called the book "a game changer.” His next book, The Remedy, explores the germ theory of disease and the quest to cure tuberculosis.

More profile about the speaker
Thomas Goetz | Speaker | TED.com
TEDMED 2010

Thomas Goetz: It's time to redesign medical data

Thomas Goetz: Il est temps de concevoir à nouveau les données médicales

Filmed:
587,895 views

Votre dossier médical: dur à se procurer, impossible à lire -- et plein d'informations qui pourraient vous permettre d'être en meilleure santé si seulement vous saviez comment les utiliser. A TEDMED, Thomas Goetz se penche sur les données médicales, prônant une nouvelle conception audacieuse et une meilleure compréhension de celles ci.
- Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.” Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to be talkingparlant to you
0
0
2000
Je vais vous parler
00:17
about how we can taprobinet
1
2000
2000
de la façon par laquelle on pourrait exploiter
00:19
a really underutilizedsous-utilisé resourceRessource in healthsanté carese soucier,
2
4000
2000
une ressource vraiment sous-utilisée en ce qui concerne les soins médicaux,
00:21
whichlequel is the patientpatient,
3
6000
2000
qui n'est autre que le patient,
00:23
or, as I like to use the scientificscientifique termterme,
4
8000
3000
ou -- comme j'aime utiliser, le terme scientifique --
00:26
people.
5
11000
2000
la personne.
00:28
Because we are all patientsles patients, we are all people.
6
13000
2000
Parce que nous sommes tous des patients, nous sommes tous des personnes.
00:30
Even doctorsmédecins are patientsles patients at some pointpoint.
7
15000
2000
Même les docteurs deviennent des patients à un moment donné.
00:32
So I want to talk about that
8
17000
2000
Alors je veux vous parler de cela
00:34
as an opportunityopportunité
9
19000
2000
comme une opportunité
00:36
that we really have failedéchoué to engageengager with very well in this countryPays
10
21000
3000
que nous n'avons réellement pas saisi dans ce pays
00:39
and, in factfait, worldwideà l'échelle mondiale.
11
24000
2000
et, en fait, dans le monde.
00:41
If you want to get at the biggros partpartie --
12
26000
2000
Si vous voulez vraiment vous attaquer à la grosse partie --
00:43
I mean from a publicpublic healthsanté levelniveau, where my trainingentraînement is --
13
28000
3000
Je veux dire, au niveau de la santé publique, là où j'ai été formé --
00:46
you're looking at behavioralcomportementale issuesproblèmes.
14
31000
2000
vous avez à faire à des problèmes comportementaux,
00:48
You're looking at things where people are actuallyréellement givendonné informationinformation,
15
33000
3000
vous avez à faire à des situations où les personnes sont en fait données des informations,
00:51
and they're not followingSuivant throughpar with it.
16
36000
2000
et ils ne vont pas jusqu'au bout.
00:53
It's a problemproblème that manifestsmanifestes itselfse in diabetesDiabète,
17
38000
4000
C'est un problème qui se manifeste dans le cas du diabète,
00:57
obesityobésité, manybeaucoup formsformes of heartcœur diseasemaladie,
18
42000
2000
de l'obésité, de nombreuses formes de maladie du coeur,
00:59
even some formsformes of cancercancer -- when you think of smokingfumeur.
19
44000
3000
même dans certaines formes de cancer -- quand on pense aux fumeurs.
01:02
Those are all behaviorscomportements where people know what they're supposedsupposé to do.
20
47000
3000
Ces derniers sont des comportements où les personnes savent ce qu'elles ont à faire.
01:05
They know what they're supposedsupposé to be doing,
21
50000
2000
Elles savent ce qu'elles sont supposées faire.
01:07
but they're not doing it.
22
52000
2000
Mais elles ne le font pas.
01:09
Now behaviorcomportement changechangement is something
23
54000
2000
Alors le changement de comportement est
01:11
that is a long-standingde longue date problemproblème in medicinemédicament.
24
56000
2000
un problème de longue date en médicine.
01:13
It goesva all the way back to AristotleAristote.
25
58000
2000
Cela remonte à Aristote.
01:15
And doctorsmédecins hatehaine it, right?
26
60000
2000
Et les médecins détestent ça, n'est-ce pas.
01:17
I mean, they complainse plaindre about it all the time.
27
62000
2000
Enfin je veux dire qu'ils s'en plaignent à longueur de journée.
01:19
We talk about it in termstermes of engagementengagement, or non-compliancela non-conformité.
28
64000
3000
Nous en parlons en termes d'engagement, d'incomplaisance,
01:22
When people don't take theirleur pillspilules,
29
67000
2000
quand les gens ne prennent pas leurs médicaments,
01:24
when people don't followsuivre doctors'des médecins ordersordres --
30
69000
2000
quand les gens ne suivent pas les consignes des médecins.
01:26
these are behaviorcomportement problemsproblèmes.
31
71000
2000
Ce sont des problèmes comportementaux.
01:28
But for as much as clinicalclinique medicinemédicament
32
73000
2000
Mais quand bien même la médecine clinique
01:30
agonizesagonise over behaviorcomportement changechangement,
33
75000
2000
agonise face aux changements comportementaux,
01:32
there's not a lot of work doneterminé
34
77000
2000
nous n'avons pas fait beaucoup d'efforts
01:34
in termstermes of tryingen essayant to fixréparer that problemproblème.
35
79000
3000
pour régler ce problème.
01:37
So the cruxCrux of it
36
82000
2000
Alors le point crucial de cela
01:39
comesvient down to this notionnotion of decision-makingla prise de décision --
37
84000
2000
concerne la notion de prise de décision --
01:41
givingdonnant informationinformation to people in a formforme
38
86000
2000
donner des informations à des gens sous une forme
01:43
that doesn't just educateéduquer them
39
88000
2000
qui non seulement les éduque
01:45
or informinformer them,
40
90000
2000
et non seulement les informe,
01:47
but actuallyréellement leadspistes them to make better decisionsles décisions,
41
92000
2000
mais qui en fait les aide à prendre de meilleures décisions,
01:49
better choicesles choix in theirleur livesvies.
42
94000
2000
à faire des meilleurs choix dans leurs vies.
01:51
One partpartie of medicinemédicament, thoughbien que,
43
96000
2000
Une partie de la médecine cependant
01:53
has facedface à the problemproblème of behaviorcomportement changechangement prettyjoli well,
44
98000
4000
a réussi à très bien gérer ce problème de changement comportemental,
01:57
and that's dentistryart dentaire.
45
102000
2000
et c'est la médecine dentaire.
01:59
DentistryArt dentaire mightpourrait seemsembler -- and I think it is --
46
104000
2000
La médecine dentaire semblerait -- et je pense qu'elle l'est --
02:01
manybeaucoup dentistsdentistes would have to acknowledgereconnaître
47
106000
2000
de nombreux dentistes devront admettre
02:03
it's somewhatquelque peu of a mundanebanal backwaterMarigot of medicinemédicament.
48
108000
2000
que c'est la partie tranquille de la médecine.
02:05
Not a lot of coolcool, sexysexy stuffdes trucs happeningévénement in dentistryart dentaire.
49
110000
3000
Pas beaucoup de choses cool et sexy se produisent dans la médecine dentaire.
02:08
But they have really takenpris this problemproblème of behaviorcomportement changechangement
50
113000
3000
Mais ils se sont vraiment penché sur ce problème de changement comportemental.
02:11
and solvedrésolu it.
51
116000
2000
et ils l'ont résolu.
02:13
It's the one great preventivepréventif healthsanté successSuccès
52
118000
2000
C'est le grand succès de la médecine préventive
02:15
we have in our healthsanté carese soucier systemsystème.
53
120000
2000
dans notre système de santé.
02:17
People brushbrosse and flosssoie theirleur teethles dents.
54
122000
2000
Les gens se brossent les dents et utilisent du fil dentaire.
02:19
They don't do it as much as they should, but they do it.
55
124000
3000
Ils ne le font pas autant qu'ils devraient le faire, mais ils le font.
02:22
So I'm going to talk about one experimentexpérience
56
127000
2000
Alors je vais vous parler d'une expérience
02:24
that a fewpeu dentistsdentistes in ConnecticutConnecticut
57
129000
2000
que quelques dentistes dans le Connecticut
02:26
cookedcuit up about 30 yearsannées agodepuis.
58
131000
2000
ont concocté il y a une trentaine d'années.
02:28
So this is an oldvieux experimentexpérience, but it's a really good one,
59
133000
2000
Donc c'est une vieille expérience, mais c'est une très bonne expérience,
02:30
because it was very simplesimple,
60
135000
2000
parce que c'était très simple,
02:32
so it's an easyfacile storyrécit to tell.
61
137000
2000
alors c'est une histoire facile à raconter.
02:34
So these ConnecticutConnecticut dentistsdentistes decideddécidé
62
139000
2000
Donc ces dentistes du Connecticut ont décidé
02:36
that they wanted to get people to brushbrosse theirleur teethles dents and flosssoie theirleur teethles dents more oftensouvent,
63
141000
3000
qu'ils voulaient pousser les gens à brosser leur dents et utiliser du fil dentaire plus souvent.
02:39
and they were going to use one variablevariable:
64
144000
2000
Et ils allaient utiliser une variable:
02:41
they wanted to scareeffrayer them.
65
146000
2000
Ils voulaient les effrayer.
02:43
They wanted to tell them how badmal it would be
66
148000
3000
Ils voulaient leur dire à quel point ce serait négatif
02:46
if they didn't brushbrosse and flosssoie theirleur teethles dents.
67
151000
2000
s'ils ne se brossaient pas les dents et n'utilisaient pas de fil dentaire.
02:48
They had a biggros patientpatient populationpopulation.
68
153000
3000
Ils avaient une population importante de patients.
02:51
They divideddivisé them up into two groupsgroupes.
69
156000
2000
Ils les ont divisé en deux groupes.
02:53
They had a low-fearbasse-peur populationpopulation,
70
158000
2000
Ils avaient une population avec un faible degré de peur,
02:55
where they basicallyen gros gavea donné them a 13-minute-minute presentationprésentation,
71
160000
2000
pour laquelle ils ont simplement donné une présentation de 13 minutes,
02:57
all basedbasé in sciencescience,
72
162000
2000
le tout basé sur la science,
02:59
but told them that, if you didn't brushbrosse and flosssoie your teethles dents,
73
164000
3000
mais en leur disant, que si ils en se brossaient pas les dents et n'utilisaient pas de fil dentaire,
03:02
you could get gumgomme diseasemaladie. If you get gumgomme diseasemaladie, you will loseperdre your teethles dents,
74
167000
3000
ils pouvaient contracter une gingivite. Si cela arrivait, ils perdraient leurs dents,
03:05
but you'lltu vas get denturesprothèses dentaires, and it won'thabitude be that badmal.
75
170000
2000
mais ils auraient des dentiers, et ça ne serait pas si grave.
03:07
So that was the low-fearbasse-peur groupgroupe.
76
172000
2000
Alors ça, c'était le groupe avec un faible degré de peur.
03:09
The high-fearhaute-peur groupgroupe, they laidposé it on really thicképais.
77
174000
3000
Le groupe avec un haut degré de peur, ils ont mis le paquet.
03:12
They showedmontré bloodysanglant gumsgencives.
78
177000
2000
Ils leur ont montré des gencives ensanglantées,
03:14
They showedmontré pusschat botté oozingsuintement out from betweenentre theirleur teethles dents.
79
179000
3000
ils ont montré du pus qui suintait d'entre leurs dents,
03:17
They told them that theirleur teethles dents were going to falltomber out.
80
182000
2000
ils leur ont dit que leurs dents allaient tomber,
03:19
They said that they could have infectionsinfections
81
184000
2000
ils leur ont dit qu'ils pouvaient avoir des infections
03:21
that would spreadpropager from theirleur jawsmâchoires to other partsles pièces of theirleur bodiescorps,
82
186000
3000
qui se propageraient de leur mâchoire à d'autres parties de leurs corps,
03:24
and ultimatelyen fin de compte, yes, they would loseperdre theirleur teethles dents.
83
189000
2000
et en fin de compte, oui, ils perdraient leurs dents.
03:26
They would get denturesprothèses dentaires, and if you got denturesprothèses dentaires,
84
191000
2000
Ils finiraient par avoir des dentiers, et si vous avez des dentiers,
03:28
you weren'tn'étaient pas going to be ablecapable to eatmanger corn-on-the-cobmaïs-sur-le-s/n,
85
193000
2000
vous ne serez plus capable de manger des épis de maïs,
03:30
you weren'tn'étaient pas going to be ablecapable to eatmanger applespommes,
86
195000
2000
vous ne serez plus capable de manger des pommes,
03:32
you weren'tn'étaient pas going to be ablecapable to eatmanger steaksteak.
87
197000
2000
vous ne serez plus capable de manger des steaks;
03:34
You'llVous aurez eatmanger mushbouillie de maïs for the restdu repos of your life.
88
199000
2000
vous mangerez de la bouillie pour le reste de votre vie.
03:36
So go brushbrosse and flosssoie your teethles dents.
89
201000
3000
Donc allez vous brosser les dents et utiliser du fil dentaire.
03:39
That was the messagemessage. That was the experimentexpérience.
90
204000
2000
C'était le message; c'était l'expérience.
03:41
Now they measuredmesuré one other variablevariable.
91
206000
2000
Alors ils mesurèrent une autre variable.
03:43
They wanted to captureCapturer one other variablevariable,
92
208000
2000
Ils voulaient capturer une autre variable
03:45
whichlequel was the patients'des patients sensesens of efficacyefficacité.
93
210000
3000
qui était l'opinion du patient quant à la notion d'efficacité.
03:48
This was the notionnotion of whetherqu'il s'agisse the patientsles patients feltse sentait
94
213000
2000
C'est la notion si oui ou non les patients pensaient
03:50
that they actuallyréellement would go aheaddevant and brushbrosse and flosssoie theirleur teethles dents.
95
215000
3000
qu'ils allaient effectivement aller brosser leur dents et utiliser du fil dentaire.
03:53
So they askeda demandé them at the beginningdébut,
96
218000
2000
Alors ils leur ont demandé dès le départ,
03:55
"Do you think you'lltu vas actuallyréellement be ablecapable to stickbâton with this programprogramme?"
97
220000
2000
"Pensez vous être capable de suivre ce programme?"
03:57
And the people who said, "Yeah, yeah. I'm prettyjoli good about that,"
98
222000
2000
Et les gens qui leur disaient, "Oui oui. Aucun problème,"
03:59
they were characterizedcaractérisé as highhaute efficacyefficacité,
99
224000
2000
étaient caractérisés par une haute efficacité,
04:01
and the people who said,
100
226000
2000
et les personnes qui leur répondaient,
04:03
"EhHein, I never get around to brushingbrossage and flossingsoie dentaire as much as I should,"
101
228000
2000
"Heu, je ne me brosse jamais les dents et n'utilise jamais de fil dentaire autant que je devrais le faire,"
04:05
they were characterizedcaractérisé as lowfaible efficacyefficacité.
102
230000
2000
étaient caractérisés par une faible efficacité.
04:07
So the upshotUpshot was this.
103
232000
3000
Alors voilà le résultat.
04:10
The upshotUpshot of this experimentexpérience
104
235000
2000
Le résultat de cette expérience
04:12
was that fearpeur was not really a primaryprimaire driverchauffeur
105
237000
3000
était que la peur ne constituait pas vraiment un important levier
04:15
of the behaviorcomportement at all.
106
240000
2000
comportemental.
04:17
The people who brushedbrossé and flossedbrossaient theirleur teethles dents
107
242000
2000
Les personnes qui s'étant brossé les dents et ayant utilisé du fil dentaire
04:19
were not necessarilynécessairement the people
108
244000
2000
n'étaient pas nécessairement les personnes
04:21
who were really scaredeffrayé about what would happense produire --
109
246000
2000
qui avaient peur de ce qu'il pourrait arriver --
04:23
it's the people who simplysimplement feltse sentait that they had the capacitycapacité
110
248000
3000
c'était les personnes qui avaient simplement le sentiment de pouvoir
04:26
to changechangement theirleur behaviorcomportement.
111
251000
2000
changer leur comportement.
04:28
So fearpeur showedmontré up as not really the driverchauffeur.
112
253000
3000
Donc la peur n'était pas vraiment le vecteur de motivation;
04:31
It was the sensesens of efficacyefficacité.
113
256000
3000
c'était le sentiment d'efficacité.
04:34
So I want to isolateisoler this,
114
259000
2000
Alors j'aimerais isoler cela,
04:36
because it was a great observationobservation --
115
261000
2000
parce que c'était une bonne observation --
04:38
30 yearsannées agodepuis, right, 30 yearsannées agodepuis --
116
263000
2000
il y a 30 ans, okay, il y a 30 ans --
04:40
and it's one that's laidposé fallowjachère in researchrecherche.
117
265000
3000
et c'est une observation qui constitue la jachère de la recherche,
04:43
It was a notionnotion that really camevenu out
118
268000
2000
C'était la notion qui est vraiment ressortie
04:45
of AlbertAlbert Bandura'sDe Bandura work,
119
270000
2000
des travaux d'Albert Bandura,
04:47
who studiedétudié whetherqu'il s'agisse
120
272000
2000
qui a étudié dans quelles mesures
04:49
people could get a sensesens of empowermentautonomisation.
121
274000
3000
les personnes obtenaient une sensation de pouvoir.
04:52
The notionnotion of efficacyefficacité basicallyen gros boilsbout down to one -- that
122
277000
3000
La notion d'efficacité se ramène simplement à la notion qui dit,
04:55
if somebodyquelqu'un believescroit that they have the capacitycapacité to changechangement theirleur behaviorcomportement.
123
280000
3000
que si quelqu'un estime qu'il a la capacité de changer son comportement.
04:58
In healthsanté carese soucier termstermes, you could characterizecaractériser les this
124
283000
3000
Dans le jargon médical, vous pouvez représenter cela
05:01
as whetherqu'il s'agisse or not somebodyquelqu'un feelsse sent
125
286000
2000
si quelqu'un a le sentiment
05:03
that they see a pathchemin towardsvers better healthsanté,
126
288000
2000
de visualiser une trajectoire vers une meilleure santé,
05:05
that they can actuallyréellement see theirleur way towardsvers gettingobtenir better healthsanté,
127
290000
2000
qu'il peut réellement se visualiser prendre un chemin vers une meilleure santé.
05:07
and that's a very importantimportant notionnotion.
128
292000
2000
Et c'est une notion très importante.
05:09
It's an amazingincroyable notionnotion.
129
294000
2000
C'est une notion incroyable.
05:11
We don't really know how to manipulatemanipuler it, thoughbien que, that well.
130
296000
3000
Nous ne savons pas vraiment comment bien la manipuler cependant.
05:14
ExceptSauf, maybe we do.
131
299000
3000
Ou peut être le savons-nous.
05:17
So fearpeur doesn't work, right? FearPeur doesn't work.
132
302000
2000
Donc la peur ne marche pas, entendu, la peur ne fonctionne pas.
05:19
And this is a great exampleExemple
133
304000
2000
Et c'est un bon exemple
05:21
of how we haven'tn'a pas learnedappris that lessonleçon at all.
134
306000
3000
pour illustrer le fait que nous n'avons pas du tout appris de nos erreurs.
05:24
This is a campaigncampagne from the AmericanAméricain DiabetesDiabète AssociationAssociation.
135
309000
3000
Voici une campagne de l'Association Américaine des Diabétiques.
05:27
This is still the way we're communicatingcommunicant messagesmessages about healthsanté.
136
312000
3000
Cela reste la façon par laquelle nous communiquons sur la santé.
05:30
I mean, I showedmontré my three-year-oldtrois ans this slidefaire glisser last night,
137
315000
3000
Enfin je veux dire, j'ai montré cette diapositive à mon enfant de trois ans la nuit dernière,
05:33
and he's like, "PapaPapa, why is an ambulanceambulance in these people'sles gens homesmaisons?"
138
318000
4000
et il est du genre, "Papa, pourquoi il y a une ambulance chez les gens?"
05:37
And I had to explainExplique, "They're tryingen essayant to scareeffrayer people."
139
322000
3000
Et j'ai eu à expliquer, "Ils essayaient d'effrayer les gens."
05:40
And I don't know if it workstravaux.
140
325000
2000
Et je ne sais pas si ça marche.
05:42
Now here'svoici what does work:
141
327000
2000
Maintenant, voilà ce qui marche,
05:44
personalizedpersonnalisé informationinformation workstravaux.
142
329000
2000
les informations personnalisées fonctionnent.
05:46
Again, BanduraBandura recognizedreconnu this
143
331000
2000
Une fois encore, Bandura était arrivé à cette conclusion
05:48
yearsannées agodepuis, decadesdécennies agodepuis.
144
333000
2000
il y a des années, il y a des dizaines d'années.
05:50
When you give people specificspécifique informationinformation
145
335000
2000
Quand vous donnez aux gens des informations spécifiques
05:52
about theirleur healthsanté, where they standsupporter,
146
337000
2000
sur leur santé, où ils en sont,
05:54
and where they want to get to, where they mightpourrait get to,
147
339000
2000
où ils veulent aller, où ils peuvent aller,
05:56
that pathchemin, that notionnotion of a pathchemin --
148
341000
2000
leur trajectoire, cette notion de cheminement,
05:58
that tendstendance to work for behaviorcomportement changechangement.
149
343000
2000
qui tend à modeler le changement comportemental.
06:00
So let me just spoolbobine it out a little bitbit.
150
345000
2000
Alors laissez moi aller un petit peu plus loin.
06:02
So you startdébut with personalizedpersonnalisé dataLes données, personalizedpersonnalisé informationinformation
151
347000
3000
Donc vous commencez par prendre des données personnalisées, des informations personnelles,
06:05
that comesvient from an individualindividuel,
152
350000
2000
qui appartiennent à un individu,
06:07
and then you need to connectrelier it to theirleur livesvies.
153
352000
3000
et alors vous devez les mettre en relation avec leurs vies.
06:10
You need to connectrelier it to theirleur livesvies,
154
355000
2000
Vous devez les mettre en relation avec leurs modes de vie,
06:12
hopefullyj'espère not in a fear-basedbasée sur la peur way, but one that they understandcomprendre.
155
357000
2000
pas d'une manière basée sur la peur heureusement, mais d'une façon qu'ils peuvent comprendre.
06:14
Okay, I know where I sitasseoir. I know where I'm situatedsitué.
156
359000
3000
D'accord, je sais où je suis assis. Je sais où je suis.
06:17
And that doesn't just work for me in termstermes of abstractabstrait numbersNombres --
157
362000
3000
Et parler de chiffres abstraits ne marche pas pour moi,
06:20
this overloadsurcharge of healthsanté informationinformation
158
365000
2000
ce raz de marée d'informations médicales
06:22
that we're inundatedinondé with.
159
367000
2000
qui nous inonde,
06:24
But it actuallyréellement hitsles coups home.
160
369000
2000
mais qui en réalité finit par nous toucher.
06:26
It's not just hittingfrappe us in our headstêtes; it's hittingfrappe us in our heartscœurs.
161
371000
2000
Et cela ne nous affecte pas seulement dans nos esprits, mais également dans nos coeurs.
06:28
There's an emotionalémotif connectionconnexion to informationinformation
162
373000
2000
Il existe un lien émotionnel entre nous et l'information
06:30
because it's from us.
163
375000
2000
car elle provient de nous même.
06:32
That informationinformation then needsBesoins to be connectedconnecté to choicesles choix,
164
377000
3000
Après, cette information doit être connectée aux choix,
06:35
needsBesoins to be connectedconnecté to a rangegamme of optionsoptions,
165
380000
2000
doit être connectée à un éventail d'options,
06:37
directionsdirections that we mightpourrait go to --
166
382000
2000
des directions que l'on pourrait emprunter --
06:39
trade-offscompromis, benefitsavantages.
167
384000
2000
des compromis, des avantages.
06:41
FinallyEnfin, we need to be presentedprésenté with a clearclair pointpoint of actionaction.
168
386000
3000
Au final, on a besoin d'être présenté avec un point d'action précis.
06:44
We need to connectrelier the informationinformation
169
389000
2000
Nous avons besoin de toujours connecter l'information
06:46
always with the actionaction,
170
391000
2000
avec l'action,
06:48
and then that actionaction feedsflux back
171
393000
2000
et alors, cette action vient nous redonner
06:50
into differentdifférent informationinformation,
172
395000
2000
une information différente,
06:52
and it createscrée, of coursecours, a feedbackretour d'information loopboucle.
173
397000
2000
et cela crée, bien sur, une boucle de rétroaction.
06:54
Now this is a very well-observedbien observés and well-establishedbien établie notionnotion
174
399000
3000
Alors maintenant, c'est une notion bien observée et bien établie
06:57
for behaviorcomportement changechangement.
175
402000
2000
en ce qui concerne le changement comportemental.
06:59
But the problemproblème is that things -- in the upper-rightsupérieur droit cornercoin there --
176
404000
3000
Mais le problème est que cette chose dans le coin droit du haut juste ici,
07:02
personalizedpersonnalisé dataLes données, it's been prettyjoli harddifficile to come by.
177
407000
2000
des données personalisées, cela a été assez dur à prendre.
07:04
It's a difficultdifficile and expensivecoûteux commoditymarchandise,
178
409000
3000
C'est une matière première difficile et chère,
07:07
untiljusqu'à now.
179
412000
2000
jusqu'à aujourd'hui.
07:09
So I'm going to give you an exampleExemple, a very simplesimple exampleExemple of how this workstravaux.
180
414000
3000
Alors je vais vous donner un exemple, un exemple très simple de comment cela fonctionne.
07:12
So we'venous avons all seenvu these. These are the "your speedla vitesse limitlimite" signssignes.
181
417000
3000
Alors nous avons tous déjà vu cela. Ceux-ci sont vos panneaux de limites de vitesse.
07:15
You've seenvu them all around,
182
420000
2000
Vous les avez aperçu un peu partout,
07:17
especiallynotamment these daysjournées as radarsradars de are cheapermoins cher.
183
422000
2000
en particulier ces temps-ci depuis que les radars sont moins chers.
07:19
And here'svoici how they work in the feedbackretour d'information loopboucle.
184
424000
2000
Et voilà leur fonctionnement au sein de la boucle de rétroaction.
07:21
So you startdébut with the personalizedpersonnalisé dataLes données
185
426000
2000
Alors vous commençez avec la donnée personalisée
07:23
where the speedla vitesse limitlimite on the roadroute that you are at that pointpoint
186
428000
2000
où la limitation de vitesse sur la route sur laquelle vous vous trouvez à ce moment précis
07:25
is 25,
187
430000
2000
est 25,
07:27
and, of coursecours, you're going fasterPlus vite than that.
188
432000
2000
et, bien entendu, vous roulez plus vite que ça.
07:29
We always are. We're always going aboveau dessus the speedla vitesse limitlimite.
189
434000
3000
Comme d'habitude. Nous roulons tout le temps au dessus des limitations de vitesse.
07:32
The choicechoix in this caseCas is prettyjoli simplesimple.
190
437000
2000
Le choix dans ce cas est assez simple.
07:34
We eithernon plus keep going fastvite, or we slowlent down.
191
439000
2000
Soit on continue à rouler vite, soit on ralentit.
07:36
We should probablyProbablement slowlent down,
192
441000
2000
On devrait probablement ralentir,
07:38
and that pointpoint of actionaction is probablyProbablement now.
193
443000
2000
et ce point d'action est probablement maintenant.
07:40
We should take our footpied off the pedalpédale right now,
194
445000
3000
Nous devrions enlever notre pied de l'accélérateur immédiatement.
07:43
and generallygénéralement we do. These things are shownmontré to be prettyjoli effectiveefficace
195
448000
3000
Et la plupart du temps, nous le faisons; ces choses ont démontré leur efficacité
07:46
in termstermes of gettingobtenir people to slowlent down.
196
451000
2000
quant à pousser les gens à ralentir.
07:48
They reduceréduire speedsdes vitesses by about fivecinq to 10 percentpour cent.
197
453000
2000
Ils réduisent la vitesse d'environ 10 pour cent.
07:50
They last for about fivecinq milesmiles,
198
455000
2000
Et cela pendant 8 kilomètres,
07:52
in whichlequel caseCas we put our footpied back on the pedalpédale.
199
457000
2000
après cela, on remet le pied sur la pédale
07:54
But it workstravaux, and it even has some healthsanté repercussionsrépercussions.
200
459000
2000
Mais cela fonctionne, et on a même des répercussions sur la santé.
07:56
Your blooddu sang pressurepression mightpourrait droplaissez tomber a little bitbit.
201
461000
2000
Votre pression sanguine peut légèrement baisser.
07:58
Maybe there's fewermoins accidentsles accidents, so there's publicpublic healthsanté benefitsavantages.
202
463000
3000
Peut être parce qu'il y a moins d'accidents, c'est avantageux pour la santé publique.
08:01
But by and largegrand, this is a feedbackretour d'information loopboucle
203
466000
2000
Mais en général, ceci est une boucle de rétroaction
08:03
that's so niftyNifty and too rarerare.
204
468000
3000
qui est chouette mais trop rare.
08:06
Because in healthsanté carese soucier, mostles plus healthsanté carese soucier,
205
471000
2000
Parce qu'en terme de santé publique, pour la majeure partie de la santé publique,
08:08
the dataLes données is very removedsupprimé from the actionaction.
206
473000
3000
la donnée est très distante de l'action.
08:11
It's very difficultdifficile to lineligne things up so neatlysoigneusement.
207
476000
3000
C'est très difficile de relier les deux choses si proprement.
08:14
But we have an opportunityopportunité.
208
479000
2000
Mais nous avons une opportunité.
08:16
So I want to talk about, I want to shiftdécalage now to think about
209
481000
2000
Alors j'aimerais vous parler, j'aimerais maintenant réflechir à la façon
08:18
how we deliverlivrer healthsanté informationinformation in this countryPays,
210
483000
2000
d'apporter des informations médicales dans ce pays,
08:20
how we actuallyréellement get informationinformation.
211
485000
3000
de la façon dont nous pourrions réellement obtenir des informations.
08:23
This is a pharmaceuticalpharmaceutique adun d.
212
488000
3000
Ceci est une publicité pharmaceutique.
08:26
ActuallyEn fait, it's a spoofparodie. It's not a realréal pharmaceuticalpharmaceutique adun d.
213
491000
2000
En fait, c'est une parodie; ce n'est pas une vraie publicité pharmaceutique.
08:28
Nobody'sPersonne n' est had the brilliantbrillant ideaidée
214
493000
2000
Personne n'a eu la brillante idée
08:30
of callingappel theirleur drugdrogue HavidolHavidol quiteassez yetencore.
215
495000
3000
d'appeler leur drogue Havidol jusque là.
08:34
But it looksregards completelycomplètement right.
216
499000
2000
Mais a priori, aucun problème.
08:36
So it's exactlyexactement the way we get
217
501000
2000
Alors c'est exactement la façon par laquelle on obtient
08:38
healthsanté informationinformation and pharmaceuticalpharmaceutique informationinformation,
218
503000
3000
l'information médicale et pharmaceutique,
08:41
and it just soundsdes sons perfectparfait.
219
506000
2000
et cela semble parfait.
08:43
And then we turntour the pagepage of the magazinemagazine,
220
508000
2000
Et après, on tourne la page du magazine,
08:45
and we see this --
221
510000
3000
et on voit ça, d'accord, on voit ça.
08:48
now this is the pagepage the FDAFDA requiresa besoin pharmaceuticalpharmaceutique companiesentreprises
222
513000
3000
Alors maintenant, voilà la page que requiert l'administration de la nourriture et des drogues aux entreprises pharmaceutiques
08:51
to put into theirleur adsles publicités, or to followsuivre theirleur adsles publicités,
223
516000
3000
d'incorporer dans leurs publicités, ou de les suivre.
08:54
and to me, this is one of the mostles plus
cynicalcynique exercisesexercices in medicinemédicament.
224
519000
4000
Et à mes yeux, c'est l'une des manoeuvres cyniques du monde médical.
08:58
Because we know.
225
523000
2000
Parce que nous savons.
09:00
Who amongparmi us would actuallyréellement say that people readlis this?
226
525000
2000
Qui parmis nous affirmerait vraiment que les gens lisent cela?
09:02
And who amongparmi us would actuallyréellement say
227
527000
2000
Et qui parmis nous irait dire
09:04
that people who do try to readlis this
228
529000
2000
que les gens qui essaient réellement de lire cela
09:06
actuallyréellement get anything out of it?
229
531000
2000
arrivent à y comprendre quelque chose?
09:08
This is a bankruptfaillite efforteffort
230
533000
2000
C'est un effort vain
09:10
at communicatingcommunicant healthsanté informationinformation.
231
535000
3000
en ce qui concerne la communication des informations de santé.
09:13
There is no good faithFoi in this.
232
538000
2000
Personne n'y croit sérieusement.
09:15
So this is a differentdifférent approachapproche.
233
540000
2000
Alors il existe une autre approche.
09:17
This is an approachapproche that has been developeddéveloppé
234
542000
3000
C'est une approche qui a été développée
09:20
by a couplecouple researchersdes chercheurs at DartmouthDartmouth MedicalMedical SchoolÉcole,
235
545000
3000
par deux chercheurs à l'école médicale de Dartmouth,
09:23
LisaLisa SchwartzSchwartz and StevenSteven WoloshinWoloshin.
236
548000
2000
Lisa Schwartz et Steven Woloshin.
09:25
And they createdcréé this thing calledappelé the "drugdrogue factsfaits boxboîte."
237
550000
3000
Et ils ont créé cette chose que l'on appelle la "drug facts box".
09:28
They tooka pris inspirationinspiration from, of all things,
238
553000
2000
Ils se sont inspirés de toutes sortes de choses,
09:30
Cap'nCap ' n CrunchCrunch.
239
555000
2000
Cap'n Crunch.
09:32
They wentest allé to the nutritionalnutritionnel informationinformation boxboîte
240
557000
3000
Ils ont observé les informations nutritionnelles sur la boîte
09:35
and saw that what workstravaux for cerealcéréale, workstravaux for our foodaliments,
241
560000
3000
et ont remarqué ce qui marchait pour les céréales, marchait pour la nourriture,
09:38
actuallyréellement helpsaide people understandcomprendre what's in theirleur foodaliments.
242
563000
3000
et aidait réellement les gens à comprendre ce qu'il y avait dans leur nourriture.
09:42
God forbidinterdire we should use that sameMême standardla norme
243
567000
2000
Pourvu qu'on ne prenne pas le même standard
09:44
that we make Cap'nCap ' n CrunchCrunch livevivre by
244
569000
2000
que celui qu'utilise Cap'n Crunch
09:46
and bringapporter it to drugdrogue companiesentreprises.
245
571000
3000
pour l'adapter aux entreprises de médicaments.
09:49
So let me just walkmarche throughpar this quicklyrapidement.
246
574000
2000
Alors laissez-moi juste vous en parler rapidement.
09:51
It saysdit very clearlyclairement what the drugdrogue is for, specificallyPlus précisément who it is good for,
247
576000
3000
Cela précise d'une façon très claire à quel usage est destiné le médicament, en particulier les personnes à qui il s'adresse,
09:54
so you can startdébut to personalizepersonnaliser your understandingcompréhension
248
579000
2000
pour que vous puissiez commencer à personnaliser votre interprétation pour voir
09:56
of whetherqu'il s'agisse the informationinformation is relevantpertinent to you
249
581000
2000
si l'information est pertinente pour vous
09:58
or whetherqu'il s'agisse the drugdrogue is relevantpertinent to you.
250
583000
2000
ou si le médicament est pertinent pour vous.
10:00
You can understandcomprendre exactlyexactement what the benefitsavantages are.
251
585000
3000
Vous pouvez comprendre précisemment quels sont les avantages.
10:03
It isn't this kindgentil of vaguevague promisepromettre that it's going to work no mattermatière what,
252
588000
3000
Ce n'est pas cette sorte de vague promesse comme quoi ça va fonctionner quoi qu'il arrive,
10:06
but you get the statisticsstatistiques for how effectiveefficace it is.
253
591000
3000
mais vous avez accès aux statistiques relatifs à son efficacité.
10:09
And finallyenfin, you understandcomprendre what those choicesles choix are.
254
594000
3000
Et au final, vous comprenez quels sont ces choix.
10:12
You can startdébut to unpackdécompresser the choicesles choix involvedimpliqué
255
597000
2000
Vous pouvez commencer à déballer les choix concernés
10:14
because of the sidecôté effectseffets.
256
599000
2000
par les effets secondaires.
10:16
EveryChaque time you take a drugdrogue, you're walkingen marchant into a possiblepossible sidecôté effecteffet.
257
601000
3000
A chaque fois que vous prenez un médicament, vous vous exposez à un hypothètique effet secondaire.
10:19
So it spellssorts those out in very cleannettoyer termstermes,
258
604000
2000
Alors il vous les précise avec des termes très propres.
10:21
and that workstravaux.
259
606000
2000
Et ça fonctionne.
10:23
So I love this. I love that drugdrogue factsfaits boxboîte.
260
608000
2000
Alors ça j'adore. J'adore cette drug facts box.
10:25
And so I was thinkingen pensant about,
261
610000
2000
Et alors je me disais,
10:27
what's an opportunityopportunité that I could have
262
612000
2000
quelle pourrait être l'opportunité
10:29
to help people understandcomprendre informationinformation?
263
614000
3000
pour aider les agents à comprendre les informations?
10:32
What's anotherun autre latentlatent bodycorps of informationinformation that's out there
264
617000
4000
Quel pourrait être l'autre morceau d'information latente
10:36
that people are really not puttingen mettant to use?
265
621000
3000
que les gens n'utilisent pas?
10:39
And so I camevenu up with this: lablaboratoire testtester resultsrésultats.
266
624000
3000
Et alors, j'ai eu cette idée: les résultats de laboratoire.
10:42
BloodSang testtester resultsrésultats are this great sourcela source of informationinformation.
267
627000
3000
Les analyses sanguines sont cette formidable source d'informations.
10:45
They're packedemballé with informationinformation.
268
630000
2000
Elles foisonnent d'informations.
10:47
They're just not for us. They're not for people. They're not for patientsles patients.
269
632000
3000
Elles ne nous sont pas destinées; elles ne sont pas pour les gens; elles ne sont pas pour les patients.
10:50
They go right to doctorsmédecins.
270
635000
2000
Elles vont directement aux médecins.
10:52
And God forbidinterdire -- I think manybeaucoup doctorsmédecins, if you really askeda demandé them,
271
637000
3000
Et Dieu m'en garde -- je pense que beaucoup de docteurs, si vous leur demandez sincèrement
10:55
they don't really understandcomprendre all this stuffdes trucs eithernon plus.
272
640000
3000
eux non plus ne comprennent pas tous ces trucs.
10:58
This is the worstpire presentedprésenté informationinformation.
273
643000
3000
C'est la façon la plus mauvaise de présenter une information.
11:01
You askdemander TufteTufte, and he would say,
274
646000
3000
Si vous demandez à Tufte, il vous dira,
11:04
"Yes, this is the absoluteabsolu worstpire presentationprésentation of informationinformation possiblepossible."
275
649000
3000
"Oui, c'est la façon la plus mauvaise de présenter une information."
11:07
What we did at WiredWired
276
652000
2000
Ce que nous avons fait à Wired
11:09
was we wentest allé, and I got our graphicgraphique designconception departmentdépartement
277
654000
2000
c'est que nous sommes allés voir notre département de conception graphique
11:11
to re-imagineré-imaginer these lablaboratoire reportsrapports.
278
656000
2000
pour re-imaginer ces résultats de laboratoire.
11:13
So that's what I want to walkmarche you throughpar.
279
658000
2000
Alors c'est ça que je veux vous montrer.
11:15
So this is the generalgénéral blooddu sang work before,
280
660000
3000
Voici l'analyse de sang classique que l'on trouvait auparavant,
11:18
and this is the after, this is what we camevenu up with.
281
663000
2000
et voilà le après, ce que nous proposons à présent.
11:20
The after takes what was fourquatre pagespages --
282
665000
2000
Cet après tenait en quatre pages --
11:22
that previousprécédent slidefaire glisser was actuallyréellement
283
667000
2000
la précédente diapositive était en fait
11:24
the first of fourquatre pagespages of dataLes données
284
669000
2000
la première page de nos quatre pages de données
11:26
that's just the generalgénéral blooddu sang work.
285
671000
2000
c'est juste l'analyse de sang classique.
11:28
It goesva on and on and on, all these valuesvaleurs, all these numbersNombres you don't know.
286
673000
3000
Et ça continue encore et encore, toutes ces valeurs, tous ces chiffres que vous ne connaissez pas.
11:31
This is our one-pageune page summaryRésumé.
287
676000
3000
C'est notre résumé d'une page.
11:34
We use the notionnotion of colorCouleur.
288
679000
2000
Nous utilisons l'idée de couleur.
11:36
It's an amazingincroyable notionnotion that colorCouleur could be used.
289
681000
3000
C'est une idée formidable d'utiliser les couleurs.
11:39
So on the top-levelniveau supérieur you have your overallglobal resultsrésultats,
290
684000
3000
Alors tout en haut vous avez vos résultats globaux,
11:42
the things that mightpourrait jumpsaut out at you from the fine printimpression.
291
687000
3000
les choses qui pourraient vous sauter aux yeux parmi les détails.
11:45
Then you can drillpercer down
292
690000
2000
Après, vous pouvez lire plus attentivement
11:47
and understandcomprendre how actuallyréellement we put your levelniveau in contextle contexte,
293
692000
3000
et comprendre comment nous avons réellement arrangé les niveaux selon le contexte,
11:50
and we use colorCouleur to illustrateillustrer
294
695000
2000
et nous utilisons des couleurs pour illustrer
11:52
exactlyexactement where your valuevaleur fallschutes.
295
697000
2000
précisément où vos valeurs chutent.
11:54
In this caseCas, this patientpatient is slightlylégèrement at riskrisque of diabetesDiabète
296
699000
3000
Dans ce cas précis, le patient est légèrement soumis au risque de diabète
11:57
because of theirleur glucoseglucose levelniveau.
297
702000
2000
à cause de son taux de glucose.
11:59
LikewiseDe même, you can go over your lipidslipides
298
704000
2000
De la même façon, vous pouvez vérifier vos lipides
12:01
and, again, understandcomprendre what your overallglobal cholesteroltaux de cholestérol levelniveau is
299
706000
3000
et, encore une fois, comprendre quel est votre niveau global de cholestérol
12:04
and then breakPause down into the HDLHDL and the LDLLDL if you so choosechoisir.
300
709000
3000
et ensuite le décomposer en lipoprotéines de basse et haute densité si vous le désirez.
12:07
But again, always usingen utilisant colorCouleur
301
712000
2000
Mais encore une fois, toujours en utilisant des couleurs
12:09
and personalizedpersonnalisé proximityproximité
302
714000
2000
et une proximité personnalisée
12:11
to that informationinformation.
303
716000
2000
avec cette information.
12:13
All those other valuesvaleurs,
304
718000
2000
Toutes ces autres valeurs,
12:15
all those pagespages and pagespages of valuesvaleurs that are fullplein of nothing,
305
720000
2000
toutes ces pages et pages de valeurs qui sont dépourvues de sens,
12:17
we summarizerésumer.
306
722000
2000
nous les résumons.
12:19
We tell you that you're okay, you're normalnormal.
307
724000
2000
On vous dit que vous allez bien, que vous êtes normal.
12:21
But you don't have to wadepatauger throughpar it. You don't have to go throughpar the junkCamelote.
308
726000
3000
Mais vous n'avez pas à vous frayer un chemin. Vous n'avez pas besoin de trier le bric-à-brac.
12:24
And then we do two other very importantimportant things
309
729000
2000
Et après nous faisons deux autres choses très importantes
12:26
that kindgentil of help fillremplir in this feedbackretour d'information loopboucle:
310
731000
2000
qui en quelque sorte, aident à alimenter cette boucle de rétroaction.
12:28
we help people understandcomprendre in a little more detaildétail
311
733000
2000
Nous aidons les gens à comprendre d'une façon plus détaillée
12:30
what these valuesvaleurs are and what they mightpourrait indicateindiquer.
312
735000
3000
quelles sont ces valeurs et qu'est ce qu'elles indiquent.
12:33
And then we go a furtherplus loin stepétape -- we tell them what they can do.
313
738000
3000
Et après nous allons plus loin: on leur dit qu'est ce qu'ils peuvent faire.
12:36
We give them some insightperspicacité
314
741000
2000
Nous leur donnons une idée
12:38
into what choicesles choix they can make, what actionsactes they can take.
315
743000
3000
de quels choix ils peuvent faire, quelles actions ils peuvent prendre.
12:41
So that's our generalgénéral blooddu sang work testtester.
316
746000
3000
Au final, c'est ça notre analyse sanguine.
12:44
Then we wentest allé to CRPCRP testtester.
317
749000
2000
Après on effectue le test de protéine C réactive.
12:46
In this caseCas, it's a sinSin of omissionomission.
318
751000
2000
Dans ce cas là, c'est un péché d'omission.
12:48
They have this hugeénorme amountmontant of spaceespace,
319
753000
2000
Ils bénéficient d'énormément d'espace,
12:50
and they don't use it for anything, so we do.
320
755000
2000
et ils ne l'utilisent pas, alors nous le faisons.
12:52
Now the CRPCRP testtester is oftensouvent doneterminé
321
757000
2000
Maintenant le test de la protéine C réactive est souvent effectué
12:54
followingSuivant a cholesteroltaux de cholestérol testtester,
322
759000
2000
à la suite d'un test de cholestérol,
12:56
or in conjunctionconjonction with a cholesteroltaux de cholestérol testtester.
323
761000
2000
ou conjointement à un test de cholestérol.
12:58
So we take the boldaudacieux stepétape
324
763000
2000
Alors nous décidons de franchir une étape ambitieuse
13:00
of puttingen mettant the cholesteroltaux de cholestérol informationinformation on the sameMême pagepage,
325
765000
3000
et de mettre les informations liées au cholestérol sur la même page,
13:03
whichlequel is the way the doctordocteur is going to evaluateévaluer it.
326
768000
2000
c'est la façon à travers laquelle le docteur va l'évaluer.
13:05
So we thought the patientpatient mightpourrait actuallyréellement want to know the contextle contexte as well.
327
770000
3000
Alors on s'est dit qu'il se pourrait que le patient veuille lui aussi connaître le contexte.
13:08
It's a proteinprotéine that showsmontre up
328
773000
2000
C'est une protéine qui sert à montrer
13:10
when your blooddu sang vesselsnavires mightpourrait be inflamedenflammée,
329
775000
2000
quand les vaisseaux sanguins peuvent être enflammés,
13:12
whichlequel mightpourrait be a riskrisque for heartcœur diseasemaladie.
330
777000
2000
ce qui peut constituer un risque pour les maladies du coeur.
13:14
What you're actuallyréellement measuringmesure
331
779000
2000
Ce que vous mesurez réellement
13:16
is spelledorthographié out in cleannettoyer languagela langue.
332
781000
2000
est exprimé dans un langage assez clair.
13:18
Then we use the informationinformation
333
783000
2000
Après nous utilisons l'information
13:20
that's alreadydéjà in the lablaboratoire reportrapport.
334
785000
2000
qui est déjà présente dans le rapport du laboratoire.
13:22
We use the person'spersonne ageâge and theirleur genderle genre
335
787000
2000
Nous utilisons l'âge de la personne et son sexe
13:24
to startdébut to fillremplir in the personalizedpersonnalisé risksrisques.
336
789000
3000
pour commencer à dresser la liste des risques personnalisés.
13:27
So we startdébut to use the dataLes données we have
337
792000
2000
Donc on commence à utiliser la donnée que nous avons
13:29
to runcourir a very simplesimple calculationcalcul
338
794000
2000
pour mettre en route un calcul très simple
13:31
that's on all sortssortes of onlineen ligne calculatorscalculatrices
339
796000
2000
qui est disponible sur tous les types de calculatrices en ligne
13:33
to get a sensesens of what the actualréel riskrisque is.
340
798000
3000
pour avoir une idée du risque réel.
13:36
The last one I'll showmontrer you is a PSAMESSAGE D’INTÉRÊT PUBLIC testtester.
341
801000
2000
Le dernier que je vais vous montrer est un test PSA.
13:38
Here'sVoici the before, and here'svoici the after.
342
803000
3000
Voilà l'avant, et voici l'après.
13:41
Now a lot of our efforteffort on this one --
343
806000
2000
Alors maintenant, une grande partie de nos efforts pour celui-là --
13:43
as manybeaucoup of you probablyProbablement know,
344
808000
2000
comme la plupart d'entre vous doivent le savoir,
13:45
a PSAMESSAGE D’INTÉRÊT PUBLIC testtester is a very controversialcontroversé testtester.
345
810000
2000
un test PSA est un test très controversé.
13:47
It's used to testtester for prostateprostate cancercancer,
346
812000
2000
Il est utilisé pour déceler les cancer de la prostate,
13:49
but there are all sortssortes of reasonsles raisons
347
814000
2000
mais il existe toutes sortes de raisons
13:51
why your prostateprostate mightpourrait be enlargedagrandi.
348
816000
2000
pour lesquelles votre prostate pourrait être enflammée.
13:53
And so we spentdépensé a good dealtraiter of our time
349
818000
2000
Et alors nous avons passé une partie importante de notre temps
13:55
indicatingindiquant that.
350
820000
2000
à indiquer cela.
13:57
We again personalizedpersonnalisé the risksrisques.
351
822000
2000
Une fois encore, nous personnalisons les risques.
13:59
So this patientpatient is in theirleur 50s,
352
824000
2000
Pour qu'on puisse donner à ce patient dans sa cinquantaine,
14:01
so we can actuallyréellement give them a very preciseprécis estimateestimation
353
826000
2000
une estimation des plus précises
14:03
of what theirleur riskrisque for prostateprostate cancercancer is.
354
828000
2000
sur les risques de cancer de la prostate.
14:05
In this caseCas it's about 25 percentpour cent, basedbasé on that.
355
830000
3000
Dans ce cas précis, il est autour de 25 pour cent, basé sur cela.
14:08
And then again, the follow-upsuivi actionsactes.
356
833000
3000
Et une fois encore, les actions à suivre.
14:11
So our costCoût for this was lessMoins than 10,000 dollarsdollars, all right.
357
836000
3000
Alors notre coût pour cela était de moins de 10,000 dollars, d'accord.
14:14
That's what WiredWired magazinemagazine spentdépensé on this.
358
839000
3000
Cela équivaut à ce que le magazine Wired a dépensé pour ça.
14:17
Why is WiredWired magazinemagazine doing this?
359
842000
2000
Pourquoi le magazine Wired fait-il cela?
14:19
(LaughterRires)
360
844000
3000
(Rires)
14:22
QuestQuête DiagnosticsDiagnostic and LabCorpLabCorp,
361
847000
2000
Quest Diagnostics et LabCorp,
14:24
the two largestplus grand lablaboratoire testingessai companiesentreprises --
362
849000
3000
les deux entreprises d'analyse les plus importantes:
14:27
last yearan, they madefabriqué profitsbénéfices of over 700 millionmillion dollarsdollars
363
852000
3000
L'année dernière, leurs profits dépassaient les 700 millions de dollars
14:30
and over 500 millionmillion dollarsdollars respectivelyrespectivement.
364
855000
3000
et respectivement plus de 500 millions de dollars.
14:33
Now this is not a problemproblème of resourcesRessources;
365
858000
2000
Alors ce n'est pas un problème de ressources,
14:35
this is a problemproblème of incentivesmesures incitatives.
366
860000
3000
c'est un problème de motivation.
14:38
We need to recognizereconnaître that the targetcible of this informationinformation
367
863000
3000
Nous devons admettre que la cible de cette information
14:41
should not be the doctordocteur, should not be the insuranceAssurance companycompagnie.
368
866000
3000
ne devrait pas être le médecin, ne devrait pas être la compagnie d'assurance;
14:44
It should be the patientpatient.
369
869000
2000
elle devrait être le patient.
14:46
It's the personla personne who actuallyréellement, in the endfin,
370
871000
2000
C'est la personne qui en réalité, en fin de compte,
14:48
is going to be havingayant to changechangement theirleur livesvies
371
873000
2000
va avoir à changer sa vie
14:50
and then startdébut adoptingadopter newNouveau behaviorscomportements.
372
875000
2000
et commencer à adopter de nouveaux comportements.
14:52
This is informationinformation that is incrediblyincroyablement powerfulpuissant.
373
877000
2000
Cette information est incroyablement puissante.
14:54
It's an incrediblyincroyablement powerfulpuissant catalystcatalyseur to changechangement.
374
879000
3000
C'est un catalyseur de changement incroyablement puissant.
14:57
But we're not usingen utilisant it. It's just sittingséance there.
375
882000
2000
Mais nous en l'utilisons pas; elle reste là paisiblement.
14:59
It's beingétant lostperdu.
376
884000
2000
C'est gâché.
15:01
So I want to just offeroffre fourquatre questionsdes questions
377
886000
2000
Alors j'aimerais vous soumettre quatre questions
15:03
that everychaque patientpatient should askdemander,
378
888000
2000
que tous les patients devraient demander,
15:05
because I don't actuallyréellement expectattendre people
379
890000
2000
parce que je ne m'attends pas sérieusement
15:07
to startdébut developingdéveloppement these lablaboratoire testtester reportsrapports.
380
892000
2000
à ce qu'on commence à développer ces rapports de résultats de laboratoire.
15:09
But you can createcréer your ownposséder feedbackretour d'information loopboucle.
381
894000
2000
Mais vous pouvez créer votre propre boucle de rétroaction.
15:11
AnybodyTout le monde can createcréer theirleur feedbackretour d'information loopboucle by askingdemandant these simplesimple questionsdes questions:
382
896000
3000
N'importe qui peut créer sa boucle de rétroaction en demandant ces simples questions:
15:14
Can I have my resultsrésultats?
383
899000
2000
Puis-je avoir mes résultats?
15:16
And the only acceptableacceptable answerrépondre is --
384
901000
2000
Et l'unique réponse acceptable est --
15:18
(AudiencePublic: Yes.) -- yes.
385
903000
2000
(Audience: Oui.) -- Oui.
15:20
What does this mean? Help me understandcomprendre what the dataLes données is.
386
905000
2000
Qu'est-ce que cela signifie? Aidez-moi à comprendre ce que signifient les données.
15:22
What are my optionsoptions? What choicesles choix are now on the tabletable?
387
907000
3000
Quelles sont mes options? Quels sont les choix qui s'offrent à moi?
15:25
And then, what's nextprochain?
388
910000
2000
Et ensuite, qu'est-ce qui se passe après?
15:27
How do I integrateintégrer this informationinformation
389
912000
2000
Comment est-ce que j'intègre l'information
15:29
into the longerplus long coursecours of my life?
390
914000
2000
dans ma vie sur le long terme?
15:32
So I want to windvent up by just showingmontrer
391
917000
2000
Alors j'aimerais conclure en vous montrant
15:34
that people have the capacitycapacité to understandcomprendre this informationinformation.
392
919000
2000
que les gens ont la capacité de comprendre cette information.
15:36
This is not beyondau-delà the graspsaisir of ordinaryordinaire people.
393
921000
3000
Ce n'est pas hors de portée des gens ordinaires.
15:39
You do not need to have the educationéducation levelniveau of people in this roomchambre.
394
924000
3000
Vous n'avez vraiment pas besoin d'avoir le niveau d'éducation des personnes présentes dans cette pièce.
15:42
OrdinaryOrdinaire people are capablecapable of understandingcompréhension this informationinformation,
395
927000
3000
Les gens ordinaires sont capables de comprendre cette information,
15:45
if we only go to the efforteffort of presentingen présentant it to them
396
930000
3000
à condition que nous fassions l'effort de leur représenter
15:48
in a formforme that they can engageengager with.
397
933000
2000
d'une façon qu'ils peuvent aborder.
15:50
And engagementengagement is essentialessentiel here,
398
935000
2000
Et cet engagement est essentiel ici,
15:52
because it's not just givingdonnant them informationinformation;
399
937000
2000
parce que cela ne consiste pas seulement à leur donner des informations,
15:54
it's givingdonnant them an opportunityopportunité to actacte.
400
939000
2000
mais plutôt à leur donner une opportunité d'agir.
15:56
That's what engagementengagement is. It's differentdifférent from complianceCompliance.
401
941000
2000
Voilà ce qu'est l'engagement; c'est bien différent de la notion de complaisance.
15:58
It workstravaux totallytotalement differentdifférent from the way we talk about behaviorcomportement
402
943000
3000
Cela fonctionne d'une façon totalement différente de celle dont nous avons parlé
16:01
in medicinemédicament todayaujourd'hui.
403
946000
2000
dans la médecine actuelle.
16:03
And this informationinformation is out there.
404
948000
2000
Et l'information est quelque part ici.
16:05
I've been talkingparlant todayaujourd'hui about latentlatent informationinformation,
405
950000
2000
Aujourd'hui je vous ai parlé d'information latente,
16:07
all this informationinformation that existsexiste in the systemsystème
406
952000
2000
toute cette information qui existe dans le système
16:09
that we're not puttingen mettant to use.
407
954000
2000
et que nous n'utilisons pas.
16:11
But there are all sortssortes of other bodiescorps of informationinformation
408
956000
2000
Cependant, il existe toutes sortes d'autres morceaux d'information
16:13
that are comingvenir onlineen ligne,
409
958000
2000
qui apparaissent en ligne.
16:15
and we need to recognizereconnaître the capacitycapacité of this informationinformation
410
960000
3000
Et nous devons admettre la capacité de cette information
16:18
to engageengager people, to help people
411
963000
2000
à éveiller l'intérêt des gens, à aider les gens
16:20
and to changechangement the coursecours of theirleur livesvies.
412
965000
2000
et de changer le cours de leurs vies.
16:22
Thank you very much.
413
967000
2000
Merci beaucoup.
16:24
(ApplauseApplaudissements)
414
969000
3000
(Applaudissements)
Translated by Timothée Parrique
Reviewed by Shadia Ramsahye

▲Back to top

ABOUT THE SPEAKER
Thomas Goetz - Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.”

Why you should listen

Thomas Goetz is the co-founder of Iodine, a new company that gives consumers better information -- and better visualizations -- of their health data. The former executive editor of Wired, Goetz has a Master's of Public Health from UC Berkeley. In 2010 he published The Decision Tree, a fascinating look at modern medical decisionmaking and technology. Former FDA commissioner Dr. David Kessler called the book "a game changer.” His next book, The Remedy, explores the germ theory of disease and the quest to cure tuberculosis.

More profile about the speaker
Thomas Goetz | Speaker | TED.com