ABOUT THE SPEAKER
Thomas Goetz - Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.”

Why you should listen

Thomas Goetz is the co-founder of Iodine, a new company that gives consumers better information -- and better visualizations -- of their health data. The former executive editor of Wired, Goetz has a Master's of Public Health from UC Berkeley. In 2010 he published The Decision Tree, a fascinating look at modern medical decisionmaking and technology. Former FDA commissioner Dr. David Kessler called the book "a game changer.” His next book, The Remedy, explores the germ theory of disease and the quest to cure tuberculosis.

More profile about the speaker
Thomas Goetz | Speaker | TED.com
TEDMED 2010

Thomas Goetz: It's time to redesign medical data

Thomas Goetz: Il est temps de repenser les informations médicales

Filmed:
587,895 views

Votre dossier médical: dur à se procurer, impossible à lire -- et rempli d'informations qui pourraient vous permettre d'être en meilleure santé si seulement vous saviez comment les utiliser. A TEDMED, Thomas Goetz se penche sur les données médicales, appelant à une nouvelle conception audacieuse et une meilleure compréhension de celles ci.
- Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.” Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to be talking to you
0
0
2000
Je vais vous parler
00:17
about how we can tap
1
2000
2000
de la façon dont on pourrait exploiter
00:19
a really underutilized resource in health care,
2
4000
2000
une ressource vraiment sous utilisée dans le monde de la santé
00:21
which is the patient,
3
6000
2000
qui est le patient
00:23
or, as I like to use the scientific term,
4
8000
3000
ou -- selon le terme scientifique que j'aime utiliser --
00:26
people.
5
11000
2000
la personne.
00:28
Because we are all patients, we are all people.
6
13000
2000
Parce que nous sommes tous des patients, nous sommes tous des personnes
00:30
Even doctors are patients at some point.
7
15000
2000
Même les docteurs sont des patients à un moment donné.
00:32
So I want to talk about that
8
17000
2000
Donc je veux parler de cela
00:34
as an opportunity
9
19000
2000
comme une opportunité
00:36
that we really have failed to engage with very well in this country
10
21000
3000
dont nous ne nous sommes vraiment pas bien occupé dans ce pays
00:39
and, in fact, worldwide.
11
24000
2000
et, en fait, dans le monde.
00:41
If you want to get at the big part --
12
26000
2000
si vous voulez vraiment vous attaquer à la grande partie --
00:43
I mean from a public health level, where my training is --
13
28000
3000
Je veux dire d'un point de vue de la santé publique, là où j'ai été formé --
00:46
you're looking at behavioral issues.
14
31000
2000
vous vous penchez sur les problèmes comportementaux
00:48
You're looking at things where people are actually given information,
15
33000
3000
vous regardez lees situations où les gens recoivent en fait des informations
00:51
and they're not following through with it.
16
36000
2000
et ne vont pas jusqu'au bout.
00:53
It's a problem that manifests itself in diabetes,
17
38000
4000
C'est un problème qui se manifeste pour le diabète
00:57
obesity, many forms of heart disease,
18
42000
2000
l'obésité, de nombreuses formes de maladies cardiovasculaires,
00:59
even some forms of cancer -- when you think of smoking.
19
44000
3000
même certaines formes de cancer -- quand on pense au tabagisme
01:02
Those are all behaviors where people know what they're supposed to do.
20
47000
3000
Ce sont des comportements pour lesquels les gens savent ce qu'ils doivent faire.
01:05
They know what they're supposed to be doing,
21
50000
2000
Ils savent ce qu'ils sont supposés faire
01:07
but they're not doing it.
22
52000
2000
mais ils ne le font pas.
01:09
Now behavior change is something
23
54000
2000
A présent, le changement comportemental est quelque chose,
01:11
that is a long-standing problem in medicine.
24
56000
2000
qui est un problème de longue date en médecine
01:13
It goes all the way back to Aristotle.
25
58000
2000
Cela remonte à Aristote
01:15
And doctors hate it, right?
26
60000
2000
Et les docteurs détestent cela, c'est vrai.
01:17
I mean, they complain about it all the time.
27
62000
2000
Je veux dire, ils se plaignent de cela tout le temps
01:19
We talk about it in terms of engagement, or non-compliance.
28
64000
3000
Nous en parlons en termes d'engagement, ou de non-compliance,
01:22
When people don't take their pills,
29
67000
2000
lorsque les gens ne prennent pas leurs pilules,
01:24
when people don't follow doctors' orders --
30
69000
2000
quand les gens ne suivent pas les prescriptions des docteurs.
01:26
these are behavior problems.
31
71000
2000
Ce sont des problèmes de comportement.
01:28
But for as much as clinical medicine
32
73000
2000
Mais même si la médecine clinique
01:30
agonizes over behavior change,
33
75000
2000
a des sérieux doutes sur la possiblité de modifier les comportements,
01:32
there's not a lot of work done
34
77000
2000
il n'y a pas de grand chose fait
01:34
in terms of trying to fix that problem.
35
79000
3000
quand il s'agit de régler ce problème.
01:37
So the crux of it
36
82000
2000
Ainsi, la difficulté majeure
01:39
comes down to this notion of decision-making --
37
84000
2000
vient de cette notion de prise de décision --
01:41
giving information to people in a form
38
86000
2000
donner des informations aux gens d'une manière
01:43
that doesn't just educate them
39
88000
2000
qui ne les éduque pas seulement
01:45
or inform them,
40
90000
2000
ou les informe,
01:47
but actually leads them to make better decisions,
41
92000
2000
mais qui les conduise en fait à prendre de meilleures décisions,
01:49
better choices in their lives.
42
94000
2000
de meilleurs choix dans leur vie.
01:51
One part of medicine, though,
43
96000
2000
Une partie de la médecine cependant
01:53
has faced the problem of behavior change pretty well,
44
98000
4000
a plutôt bien réagit face à ce problème de changement comportemental
01:57
and that's dentistry.
45
102000
2000
et c'est la médecine dentaire
01:59
Dentistry might seem -- and I think it is --
46
104000
2000
La médecine dentaire pourrait paraître -- et je pense que c'est le cas --
02:01
many dentists would have to acknowledge
47
106000
2000
de nombreux dentistes devraient reconnaître
02:03
it's somewhat of a mundane backwater of medicine.
48
108000
2000
que c'est en quelque sorte la partie banale de la médecine.
02:05
Not a lot of cool, sexy stuff happening in dentistry.
49
110000
3000
Il ne se passe pas beaucoup de choses sympathiques, exaltantes en médecine dentaire.
02:08
But they have really taken this problem of behavior change
50
113000
3000
Mais ils ont déjà pris ce problème de changement comportemental
02:11
and solved it.
51
116000
2000
et l'ont résolu.
02:13
It's the one great preventive health success
52
118000
2000
C'est le grand succès de la médecine préventive
02:15
we have in our health care system.
53
120000
2000
que nous avons connu dans notre système de santé.
02:17
People brush and floss their teeth.
54
122000
2000
Les gens se brossent les dents et utilisent du fil dentaire
02:19
They don't do it as much as they should, but they do it.
55
124000
3000
Ils ne le font pas autant qu'ils le devraient mais ils le font.
02:22
So I'm going to talk about one experiment
56
127000
2000
Aussi je vais parler d'une expérience
02:24
that a few dentists in Connecticut
57
129000
2000
que quelques dentistes du Connecticut
02:26
cooked up about 30 years ago.
58
131000
2000
ont concoctée il y a une trentaine d'année.
02:28
So this is an old experiment, but it's a really good one,
59
133000
2000
C'est une vieille expérience mais c'en est une très bonne;
02:30
because it was very simple,
60
135000
2000
parce qu'elle est simple,
02:32
so it's an easy story to tell.
61
137000
2000
et c'est une histoire facile à raconter.
02:34
So these Connecticut dentists decided
62
139000
2000
Donc ces dentistes du Connecticut ont décidé
02:36
that they wanted to get people to brush their teeth and floss their teeth more often,
63
141000
3000
qu'ils voulaient que les gens se brossent les dents et utilisent du fil dentaire plus souvent.
02:39
and they were going to use one variable:
64
144000
2000
Et ils allaient utiliser une variable:
02:41
they wanted to scare them.
65
146000
2000
Ils voulaient les effrayer.
02:43
They wanted to tell them how bad it would be
66
148000
3000
Ils voulaient leur dire combien ce serait mauvais
02:46
if they didn't brush and floss their teeth.
67
151000
2000
s'ils ne se brossaient pas les dents ni n'utilisaient du fil dentaire
02:48
They had a big patient population.
68
153000
3000
Ils avaient un grand nombre de patients.
02:51
They divided them up into two groups.
69
156000
2000
Ils les divisèrent en deux groupes.
02:53
They had a low-fear population,
70
158000
2000
Ils avaient une population peu inquiète
02:55
where they basically gave them a 13-minute presentation,
71
160000
2000
à qui ils firent une présentation de 13 minutes
02:57
all based in science,
72
162000
2000
basée sur la science,
02:59
but told them that, if you didn't brush and floss your teeth,
73
164000
3000
mais leur dire "si vous ne vous brossez pas les dents ou si vous n'utilisez pas de fil dentaire,
03:02
you could get gum disease. If you get gum disease, you will lose your teeth,
74
167000
3000
vous pouvez attraper une gingivite. Si vous attrapez une gingivite, vous allez perdre vos dents,
03:05
but you'll get dentures, and it won't be that bad.
75
170000
2000
mais vous aurez des dentiers et ce ne serait pas si grave.
03:07
So that was the low-fear group.
76
172000
2000
Donc voilà pour le groupe à faible niveau de peur.
03:09
The high-fear group, they laid it on really thick.
77
174000
3000
Le groupe a fort niveau de peur, ils ont mis le paquet.
03:12
They showed bloody gums.
78
177000
2000
Ils ont montré des gencives ensanglantées,
03:14
They showed puss oozing out from between their teeth.
79
179000
3000
ils ont montré du pus suintant entre les dents,
03:17
They told them that their teeth were going to fall out.
80
182000
2000
ils leur ont dit que leurs dents allaient tomber,
03:19
They said that they could have infections
81
184000
2000
qu'ils pouvaient avoir des infections,
03:21
that would spread from their jaws to other parts of their bodies,
82
186000
3000
qui pourraient se propager de leurs mâchoire aux autres parties de leur corps,
03:24
and ultimately, yes, they would lose their teeth.
83
189000
2000
et au final, oui, qu'ils perdraient leur dents.
03:26
They would get dentures, and if you got dentures,
84
191000
2000
Ils auraient des dentiers, et si vous avez un dentier,
03:28
you weren't going to be able to eat corn-on-the-cob,
85
193000
2000
vous ne pourrez pas manger les épis de maïs,
03:30
you weren't going to be able to eat apples,
86
195000
2000
qu'ils ne pourraient pas manger de pommes,
03:32
you weren't going to be able to eat steak.
87
197000
2000
vous ne pourrez pas manger de steak;
03:34
You'll eat mush for the rest of your life.
88
199000
2000
vous mangerez de la bouillie toute votre vie.
03:36
So go brush and floss your teeth.
89
201000
3000
Donc allez vous laver les dents et utilisez du fil dentaire.
03:39
That was the message. That was the experiment.
90
204000
2000
C'était le message; c'était l'expérience.
03:41
Now they measured one other variable.
91
206000
2000
Maintenant, ils mesurèrent une autre variable.
03:43
They wanted to capture one other variable,
92
208000
2000
Ils voulaient capturer une autre variable,
03:45
which was the patients' sense of efficacy.
93
210000
3000
qui était l'impression d'efficacité des patients.
03:48
This was the notion of whether the patients felt
94
213000
2000
C'était la notion , si oui ou non les patients avaient le sentiment
03:50
that they actually would go ahead and brush and floss their teeth.
95
215000
3000
qu'ils allaient effectivement se brosser les dents et utiliser du fil dentaire
03:53
So they asked them at the beginning,
96
218000
2000
Ainsi, ils leur demandèrent au début,
03:55
"Do you think you'll actually be able to stick with this program?"
97
220000
2000
"Est ce que vous pensez que vous allez vous tenir à ce programme ? "
03:57
And the people who said, "Yeah, yeah. I'm pretty good about that,"
98
222000
2000
Et les gens qui disaient: "Oui, oui. Je pense."
03:59
they were characterized as high efficacy,
99
224000
2000
étaient caractérisés comme haute efficacité,
04:01
and the people who said,
100
226000
2000
et les gens qui disaient,
04:03
"Eh, I never get around to brushing and flossing as much as I should,"
101
228000
2000
"Oh, je ne réussis jamais à me brosser les dents et à utiliser du fil dentaire aussi souvent que je le devrais"
04:05
they were characterized as low efficacy.
102
230000
2000
étaient caractérisés par une faible efficacité.
04:07
So the upshot was this.
103
232000
3000
Donc le résultat.
04:10
The upshot of this experiment
104
235000
2000
Le résultat de cette expérience,
04:12
was that fear was not really a primary driver
105
237000
3000
était que la peur n'était pas vraiment un facteur primordial
04:15
of the behavior at all.
106
240000
2000
sur le comportement.
04:17
The people who brushed and flossed their teeth
107
242000
2000
Les gens qui se brossaient les dents et utilisaient du fil dentaire
04:19
were not necessarily the people
108
244000
2000
n'étaient pas nécessairement les gens
04:21
who were really scared about what would happen --
109
246000
2000
qui étaient inquiet de ce qu'il pourrait arriver --
04:23
it's the people who simply felt that they had the capacity
110
248000
3000
c'est simplement les gens qui pensaient qu'ils avaient la capacité
04:26
to change their behavior.
111
251000
2000
de changer leur comportement.
04:28
So fear showed up as not really the driver.
112
253000
3000
Ainsi, la peur ne paraissait pas vraiment comme un facteur de motivation;
04:31
It was the sense of efficacy.
113
256000
3000
c'était le sentiment d'efficacité.
04:34
So I want to isolate this,
114
259000
2000
Alors j'aimerais isoler ceci,
04:36
because it was a great observation --
115
261000
2000
parce que c'était une observation importante --
04:38
30 years ago, right, 30 years ago --
116
263000
2000
Il y a 30 ans, oui, 30 ans --
04:40
and it's one that's laid fallow in research.
117
265000
3000
et cela constituait un pan inexploité de la recherche
04:43
It was a notion that really came out
118
268000
2000
c'est une notion qui n'est apparue
04:45
of Albert Bandura's work,
119
270000
2000
qu'avec le travail d'Albert Bandura,
04:47
who studied whether
120
272000
2000
qui étudia si
04:49
people could get a sense of empowerment.
121
274000
3000
les gens pouvaient avoir un sentiment de pouvoir
04:52
The notion of efficacy basically boils down to one -- that
122
277000
3000
La notion d'efficacité fondamentalement se rapporte à cela,
04:55
if somebody believes that they have the capacity to change their behavior.
123
280000
3000
si quelqu'un croit qu'il a la capacité de changer son comportement.
04:58
In health care terms, you could characterize this
124
283000
3000
En termes de santé, vous pouvez caractériser cela
05:01
as whether or not somebody feels
125
286000
2000
comme le fait qu'une personne a le sentiment ou non
05:03
that they see a path towards better health,
126
288000
2000
qu'ils considèrent un moyen vers une meilleure santé,
05:05
that they can actually see their way towards getting better health,
127
290000
2000
qu'ils peuvent en fait visualiser une trajectoire pour être en meilleure santé.
05:07
and that's a very important notion.
128
292000
2000
Et c'est une notion importante.
05:09
It's an amazing notion.
129
294000
2000
C'est une notion étonnante.
05:11
We don't really know how to manipulate it, though, that well.
130
296000
3000
Nous ne savons pas vraiment comment la manipuler si facilement, bien que.
05:14
Except, maybe we do.
131
299000
3000
Sauf peut être que nous pouvons.
05:17
So fear doesn't work, right? Fear doesn't work.
132
302000
2000
Ainsi la peur ne fonctionne pas, d'accord, la peur ne fonctionne pas.
05:19
And this is a great example
133
304000
2000
Et c'est un très bon exemple
05:21
of how we haven't learned that lesson at all.
134
306000
3000
du fait que nous n'avons rien appris de cette leçon.
05:24
This is a campaign from the American Diabetes Association.
135
309000
3000
C'est une campagne de l'Association Américaine des Diabetiques.
05:27
This is still the way we're communicating messages about health.
136
312000
3000
C'est encore la manière dont nous communiquons le message au sujet de la santé.
05:30
I mean, I showed my three-year-old this slide last night,
137
315000
3000
Je veux dire, j'ai montré à mon fils de trois ans cette diapositive la nuit dernière,
05:33
and he's like, "Papa, why is an ambulance in these people's homes?"
138
318000
4000
et il dit quelque chose comme: "Papa, pourquoi il y a une ambulance chez ces gens?"
05:37
And I had to explain, "They're trying to scare people."
139
322000
3000
Et j'ai dû lui expliquer, "Ils essayent de faire peur au gens"
05:40
And I don't know if it works.
140
325000
2000
Et je ne sais pas si cela marche.
05:42
Now here's what does work:
141
327000
2000
Maintenant, voici ce qui marche,
05:44
personalized information works.
142
329000
2000
L'information personnalisée marche.
05:46
Again, Bandura recognized this
143
331000
2000
Encore, Bandura reconnaissait cela
05:48
years ago, decades ago.
144
333000
2000
il y a des années, des décennies.
05:50
When you give people specific information
145
335000
2000
Quand vous donnez aux gens des informations spécifiques
05:52
about their health, where they stand,
146
337000
2000
au sujet de leur santé, où ils en sont,
05:54
and where they want to get to, where they might get to,
147
339000
2000
et où ils veulent aller, où ils pourraient aller,
05:56
that path, that notion of a path --
148
341000
2000
ce cheminement, cette notion de cheminement,
05:58
that tends to work for behavior change.
149
343000
2000
cela tend à fonctionner pour le changement comportemental.
06:00
So let me just spool it out a little bit.
150
345000
2000
Donc permettez moi d'aller un peu plus loin.
06:02
So you start with personalized data, personalized information
151
347000
3000
Donc vous commencez avec des données personnalisées, des informations personnalisées,
06:05
that comes from an individual,
152
350000
2000
qui proviennent d'un individu,
06:07
and then you need to connect it to their lives.
153
352000
3000
et ensuite il faut que vous les connectiez avec leur vie.
06:10
You need to connect it to their lives,
154
355000
2000
il faut que vous les mettiez en connexion avec leur vie,
06:12
hopefully not in a fear-based way, but one that they understand.
155
357000
2000
heureusement pas d'une manière anxiogène, mais d'une manière qu'ils peuvent comprendre.
06:14
Okay, I know where I sit. I know where I'm situated.
156
359000
3000
Okay, Je sais où je suis assis. Je sais où je me situe.
06:17
And that doesn't just work for me in terms of abstract numbers --
157
362000
3000
Et cela ne fonctionne pas seulement pour moi en termes de chiffres abstraits,
06:20
this overload of health information
158
365000
2000
cette surcharge d'informations médicales
06:22
that we're inundated with.
159
367000
2000
qui nous submergent
06:24
But it actually hits home.
160
369000
2000
mais en fait cela nous touche.
06:26
It's not just hitting us in our heads; it's hitting us in our hearts.
161
371000
2000
Il ne s'agit pas seulement de toucher notre tête, mais de toucher notre coeur.
06:28
There's an emotional connection to information
162
373000
2000
Il y a une connexion émotionnelle à l'information
06:30
because it's from us.
163
375000
2000
parce qu'il s'agit de nous.
06:32
That information then needs to be connected to choices,
164
377000
3000
Ces informations ensuite ont besoin d'être mises en relation avec des choix,
06:35
needs to be connected to a range of options,
165
380000
2000
il faut les mettre en relation avec un éventail d'options
06:37
directions that we might go to --
166
382000
2000
de directions que l'on pourrait suivre --
06:39
trade-offs, benefits.
167
384000
2000
des compromis, des bénéfices.
06:41
Finally, we need to be presented with a clear point of action.
168
386000
3000
Finalement, il faut nous présenter un point d'action précis.
06:44
We need to connect the information
169
389000
2000
Nous avons besoin de relier les informations
06:46
always with the action,
170
391000
2000
toujours avec les actions,
06:48
and then that action feeds back
171
393000
2000
et ensuite les retours de ces actions
06:50
into different information,
172
395000
2000
avec d'autres informations,
06:52
and it creates, of course, a feedback loop.
173
397000
2000
et cela crée , bien sûr, une boucle de rétroaction
06:54
Now this is a very well-observed and well-established notion
174
399000
3000
Bon, c'est une notion très bien observée et bien établie
06:57
for behavior change.
175
402000
2000
pour le changement comportemental.
06:59
But the problem is that things -- in the upper-right corner there --
176
404000
3000
Mais le problème est que ces choses là dans le coin en haut à droite,
07:02
personalized data, it's been pretty hard to come by.
177
407000
2000
les données personnalisées, c'est plutôt difficile de les rassembler.
07:04
It's a difficult and expensive commodity,
178
409000
3000
C'est quelque chose de difficile et de coûteux
07:07
until now.
179
412000
2000
jusqu'à présent.
07:09
So I'm going to give you an example, a very simple example of how this works.
180
414000
3000
Donc je vais vous donner un exemple, un exemple très simple de la façon dont cela fonctionne
07:12
So we've all seen these. These are the "your speed limit" signs.
181
417000
3000
Donc nous avons les avons tous vus. Ce sont les panneaux de limitation de vitesse
07:15
You've seen them all around,
182
420000
2000
Vous les voyez partout autour de vous,
07:17
especially these days as radars are cheaper.
183
422000
2000
spécialement de nos jours comme les radars sont moins chers.
07:19
And here's how they work in the feedback loop.
184
424000
2000
Et voici comment ils fonctionnent dans une boucle de rétroaction.
07:21
So you start with the personalized data
185
426000
2000
Donc, vous commencez avec les données personnalisées
07:23
where the speed limit on the road that you are at that point
186
428000
2000
là où la limitation de vitesse sur la route, là où vous êtes
07:25
is 25,
187
430000
2000
est de 25,
07:27
and, of course, you're going faster than that.
188
432000
2000
et, bien entendu, vous allez plus vite que cela.
07:29
We always are. We're always going above the speed limit.
189
434000
3000
On le fait toujours. Nous allons toujours plus vite que la limitation de vitesse
07:32
The choice in this case is pretty simple.
190
437000
2000
Le choix dans ce cas est plutôt simple.
07:34
We either keep going fast, or we slow down.
191
439000
2000
Nous continuons soit d'aller vite, ou alors nous ralentissons
07:36
We should probably slow down,
192
441000
2000
Nous devrions probablement ralentir,
07:38
and that point of action is probably now.
193
443000
2000
et ce point d'action est probablement maintenant.
07:40
We should take our foot off the pedal right now,
194
445000
3000
Nous devrions lever notre pied de la pédale maintenant.
07:43
and generally we do. These things are shown to be pretty effective
195
448000
3000
Et généralement, nous le faisons; ces choses s'avèrent plutôt efficaces
07:46
in terms of getting people to slow down.
196
451000
2000
en ce qui concerne de faire ralentir les gens.
07:48
They reduce speeds by about five to 10 percent.
197
453000
2000
Ils réduisent la vitesse d'à peu près 5 à 10 %
07:50
They last for about five miles,
198
455000
2000
Cela dure à peu près cinq miles,
07:52
in which case we put our foot back on the pedal.
199
457000
2000
et dans ce cas nous appuyons de nouveau sur la pédale d'accélération
07:54
But it works, and it even has some health repercussions.
200
459000
2000
Mais cela marche, et cela a même des répercussions sur la santé.
07:56
Your blood pressure might drop a little bit.
201
461000
2000
Votre pression artérielle devrait diminuer un peu.
07:58
Maybe there's fewer accidents, so there's public health benefits.
202
463000
3000
Peut être y a t il moins d'accidents, donc il y a des bénéfices pour la santé publique.
08:01
But by and large, this is a feedback loop
203
466000
2000
Mais en général, c'est une boucle de rétroaction
08:03
that's so nifty and too rare.
204
468000
3000
c'est tellement habile mais tellement rare.
08:06
Because in health care, most health care,
205
471000
2000
Parce que pour la santé, la plupart des soins médicaux,
08:08
the data is very removed from the action.
206
473000
3000
la donnée est absolument retirée de l'action
08:11
It's very difficult to line things up so neatly.
207
476000
3000
C'est très difficile d'aligner ces choses clairement.
08:14
But we have an opportunity.
208
479000
2000
Mais nous avons une opportunité.
08:16
So I want to talk about, I want to shift now to think about
209
481000
2000
Ainsi je veux parler,je veux passer maintenant à la réflexion sur
08:18
how we deliver health information in this country,
210
483000
2000
la manière dont nous fournissons les informations médicales dans ce pays.
08:20
how we actually get information.
211
485000
3000
Comment nous obtenons en fait les informations.
08:23
This is a pharmaceutical ad.
212
488000
3000
C'est une publicité pharmaceutique.
08:26
Actually, it's a spoof. It's not a real pharmaceutical ad.
213
491000
2000
En fait, c'est une parodie; ce n'est pas une vraie réclame pharmaceutique.
08:28
Nobody's had the brilliant idea
214
493000
2000
Personne n'a eu l'idée géniale
08:30
of calling their drug Havidol quite yet.
215
495000
3000
d'appeler son médicament Havidol jusqu'à maintenant.
08:34
But it looks completely right.
216
499000
2000
Mais cela semble complètement vrai.
08:36
So it's exactly the way we get
217
501000
2000
Donc, c'est exactement la manière dont nous obtenons
08:38
health information and pharmaceutical information,
218
503000
3000
les informations médicales et les informations pharmaceutiques
08:41
and it just sounds perfect.
219
506000
2000
et cela semble parfait.
08:43
And then we turn the page of the magazine,
220
508000
2000
Et après on tourne la page du magazine,
08:45
and we see this --
221
510000
3000
et on voit cela, oui, on voit cela.
08:48
now this is the page the FDA requires pharmaceutical companies
222
513000
3000
Là, c'est la page dans laquelle la FDA exige des entreprises pharmacologiques
08:51
to put into their ads, or to follow their ads,
223
516000
3000
qu'elles ajoutent à leur réclame où à la suite de leur réclame.
08:54
and to me, this is one of the most
cynical exercises in medicine.
224
519000
4000
Et pour moi, c'est un des exercices cyniques de la médecine.
08:58
Because we know.
225
523000
2000
Parce que nous savons
09:00
Who among us would actually say that people read this?
226
525000
2000
Qui parmi nous dirait en fait que les gens le lisent ?
09:02
And who among us would actually say
227
527000
2000
Et parmi nous qui en fait dit
09:04
that people who do try to read this
228
529000
2000
que les gens qui essayent de le lire
09:06
actually get anything out of it?
229
531000
2000
en retirent en fait quelque chose ?
09:08
This is a bankrupt effort
230
533000
2000
C'est un effort voué à l'échec
09:10
at communicating health information.
231
535000
3000
de communiquer des informations médicales.
09:13
There is no good faith in this.
232
538000
2000
Personne n'y croit.
09:15
So this is a different approach.
233
540000
2000
C'est donc une approche différente.
09:17
This is an approach that has been developed
234
542000
3000
C'est une approche qui a été développée
09:20
by a couple researchers at Dartmouth Medical School,
235
545000
3000
par quelques chercheurs à l'Ecole de Médecine de Dartmouth
09:23
Lisa Schwartz and Steven Woloshin.
236
548000
2000
Lisa Schwartz et Steven Woloshin.
09:25
And they created this thing called the "drug facts box."
237
550000
3000
Et ils ont inventé cette chose appelée l'encadré médicamenteux
09:28
They took inspiration from, of all things,
238
553000
2000
Ils se sont inspirés, entre autres choses,
09:30
Cap'n Crunch.
239
555000
2000
de Cap'n Crunch.
09:32
They went to the nutritional information box
240
557000
3000
Ils en sont venus aux encarts d'information nutritionnels
09:35
and saw that what works for cereal, works for our food,
241
560000
3000
et ont vu que ce qui marche pour les céréales, marche pour la nourriture,
09:38
actually helps people understand what's in their food.
242
563000
3000
en fait aide les gens à comprendre ce qu'il y a dans leur nourriture.
09:42
God forbid we should use that same standard
243
567000
2000
Pourvu que nous ne puissions utiliser la même norme
09:44
that we make Cap'n Crunch live by
244
569000
2000
que celle utilisée par Cap'n Crunch
09:46
and bring it to drug companies.
245
571000
3000
et l'utiliser pour les compagnies pharmaceutiques.
09:49
So let me just walk through this quickly.
246
574000
2000
Euh, laissez moi juste en parler rapidement.
09:51
It says very clearly what the drug is for, specifically who it is good for,
247
576000
3000
Cela dit clairement à quoi sert le médicament, et spécialement à qui cela est destiné
09:54
so you can start to personalize your understanding
248
579000
2000
de manière que vous pouvez commencer à personnaliser votre compréhension
09:56
of whether the information is relevant to you
249
581000
2000
si les informations sont pertinentes pour vous
09:58
or whether the drug is relevant to you.
250
583000
2000
ou si le médicament est approprié pour vous.
10:00
You can understand exactly what the benefits are.
251
585000
3000
Vous pouvez comprendre exactement quels sont les avantages.
10:03
It isn't this kind of vague promise that it's going to work no matter what,
252
588000
3000
Ce n'est pas le genre de vague promesse qui va marcher quoi qu'il en soit,
10:06
but you get the statistics for how effective it is.
253
591000
3000
mais vous avez les statistiques qui montrent comme c'est efficace.
10:09
And finally, you understand what those choices are.
254
594000
3000
Et finalement , vous comprenez quels sont les choix.
10:12
You can start to unpack the choices involved
255
597000
2000
Vous pouvez commencer à découvrir les implications en terme de choix
10:14
because of the side effects.
256
599000
2000
A cause des effets secondaires.
10:16
Every time you take a drug, you're walking into a possible side effect.
257
601000
3000
Chaque fois que vous prenez un médicament, vous prenez le risque d'un effet secondaire.
10:19
So it spells those out in very clean terms,
258
604000
2000
Alors il vous les précise avec des termes très clairs.
10:21
and that works.
259
606000
2000
Et ça marche.
10:23
So I love this. I love that drug facts box.
260
608000
2000
J'aime cela. J'aime cet encart de données médicamenteuses.
10:25
And so I was thinking about,
261
610000
2000
Et aussi je pensais,
10:27
what's an opportunity that I could have
262
612000
2000
quelle opportunité pourrais-je avoir
10:29
to help people understand information?
263
614000
3000
pour aider les gens à comprendre les informations ?
10:32
What's another latent body of information that's out there
264
617000
4000
Quel autre type latent d'information qui est ici
10:36
that people are really not putting to use?
265
621000
3000
que les gens ne mettent vraiment pas en pratique.
10:39
And so I came up with this: lab test results.
266
624000
3000
Et j'en suis arriver à cela: les résultats de tests en laboratoire.
10:42
Blood test results are this great source of information.
267
627000
3000
Les résultats de tests sanguins sont une grande source d'informations.
10:45
They're packed with information.
268
630000
2000
Elles sont remplies d'informations.
10:47
They're just not for us. They're not for people. They're not for patients.
269
632000
3000
Elles ne sont pas que pour nous; elles ne sont pas pour les gens; elles ne sont pas pour les patients.
10:50
They go right to doctors.
270
635000
2000
Elle sont destinées aux docteurs.
10:52
And God forbid -- I think many doctors, if you really asked them,
271
637000
3000
Et Dieu me garde - je pense que beaucoup de docteurs, si vous leur demandez vrairment,
10:55
they don't really understand all this stuff either.
272
640000
3000
ne comprennent pas vraiment non plus tout ces trucs.
10:58
This is the worst presented information.
273
643000
3000
Ce sont les pire informations présentées.
11:01
You ask Tufte, and he would say,
274
646000
3000
Vous demandez à Tufte and il vous dirait,
11:04
"Yes, this is the absolute worst presentation of information possible."
275
649000
3000
"Oui, c'est la pire des présentation possible pour des informations."
11:07
What we did at Wired
276
652000
2000
Ce que nous avons fait à Wired
11:09
was we went, and I got our graphic design department
277
654000
2000
c'était que nous sommes allés voir notre département de graphisme
11:11
to re-imagine these lab reports.
278
656000
2000
pour ré-imaginer ces rapports de laboratoire.
11:13
So that's what I want to walk you through.
279
658000
2000
C'est ce que je veux vous démontrer.
11:15
So this is the general blood work before,
280
660000
3000
Ainsi c'est le document sanguin général avant,
11:18
and this is the after, this is what we came up with.
281
663000
2000
et c'est après, c'est ce que nous proposons maintenant/
11:20
The after takes what was four pages --
282
665000
2000
Celle d'après prenait quatre pages --
11:22
that previous slide was actually
283
667000
2000
cette diapositive était en fait
11:24
the first of four pages of data
284
669000
2000
la première de quatre pages de données
11:26
that's just the general blood work.
285
671000
2000
c'est seulement l'analyse de sang classique.
11:28
It goes on and on and on, all these values, all these numbers you don't know.
286
673000
3000
Cela continue encore et encore, toutes ces données, tous ces nombres que vous connaissez.
11:31
This is our one-page summary.
287
676000
3000
C'est notre résumé d'une page.
11:34
We use the notion of color.
288
679000
2000
Nous utilisons la notion de couleur.
11:36
It's an amazing notion that color could be used.
289
681000
3000
C'est une idée étonnante que d'utiliser la couleur.
11:39
So on the top-level you have your overall results,
290
684000
3000
Donc en haut vous avez vos résultats généraux,
11:42
the things that might jump out at you from the fine print.
291
687000
3000
Les choses qui pourraient vous sauter aux yeux parmi les détails.
11:45
Then you can drill down
292
690000
2000
Ensuite vous pouvez creuser
11:47
and understand how actually we put your level in context,
293
692000
3000
et comprendre en fait comment nous contextualisons votre niveau,
11:50
and we use color to illustrate
294
695000
2000
et nous utilisons de la couleur pour illustrer
11:52
exactly where your value falls.
295
697000
2000
exactement là où vos données tombent.
11:54
In this case, this patient is slightly at risk of diabetes
296
699000
3000
Dans ce cas, le patient court de légers risques de diabète
11:57
because of their glucose level.
297
702000
2000
à cause de son niveau de glucose.
11:59
Likewise, you can go over your lipids
298
704000
2000
De la même manière, vous pouvez allez sur les lipides
12:01
and, again, understand what your overall cholesterol level is
299
706000
3000
et, encore, comprendre quel est votre niveau général de cholestérol
12:04
and then break down into the HDL and the LDL if you so choose.
300
709000
3000
et ensuite le décomposer en HDL et LDL selon votre choix.
12:07
But again, always using color
301
712000
2000
Mais encore, toujours en utilisant la couleur
12:09
and personalized proximity
302
714000
2000
et une proximité personnalisée
12:11
to that information.
303
716000
2000
avec ces informations.
12:13
All those other values,
304
718000
2000
Et ces autres valeurs,
12:15
all those pages and pages of values that are full of nothing,
305
720000
2000
toutes ces pages et ces pages de valeurs qui sont pleines de rien,
12:17
we summarize.
306
722000
2000
nous les résumons.
12:19
We tell you that you're okay, you're normal.
307
724000
2000
Nous vous disons que vous êtes ok, que vous êtes normal.
12:21
But you don't have to wade through it. You don't have to go through the junk.
308
726000
3000
Mais vous n'avez pas à vous frayer un chemin. Vous n'avez pas à trier le bric à brac.
12:24
And then we do two other very important things
309
729000
2000
Et ensuite nous faisons deux autres choses très importantes
12:26
that kind of help fill in this feedback loop:
310
731000
2000
qui aident en quelque sorte à boucler la boucle de rétroaction.
12:28
we help people understand in a little more detail
311
733000
2000
Nous aidons les gens à comprendre avec un peu plus de détails
12:30
what these values are and what they might indicate.
312
735000
3000
ce que ces valeurs sont et ce qu'elles peuvent indiquer.
12:33
And then we go a further step -- we tell them what they can do.
313
738000
3000
Et ensuite nous allons encore plus loin: nous leurs disons ce qu'ils peuvent faire.
12:36
We give them some insight
314
741000
2000
Nous leur donnons un aperçu
12:38
into what choices they can make, what actions they can take.
315
743000
3000
des choix qu'ils peuvent faire, des actions qu'ils peuvent réaliser.
12:41
So that's our general blood work test.
316
746000
3000
Là c'est notre test sanguin classique.
12:44
Then we went to CRP test.
317
749000
2000
Ensuite nous avons fait le test CRP de protéine C réactive
12:46
In this case, it's a sin of omission.
318
751000
2000
Dans ce cas, c'est un péché par omission.
12:48
They have this huge amount of space,
319
753000
2000
Ils ont tout cet espace,
12:50
and they don't use it for anything, so we do.
320
755000
2000
et ils ne l'utilisent pas contrairement à nous.
12:52
Now the CRP test is often done
321
757000
2000
Maintenant le test de CRP est souvent fait
12:54
following a cholesterol test,
322
759000
2000
à la suite d'un test de cholestérol,
12:56
or in conjunction with a cholesterol test.
323
761000
2000
ou conjointement à un test de cholestérol.
12:58
So we take the bold step
324
763000
2000
Alors nous franchissons une étape ambitieuse
13:00
of putting the cholesterol information on the same page,
325
765000
3000
et de mettre les informations liées au cholestérol sur la même page
13:03
which is the way the doctor is going to evaluate it.
326
768000
2000
qui est la façon dont le docteur va l'évaluer.
13:05
So we thought the patient might actually want to know the context as well.
327
770000
3000
Ainsi nous pensions que le patient pourrait en fait avoir envie de connaître le contexte aussi.
13:08
It's a protein that shows up
328
773000
2000
C'est une protéine qui monte
13:10
when your blood vessels might be inflamed,
329
775000
2000
lors d'une inflammation de vos vaisseaux sanguins,
13:12
which might be a risk for heart disease.
330
777000
2000
ce qui pourrait être un risque de maladie cardiovasculaire.
13:14
What you're actually measuring
331
779000
2000
Ce que vous mesurez en fait
13:16
is spelled out in clean language.
332
781000
2000
est expliqué dans un langage simple et clair.
13:18
Then we use the information
333
783000
2000
Ensuite nous utilisons les informations
13:20
that's already in the lab report.
334
785000
2000
qui sont déjà dans le rapport du laboratoire.
13:22
We use the person's age and their gender
335
787000
2000
Nous utilisons l'âge de la personne et son sexe
13:24
to start to fill in the personalized risks.
336
789000
3000
pour commencer à remplir les risques personalisés.
13:27
So we start to use the data we have
337
792000
2000
Donc nous commençons à utiliser les données que nous avons
13:29
to run a very simple calculation
338
794000
2000
pour effectuer un simple calcul
13:31
that's on all sorts of online calculators
339
796000
2000
qui est sur tout type de calculatrice en ligne
13:33
to get a sense of what the actual risk is.
340
798000
3000
pour avoir une idée du risque réel.
13:36
The last one I'll show you is a PSA test.
341
801000
2000
Le dernier que je vais vous montrer est un test PSA.
13:38
Here's the before, and here's the after.
342
803000
3000
Là c'est avant, là c'est après.
13:41
Now a lot of our effort on this one --
343
806000
2000
Maintenant pas mal d'efforts pour celui là --
13:43
as many of you probably know,
344
808000
2000
comme beaucoup d'entre vous le savent probablement,
13:45
a PSA test is a very controversial test.
345
810000
2000
un test PSA est un test controversé.
13:47
It's used to test for prostate cancer,
346
812000
2000
Il est utilisé pour tester le cancer de la prostate,
13:49
but there are all sorts of reasons
347
814000
2000
mais il y a toutes sortes de raisons
13:51
why your prostate might be enlarged.
348
816000
2000
pour lesquelles votre prostate pourrait prendre du volume
13:53
And so we spent a good deal of our time
349
818000
2000
Et ainsi nous avons passé beaucoup de temps
13:55
indicating that.
350
820000
2000
pour l'indiquer.
13:57
We again personalized the risks.
351
822000
2000
Nous avons encore personnalisé les risques.
13:59
So this patient is in their 50s,
352
824000
2000
Donc ce patient est dans la cinquantaine,
14:01
so we can actually give them a very precise estimate
353
826000
2000
de telle manière que nous pouvons en fait donner une estimation très précise
14:03
of what their risk for prostate cancer is.
354
828000
2000
de son risque de cancer de la prostate.
14:05
In this case it's about 25 percent, based on that.
355
830000
3000
Dans ce cas il est d'à peu près 25 pour cent, d'après cela.
14:08
And then again, the follow-up actions.
356
833000
3000
Et ensuit encore, les actions à suivre.
14:11
So our cost for this was less than 10,000 dollars, all right.
357
836000
3000
Donc notre coût pour cela fût de moins de 10,000 $ , d'accord.
14:14
That's what Wired magazine spent on this.
358
839000
3000
C'est ce que le magazine Wired a dépensé pour cela.
14:17
Why is Wired magazine doing this?
359
842000
2000
Pourquoi Wired magazine fait il cela ?
14:19
(Laughter)
360
844000
3000
(Rires)
14:22
Quest Diagnostics and LabCorp,
361
847000
2000
Quest Diagnostics et LabCorp,
14:24
the two largest lab testing companies --
362
849000
3000
les deux plus grands laboratoires de tests:
14:27
last year, they made profits of over 700 million dollars
363
852000
3000
l'année dernière, ils ont fait plus de 700 millions de dollars en bénéfices
14:30
and over 500 million dollars respectively.
364
855000
3000
et plus de 500 million de dollars respectivement.
14:33
Now this is not a problem of resources;
365
858000
2000
Donc ce n'est pas un problème de ressources,
14:35
this is a problem of incentives.
366
860000
3000
c'est un problème d'incitations.
14:38
We need to recognize that the target of this information
367
863000
3000
Nous devons reconnaître que la cible de ces informations
14:41
should not be the doctor, should not be the insurance company.
368
866000
3000
ne devraient pas être le docteur, ne devrait pas être les assurances;
14:44
It should be the patient.
369
869000
2000
ce devrait être le patient.
14:46
It's the person who actually, in the end,
370
871000
2000
C'est la personne qui en fait , au final,
14:48
is going to be having to change their lives
371
873000
2000
devra changer sa vie.
14:50
and then start adopting new behaviors.
372
875000
2000
et ensuite adopter de nouveau comportements.
14:52
This is information that is incredibly powerful.
373
877000
2000
Ce sont des informations qui sont incroyablement puissantes.
14:54
It's an incredibly powerful catalyst to change.
374
879000
3000
C'est un catalyseur pour le changement incroyablement puissant.
14:57
But we're not using it. It's just sitting there.
375
882000
2000
Mais nous ne l'utilisons pas; c'est juste là.
14:59
It's being lost.
376
884000
2000
C'est perdu.
15:01
So I want to just offer four questions
377
886000
2000
Donc je veux vous proposer seulement quatre questions
15:03
that every patient should ask,
378
888000
2000
que chaque patient devrait demander,
15:05
because I don't actually expect people
379
890000
2000
parce que je ne m'attends pas en fait que le gens
15:07
to start developing these lab test reports.
380
892000
2000
commencent à développer ces rapports d'analyse.
15:09
But you can create your own feedback loop.
381
894000
2000
Mais vous pouvez créer votre propre boucle de rétroaction.
15:11
Anybody can create their feedback loop by asking these simple questions:
382
896000
3000
Chacun peut créer sa boucle de rétroaction en se posant ces simples questions:
15:14
Can I have my results?
383
899000
2000
Puis avoir mes résultats ?
15:16
And the only acceptable answer is --
384
901000
2000
Et la seule réponse acceptable est --
15:18
(Audience: Yes.) -- yes.
385
903000
2000
(Audience: Yes) -- yes.
15:20
What does this mean? Help me understand what the data is.
386
905000
2000
Qu'est ce que cela signifie ? Aidez moi à comprendre ce que sont ces données.
15:22
What are my options? What choices are now on the table?
387
907000
3000
Quelles sont mes options ? Quels sont les choix disponibles ?
15:25
And then, what's next?
388
910000
2000
Et ensuite, quelle est la suite ?
15:27
How do I integrate this information
389
912000
2000
Comment j'intègre ces informations
15:29
into the longer course of my life?
390
914000
2000
tout au long de ma vie ?
15:32
So I want to wind up by just showing
391
917000
2000
Alors je voudrais conclure en vous montrant seulement
15:34
that people have the capacity to understand this information.
392
919000
2000
que les gens ont la capacité de comprendre les informations.
15:36
This is not beyond the grasp of ordinary people.
393
921000
3000
Ce n'est pas hors de portée des gens ordinaires.
15:39
You do not need to have the education level of people in this room.
394
924000
3000
Vous n'avez pas besoin d'avoir le niveau d'éducation des gens ici dans cette salle.
15:42
Ordinary people are capable of understanding this information,
395
927000
3000
Les gens ordinaires sont capables de comprendre ces informations,
15:45
if we only go to the effort of presenting it to them
396
930000
3000
si seulement nous faisons l'effort de les leur présenter
15:48
in a form that they can engage with.
397
933000
2000
sous une forme qu'ils peuvent aborder.
15:50
And engagement is essential here,
398
935000
2000
Et l'engagement est essentiel ici,
15:52
because it's not just giving them information;
399
937000
2000
parce qu'il ne s'agit pas seulement de leurs donner des informations
15:54
it's giving them an opportunity to act.
400
939000
2000
il s'agit de leurs donner une occasion d'agir.
15:56
That's what engagement is. It's different from compliance.
401
941000
2000
C'est ça l'engagement; c'est différent de respect des règles.
15:58
It works totally different from the way we talk about behavior
402
943000
3000
Cela marche de manière totalement différente par rapport à la manière dont nous avons parlé au sujet du comportement
16:01
in medicine today.
403
946000
2000
dans la médecine moderne.
16:03
And this information is out there.
404
948000
2000
Et ces informations sont là.
16:05
I've been talking today about latent information,
405
950000
2000
J'ai parlé aujourd'hui des informations latentes,
16:07
all this information that exists in the system
406
952000
2000
toutes ces informations qui existent dans le système
16:09
that we're not putting to use.
407
954000
2000
que nous ne mettons pas en oeuvre.
16:11
But there are all sorts of other bodies of information
408
956000
2000
Mais il y a toutes sortes de classes d'informations.
16:13
that are coming online,
409
958000
2000
qui sont disponible en ligne.
16:15
and we need to recognize the capacity of this information
410
960000
3000
Et nous devons reconnaître la capacité de ces informations
16:18
to engage people, to help people
411
963000
2000
à mobiliser les gens, à aider les gens
16:20
and to change the course of their lives.
412
965000
2000
et à changer le cours de leurs vies.
16:22
Thank you very much.
413
967000
2000
Merci beaucoups.
16:24
(Applause)
414
969000
3000
(Applaudissements)

▲Back to top

ABOUT THE SPEAKER
Thomas Goetz - Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.”

Why you should listen

Thomas Goetz is the co-founder of Iodine, a new company that gives consumers better information -- and better visualizations -- of their health data. The former executive editor of Wired, Goetz has a Master's of Public Health from UC Berkeley. In 2010 he published The Decision Tree, a fascinating look at modern medical decisionmaking and technology. Former FDA commissioner Dr. David Kessler called the book "a game changer.” His next book, The Remedy, explores the germ theory of disease and the quest to cure tuberculosis.

More profile about the speaker
Thomas Goetz | Speaker | TED.com