ABOUT THE SPEAKER
Thomas Goetz - Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.”

Why you should listen

Thomas Goetz is the co-founder of Iodine, a new company that gives consumers better information -- and better visualizations -- of their health data. The former executive editor of Wired, Goetz has a Master's of Public Health from UC Berkeley. In 2010 he published The Decision Tree, a fascinating look at modern medical decisionmaking and technology. Former FDA commissioner Dr. David Kessler called the book "a game changer.” His next book, The Remedy, explores the germ theory of disease and the quest to cure tuberculosis.

More profile about the speaker
Thomas Goetz | Speaker | TED.com
TEDMED 2010

Thomas Goetz: It's time to redesign medical data

Thomas Goetz: É hora de reformular os dados médicos

Filmed:
587,895 views

Seu prontuário médico: É difícil de acessar, impossível de ler -- e cheio de informações que lhe tornariam mais saudável se você pelo menos soubesse como usá-lo. No TEDMED, Thomas Goetz analisa os dados médicos, fazendo uma chamada corajosa para reformulá-los e obter mais informação dos mesmos.
- Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.” Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to be talking to you
0
0
2000
Eu irei falar para vocês
00:17
about how we can tap
1
2000
2000
sobre como podemos abordar
00:19
a really underutilized resource in health care,
2
4000
2000
um recurso sub-utilizado na saúde pública,
00:21
which is the patient,
3
6000
2000
que é o paciente,
00:23
or, as I like to use the scientific term,
4
8000
3000
ou -- como gosto de usar o termo científico --
00:26
people.
5
11000
2000
pessoas.
00:28
Because we are all patients, we are all people.
6
13000
2000
Porque nós todos somos pacientes, nós todos somos pessoas.
00:30
Even doctors are patients at some point.
7
15000
2000
Mesmo os médicos são pacientes em um certo ponto.
00:32
So I want to talk about that
8
17000
2000
Portanto, eu quero falar sobre isso
00:34
as an opportunity
9
19000
2000
como uma oportunidade
00:36
that we really have failed to engage with very well in this country
10
21000
3000
com a qual nós realmente temos falhado em nos engajar bem nesse país
00:39
and, in fact, worldwide.
11
24000
2000
e, de fato, no mundo todo.
00:41
If you want to get at the big part --
12
26000
2000
Se você quiser atingir um âmbito maior --
00:43
I mean from a public health level, where my training is --
13
28000
3000
Quer dizer, do ponto de vista de saúde pública, de onde vem meu treinamento --
00:46
you're looking at behavioral issues.
14
31000
2000
você está olhando para problemas comportamentais,
00:48
You're looking at things where people are actually given information,
15
33000
3000
você está olhando para coisas nas quais as pessoas estão realmente provendo informação,
00:51
and they're not following through with it.
16
36000
2000
e elas não estão utilizando essa fonte de informação.
00:53
It's a problem that manifests itself in diabetes,
17
38000
4000
É um problema que se manifesta em diabetes,
00:57
obesity, many forms of heart disease,
18
42000
2000
obesidade, em muitas formas de doenças cardíacas,
00:59
even some forms of cancer -- when you think of smoking.
19
44000
3000
até mesmo em algumas formas de câncer -- quando você pensa em fumo.
01:02
Those are all behaviors where people know what they're supposed to do.
20
47000
3000
Esses são comportamentos em que as pessoas sabem o que devem fazer.
01:05
They know what they're supposed to be doing,
21
50000
2000
Elas sabem o que deveriam estar fazendo,
01:07
but they're not doing it.
22
52000
2000
mas, não o estão fazendo.
01:09
Now behavior change is something
23
54000
2000
Agora mudança de comportamento é uma coisa
01:11
that is a long-standing problem in medicine.
24
56000
2000
um problema antigo em medicina.
01:13
It goes all the way back to Aristotle.
25
58000
2000
Que nos leva lá trás de volta a Aristóteles.
01:15
And doctors hate it, right?
26
60000
2000
E os médicos odeiam, correto.
01:17
I mean, they complain about it all the time.
27
62000
2000
Quero dizer, eles reclamam sobre isso o tempo todo.
01:19
We talk about it in terms of engagement, or non-compliance.
28
64000
3000
Nós falamos sobre isso em termos de envolvimento, ou não-conformidade,
01:22
When people don't take their pills,
29
67000
2000
quando as pessoas não tomam suas pílulas,
01:24
when people don't follow doctors' orders --
30
69000
2000
quando as pessoas não seguem as ordens dos médicos.
01:26
these are behavior problems.
31
71000
2000
Esses são problemas de comportamento.
01:28
But for as much as clinical medicine
32
73000
2000
Porém por mais que a medicina clínica
01:30
agonizes over behavior change,
33
75000
2000
agonize em relação a mudança de comportamento,
01:32
there's not a lot of work done
34
77000
2000
não existe muito trabalho feito
01:34
in terms of trying to fix that problem.
35
79000
3000
em termos de tentar reparar esse problema.
01:37
So the crux of it
36
82000
2000
Portanto, o ponto crucial disso
01:39
comes down to this notion of decision-making --
37
84000
2000
recai sobre a noção de tomada de decisão --
01:41
giving information to people in a form
38
86000
2000
em prover informação às pessoas de uma forma
01:43
that doesn't just educate them
39
88000
2000
que não apenas as eduque
01:45
or inform them,
40
90000
2000
ou as informe,
01:47
but actually leads them to make better decisions,
41
92000
2000
mas que na realidade as leve a tomar melhores decisões,
01:49
better choices in their lives.
42
94000
2000
melhores escolhas em suas vidas.
01:51
One part of medicine, though,
43
96000
2000
Uma parte da medicina, no entanto
01:53
has faced the problem of behavior change pretty well,
44
98000
4000
tem encarado muito bem o problema de mudança de comportamento,
01:57
and that's dentistry.
45
102000
2000
e é a odontologia.
01:59
Dentistry might seem -- and I think it is --
46
104000
2000
Odontologia pode parecer -- e eu acho que seja --
02:01
many dentists would have to acknowledge
47
106000
2000
muitos dentistas teriam que reconhecê-la
02:03
it's somewhat of a mundane backwater of medicine.
48
108000
2000
como sendo de certa forma um campo atrasado da medicina.
02:05
Not a lot of cool, sexy stuff happening in dentistry.
49
110000
3000
Não estão acontecendo um monte de coisas legais e sexy na odontologia.
02:08
But they have really taken this problem of behavior change
50
113000
3000
Mas eles têm realmente abordado esse problema de mudança de comportamento
02:11
and solved it.
51
116000
2000
solucionando-o.
02:13
It's the one great preventive health success
52
118000
2000
É um grande sucesso em prevenção de saúde
02:15
we have in our health care system.
53
120000
2000
que temos em nosso sistema de saúde.
02:17
People brush and floss their teeth.
54
122000
2000
As pessoas escovam os dentes e usam fio dental.
02:19
They don't do it as much as they should, but they do it.
55
124000
3000
Elas não o fazem tanto quanto deveriam, mas o fazem.
02:22
So I'm going to talk about one experiment
56
127000
2000
Então, eu vou falar sobre um experimento
02:24
that a few dentists in Connecticut
57
129000
2000
que alguns dentistas em Connecticut
02:26
cooked up about 30 years ago.
58
131000
2000
fizeram há 30 anos atrás.
02:28
So this is an old experiment, but it's a really good one,
59
133000
2000
Portanto, isso é um experimento antigo, mas realmente é muito bom,
02:30
because it was very simple,
60
135000
2000
porque era muito simples,
02:32
so it's an easy story to tell.
61
137000
2000
portanto é uma estória fácil de contar.
02:34
So these Connecticut dentists decided
62
139000
2000
Então, esses dentistas de Connecticut decidiram
02:36
that they wanted to get people to brush their teeth and floss their teeth more often,
63
141000
3000
que queriam fazer com que as pessoas escovassem seus dentes e usassem fio dental com mais frequência.
02:39
and they were going to use one variable:
64
144000
2000
E eles usariam uma variável:
02:41
they wanted to scare them.
65
146000
2000
Eles queriam assustá-las.
02:43
They wanted to tell them how bad it would be
66
148000
3000
Eles queriam dizer-lhes o quanto seria ruim
02:46
if they didn't brush and floss their teeth.
67
151000
2000
se elas não escovassem os dentes e não usassem o fio dental.
02:48
They had a big patient population.
68
153000
3000
Eles tinham uma grande população de pacientes.
02:51
They divided them up into two groups.
69
156000
2000
Eles os dividiram em dois grupos.
02:53
They had a low-fear population,
70
158000
2000
Eles tinham uma população com pouco medo,
02:55
where they basically gave them a 13-minute presentation,
71
160000
2000
onde eles basicamente deram uma apresentação de 13 minutos,
02:57
all based in science,
72
162000
2000
toda baseada em ciência,
02:59
but told them that, if you didn't brush and floss your teeth,
73
164000
3000
mas disseram a eles que, se não escovassem os dentes e não usassem fio dental,
03:02
you could get gum disease. If you get gum disease, you will lose your teeth,
74
167000
3000
poderiam adquirir doença de gengiva. Se adquirissem doença de gengiva, perderiam seus dentes,
03:05
but you'll get dentures, and it won't be that bad.
75
170000
2000
mas poderão usar dentadura o que não seria tão ruim.
03:07
So that was the low-fear group.
76
172000
2000
Então esse era o grupo com pouco medo.
03:09
The high-fear group, they laid it on really thick.
77
174000
3000
Para o grupo com mais medo, eles pegaram pesado.
03:12
They showed bloody gums.
78
177000
2000
Eles mostraram gengivas sangrando,
03:14
They showed puss oozing out from between their teeth.
79
179000
3000
eles mostraram pus escorrendo por entre os dentes,
03:17
They told them that their teeth were going to fall out.
80
182000
2000
eles contaram que seus dentes cairiam,
03:19
They said that they could have infections
81
184000
2000
eles disseram que poderiam ter infecções
03:21
that would spread from their jaws to other parts of their bodies,
82
186000
3000
que se espalhariam de suas mandíbulas para outras partes do corpo,
03:24
and ultimately, yes, they would lose their teeth.
83
189000
2000
e finalmente, sim, eles perderiam seus dentes.
03:26
They would get dentures, and if you got dentures,
84
191000
2000
Eles usariam dentaduras, e se usassem dentaduras,
03:28
you weren't going to be able to eat corn-on-the-cob,
85
193000
2000
não seriam capazes de comer milho no sabugo,
03:30
you weren't going to be able to eat apples,
86
195000
2000
não seriam capazes de comer maçãs,
03:32
you weren't going to be able to eat steak.
87
197000
2000
não seriam capazes de comer bife;
03:34
You'll eat mush for the rest of your life.
88
199000
2000
comeriam coisas pastosas pelo resto de suas vidas.
03:36
So go brush and floss your teeth.
89
201000
3000
Portanto vão escovem seus dentes e usem fio dental.
03:39
That was the message. That was the experiment.
90
204000
2000
Essa foi a mensagem; esse foi o experimento.
03:41
Now they measured one other variable.
91
206000
2000
Agora eles mediram uma outra variável.
03:43
They wanted to capture one other variable,
92
208000
2000
Eles queriam capturar uma outra variável,
03:45
which was the patients' sense of efficacy.
93
210000
3000
que era o senso de eficiência dos pacientes.
03:48
This was the notion of whether the patients felt
94
213000
2000
Isso era a noção de como os pacientes sentiram
03:50
that they actually would go ahead and brush and floss their teeth.
95
215000
3000
e se eles realmente iriam escovar os dentes e usar fio dental.
03:53
So they asked them at the beginning,
96
218000
2000
Então os pacientes foram questionados no começo,
03:55
"Do you think you'll actually be able to stick with this program?"
97
220000
2000
"Vocês acham que serão capazes de persistirem nesse programa?"
03:57
And the people who said, "Yeah, yeah. I'm pretty good about that,"
98
222000
2000
E as pessoas que disseram "Sim, sim. Eu sou muito bom nisso",
03:59
they were characterized as high efficacy,
99
224000
2000
foram caracterizadas como alta eficiência,
04:01
and the people who said,
100
226000
2000
e as pessoas que disseram,
04:03
"Eh, I never get around to brushing and flossing as much as I should,"
101
228000
2000
"Eh, eu nunca tive o hábito de escovar e usar o fio dental tanto quanto deveria,"
04:05
they were characterized as low efficacy.
102
230000
2000
eles as caracterizaram como baixa eficiência.
04:07
So the upshot was this.
103
232000
3000
Então o resultado foi isso.
04:10
The upshot of this experiment
104
235000
2000
O resultado desse experimento
04:12
was that fear was not really a primary driver
105
237000
3000
foi que medo não era realmente o fator determinante primário
04:15
of the behavior at all.
106
240000
2000
do comportamento.
04:17
The people who brushed and flossed their teeth
107
242000
2000
As pessoas que escovam os dentes e usam o fio dental
04:19
were not necessarily the people
108
244000
2000
não eram necessariamente as pessoas
04:21
who were really scared about what would happen --
109
246000
2000
que estavam realmente assustadas sobre o que aconteceria --
04:23
it's the people who simply felt that they had the capacity
110
248000
3000
eram as pessoas que simplesmente sentiam que tinham a capacidade
04:26
to change their behavior.
111
251000
2000
de mudar seu comportamento.
04:28
So fear showed up as not really the driver.
112
253000
3000
Portanto o medo mostrou não ser realmente o fator determinante;
04:31
It was the sense of efficacy.
113
256000
3000
este era o senso de eficiência.
04:34
So I want to isolate this,
114
259000
2000
Então eu quero isolar isso,
04:36
because it was a great observation --
115
261000
2000
porque foi uma grande observação --
04:38
30 years ago, right, 30 years ago --
116
263000
2000
30 anos atrás, correto, 30 anos atrás --
04:40
and it's one that's laid fallow in research.
117
265000
3000
e isso é que não é enfatizado na pesquisa.
04:43
It was a notion that really came out
118
268000
2000
Isto foi a noção que realmente surgiu
04:45
of Albert Bandura's work,
119
270000
2000
do trabalho de Albert Bandura,
04:47
who studied whether
120
272000
2000
que estudou se
04:49
people could get a sense of empowerment.
121
274000
3000
pessoas poderiam adquirir um senso de capacitação.
04:52
The notion of efficacy basically boils down to one -- that
122
277000
3000
A noção de eficiência basicamente converge para,
04:55
if somebody believes that they have the capacity to change their behavior.
123
280000
3000
se alguém acredita em sua capacidade de mudar seu próprio comportamento.
04:58
In health care terms, you could characterize this
124
283000
3000
Em termos de tratamento de saúde, você poderia caracterizar isso
05:01
as whether or not somebody feels
125
286000
2000
como se alguém pudesse sentir ou não
05:03
that they see a path towards better health,
126
288000
2000
se veriam um caminho voltado para uma melhor saúde,
05:05
that they can actually see their way towards getting better health,
127
290000
2000
que eles pudessem realmente se orientar em direção a uma saúde melhor.
05:07
and that's a very important notion.
128
292000
2000
E isso é uma noção muito importante.
05:09
It's an amazing notion.
129
294000
2000
É uma noção impressionante.
05:11
We don't really know how to manipulate it, though, that well.
130
296000
3000
Porém, nós não sabemos realmente como lidar com ela muito bem.
05:14
Except, maybe we do.
131
299000
3000
Exceto que, talvez nós possamos.
05:17
So fear doesn't work, right? Fear doesn't work.
132
302000
2000
Então medo não funciona, correto, medo não funciona.
05:19
And this is a great example
133
304000
2000
E isso é um grande exemplo
05:21
of how we haven't learned that lesson at all.
134
306000
3000
de como nós não temos aprendido essa lição de jeito nenhum.
05:24
This is a campaign from the American Diabetes Association.
135
309000
3000
Esta é a campanha da Associação Americana de Diabetes.
05:27
This is still the way we're communicating messages about health.
136
312000
3000
Essa ainda é a maneira como nós comunicamos mensagens sobre saúde.
05:30
I mean, I showed my three-year-old this slide last night,
137
315000
3000
Quero dizer, mostrei para meu filho de 3 anos esse slide na noite passada,
05:33
and he's like, "Papa, why is an ambulance in these people's homes?"
138
318000
4000
e ele disse, "Papai, porque tem uma ambulância na casa dessas pessoas?"
05:37
And I had to explain, "They're trying to scare people."
139
322000
3000
E eu tive de explicar, "Eles estão tentando assustar as pessoas."
05:40
And I don't know if it works.
140
325000
2000
E eu não sei se isso funciona.
05:42
Now here's what does work:
141
327000
2000
Agora isto é o que funciona,
05:44
personalized information works.
142
329000
2000
informação personalizada funciona.
05:46
Again, Bandura recognized this
143
331000
2000
Novamente, Bandura reconheceu isso
05:48
years ago, decades ago.
144
333000
2000
anos atrás, décadas atrás.
05:50
When you give people specific information
145
335000
2000
Quando você dá às pessoas informação específica
05:52
about their health, where they stand,
146
337000
2000
sobre sua saúde, onde elas se posicionam,
05:54
and where they want to get to, where they might get to,
147
339000
2000
e para onde querem ir, como devem chegar lá,
05:56
that path, that notion of a path --
148
341000
2000
essa direção, essa noção de direção,
05:58
that tends to work for behavior change.
149
343000
2000
tende a funcionar como mudança de comportamento.
06:00
So let me just spool it out a little bit.
150
345000
2000
Então me deixe elaborar isso um pouco.
06:02
So you start with personalized data, personalized information
151
347000
3000
Então você começa com dados personalizados, informação personalizada,
06:05
that comes from an individual,
152
350000
2000
que vem do indivíduo,
06:07
and then you need to connect it to their lives.
153
352000
3000
E aí você precisa conectá-la à vida deles.
06:10
You need to connect it to their lives,
154
355000
2000
Você precisa conectá-la à vida deles,
06:12
hopefully not in a fear-based way, but one that they understand.
155
357000
2000
espera-se que não de maneira baseada no medo, mas de forma que eles entendam.
06:14
Okay, I know where I sit. I know where I'm situated.
156
359000
3000
Ok, eu sei onde estou. Eu sei onde estou situado.
06:17
And that doesn't just work for me in terms of abstract numbers --
157
362000
3000
E isso não funciona somente para mim em termos de números abstratos,
06:20
this overload of health information
158
365000
2000
essa sobrecarga de informações sobre saúde
06:22
that we're inundated with.
159
367000
2000
pela qual somos inundados,
06:24
But it actually hits home.
160
369000
2000
mas realmente nos atinge pessoalmente.
06:26
It's not just hitting us in our heads; it's hitting us in our hearts.
161
371000
2000
Não apenas nos atinge em nossas cabeças, nos atinge em nossos corações.
06:28
There's an emotional connection to information
162
373000
2000
Existe uma conexão emocional com informação
06:30
because it's from us.
163
375000
2000
porque vem de nós.
06:32
That information then needs to be connected to choices,
164
377000
3000
Aquela informação então precisa ser conectada às alternativas,
06:35
needs to be connected to a range of options,
165
380000
2000
precisa ser conectada a uma variedade de opções,
06:37
directions that we might go to --
166
382000
2000
direções que nós podemos seguir --
06:39
trade-offs, benefits.
167
384000
2000
trocas, benefícios.
06:41
Finally, we need to be presented with a clear point of action.
168
386000
3000
Finalmente, nós precisamos que nos apresentem uma linha de ação clara.
06:44
We need to connect the information
169
389000
2000
Nós precisamos conectar a informação
06:46
always with the action,
170
391000
2000
sempre com a ação,
06:48
and then that action feeds back
171
393000
2000
e aí essa ação dá um feedback
06:50
into different information,
172
395000
2000
uma informação diferente,
06:52
and it creates, of course, a feedback loop.
173
397000
2000
e isso cria, obviamente, um ciclo de feedback.
06:54
Now this is a very well-observed and well-established notion
174
399000
3000
Agora esta é uma noção bem-observada e bem-estabelecida
06:57
for behavior change.
175
402000
2000
de mudança de comportamento.
06:59
But the problem is that things -- in the upper-right corner there --
176
404000
3000
Mas o problema é que coisas naquele canto superior direito,
07:02
personalized data, it's been pretty hard to come by.
177
407000
2000
dados personalizados, têm sido bem difíceis de preparar.
07:04
It's a difficult and expensive commodity,
178
409000
3000
é um artigo difícil e caro,
07:07
until now.
179
412000
2000
até agora.
07:09
So I'm going to give you an example, a very simple example of how this works.
180
414000
3000
Então, eu vou dar um exemplo, um exemplo bem simples de como isso funciona.
07:12
So we've all seen these. These are the "your speed limit" signs.
181
417000
3000
Então nós todos já vimos isso. Essas são placas de "limite de velocidade".
07:15
You've seen them all around,
182
420000
2000
Você as têm visto no mundo inteiro,
07:17
especially these days as radars are cheaper.
183
422000
2000
especialmente hoje em dia que os radares estão mais baratos.
07:19
And here's how they work in the feedback loop.
184
424000
2000
E aqui está como eles funcionam em um ciclo de feedback.
07:21
So you start with the personalized data
185
426000
2000
Então você começa com dados personalizados
07:23
where the speed limit on the road that you are at that point
186
428000
2000
onde o limite de velocidade na estrada em que você está naquele ponto
07:25
is 25,
187
430000
2000
é de 25,
07:27
and, of course, you're going faster than that.
188
432000
2000
e, claro, você está indo mais rápido que isso.
07:29
We always are. We're always going above the speed limit.
189
434000
3000
Nós sempre estamos. Nós sempre estamos acima do limite de velocidade.
07:32
The choice in this case is pretty simple.
190
437000
2000
A escolha nesse caso é bem simples.
07:34
We either keep going fast, or we slow down.
191
439000
2000
Ou nós continuamos indo rápido, ou desaceleramos.
07:36
We should probably slow down,
192
441000
2000
Nós provavelmente deveríamos desacelerar,
07:38
and that point of action is probably now.
193
443000
2000
e o momento de ação é provavelmente agora.
07:40
We should take our foot off the pedal right now,
194
445000
3000
Nós devemos retirar nosso pé do acelerador nesse momento.
07:43
and generally we do. These things are shown to be pretty effective
195
448000
3000
E geralmente nós o fazemos; essas coisas se mostram bem efetivas
07:46
in terms of getting people to slow down.
196
451000
2000
em termos de conseguir com que as pessoas desacelerem.
07:48
They reduce speeds by about five to 10 percent.
197
453000
2000
Elas reduzem velocidade em cinco a 10%.
07:50
They last for about five miles,
198
455000
2000
Elas mantêm por cerca de 5 milhas,
07:52
in which case we put our foot back on the pedal.
199
457000
2000
e nesse caso colocamos nosso pé de volta no pedal.
07:54
But it works, and it even has some health repercussions.
200
459000
2000
Mas isso funciona, e até mesmo tem repercussões sobre a saúde.
07:56
Your blood pressure might drop a little bit.
201
461000
2000
Sua pressão arterial deve diminuir um pouco.
07:58
Maybe there's fewer accidents, so there's public health benefits.
202
463000
3000
Talvez existam menos acidentes, então existem benefícios em saúde pública.
08:01
But by and large, this is a feedback loop
203
466000
2000
Mas de maneira geral, isso é um ciclo de feedback
08:03
that's so nifty and too rare.
204
468000
3000
isso é tão bom e muito raro.
08:06
Because in health care, most health care,
205
471000
2000
Porque em tratamento de saúde, em sua maioria,
08:08
the data is very removed from the action.
206
473000
3000
os dados são muito desconectados da ação.
08:11
It's very difficult to line things up so neatly.
207
476000
3000
É muito difícil alinhar as coisas tão perfeitamente.
08:14
But we have an opportunity.
208
479000
2000
Mas nós temos uma oportunidade.
08:16
So I want to talk about, I want to shift now to think about
209
481000
2000
Então quero conversar sobre isso, quero mudar de assunto para pensar sobre
08:18
how we deliver health information in this country,
210
483000
2000
como provemos informação sobre saúde nesse país,
08:20
how we actually get information.
211
485000
3000
como nós realmente obtemos informação.
08:23
This is a pharmaceutical ad.
212
488000
3000
Isso é um anúncio farmacêutico.
08:26
Actually, it's a spoof. It's not a real pharmaceutical ad.
213
491000
2000
Na verdade, isso é uma paródia; não é realmente um anúncio farmacêutico.
08:28
Nobody's had the brilliant idea
214
493000
2000
Ninguém teve a idéia brilhante
08:30
of calling their drug Havidol quite yet.
215
495000
3000
de chamar sua droga de Havidol ainda.
08:34
But it looks completely right.
216
499000
2000
Mas ele parece completamente correto.
08:36
So it's exactly the way we get
217
501000
2000
Então é exatamente a maneira como nós obtemos
08:38
health information and pharmaceutical information,
218
503000
3000
informação de saúde e informação farmacêutica,
08:41
and it just sounds perfect.
219
506000
2000
e simplesmente parece perfeito.
08:43
And then we turn the page of the magazine,
220
508000
2000
E então nós mudamos a página da revista,
08:45
and we see this --
221
510000
3000
e nós vemos isso, correto, nós vemos isso.
08:48
now this is the page the FDA requires pharmaceutical companies
222
513000
3000
Agora essa é a página que o FDA requisita as companhias farmacêuticas
08:51
to put into their ads, or to follow their ads,
223
516000
3000
de colocar em seus anúncios, ou após seus anúncios.
08:54
and to me, this is one of the most
cynical exercises in medicine.
224
519000
4000
E para mim, isso é uma das práticas cínicas em medicina.
08:58
Because we know.
225
523000
2000
Porque nós sabemos.
09:00
Who among us would actually say that people read this?
226
525000
2000
Quem entre nós realmente diria que as pessoas leêm isso?
09:02
And who among us would actually say
227
527000
2000
E quem entre nós realmente diria
09:04
that people who do try to read this
228
529000
2000
que as pessoas que tentam ler isso
09:06
actually get anything out of it?
229
531000
2000
realmente tiram algo disso?
09:08
This is a bankrupt effort
230
533000
2000
Isso é um esforço falido
09:10
at communicating health information.
231
535000
3000
em comunicar informação de saúde.
09:13
There is no good faith in this.
232
538000
2000
Não existe boa fé nisso.
09:15
So this is a different approach.
233
540000
2000
Então isso é uma abordagem diferente.
09:17
This is an approach that has been developed
234
542000
3000
Essa é uma abordagem que tem sido desenvolvida
09:20
by a couple researchers at Dartmouth Medical School,
235
545000
3000
por uma dupla de pesquisadores da escola de medicina Dartmouth,
09:23
Lisa Schwartz and Steven Woloshin.
236
548000
2000
Lisa Schwartz e Steven Woloshin.
09:25
And they created this thing called the "drug facts box."
237
550000
3000
E eles criaram essa coisa que foi chamada de quadro de fatos sobre remédios.
09:28
They took inspiration from, of all things,
238
553000
2000
Eles obtiveram inspiração, sobre todas as coisas,
09:30
Cap'n Crunch.
239
555000
2000
Capitão Crunch.
09:32
They went to the nutritional information box
240
557000
3000
Eles foram no quadro de informação nutricional
09:35
and saw that what works for cereal, works for our food,
241
560000
3000
e viram que o que funciona para o cereal, funciona para nossa comida,
09:38
actually helps people understand what's in their food.
242
563000
3000
na verdade ajuda as pessoas a entenderem o que existe em suas comidas.
09:42
God forbid we should use that same standard
243
567000
2000
Deus nos livre que tenhamos de usar aqueles mesmos parâmetros
09:44
that we make Cap'n Crunch live by
244
569000
2000
pelos quais fazemos Capitão Crunch existir
09:46
and bring it to drug companies.
245
571000
3000
e os aplicamos para companhias farmacêuticas.
09:49
So let me just walk through this quickly.
246
574000
2000
Então permita-me apenas caminhar através disso rapidamente.
09:51
It says very clearly what the drug is for, specifically who it is good for,
247
576000
3000
É dito muito claramente para o que o remédio é usado, especificamente para que ele é bom,
09:54
so you can start to personalize your understanding
248
579000
2000
então você pode começar a personalizar seu conhecimento
09:56
of whether the information is relevant to you
249
581000
2000
sobre se a informação é relevante para você
09:58
or whether the drug is relevant to you.
250
583000
2000
ou se o remédio é relevante para você.
10:00
You can understand exactly what the benefits are.
251
585000
3000
Você pode entender exatamente quais são os benefícios.
10:03
It isn't this kind of vague promise that it's going to work no matter what,
252
588000
3000
Não é esse tipo de promessa vaga que isto irá funcionar de qualquer modo,
10:06
but you get the statistics for how effective it is.
253
591000
3000
mas você obtém a estatística de como ele é efetivo.
10:09
And finally, you understand what those choices are.
254
594000
3000
E finalmente, você entende o que aquelas escolhas são.
10:12
You can start to unpack the choices involved
255
597000
2000
Você pode começar a destrinchar as alternativas envolvidas
10:14
because of the side effects.
256
599000
2000
por conta dos efeitos colaterais.
10:16
Every time you take a drug, you're walking into a possible side effect.
257
601000
3000
Cada vez que você toma remédio, você está se expondo a um possível efeito colateral.
10:19
So it spells those out in very clean terms,
258
604000
2000
Então ele soletra isso claramente.
10:21
and that works.
259
606000
2000
E isso funciona.
10:23
So I love this. I love that drug facts box.
260
608000
2000
Então eu amo isso. Eu amo esse quadro de fatos sobre o remédio.
10:25
And so I was thinking about,
261
610000
2000
E então eu estava pensando sobre,
10:27
what's an opportunity that I could have
262
612000
2000
qual é a oportunidade que eu poderia ter
10:29
to help people understand information?
263
614000
3000
para ajudar as pessoas a entenderem a informação?
10:32
What's another latent body of information that's out there
264
617000
4000
Que outra massa latente de informação está lá fora
10:36
that people are really not putting to use?
265
621000
3000
que as pessoas não estão realmente usando.
10:39
And so I came up with this: lab test results.
266
624000
3000
E então eu cheguei a conclusão: resultados de teste de laboratório.
10:42
Blood test results are this great source of information.
267
627000
3000
Resultado de testes sanguíneos são grandes fontes de informação.
10:45
They're packed with information.
268
630000
2000
Eles estão apinhados de informação.
10:47
They're just not for us. They're not for people. They're not for patients.
269
632000
3000
Elas simplesmente não são para nós; não são para as pessoas; não são para os pacientes.
10:50
They go right to doctors.
270
635000
2000
Elas vão direto para os médicos.
10:52
And God forbid -- I think many doctors, if you really asked them,
271
637000
3000
E Deus nos livre -- Acho que muitos médicos, se você realmente perguntasse a eles,
10:55
they don't really understand all this stuff either.
272
640000
3000
também não entendem todas essas coisas.
10:58
This is the worst presented information.
273
643000
3000
Essa é a pior informação apresentada.
11:01
You ask Tufte, and he would say,
274
646000
3000
Você pergunta a Tufte, e ele diria,
11:04
"Yes, this is the absolute worst presentation of information possible."
275
649000
3000
"Sim, essa é a pior apresentação possível de informação."
11:07
What we did at Wired
276
652000
2000
O que fizemos na Wired
11:09
was we went, and I got our graphic design department
277
654000
2000
foi que conseguimos que nosso departamento de desenho gráfico
11:11
to re-imagine these lab reports.
278
656000
2000
re-formulasse esse relatórios de laboratório.
11:13
So that's what I want to walk you through.
279
658000
2000
Então isso é no quero guiar vocês passo a passo.
11:15
So this is the general blood work before,
280
660000
3000
Então esse é o teste geral de sangue antes,
11:18
and this is the after, this is what we came up with.
281
663000
2000
e esse é o depois, essa é a conclusão que chegamos.
11:20
The after takes what was four pages --
282
665000
2000
O depois pegou o que eram quatro páginas --
11:22
that previous slide was actually
283
667000
2000
o slide prévio era na realidade
11:24
the first of four pages of data
284
669000
2000
a primeira das quatro páginas de dados
11:26
that's just the general blood work.
285
671000
2000
isso é só o exame geral de sangue.
11:28
It goes on and on and on, all these values, all these numbers you don't know.
286
673000
3000
Que continua, continua, todos esses valores, todos esses números que você não conhece.
11:31
This is our one-page summary.
287
676000
3000
Esse é o nosso sumário de uma página.
11:34
We use the notion of color.
288
679000
2000
Nós usamos a noção de cor.
11:36
It's an amazing notion that color could be used.
289
681000
3000
É uma noção impressionante de que cor pode ser usada.
11:39
So on the top-level you have your overall results,
290
684000
3000
Então acima você tem os resultados em geral,
11:42
the things that might jump out at you from the fine print.
291
687000
3000
as coisas que devem chamar sua atenção saltam numa bela impressão.
11:45
Then you can drill down
292
690000
2000
Então você pode analisar com mais detalhe
11:47
and understand how actually we put your level in context,
293
692000
3000
e entender como na realidade nós colocamos o seu resultado em um contexto,
11:50
and we use color to illustrate
294
695000
2000
e nós utilizamos cor para ilustrar
11:52
exactly where your value falls.
295
697000
2000
exatamente onde o seu resultado recai.
11:54
In this case, this patient is slightly at risk of diabetes
296
699000
3000
Nesse caso, esse paciente está um pouco sob risco de desenvolver diabetes
11:57
because of their glucose level.
297
702000
2000
por conta de seu nível de glucose.
11:59
Likewise, you can go over your lipids
298
704000
2000
Da mesma forma, você pode avaliar seus lipídeos
12:01
and, again, understand what your overall cholesterol level is
299
706000
3000
e, novamente, entender o que o seu nível de colesterol total é
12:04
and then break down into the HDL and the LDL if you so choose.
300
709000
3000
e aí diferenciá-lo em HDL e LDL se você optar.
12:07
But again, always using color
301
712000
2000
Mas de novo, sempre usando cor
12:09
and personalized proximity
302
714000
2000
e personalizando o máximo possível
12:11
to that information.
303
716000
2000
aquela informação.
12:13
All those other values,
304
718000
2000
Todos os outros valores,
12:15
all those pages and pages of values that are full of nothing,
305
720000
2000
todas as outras páginas e páginas de resultados que estão cheias de nada,
12:17
we summarize.
306
722000
2000
nós resumimos.
12:19
We tell you that you're okay, you're normal.
307
724000
2000
Nós dissemos que você está ok, você está normal.
12:21
But you don't have to wade through it. You don't have to go through the junk.
308
726000
3000
Mas você não tem que olhar tudo. Você não tem que avaliar todo esse lixo.
12:24
And then we do two other very important things
309
729000
2000
E aí nós fazemos duas outras coisas muito importantes
12:26
that kind of help fill in this feedback loop:
310
731000
2000
esse tipo de ajuda preenche o ciclo de feedback.
12:28
we help people understand in a little more detail
311
733000
2000
Nós ajudamos pessoas a entenderem com um pouco mais de detalhe
12:30
what these values are and what they might indicate.
312
735000
3000
o que esses valores são e o que eles devem indicar.
12:33
And then we go a further step -- we tell them what they can do.
313
738000
3000
E aí damos um passo a frente: Nós dizemos a elas o que podem fazer.
12:36
We give them some insight
314
741000
2000
Nós damos alguma orientação
12:38
into what choices they can make, what actions they can take.
315
743000
3000
quanto as escolhas que podem tomar, quais ações podem seguir.
12:41
So that's our general blood work test.
316
746000
3000
Então esse é o nosso exame geral de sangue.
12:44
Then we went to CRP test.
317
749000
2000
Aí vamos ao exame CRP.
12:46
In this case, it's a sin of omission.
318
751000
2000
Nesse caso, é um pecado de omissão.
12:48
They have this huge amount of space,
319
753000
2000
Eles tem essa enorme quantidade de espaço,
12:50
and they don't use it for anything, so we do.
320
755000
2000
e eles não o usam para nada, mas nós o usamos.
12:52
Now the CRP test is often done
321
757000
2000
Agora o exame CRP é frequentemente realizado
12:54
following a cholesterol test,
322
759000
2000
após um exame de colesterol,
12:56
or in conjunction with a cholesterol test.
323
761000
2000
ou em conexão com um exame de colesterol.
12:58
So we take the bold step
324
763000
2000
Então nós adotamos um passo inusitado
13:00
of putting the cholesterol information on the same page,
325
765000
3000
de colocar a informação do colesterol na mesma página,
13:03
which is the way the doctor is going to evaluate it.
326
768000
2000
que é a maneira de como o médico vai avaliar o exame.
13:05
So we thought the patient might actually want to know the context as well.
327
770000
3000
Então nós pensamos que o paciente deve também querer saber sobre o contexto.
13:08
It's a protein that shows up
328
773000
2000
É a proteína que aparece
13:10
when your blood vessels might be inflamed,
329
775000
2000
quando seus vasos sanguíneos podem estar inflamados,
13:12
which might be a risk for heart disease.
330
777000
2000
o que pode ser um risco para doença cardíaca.
13:14
What you're actually measuring
331
779000
2000
O que você está realmente medindo
13:16
is spelled out in clean language.
332
781000
2000
está soletrado em linguagem clara.
13:18
Then we use the information
333
783000
2000
Daí usamos a informação
13:20
that's already in the lab report.
334
785000
2000
que já está no relatório do laboratório.
13:22
We use the person's age and their gender
335
787000
2000
Nós usamos a idade e o sexo da pessoa
13:24
to start to fill in the personalized risks.
336
789000
3000
para começar a preencher os riscos de forma personalizada.
13:27
So we start to use the data we have
337
792000
2000
Então começamos a usar os dados que temos
13:29
to run a very simple calculation
338
794000
2000
para fazer um cálculo muito simples
13:31
that's on all sorts of online calculators
339
796000
2000
disponível em todos os tipos de calculadoras online
13:33
to get a sense of what the actual risk is.
340
798000
3000
para se ter uma idéia de qual é o risco real.
13:36
The last one I'll show you is a PSA test.
341
801000
2000
O último que eu mostrarei a vocês é o exame PSA.
13:38
Here's the before, and here's the after.
342
803000
3000
Aqui está o antes, e aqui está o depois.
13:41
Now a lot of our effort on this one --
343
806000
2000
Agora muito do nosso esforço nesse --
13:43
as many of you probably know,
344
808000
2000
como muitos de vocês provavelmente sabem,
13:45
a PSA test is a very controversial test.
345
810000
2000
o exame PSA é um exame muito controverso.
13:47
It's used to test for prostate cancer,
346
812000
2000
É usado para testar câncer de próstata,
13:49
but there are all sorts of reasons
347
814000
2000
mas existem várias razões diferentes
13:51
why your prostate might be enlarged.
348
816000
2000
pelas quais sua próstata poderia estar alargada.
13:53
And so we spent a good deal of our time
349
818000
2000
E então nós gastamos uma boa parte do nosso tempo
13:55
indicating that.
350
820000
2000
indicando isso.
13:57
We again personalized the risks.
351
822000
2000
Nós novamente personalizamos os riscos.
13:59
So this patient is in their 50s,
352
824000
2000
Então esse paciente está nos seus 50 anos,
14:01
so we can actually give them a very precise estimate
353
826000
2000
então podemos na verdade dar a ele uma estimativa muito precisa
14:03
of what their risk for prostate cancer is.
354
828000
2000
de qual é o seu risco de câncer de próstata.
14:05
In this case it's about 25 percent, based on that.
355
830000
3000
Nesse caso é cerca de 25%, baseado nisto.
14:08
And then again, the follow-up actions.
356
833000
3000
E aí de novo, as ações a serem seguidas.
14:11
So our cost for this was less than 10,000 dollars, all right.
357
836000
3000
Então o nosso custo para isso foi menos que $10.000, correto.
14:14
That's what Wired magazine spent on this.
358
839000
3000
Isto foi o que a revista Wired gastou nisso.
14:17
Why is Wired magazine doing this?
359
842000
2000
Por que a revista Wired está fazendo isso?
14:19
(Laughter)
360
844000
3000
(Risos)
14:22
Quest Diagnostics and LabCorp,
361
847000
2000
Quest Diagnostics e LabCorp,
14:24
the two largest lab testing companies --
362
849000
3000
as duas maiores companhias de testes laboratoriais:
14:27
last year, they made profits of over 700 million dollars
363
852000
3000
Ano passado, tiveram lucros de mais de 700 milhões de dólares
14:30
and over 500 million dollars respectively.
364
855000
3000
e mais de 500 milhões de dólares respectivamente.
14:33
Now this is not a problem of resources;
365
858000
2000
Agora isso não é um problema de recursos,
14:35
this is a problem of incentives.
366
860000
3000
isso é um problema de incentivos.
14:38
We need to recognize that the target of this information
367
863000
3000
Nós precisamos reconhecer que o alvo dessa informação
14:41
should not be the doctor, should not be the insurance company.
368
866000
3000
não deve ser o médico, não deve ser a companhia de seguro;
14:44
It should be the patient.
369
869000
2000
deve ser o paciente.
14:46
It's the person who actually, in the end,
370
871000
2000
É a pessoa que na realidade, no final,
14:48
is going to be having to change their lives
371
873000
2000
vai ter de mudar sua vida
14:50
and then start adopting new behaviors.
372
875000
2000
e aí começar a adotar um novo comportamento.
14:52
This is information that is incredibly powerful.
373
877000
2000
Isso é uma informação incrivelmente poderosa.
14:54
It's an incredibly powerful catalyst to change.
374
879000
3000
É um cataclisma incrivelmente poderoso para se mudar.
14:57
But we're not using it. It's just sitting there.
375
882000
2000
Mas nós não o estamos usando; está sentado ali.
14:59
It's being lost.
376
884000
2000
Está se perdendo.
15:01
So I want to just offer four questions
377
886000
2000
Então eu quero oferecer apenas quatro perguntas
15:03
that every patient should ask,
378
888000
2000
que todo paciente deveria perguntar,
15:05
because I don't actually expect people
379
890000
2000
porque eu não espero realmente que as pessoas
15:07
to start developing these lab test reports.
380
892000
2000
comecem a desenvolver esses relatórios nos exames laboratoriais.
15:09
But you can create your own feedback loop.
381
894000
2000
Mas vocês podem criar seu próprio ciclo de feedback.
15:11
Anybody can create their feedback loop by asking these simple questions:
382
896000
3000
Qualquer um pode criar seu ciclo de feedback perguntando essas simples questões:
15:14
Can I have my results?
383
899000
2000
Posso ter meus resultados?
15:16
And the only acceptable answer is --
384
901000
2000
E a única resposta aceitável é --
15:18
(Audience: Yes.) -- yes.
385
903000
2000
(Público: Sim.) -- sim.
15:20
What does this mean? Help me understand what the data is.
386
905000
2000
O que isso significa? Ajude-me a entender o que esses dados são.
15:22
What are my options? What choices are now on the table?
387
907000
3000
Quais são as minhas opções? Quais as opções tenho a minha frente?
15:25
And then, what's next?
388
910000
2000
E aí, qual o próximo passo?
15:27
How do I integrate this information
389
912000
2000
Como eu integro essa informação
15:29
into the longer course of my life?
390
914000
2000
a longo prazo em minha vida?
15:32
So I want to wind up by just showing
391
917000
2000
Então quero finalizar mostrando
15:34
that people have the capacity to understand this information.
392
919000
2000
que as pessoas têm a capacidade de entender essa informação.
15:36
This is not beyond the grasp of ordinary people.
393
921000
3000
Isso não está acima do entendimento de pessoas comuns.
15:39
You do not need to have the education level of people in this room.
394
924000
3000
Você não precisa ter o nível de educação acadêmica das pessoas desse auditório.
15:42
Ordinary people are capable of understanding this information,
395
927000
3000
Pessoas comuns são capazes de entender essa informação,
15:45
if we only go to the effort of presenting it to them
396
930000
3000
se apenas nos esforçarmos em apresentar a informação a elas
15:48
in a form that they can engage with.
397
933000
2000
em uma forma que elas possam se envolver.
15:50
And engagement is essential here,
398
935000
2000
E envolvimento é essencial aqui,
15:52
because it's not just giving them information;
399
937000
2000
porque não é apenas dar a informação,
15:54
it's giving them an opportunity to act.
400
939000
2000
é dar a elas a oportunidade de agir.
15:56
That's what engagement is. It's different from compliance.
401
941000
2000
Isso é envolvimento; que é diferente de conformidade.
15:58
It works totally different from the way we talk about behavior
402
943000
3000
Isto funciona de maneira totalmente diferente de como falamos sobre comportamento
16:01
in medicine today.
403
946000
2000
na medicina atualmente.
16:03
And this information is out there.
404
948000
2000
E essa informação está la fora.
16:05
I've been talking today about latent information,
405
950000
2000
Hoje eu falei sobre informação latente,
16:07
all this information that exists in the system
406
952000
2000
toda essa informação que existe no sistema
16:09
that we're not putting to use.
407
954000
2000
que nós não estamos usando.
16:11
But there are all sorts of other bodies of information
408
956000
2000
Mas existe todo tipo de massa de informação
16:13
that are coming online,
409
958000
2000
que está vindo online.
16:15
and we need to recognize the capacity of this information
410
960000
3000
E nós precisamos reconhecer a capacidade dessa informação
16:18
to engage people, to help people
411
963000
2000
para engajar as pessoas, para ajudar as pessoas
16:20
and to change the course of their lives.
412
965000
2000
a mudar o curso de suas vidas.
16:22
Thank you very much.
413
967000
2000
Muito obrigado.
16:24
(Applause)
414
969000
3000
Aplausos
Translated by Siglia Diniz
Reviewed by Christine Veras

▲Back to top

ABOUT THE SPEAKER
Thomas Goetz - Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.”

Why you should listen

Thomas Goetz is the co-founder of Iodine, a new company that gives consumers better information -- and better visualizations -- of their health data. The former executive editor of Wired, Goetz has a Master's of Public Health from UC Berkeley. In 2010 he published The Decision Tree, a fascinating look at modern medical decisionmaking and technology. Former FDA commissioner Dr. David Kessler called the book "a game changer.” His next book, The Remedy, explores the germ theory of disease and the quest to cure tuberculosis.

More profile about the speaker
Thomas Goetz | Speaker | TED.com