ABOUT THE SPEAKER
Thomas Goetz - Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.”

Why you should listen

Thomas Goetz is the co-founder of Iodine, a new company that gives consumers better information -- and better visualizations -- of their health data. The former executive editor of Wired, Goetz has a Master's of Public Health from UC Berkeley. In 2010 he published The Decision Tree, a fascinating look at modern medical decisionmaking and technology. Former FDA commissioner Dr. David Kessler called the book "a game changer.” His next book, The Remedy, explores the germ theory of disease and the quest to cure tuberculosis.

More profile about the speaker
Thomas Goetz | Speaker | TED.com
TEDMED 2010

Thomas Goetz: It's time to redesign medical data

תומאס גץ: הגיע הזמן לעצב מידע רפואי מחדש

Filmed:
587,895 views

הגליון הרפואי שלך: קשה להגיע אליו, בלתי אפשרי לקרוא אותו - והוא מלא במידע שאילו ידעת להשתמש בו היה יכול לתרום לבריאותך. בכנס TEDMED, תומאס גץ בוחן מידע רפואי, ויוצא בקריאה נועזת לעצב אותו מחדש ולהפיק ממנו יותר תובנות.
- Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.” Full bio

Double-click the English transcript below to play the video.

00:15
I'm going to be talkingשִׂיחָה to you
0
0
2000
אני עומד לדבר איתכם
00:17
about how we can tapבֶּרֶז
1
2000
2000
על דרך שבה נוכל לנצל
00:19
a really underutilizedלא מנוצלים resourceמַשׁאָב in healthבְּרִיאוּת careלְטַפֵּל,
2
4000
2000
משאב מאד לא מנוצל בתחום שירותי הבריאות,
00:21
whichאיזה is the patientסבלני,
3
6000
2000
וזהו המטופל,
00:23
or, as I like to use the scientificמַדָעִי termטווח,
4
8000
3000
או - כמו שזה נקרא במונחים מדעיים -
00:26
people.
5
11000
2000
אנשים.
00:28
Because we are all patientsחולים, we are all people.
6
13000
2000
בגלל שכולנו מטופלים, כולנו אנשים.
00:30
Even doctorsרופאים are patientsחולים at some pointנְקוּדָה.
7
15000
2000
אפילו רופאים הם מטופלים לפעמים.
00:32
So I want to talk about that
8
17000
2000
אז אני רוצה לדבר על כך
00:34
as an opportunityהִזדַמְנוּת
9
19000
2000
כהזדמנות
00:36
that we really have failedנִכשָׁל to engageלְהַעֲסִיק with very well in this countryמדינה
10
21000
3000
שבמדינה זו לא נרתמנו אליה בצורה טובה במיוחד,
00:39
and, in factעוּבדָה, worldwideעוֹלָמִי.
11
24000
2000
ולמעשה, בשאר העולם המצב דומה.
00:41
If you want to get at the bigגָדוֹל partחֵלֶק --
12
26000
2000
אם תרצו לגשת ללב העניין -
00:43
I mean from a publicפּוּמְבֵּי healthבְּרִיאוּת levelרָמָה, where my trainingהַדְרָכָה is --
13
28000
3000
כלומר מבחינת בריאות הציבור, שזהו תחום ההתמחות שלי -
00:46
you're looking at behavioralהתנהגותי issuesנושאים.
14
31000
2000
תראו מאפיינים התנהגותיים,
00:48
You're looking at things where people are actuallyלמעשה givenנָתוּן informationמֵידָע,
15
33000
3000
תראו מצבים בהם אנשים ממש מקבלים מידע,
00:51
and they're not followingהבא throughדרך with it.
16
36000
2000
ואינם עושים איתו דבר.
00:53
It's a problemבְּעָיָה that manifestsמאניפסט itselfעצמה in diabetesסוכרת,
17
38000
4000
זוהי בעיה שמתבטאת בסכרת,
00:57
obesityהַשׁמָנָה, manyרב formsטפסים of heartלֵב diseaseמַחֲלָה,
18
42000
2000
בהשמנת יתר, במחלות לב מסוגים שונים,
00:59
even some formsטפסים of cancerמחלת הסרטן -- when you think of smokingלעשן.
19
44000
3000
אפילו בסוגי סרטן מסויימים - כשמדובר בעישון.
01:02
Those are all behaviorsהתנהגויות where people know what they're supposedאמור to do.
20
47000
3000
אלה כולן התנהגויות שבהן אנשים יודעים מה הם צריכים לעשות.
01:05
They know what they're supposedאמור to be doing,
21
50000
2000
הם יודעים מה הם צריכים לעשות,
01:07
but they're not doing it.
22
52000
2000
אבל הם לא עושים את זה.
01:09
Now behaviorהִתְנַהֲגוּת changeשינוי is something
23
54000
2000
עכשיו, שינוי התנהגותי הוא משהו
01:11
that is a long-standingארוכת שנים problemבְּעָיָה in medicineתרופה.
24
56000
2000
שמנסים לפתור כבר הרבה זמן בתחום הרפואה.
01:13
It goesהולך all the way back to Aristotleאריסטו.
25
58000
2000
מאז ימי אריסטו.
01:15
And doctorsרופאים hateשִׂנאָה it, right?
26
60000
2000
ורופאים שונאים את זה, נכון.
01:17
I mean, they complainלְהִתְלוֹנֵן about it all the time.
27
62000
2000
כלומר, הם מתלוננים על זה כל הזמן.
01:19
We talk about it in termsמונחים of engagementאירוסין, or non-complianceאי ציות.
28
64000
3000
אנחנו מדברים על זה במושגים של חוסר הירתמות, או של אי-ציות,
01:22
When people don't take theirשֶׁלָהֶם pillsגלולות,
29
67000
2000
כשאנשים אינם נוטלים את הכדורים שלהם,
01:24
when people don't followלעקוב אחר doctors'An University ordersהזמנות --
30
69000
2000
או כשהם אינם עושים כמצוות רופאיהם.
01:26
these are behaviorהִתְנַהֲגוּת problemsבעיות.
31
71000
2000
אלה בעיות התנהגותיות.
01:28
But for as much as clinicalקליני medicineתרופה
32
73000
2000
אבל למרות שהעוסקים ברפואה קלינית
01:30
agonizesמתייסר over behaviorהִתְנַהֲגוּת changeשינוי,
33
75000
2000
מתייסרים משינויים התנהגותיים,
01:32
there's not a lot of work doneבוצע
34
77000
2000
לא נעשה מאמץ רב
01:34
in termsמונחים of tryingמנסה to fixלתקן that problemבְּעָיָה.
35
79000
3000
לנסות לתקן את הבעיה הזו.
01:37
So the cruxעִקָר of it
36
82000
2000
אז במהות העניין נמצא
01:39
comesבא down to this notionרעיון of decision-makingקבלת החלטות --
37
84000
2000
הרעיון הזה של של קבלת החלטות -
01:41
givingמַתָן informationמֵידָע to people in a formטופס
38
86000
2000
לתת לאנשים מידע בצורה
01:43
that doesn't just educateלְחַנֵך them
39
88000
2000
שלא רק מחכימה אותם
01:45
or informלְהוֹדִיעַ them,
40
90000
2000
או מיידעת אותם,
01:47
but actuallyלמעשה leadsמוביל them to make better decisionsהחלטות,
41
92000
2000
אלא שמאפשרת להם לקבל החלטות טובות יותר,
01:49
better choicesבחירות in theirשֶׁלָהֶם livesחיים.
42
94000
2000
החלטות טובות יותר לגבי חייהם.
01:51
One partחֵלֶק of medicineתרופה, thoughאם כי,
43
96000
2000
ישנו תחום אחד ברפואה
01:53
has facedפנים the problemבְּעָיָה of behaviorהִתְנַהֲגוּת changeשינוי prettyיפה well,
44
98000
4000
בו מתמודדים לא רע עם בעית השינוי ההתנהגותי,
01:57
and that's dentistryרפואת שיניים.
45
102000
2000
וזהו תחום רפואת השיניים.
01:59
Dentistryרפואת שיניים mightאולי seemנראה -- and I think it is --
46
104000
2000
רפואת השיניים נחשבת - ואני חושב שהיא -
02:01
manyרב dentistsרופאי שיניים would have to acknowledgeלְהוֹדוֹת
47
106000
2000
הרבה רופאי שיניים יאלצו להסכים
02:03
it's somewhatבמידה מסוימת of a mundaneאַרְצִי backwaterגב of medicineתרופה.
48
108000
2000
שרפואת השיניים היא קצת בחלק הצדדי והשגרתי של הרפואה.
02:05
Not a lot of coolמגניב, sexyסֶקסִי stuffדברים happeningמתרחש in dentistryרפואת שיניים.
49
110000
3000
לא קורים הרבה דברים מגניבים וסקסיים בתחום רפואת השיניים.
02:08
But they have really takenנלקח this problemבְּעָיָה of behaviorהִתְנַהֲגוּת changeשינוי
50
113000
3000
אבל הם התמקדו בבעיה הזאת של שינוי התנהגותי
02:11
and solvedנפתרה it.
51
116000
2000
ופתרו אותה.
02:13
It's the one great preventiveמוֹנֵעַ healthבְּרִיאוּת successהַצלָחָה
52
118000
2000
זוהי ההצלחה היחידה בתחום הרפואה המונעת
02:15
we have in our healthבְּרִיאוּת careלְטַפֵּל systemמערכת.
53
120000
2000
שיש בכל מערכת הבריאות שלנו.
02:17
People brushמִברֶשֶׁת and flossחוט theirשֶׁלָהֶם teethשיניים.
54
122000
2000
אנשים מצחצחים שיניים ומשתמשים בחוט דנטאלי.
02:19
They don't do it as much as they should, but they do it.
55
124000
3000
הם לא עושים את זה מספיק, אבל הם עושים את זה.
02:22
So I'm going to talk about one experimentלְנַסוֹת
56
127000
2000
אז אני אדבר על ניסוי אחד
02:24
that a fewמְעַטִים dentistsרופאי שיניים in Connecticutקונטיקט
57
129000
2000
שמספר רופאי שיניים בקונטיקט
02:26
cookedמְבוּשָׁל up about 30 yearsשנים agoלִפנֵי.
58
131000
2000
יזמו לפני כ-30 שנה.
02:28
So this is an oldישן experimentלְנַסוֹת, but it's a really good one,
59
133000
2000
אז זהו ניסוי ישן, אבל הוא מצויין,
02:30
because it was very simpleפָּשׁוּט,
60
135000
2000
כי הוא היה מאד פשוט,
02:32
so it's an easyקַל storyכַּתָבָה to tell.
61
137000
2000
אז קל מאד לספר עליו.
02:34
So these Connecticutקונטיקט dentistsרופאי שיניים decidedהחליט
62
139000
2000
אז רופאי השיניים האלה מקונטיקט החליטו
02:36
that they wanted to get people to brushמִברֶשֶׁת theirשֶׁלָהֶם teethשיניים and flossחוט theirשֶׁלָהֶם teethשיניים more oftenלעתים קרובות,
63
141000
3000
שהם רצו שאנשים יצחצחו שיניים וישתמשו בחוט דנטאלי יותר.
02:39
and they were going to use one variableמִשְׁתַנֶה:
64
144000
2000
והם החליטו להשתמש במשתנה אחד:
02:41
they wanted to scareלְהַפחִיד them.
65
146000
2000
הם רצו להפחיד אנשים.
02:43
They wanted to tell them how badרַע it would be
66
148000
3000
הם רצו לספר להם כמה זה יהיה רע
02:46
if they didn't brushמִברֶשֶׁת and flossחוט theirשֶׁלָהֶם teethשיניים.
67
151000
2000
אם הם לא יצחצחו שיניים וישתמשו בחוט דנטאלי.
02:48
They had a bigגָדוֹל patientסבלני populationאוּכְלוֹסִיָה.
68
153000
3000
הייתה להם אוכלוסיית חולים גדולה.
02:51
They dividedמחולק them up into two groupsקבוצות.
69
156000
2000
הם חילקו אותם לשתי קבוצות.
02:53
They had a low-fearפחד נמוך populationאוּכְלוֹסִיָה,
70
158000
2000
הייתה אוכלוסיה אחת שהפחידו מעט,
02:55
where they basicallyבעיקרון gaveנתן them a 13-minute-דַקָה presentationהַצָגָה,
71
160000
2000
שלמעשה הם הראו להם מצגת של 13 דקות,
02:57
all basedמבוסס in scienceמַדָע,
72
162000
2000
שכולה מבוססת על עובדות מדעיות,
02:59
but told them that, if you didn't brushמִברֶשֶׁת and flossחוט your teethשיניים,
73
164000
3000
אבל המסר שלה היה, שאם לא תצחצחו שיניים ותשתמשו בחוט דנטאלי,
03:02
you could get gumגומי לעיסה diseaseמַחֲלָה. If you get gumגומי לעיסה diseaseמַחֲלָה, you will loseלאבד your teethשיניים,
74
167000
3000
אתם עלולים לחלות במחלות חניכיים. ושאם זה יקרה, תאבדו את השיניים.
03:05
but you'llאתה get denturesתותבות, and it won'tרָגִיל be that badרַע.
75
170000
2000
אבל תקבלו תותבות, וזה לא יהיה נורא כל-כך.
03:07
So that was the low-fearפחד נמוך groupקְבוּצָה.
76
172000
2000
אז זו הייתה הקבוצה שהפחידו אותה מעט.
03:09
The high-fearפחד גבוה groupקְבוּצָה, they laidמוּנָח it on really thickעָבֶה.
77
174000
3000
לקבוצה שהפחידו מאד, הם ממש הגזימו.
03:12
They showedparagraphs bloodyאָרוּר gumsחֲנִיכַיִם.
78
177000
2000
הם הראו חניכיים מדממים,
03:14
They showedparagraphs pussחָתוּל oozingדְלִיפָה out from betweenבֵּין theirשֶׁלָהֶם teethשיניים.
79
179000
3000
הם הראו מוגלה נשפכת מבין השיניים שלהם,
03:17
They told them that theirשֶׁלָהֶם teethשיניים were going to fallנפילה out.
80
182000
2000
הם אמרו להם שהשיניים שלהם עומדות לנשור,
03:19
They said that they could have infectionsזיהומים
81
184000
2000
הם אמרו שעלול להיות להם זיהום
03:21
that would spreadהתפשטות from theirשֶׁלָהֶם jawsמלתעות to other partsחלקים of theirשֶׁלָהֶם bodiesגופים,
82
186000
3000
שיתפשט מהלסתות שלהם לחלקי גוף אחרים,
03:24
and ultimatelyבסופו של דבר, yes, they would loseלאבד theirשֶׁלָהֶם teethשיניים.
83
189000
2000
ושבסוף, כן, השיניים שלהם תנשורנה.
03:26
They would get denturesתותבות, and if you got denturesתותבות,
84
191000
2000
הם יקבלו תותבות, ואם הם יקבלו תותבות,
03:28
you weren'tלא היו going to be ableיכול to eatלאכול corn-on-the-cobקלחי תירס,
85
193000
2000
הם לא יוכלו לאכול קלחי תירס,
03:30
you weren'tלא היו going to be ableיכול to eatלאכול applesתפוחים,
86
195000
2000
הם לא יוכלו לאכול תפוחים,
03:32
you weren'tלא היו going to be ableיכול to eatלאכול steakסטייק.
87
197000
2000
הם לא יוכלו לאכול סטייקים;
03:34
You'llללא שם: תוכל eatלאכול mushדַיסָה for the restמנוחה of your life.
88
199000
2000
והם ייאלצו לאכול עיסה עד סוף ימיהם.
03:36
So go brushמִברֶשֶׁת and flossחוט your teethשיניים.
89
201000
3000
אז תצחצחו שיניים.
03:39
That was the messageהוֹדָעָה. That was the experimentלְנַסוֹת.
90
204000
2000
זה היה המסר; זה היה הניסוי.
03:41
Now they measuredנמדד one other variableמִשְׁתַנֶה.
91
206000
2000
אחרי זה הם מדדו עוד משתנה אחד.
03:43
They wanted to captureלִלְכּוֹד one other variableמִשְׁתַנֶה,
92
208000
2000
הם רצו לבחון משתנה נוסף,
03:45
whichאיזה was the patients'חולה senseלָחוּשׁ of efficacyיעילות.
93
210000
3000
והוא תחושת החולים לגבי יכולתם.
03:48
This was the notionרעיון of whetherהאם the patientsחולים feltהרגיש
94
213000
2000
הכוונה לשאלה אם החולים הרגישו
03:50
that they actuallyלמעשה would go aheadקָדִימָה and brushמִברֶשֶׁת and flossחוט theirשֶׁלָהֶם teethשיניים.
95
215000
3000
שהם אכן ירתמו למשימת הצחצוח והשימוש בחוט דנטאלי.
03:53
So they askedשאל them at the beginningהתחלה,
96
218000
2000
אז הם שאלו אותם בהתחלה,
03:55
"Do you think you'llאתה actuallyלמעשה be ableיכול to stickמקל with this programתָכְנִית?"
97
220000
2000
"האם אתם חושבים שבאמת תצליחו לדבוק בתכנית הזאת?"
03:57
And the people who said, "Yeah, yeah. I'm prettyיפה good about that,"
98
222000
2000
ואנשים שאמרו, "כן, כן. אני די מתמיד בדברים כאלו,"
03:59
they were characterizedמאופיין as highגָבוֹהַ efficacyיעילות,
99
224000
2000
אופיינו כבעלי יכולת גבוהה,
04:01
and the people who said,
100
226000
2000
ואנשים שאמרו,
04:03
"Ehאה, I never get around to brushingהַברָשָׁה and flossingחוט דנטלי as much as I should,"
101
228000
2000
"אה, אני אף פעם לא מצחצח ומשתמש בחוט דנטאלי כמו שאני אמור,"
04:05
they were characterizedמאופיין as lowנָמוּך efficacyיעילות.
102
230000
2000
אופיינו כבעלי יכולת נמוכה.
04:07
So the upshotתוֹצָאָה was this.
103
232000
3000
אז המסקנה הייתה כדלהלן.
04:10
The upshotתוֹצָאָה of this experimentלְנַסוֹת
104
235000
2000
המסקנה מהניסוי הייתה
04:12
was that fearפַּחַד was not really a primaryיְסוֹדִי driverנהג
105
237000
3000
שהפחד לא היה ממש מניע מרכזי
04:15
of the behaviorהִתְנַהֲגוּת at all.
106
240000
2000
להתנהגות בכלל.
04:17
The people who brushedמוברש and flossedבחוט דנטלי theirשֶׁלָהֶם teethשיניים
107
242000
2000
האנשים שצחצחו שיניים והשתמשו בחוט דנטאלי
04:19
were not necessarilyבהכרח the people
108
244000
2000
לא היו בהכרח האנשים
04:21
who were really scaredמפוחד about what would happenלִקְרוֹת --
109
246000
2000
שמאד פחדו ממה שיקרה -
04:23
it's the people who simplyבפשטות feltהרגיש that they had the capacityקיבולת
110
248000
3000
אלא האנשים שפשוט הרגישו שיש ביכולתם
04:26
to changeשינוי theirשֶׁלָהֶם behaviorהִתְנַהֲגוּת.
111
251000
2000
לשנות את התנהגותם.
04:28
So fearפַּחַד showedparagraphs up as not really the driverנהג.
112
253000
3000
אז הפחד לא יצא המניע האמיתי;
04:31
It was the senseלָחוּשׁ of efficacyיעילות.
113
256000
3000
אלא תחושת היכולת.
04:34
So I want to isolateלְבוּדֵד this,
114
259000
2000
אז אני רוצה לבודד את זה,
04:36
because it was a great observationתַצְפִּית --
115
261000
2000
כי זו הייתה תצפית מעולה -
04:38
30 yearsשנים agoלִפנֵי, right, 30 yearsשנים agoלִפנֵי --
116
263000
2000
לפני 30 שנה, נכון, לפני 30 שנה -
04:40
and it's one that's laidמוּנָח fallowמוּבָר in researchמחקר.
117
265000
3000
והיא מושמטת ממחקרים.
04:43
It was a notionרעיון that really cameבא out
118
268000
2000
זו הייתה תובנה שנחשפה במיוחד
04:45
of Albertאלברט Bandura'sשל בנדורה work,
119
270000
2000
בעבודתו של אלברט בנדורה,
04:47
who studiedמְחוֹשָׁב whetherהאם
120
272000
2000
שחקר האם
04:49
people could get a senseלָחוּשׁ of empowermentהעצמה.
121
274000
3000
אנשים יכולים לרכוש תחושת העצמה.
04:52
The notionרעיון of efficacyיעילות basicallyבעיקרון boilsשְׁחִין down to one -- that
122
277000
3000
רעיון היכולת הוא בבסיסו הרעיון
04:55
if somebodyמִישֶׁהוּ believesמאמין that they have the capacityקיבולת to changeשינוי theirשֶׁלָהֶם behaviorהִתְנַהֲגוּת.
123
280000
3000
שמישהו מאמין שיש לו את היכולת לשנות את התנהגותו.
04:58
In healthבְּרִיאוּת careלְטַפֵּל termsמונחים, you could characterizeאפיון this
124
283000
3000
במושגי שירות רפואי, אפשר לתאר זאת במונחים של
05:01
as whetherהאם or not somebodyמִישֶׁהוּ feelsמרגיש
125
286000
2000
האם מישהו מרגיש
05:03
that they see a pathנָתִיב towardsלִקרַאת better healthבְּרִיאוּת,
126
288000
2000
שישנה דרך לשפר את בריאותו,
05:05
that they can actuallyלמעשה see theirשֶׁלָהֶם way towardsלִקרַאת gettingמקבל better healthבְּרִיאוּת,
127
290000
2000
שהוא ממש יכול לראות את הדרך לבריאות טובה יותר.
05:07
and that's a very importantחָשׁוּב notionרעיון.
128
292000
2000
וזהו רעיון מאד חשוב.
05:09
It's an amazingמדהים notionרעיון.
129
294000
2000
זהו רעיון מדהים.
05:11
We don't really know how to manipulateלְתַפְעֵל it, thoughאם כי, that well.
130
296000
3000
אבל אנחנו לא ממש יודעים איך לנצל אותו כל-כך טוב.
05:14
Exceptמלבד, maybe we do.
131
299000
3000
אלא שאולי כן.
05:17
So fearפַּחַד doesn't work, right? Fearפַּחַד doesn't work.
132
302000
2000
אז הפחדה לא עובדת, נכון, הפחדה לא עובדת.
05:19
And this is a great exampleדוגמא
133
304000
2000
והנה דוגמה מצויינת
05:21
of how we haven'tלא learnedמְלוּמָד that lessonשיעור at all.
134
306000
3000
לכך שלא למדנו את הלקח הזה בכלל.
05:24
This is a campaignקמפיין from the Americanאֲמֶרִיקָאִי Diabetesסוכרת Associationאִרגוּן.
135
309000
3000
זהו מסע פרסום מאיגוד הסוכרת האמריקאי.
05:27
This is still the way we're communicatingמתקשר messagesהודעות about healthבְּרִיאוּת.
136
312000
3000
זוהי עדיין הדרך שבה אנו מתקשרים בנושאי בריאות.
05:30
I mean, I showedparagraphs my three-year-oldבן שלוש this slideשקופית last night,
137
315000
3000
כלומר, אני הראיתי את השקף הזה לבן שלי בן השלוש אתמול בלילה,
05:33
and he's like, "Papaאַבָּא, why is an ambulanceאַמבּוּלַנס in these people'sשל אנשים homesבתים?"
138
318000
4000
והוא אמר, "אבא, למה יש אמבולנס בבתים של האנשים האלה?"
05:37
And I had to explainלהסביר, "They're tryingמנסה to scareלְהַפחִיד people."
139
322000
3000
ונאלצתי להסביר, "הם מנסים להפחיד אנשים."
05:40
And I don't know if it worksעובד.
140
325000
2000
ואני לא יודע אם זה עובד.
05:42
Now here'sהנה what does work:
141
327000
2000
עכשיו הנה משהו שכן עובד,
05:44
personalizedאישית informationמֵידָע worksעובד.
142
329000
2000
מידע מותאם אישית עובד.
05:46
Again, Banduraבנדורה recognizedמוּכָּר this
143
331000
2000
שוב, בנדורה זיהה את זה
05:48
yearsשנים agoלִפנֵי, decadesעשרות שנים agoלִפנֵי.
144
333000
2000
לפני שנים, לפני עשורים.
05:50
When you give people specificספֵּצִיפִי informationמֵידָע
145
335000
2000
כשמספקים לאנשים מידע ספציפי
05:52
about theirשֶׁלָהֶם healthבְּרִיאוּת, where they standלַעֲמוֹד,
146
337000
2000
לגבי בריאותם, מה מצבם הנוכחי,
05:54
and where they want to get to, where they mightאולי get to,
147
339000
2000
ולאן הם רוצים להגיע, לאן אולי הם יגיעו,
05:56
that pathנָתִיב, that notionרעיון of a pathנָתִיב --
148
341000
2000
הדרך הזו, הרעיון שישנה דרך,
05:58
that tendsנוטה to work for behaviorהִתְנַהֲגוּת changeשינוי.
149
343000
2000
זה נוטה להביא לשינוי התנהגותי.
06:00
So let me just spoolסְלִיל it out a little bitbit.
150
345000
2000
אז תנו לי לפרט את זה קצת.
06:02
So you startהַתחָלָה with personalizedאישית dataנתונים, personalizedאישית informationמֵידָע
151
347000
3000
מתחילים עם נתונים מותאמים אישית, מידע מותאם אישית,
06:05
that comesבא from an individualאִישִׁי,
152
350000
2000
שמקורם באדם מסוים,
06:07
and then you need to connectלְחַבֵּר it to theirשֶׁלָהֶם livesחיים.
153
352000
3000
ומחברים אותם לחיים של אותו אדם.
06:10
You need to connectלְחַבֵּר it to theirשֶׁלָהֶם livesחיים,
154
355000
2000
צריך לחבר את המידע לחייו של אדם,
06:12
hopefullyבתקווה not in a fear-basedמבוסס פחד way, but one that they understandמבין.
155
357000
2000
רצוי שיהיה בדרך שאינה מבוססת פחד, אבל שהיא מובנת.
06:14
Okay, I know where I sitלָשֶׁבֶת. I know where I'm situatedממוקם.
156
359000
3000
טוב, אני יודע איפה אני עומד. אני יודע מה מצבי.
06:17
And that doesn't just work for me in termsמונחים of abstractתַקצִיר numbersמספרים --
157
362000
3000
וזה עובד לא רק במושגים של מספרים מופשטים,
06:20
this overloadלהעמיס יותר מדי of healthבְּרִיאוּת informationמֵידָע
158
365000
2000
העומס הזה של מידע רפואי
06:22
that we're inundatedמוצף with.
159
367000
2000
שאנחנו מוצפים בו,
06:24
But it actuallyלמעשה hitsלהיטים home.
160
369000
2000
אבל הוא באמת מגיע ליעדו.
06:26
It's not just hittingלהכות us in our headsראשים; it's hittingלהכות us in our heartsלבבות.
161
371000
2000
הוא אינו מגיע רק לראשינו, הוא מגיע גם לליבנו.
06:28
There's an emotionalרִגשִׁי connectionחיבור to informationמֵידָע
162
373000
2000
ישנו חיבור רגשי למידע
06:30
because it's from us.
163
375000
2000
מפני שמקורו ממנו.
06:32
That informationמֵידָע then needsצרכי to be connectedמְחוּבָּר to choicesבחירות,
164
377000
3000
אחר-כך המידע הזה צריך להיות מקושר לבחירות,
06:35
needsצרכי to be connectedמְחוּבָּר to a rangeטווח of optionsאפשרויות,
165
380000
2000
הוא צריך להיות מקושר לקשת אפשרויות,
06:37
directionsכיוונים that we mightאולי go to --
166
382000
2000
כיוונים אליהם אנחנו עשויים ללכת -
06:39
trade-offsסחר- offs, benefitsיתרונות.
167
384000
2000
יתרונות וחסרונות.
06:41
Finallyסוף כל סוף, we need to be presentedמוצג with a clearברור pointנְקוּדָה of actionפעולה.
168
386000
3000
ולבסוף, צריכים להציג לנו כוון פעולה ברור.
06:44
We need to connectלְחַבֵּר the informationמֵידָע
169
389000
2000
אנחנו צריכים להתחבר למידע.
06:46
always with the actionפעולה,
170
391000
2000
תמיד עם פעולה,
06:48
and then that actionפעולה feedsהזנות back
171
393000
2000
ואז הפעולה הזאת מובילה
06:50
into differentשונה informationמֵידָע,
172
395000
2000
למידע אחר,
06:52
and it createsיוצר, of courseקוּרס, a feedbackמָשׁוֹב loopלוּלָאָה.
173
397000
2000
והיא יוצרת, כמובן, לולאת היזון חוזר.
06:54
Now this is a very well-observedנצפה היטב and well-establishedמבוסס היטב notionרעיון
174
399000
3000
זהו רעיון מאד מוכר ומאד מבוסס
06:57
for behaviorהִתְנַהֲגוּת changeשינוי.
175
402000
2000
לשינוי התנהגותי.
06:59
But the problemבְּעָיָה is that things -- in the upper-rightהימנית העליונה cornerפינה there --
176
404000
3000
אבל הבעיה היא שהדברים שם בפינה הימנית העליונה,
07:02
personalizedאישית dataנתונים, it's been prettyיפה hardקָשֶׁה to come by.
177
407000
2000
מידע מותאם אישית, קשה מאד למצוא.
07:04
It's a difficultקָשֶׁה and expensiveיָקָר commodityסְחוֹרָה,
178
409000
3000
זהו מצרך יקר וקשה להשגה,
07:07
untilעד now.
179
412000
2000
עד עכשיו.
07:09
So I'm going to give you an exampleדוגמא, a very simpleפָּשׁוּט exampleדוגמא of how this worksעובד.
180
414000
3000
אז אני אתן לכם דוגמה, דוגמה מאד פשוטה לצורה שזה עובד.
07:12
So we'veיש לנו all seenלראות these. These are the "your speedמְהִירוּת limitלְהַגבִּיל" signsשלטים.
181
417000
3000
אז כולנו ראינו כאלו. אלו הם שלטי "המהירות המותרת שלך".
07:15
You've seenלראות them all around,
182
420000
2000
ראיתם אותם בכל מקום,
07:17
especiallyבמיוחד these daysימים as radarsמכ"ם are cheaperיותר זול.
183
422000
2000
במיוחד כיום כשמחירי המכמונות הם זולים.
07:19
And here'sהנה how they work in the feedbackמָשׁוֹב loopלוּלָאָה.
184
424000
2000
וכך הם עובדים בלולאת ההיזון החוזר.
07:21
So you startהַתחָלָה with the personalizedאישית dataנתונים
185
426000
2000
אז מתחילים במידע מותאם אישית
07:23
where the speedמְהִירוּת limitלְהַגבִּיל on the roadכְּבִישׁ that you are at that pointנְקוּדָה
186
428000
2000
כאשר המהירות המותרת בכביש עליו אתה נוסע
07:25
is 25,
187
430000
2000
היא 25,
07:27
and, of courseקוּרס, you're going fasterמהיר יותר than that.
188
432000
2000
ואתה, כמובן, נוסע יותר מהר מזה.
07:29
We always are. We're always going aboveמֵעַל the speedמְהִירוּת limitלְהַגבִּיל.
189
434000
3000
ככה זה תמיד. אנחנו נוסעים מעל המהירות המותרת.
07:32
The choiceבְּחִירָה in this caseמקרה is prettyיפה simpleפָּשׁוּט.
190
437000
2000
הבחירה במקרה זה היא פשוטה למדי.
07:34
We eitherאוֹ keep going fastמָהִיר, or we slowלְהַאֵט down.
191
439000
2000
או שאנחנו ממשיכים ליסוע מהר, או שאנחנו מאטים.
07:36
We should probablyכנראה slowלְהַאֵט down,
192
441000
2000
עדיף כנראה שנאט,
07:38
and that pointנְקוּדָה of actionפעולה is probablyכנראה now.
193
443000
2000
וכנראה שעכשיו הוא הרגע להחליט כיצד לפעול.
07:40
We should take our footכף רגל off the pedalפֵּדָל right now,
194
445000
3000
אנחנו צריכים להוריד את הרגל מהדוושה מיד.
07:43
and generallyבדרך כלל we do. These things are shownמוצג to be prettyיפה effectiveיָעִיל
195
448000
3000
ובדרך כלל זה מה שאנחנו עושים; הוכח שהדברים האלו די יעילים
07:46
in termsמונחים of gettingמקבל people to slowלְהַאֵט down.
196
451000
2000
במושגים של האטת מהירות הנסיעה.
07:48
They reduceלְהַפחִית speedsבמהירויות by about fiveחָמֵשׁ to 10 percentאָחוּז.
197
453000
2000
הם מורידים מהירויות בכחמישה עד עשרה אחוזים.
07:50
They last for about fiveחָמֵשׁ milesstomach,
198
455000
2000
הם משפיעים למשך כחמישה מיילים,
07:52
in whichאיזה caseמקרה we put our footכף רגל back on the pedalפֵּדָל.
199
457000
2000
ואז אנחנו מחזירים את הרגל לדוושה.
07:54
But it worksעובד, and it even has some healthבְּרִיאוּת repercussionsהשלכות.
200
459000
2000
אבל זה עובד, ויש לזה אפילו השלכות בריאותיות,
07:56
Your bloodדָם pressureלַחַץ mightאולי dropיְרִידָה a little bitbit.
201
461000
2000
לחץ הדם שלך עשוי לרדת קצת.
07:58
Maybe there's fewerפחות accidentsתאונות, so there's publicפּוּמְבֵּי healthבְּרִיאוּת benefitsיתרונות.
202
463000
3000
אולי יש פחות תאונות דרכים, אז ישנה גם תועלת מבחינת בריאות הציבור.
08:01
But by and largeגָדוֹל, this is a feedbackמָשׁוֹב loopלוּלָאָה
203
466000
2000
אבל בסה"כ יש כאן לולאת היזון חוזר
08:03
that's so niftyניפטי and too rareנָדִיר.
204
468000
3000
זה מגניב מאד ונדיר מדי.
08:06
Because in healthבְּרִיאוּת careלְטַפֵּל, mostרוב healthבְּרִיאוּת careלְטַפֵּל,
205
471000
2000
מפני שבשירותי בריאות, רוב שירותי הבריאות,
08:08
the dataנתונים is very removedהוסר from the actionפעולה.
206
473000
3000
המידע מרוחק מאד מהפעולה.
08:11
It's very difficultקָשֶׁה to lineקַו things up so neatlyלְמִשׁעִי.
207
476000
3000
קשה מאד לסדר דברים בצורה כל-כך יפה.
08:14
But we have an opportunityהִזדַמְנוּת.
208
479000
2000
אבל יש לנו הזדמנות.
08:16
So I want to talk about, I want to shiftמִשׁמֶרֶת now to think about
209
481000
2000
אז אני רוצה לדבר על, אני רוצה לשנות כיוון ולחשוב על
08:18
how we deliverלִמְסוֹר healthבְּרִיאוּת informationמֵידָע in this countryמדינה,
210
483000
2000
הדרך שבה אנחנו מעבירים מידע רפואי במדינה הזו,
08:20
how we actuallyלמעשה get informationמֵידָע.
211
485000
3000
איך בעצם אנחנו מקבלים מידע.
08:23
This is a pharmaceuticalהתרופות adמוֹדָעָה.
212
488000
3000
זוהי פרסומת לתרופה.
08:26
Actuallyבעצם, it's a spoofמְתִיחָה. It's not a realאמיתי pharmaceuticalהתרופות adמוֹדָעָה.
213
491000
2000
למעשה, זו אינה פרסומת אמיתית.
08:28
Nobody'sאף אחד לא had the brilliantמַברִיק ideaרַעְיוֹן
214
493000
2000
לאף אחד לא היה עדיין את הרעיון המבריק
08:30
of callingיִעוּד theirשֶׁלָהֶם drugתְרוּפָה HavidolHavidol quiteדַי yetעדיין.
215
495000
3000
לקרוא לתרופה שלהם Havidol ("יש בו הכל").
08:34
But it looksנראה completelyלַחֲלוּטִין right.
216
499000
2000
אבל היא נראית לגמרי בסדר.
08:36
So it's exactlyבְּדִיוּק the way we get
217
501000
2000
וזוהי בדיוק הדרך שבא אנחנו מקבלים
08:38
healthבְּרִיאוּת informationמֵידָע and pharmaceuticalהתרופות informationמֵידָע,
218
503000
3000
מידע רפואי ומידע תרופתי,
08:41
and it just soundsקולות perfectמושלם.
219
506000
2000
וזה נשמע פשוט מושלם.
08:43
And then we turnלפנות the pageעמוד of the magazineמגזין,
220
508000
2000
ואז אנחנו מעבירים דף בירחון,
08:45
and we see this --
221
510000
3000
ואנחנו רואים את זה, נכון, את זה.
08:48
now this is the pageעמוד the FDAה- FDA requiresדורש pharmaceuticalהתרופות companiesחברות
222
513000
3000
זהו הדף שמנהל המזון והתרופות דורש מחברות התרופות
08:51
to put into theirשֶׁלָהֶם adsמודעות, or to followלעקוב אחר theirשֶׁלָהֶם adsמודעות,
223
516000
3000
לצרף לפרסומות שלהן, או לפרסם מיד אחריהן.
08:54
and to me, this is one of the mostרוב
cynicalצִינִי exercisesתרגילים in medicineתרופה.
224
519000
4000
ולטעמי, זהו אחד התרגילים הציניים ביותר בעולם הרפואה.
08:58
Because we know.
225
523000
2000
כי אנחנו יודעים
09:00
Who amongבין us would actuallyלמעשה say that people readלקרוא this?
226
525000
2000
מי מאיתנו יאמר שאנשים באמת קוראים את זה?
09:02
And who amongבין us would actuallyלמעשה say
227
527000
2000
ומי מאיתנו באמת יאמר
09:04
that people who do try to readלקרוא this
228
529000
2000
שאנשים שאכן קוראים את זה
09:06
actuallyלמעשה get anything out of it?
229
531000
2000
באמת יקבלו מזה משהו?
09:08
This is a bankruptפשיטת רגל effortמַאֲמָץ
230
533000
2000
זהו ניסיון כושל
09:10
at communicatingמתקשר healthבְּרִיאוּת informationמֵידָע.
231
535000
3000
לתקשר מידע רפואי.
09:13
There is no good faithאֱמוּנָה in this.
232
538000
2000
אין בזה כוונה טובה בכלל.
09:15
So this is a differentשונה approachגִישָׁה.
233
540000
2000
אז לפניכם גישה אחרת.
09:17
This is an approachגִישָׁה that has been developedמפותח
234
542000
3000
זוהי גישה שפותחה על ידי
09:20
by a coupleזוּג researchersחוקרים at Dartmouthדרטמות' Medicalרְפוּאִי Schoolבית ספר,
235
545000
3000
שני חוקרים מבית הספר לרפואה בדרטמוט.
09:23
Lisaליסה Schwartzשוורץ and Stevenסטיבן Woloshinוולושין.
236
548000
2000
ליסה שוורץ וסטיבן וולושין.
09:25
And they createdשנוצר this thing calledשקוראים לו the "drugתְרוּפָה factsעובדות boxקופסא."
237
550000
3000
הם יצרו משהו שקוראים לו תיבת העובדות לגבי תרופה.
09:28
They tookלקח inspirationהַשׁרָאָה from, of all things,
238
553000
2000
ומכל הדברים, הם קיבלו השראה
09:30
Cap'nקפטן Crunchלִכסוֹס.
239
555000
2000
מדגני הבוקר Cap'n Crunch.
09:32
They wentהלך to the nutritionalתזונתיים informationמֵידָע boxקופסא
240
557000
3000
הם צפו בתיבת המידע התזונתי
09:35
and saw that what worksעובד for cerealדגני בוקר, worksעובד for our foodמזון,
241
560000
3000
וראו שמה שעובד עבור דגני בוקר, עבור המזון שלנו,
09:38
actuallyלמעשה helpsעוזר people understandמבין what's in theirשֶׁלָהֶם foodמזון.
242
563000
3000
באמת עוזר לאנשים להבין מה יש באוכל שלהם.
09:42
God forbidלֶאֱסוֹר we should use that sameאותו standardתֶקֶן
243
567000
2000
למה שלא ניקח, חס וחלילה, את אותו הסטנדרט
09:44
that we make Cap'nקפטן Crunchלִכסוֹס liveלחיות by
244
569000
2000
שאנחנו דורשים מ-Cap'n Crunch
09:46
and bringלְהָבִיא it to drugתְרוּפָה companiesחברות.
245
571000
3000
ונביא אותו לחברות התרופות.
09:49
So let me just walkלָלֶכֶת throughדרך this quicklyבִּמְהִירוּת.
246
574000
2000
אז תרשו לי להציג לכם את הרעיון בקצרה.
09:51
It saysאומר very clearlyבְּבִירוּר what the drugתְרוּפָה is for, specificallyבאופן ספציפי who it is good for,
247
576000
3000
רשום בצורה ברורה מאד מה מטרת התרופה, ובפרט למי היא מיועדת
09:54
so you can startהַתחָלָה to personalizeהתאמה אישית your understandingהֲבָנָה
248
579000
2000
אז אפשר להתחיל להבין באופן אישי
09:56
of whetherהאם the informationמֵידָע is relevantרלוונטי to you
249
581000
2000
אם המידע רלוונטי לך
09:58
or whetherהאם the drugתְרוּפָה is relevantרלוונטי to you.
250
583000
2000
ואם התרופה רלוונטית לך.
10:00
You can understandמבין exactlyבְּדִיוּק what the benefitsיתרונות are.
251
585000
3000
אפשר להבין בדיוק מה התועלת.
10:03
It isn't this kindסוג of vagueמְעוּרפָּל promiseהַבטָחָה that it's going to work no matterחוֹמֶר what,
252
588000
3000
זו אינה הבטחה סתמית שהתרופה תעזור בכל מקרה,
10:06
but you get the statisticsסטָטִיסטִיקָה for how effectiveיָעִיל it is.
253
591000
3000
אלא מקבלים את הסטטיסטיקה לגבי יעילותה.
10:09
And finallyסוף כל סוף, you understandמבין what those choicesבחירות are.
254
594000
3000
ולבסוף, אתם מבינים מה הן האפשרויות העומדות בפניכם.
10:12
You can startהַתחָלָה to unpackלִפְרוֹק the choicesבחירות involvedמְעוּרָב
255
597000
2000
אפשר להתחיל לפתוח את האפשרויות
10:14
because of the sideצַד effectsההשפעות.
256
599000
2000
בגלל תופעות הלוואי.
10:16
Everyכֹּל time you take a drugתְרוּפָה, you're walkingהליכה into a possibleאפשרי sideצַד effectהשפעה.
257
601000
3000
בכל פעם שלוקחים תרופה, יש אפשרות שתהיה תופעת לוואי.
10:19
So it spellsלחשים those out in very cleanלְנַקוֹת termsמונחים,
258
604000
2000
אז זה רשום במושגים מאד ברורים.
10:21
and that worksעובד.
259
606000
2000
וזה עובד.
10:23
So I love this. I love that drugתְרוּפָה factsעובדות boxקופסא.
260
608000
2000
אז אני מת על זה. אני מת על תיבת המידע התרופתי.
10:25
And so I was thinkingחושב about,
261
610000
2000
אז חשבתי,
10:27
what's an opportunityהִזדַמְנוּת that I could have
262
612000
2000
איפה ישנה עוד הזדמנות
10:29
to help people understandמבין informationמֵידָע?
263
614000
3000
לעזור לאנשים להבין מידע?
10:32
What's anotherאַחֵר latentחָבוּי bodyגוּף of informationמֵידָע that's out there
264
617000
4000
היכן ישנו עוד מאגר ידע חבוי
10:36
that people are really not puttingלשים to use?
265
621000
3000
שאף אחד לא משתמש בו.
10:39
And so I cameבא up with this: labמַעבָּדָה testמִבְחָן resultsתוצאות.
266
624000
3000
אז עלה לי הרעיון הבא: תוצאות מעבדה.
10:42
Bloodדָם testמִבְחָן resultsתוצאות are this great sourceמָקוֹר of informationמֵידָע.
267
627000
3000
בדיקות דם הן מקור מידע מעולה.
10:45
They're packedארוז with informationמֵידָע.
268
630000
2000
הן מפוצצות במידע.
10:47
They're just not for us. They're not for people. They're not for patientsחולים.
269
632000
3000
הן פשוט לא עבורנו; הן לא עבור אנשים; הן לא עבור חולים.
10:50
They go right to doctorsרופאים.
270
635000
2000
הן מגיעות ישר לרופאים.
10:52
And God forbidלֶאֱסוֹר -- I think manyרב doctorsרופאים, if you really askedשאל them,
271
637000
3000
והס מלהזכיר - אני חושב שהרבה רופאים, אם תשאלו אותם,
10:55
they don't really understandמבין all this stuffדברים eitherאוֹ.
272
640000
3000
לא ממש מבינים את הדברים האלה.
10:58
This is the worstהכי גרוע presentedמוצג informationמֵידָע.
273
643000
3000
זהו המידע שמוגש בצורה הגרועה ביותר.
11:01
You askלִשְׁאוֹל Tufteטופטה, and he would say,
274
646000
3000
אם הייתם שואלים את טאפטי (Tufte) הוא היה אומר,
11:04
"Yes, this is the absoluteמוּחלָט worstהכי גרוע presentationהַצָגָה of informationמֵידָע possibleאפשרי."
275
649000
3000
"כן, זוהי הצורה הגרועה ביותר להציג מידע."
11:07
What we did at Wiredחוטי
276
652000
2000
מה שעשינו ב-Wired
11:09
was we wentהלך, and I got our graphicגרפי designלְעַצֵב departmentמַחלָקָה
277
654000
2000
זה שפנינו למחלקת העיצוב הגרפי שלנו
11:11
to re-imagineלדמיין מחדש these labמַעבָּדָה reportsדיווחים.
278
656000
2000
כדי שידמיינו מחדש את תוצאות המעבדה האלו.
11:13
So that's what I want to walkלָלֶכֶת you throughדרך.
279
658000
2000
וזה מה שאני רוצה להציג לכם.
11:15
So this is the generalכללי bloodדָם work before,
280
660000
3000
אז הנה תוצאות בדיקות דם כלליות לפני,
11:18
and this is the after, this is what we cameבא up with.
281
663000
2000
והנה מה שאנחנו עיצבנו.
11:20
The after takes what was fourארבעה pagesדפים --
282
665000
2000
העיצוב שלנו לוקח את מה שהיה ארבעה עמודים -
11:22
that previousקודם slideשקופית was actuallyלמעשה
283
667000
2000
השקף הקודם היה למעשה
11:24
the first of fourארבעה pagesדפים of dataנתונים
284
669000
2000
העמוד הראשון מבין ארבעה עמודי מידע
11:26
that's just the generalכללי bloodדָם work.
285
671000
2000
ואלו הן רק התוצאות הכלליות.
11:28
It goesהולך on and on and on, all these valuesערכים, all these numbersמספרים you don't know.
286
673000
3000
זה ממשיך עוד ועוד, כל הערכים האלו, כל המספרים האלו שאתם לא מכירים.
11:31
This is our one-pageעמוד אחד summaryסיכום.
287
676000
3000
והנה דף הסיכום שלנו.
11:34
We use the notionרעיון of colorצֶבַע.
288
679000
2000
אנחנו משתמשים בצבע.
11:36
It's an amazingמדהים notionרעיון that colorצֶבַע could be used.
289
681000
3000
זה רעיון מדהים שאפשר להשתמש בצבע.
11:39
So on the top-levelהרמה העליונה you have your overallבאופן כללי resultsתוצאות,
290
684000
3000
אז בחלק העליון יש את התוצאות הכלליות שלכם,
11:42
the things that mightאולי jumpקְפִיצָה out at you from the fine printהדפס.
291
687000
3000
הדברים שעשויים לעניין אתכם מתוך האותיות הקטנות.
11:45
Then you can drillתרגיל down
292
690000
2000
ואז אפשר להכנס לפרטים
11:47
and understandמבין how actuallyלמעשה we put your levelרָמָה in contextהֶקשֵׁר,
293
692000
3000
ולהבין את ההקשר של התוצאה המספרית,
11:50
and we use colorצֶבַע to illustrateלהמחיש
294
695000
2000
ואנחנו משתמשים בצבע כדי להסביר
11:52
exactlyבְּדִיוּק where your valueערך fallsנופל.
295
697000
2000
בדיוק איפה התוצאה שלכם נמצאת.
11:54
In this caseמקרה, this patientסבלני is slightlyמְעַט at riskלְהִסְתָכֵּן of diabetesסוכרת
296
699000
3000
במקרה הזה, החולה בסיכון קל לסוכרת
11:57
because of theirשֶׁלָהֶם glucoseגלוקוז levelרָמָה.
297
702000
2000
בשל רמת הגלוקוזה שלו.
11:59
Likewiseכְּמוֹ כֵן, you can go over your lipidsשומנים
298
704000
2000
באופן דומה, אפשר לעבור על הליפידים שלכם
12:01
and, again, understandמבין what your overallבאופן כללי cholesterolכולסטרול levelרָמָה is
299
706000
3000
ושוב, להבין את רמת הכולסטרול הכללית שלכם
12:04
and then breakלשבור down into the HDLHDL and the LDLLDL if you so chooseבחר.
300
709000
3000
ואז לפרק אותה ל-HDL ול-LDL אם תבחרו לעשות כן.
12:07
But again, always usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני colorצֶבַע
301
712000
2000
אבל שוב, תמיד תוך שימוש בצבע
12:09
and personalizedאישית proximityקִרבָה
302
714000
2000
וקירבה אישית
12:11
to that informationמֵידָע.
303
716000
2000
למידע הזה.
12:13
All those other valuesערכים,
304
718000
2000
כל הערכים האחרים האלה,
12:15
all those pagesדפים and pagesדפים of valuesערכים that are fullמלא of nothing,
305
720000
2000
כל הדפים על גבי דפים של ערכים חסרי ערך,
12:17
we summarizeלְסַכֵּם.
306
722000
2000
אנחנו מסכמים.
12:19
We tell you that you're okay, you're normalנוֹרמָלִי.
307
724000
2000
אנחנו אומרים לכם שאתם בסדר, אתם נורמאליים.
12:21
But you don't have to wadeלְהִשְׁתַכְשֵׁך throughדרך it. You don't have to go throughדרך the junkפְּסוֹלֶת.
308
726000
3000
אבל אתם לא צריכים לדשדש בזה. אתם לא צריכים לעבור על כל הזבל.
12:24
And then we do two other very importantחָשׁוּב things
309
729000
2000
ואז אנחנו עושים עוד שני דברים מאד חשובים
12:26
that kindסוג of help fillלמלא in this feedbackמָשׁוֹב loopלוּלָאָה:
310
731000
2000
שעוזרים להשלים את נושא לולאת המשוב.
12:28
we help people understandמבין in a little more detailפרט
311
733000
2000
אנחנו עוזרים לאנשים להבין קצת יותר
12:30
what these valuesערכים are and what they mightאולי indicateמצביע.
312
735000
3000
מהם הערכים האלו ומה הם עשויים להביע.
12:33
And then we go a furtherנוסף stepשלב -- we tell them what they can do.
313
738000
3000
ואז אנחנו מתקדמים צעד נוסף: אנחנו אומרים להם מה הם יכולים לעשות.
12:36
We give them some insightתוֹבָנָה
314
741000
2000
אנחנו מספקים להם מעט תובנה
12:38
into what choicesבחירות they can make, what actionsפעולות they can take.
315
743000
3000
לגבי הבחירות העומדות בפניהם, הפעולות שהם יכולים לבצע.
12:41
So that's our generalכללי bloodדָם work testמִבְחָן.
316
746000
3000
אז אלו תוצאות בדיקות הדם הכלליות שלנו.
12:44
Then we wentהלך to CRPCRP testמִבְחָן.
317
749000
2000
אחרי זה עברנו לבדיקת CRP (חלבון בדם).
12:46
In this caseמקרה, it's a sinחטא of omissionהַשׁמָטָה.
318
751000
2000
הפעם מדובר בהשמטת מידע.
12:48
They have this hugeעָצוּם amountכמות of spaceמֶרחָב,
319
753000
2000
יש להם את המרווח הגדול הזה,
12:50
and they don't use it for anything, so we do.
320
755000
2000
והם לא משתמשים בו, אז אנחנו כן.
12:52
Now the CRPCRP testמִבְחָן is oftenלעתים קרובות doneבוצע
321
757000
2000
בדיקת ה-CRP מבוצעת לעיתים קרובות
12:54
followingהבא a cholesterolכולסטרול testמִבְחָן,
322
759000
2000
בעקבות בדיקת כולסטרול,
12:56
or in conjunctionיחד with a cholesterolכולסטרול testמִבְחָן.
323
761000
2000
או בשילוב עם בדיקת כולסטרול.
12:58
So we take the boldנוֹעָז stepשלב
324
763000
2000
אז עשינו מעשה נועז
13:00
of puttingלשים the cholesterolכולסטרול informationמֵידָע on the sameאותו pageעמוד,
325
765000
3000
ושמנו את המידע לגבי הכולסטרול באותו העמוד,
13:03
whichאיזה is the way the doctorדוֹקטוֹר is going to evaluateלהעריך it.
326
768000
2000
שזו הדרך שבה הרופא יבחן אותו.
13:05
So we thought the patientסבלני mightאולי actuallyלמעשה want to know the contextהֶקשֵׁר as well.
327
770000
3000
אז חשבנו שאולי החולה הזה גם ירצה לדעת את ההקשר.
13:08
It's a proteinחֶלְבּוֹן that showsמופעים up
328
773000
2000
זהו חלבון שמופיע
13:10
when your bloodדָם vesselsכלי mightאולי be inflamedמוּסָת,
329
775000
2000
כשכלי הדם עלולים להיות מודלקים,
13:12
whichאיזה mightאולי be a riskלְהִסְתָכֵּן for heartלֵב diseaseמַחֲלָה.
330
777000
2000
שעלול להוות סיכון למחלת לב.
13:14
What you're actuallyלמעשה measuringמדידה
331
779000
2000
מה שאתם מודדים למעשה
13:16
is spelledאיות out in cleanלְנַקוֹת languageשפה.
332
781000
2000
מוצג בשפה ברורה.
13:18
Then we use the informationמֵידָע
333
783000
2000
ואז אנחנו משתמשים במידע
13:20
that's alreadyכְּבָר in the labמַעבָּדָה reportלהגיש תלונה.
334
785000
2000
שכבר נמצא בתוצאות המעבדה.
13:22
We use the person'sשל אדם ageגיל and theirשֶׁלָהֶם genderמִין
335
787000
2000
אנחנו לוקחים את גיל החולה ואת מינו
13:24
to startהַתחָלָה to fillלמלא in the personalizedאישית risksסיכונים.
336
789000
3000
כדי להתחיל להשלים את הסיכונים האישיים שלו.
13:27
So we startהַתחָלָה to use the dataנתונים we have
337
792000
2000
אז אנחנו מתחילים להשתמש בנתונים שבידינו
13:29
to runלָרוּץ a very simpleפָּשׁוּט calculationתַחשִׁיב
338
794000
2000
כדי לבצע חישוב פשוט מאד
13:31
that's on all sortsמיני of onlineבאינטרנט calculatorsמחשבונים
339
796000
2000
שנמצא בכל מיני מחשבונים ברשת
13:33
to get a senseלָחוּשׁ of what the actualמַמָשִׁי riskלְהִסְתָכֵּן is.
340
798000
3000
כדי לקבל תחושה לגבי הסיכון האמיתי.
13:36
The last one I'll showלְהַצִיג you is a PSAPSA testמִבְחָן.
341
801000
2000
הבדיקה האחרונה שאראה לכם היא בדיקת PSA (אנטיגנים בבלוטת הערמונית).
13:38
Here'sהנה the before, and here'sהנה the after.
342
803000
3000
הנה התוצאות לפני, והנה אחרי.
13:41
Now a lot of our effortמַאֲמָץ on this one --
343
806000
2000
הרבה מהמאמץ שלנו במקרה זה -
13:43
as manyרב of you probablyכנראה know,
344
808000
2000
וכפי שרבים מכם יודעים כנראה,
13:45
a PSAPSA testמִבְחָן is a very controversialשנוי במחלוקת testמִבְחָן.
345
810000
2000
בדיקת ה-PSA היא מאד שנויה במחלוקת.
13:47
It's used to testמִבְחָן for prostateבלוטת הערמונית cancerמחלת הסרטן,
346
812000
2000
היא משמשת לבדיקת סרטן הערמונית,
13:49
but there are all sortsמיני of reasonsסיבות
347
814000
2000
אבל ישנן כל מיני סיבות לכך
13:51
why your prostateבלוטת הערמונית mightאולי be enlargedמוּגדָל.
348
816000
2000
שבלוטת הערמונית שלכם תהיה מוגדלת.
13:53
And so we spentמוּתַשׁ a good dealעִסקָה of our time
349
818000
2000
אז בילינו הרבה מזמננו
13:55
indicatingהמציין that.
350
820000
2000
בלציין זאת.
13:57
We again personalizedאישית the risksסיכונים.
351
822000
2000
שוב התאמנו אישית את הסיכונים.
13:59
So this patientסבלני is in theirשֶׁלָהֶם 50s,
352
824000
2000
אז החולה הזה הוא בשנות ה-50 שלו,
14:01
so we can actuallyלמעשה give them a very preciseמְדוּיָק estimateלְהַעֲרִיך
353
826000
2000
ואנחנו יכולים לספק לו הערכה מאד מדויקת
14:03
of what theirשֶׁלָהֶם riskלְהִסְתָכֵּן for prostateבלוטת הערמונית cancerמחלת הסרטן is.
354
828000
2000
של הסיכון שלו לחלות בסרטן הערמונית.
14:05
In this caseמקרה it's about 25 percentאָחוּז, basedמבוסס on that.
355
830000
3000
במקרה הזה הסבירות היא של 25%, בהסתמך על כך.
14:08
And then again, the follow-upמעקב actionsפעולות.
356
833000
3000
ושוב, הפעולות לביצוע.
14:11
So our costעֲלוּת for this was lessפָּחוּת than 10,000 dollarsדולר, all right.
357
836000
3000
אז העלות עבור הפעילות שלנו הייתה פחות מ-$10,000, בסדר.
14:14
That's what Wiredחוטי magazineמגזין spentמוּתַשׁ on this.
358
839000
3000
זה מה שירחון Wired הוציא על זה.
14:17
Why is Wiredחוטי magazineמגזין doing this?
359
842000
2000
למה ירחון Wired עושה את זה?
14:19
(Laughterצחוק)
360
844000
3000
(צחוק)
14:22
Questלַחקוֹר Diagnosticsאבחון and LabCorpLabCorp,
361
847000
2000
חברת Quest Diagnostics וחברת LabCorp,
14:24
the two largestהגדול labמַעבָּדָה testingבדיקה companiesחברות --
362
849000
3000
שני מכוני הבדיקה הגדולים ביותר:
14:27
last yearשָׁנָה, they madeעָשׂוּי profitsרווחים of over 700 millionמִילִיוֹן dollarsדולר
363
852000
3000
בשנה שעברה הרוויחו למעלה מ-700 מיליון דולרים
14:30
and over 500 millionמִילִיוֹן dollarsדולר respectivelyבהתאמה.
364
855000
3000
ו-500 מיליון דולרים בהתאמה.
14:33
Now this is not a problemבְּעָיָה of resourcesאֶמְצָעִי;
365
858000
2000
אז זו אינה בעית משאבים,
14:35
this is a problemבְּעָיָה of incentivesתמריצים.
366
860000
3000
זוהי בעית תמריצים.
14:38
We need to recognizeלזהות that the targetיַעַד of this informationמֵידָע
367
863000
3000
עלינו להבין שמטרת המידע הזה
14:41
should not be the doctorדוֹקטוֹר, should not be the insuranceביטוח companyחֶברָה.
368
866000
3000
לא אמורה להיות הרופא ולא חברת הביטוח;
14:44
It should be the patientסבלני.
369
869000
2000
היא אמורה להיות החולה.
14:46
It's the personאדם who actuallyלמעשה, in the endסוֹף,
370
871000
2000
זהו הבן אדם שלמעשה, בסופו של יום,
14:48
is going to be havingשיש to changeשינוי theirשֶׁלָהֶם livesחיים
371
873000
2000
יצטרך לשנות את חייו
14:50
and then startהַתחָלָה adoptingאימוץ newחָדָשׁ behaviorsהתנהגויות.
372
875000
2000
ולהתחיל לאמץ התנהגויות חדשות.
14:52
This is informationמֵידָע that is incrediblyבצורה מדהימה powerfulחָזָק.
373
877000
2000
זהו מידע רב עוצמה.
14:54
It's an incrediblyבצורה מדהימה powerfulחָזָק catalystזָרָז to changeשינוי.
374
879000
3000
הוא מהווה זרז חזק לשינוי.
14:57
But we're not usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני it. It's just sittingיְשִׁיבָה there.
375
882000
2000
אבל איננו משתמשים בו; הוא פשוט יושב שם.
14:59
It's beingלהיות lostאבד.
376
884000
2000
הוא הולך לאיבוד.
15:01
So I want to just offerהַצָעָה fourארבעה questionsשאלות
377
886000
2000
אז אני מציע ארבע שאלות
15:03
that everyכֹּל patientסבלני should askלִשְׁאוֹל,
378
888000
2000
שלדעתי כל חולה צריך לשאול,
15:05
because I don't actuallyלמעשה expectלְצַפּוֹת people
379
890000
2000
בגלל שאיני מצפה שאנשים באמת
15:07
to startהַתחָלָה developingמתפתח these labמַעבָּדָה testמִבְחָן reportsדיווחים.
380
892000
2000
יתחילו לפתח את דוחות המעבדה האלו.
15:09
But you can createלִיצוֹר your ownשֶׁלוֹ feedbackמָשׁוֹב loopלוּלָאָה.
381
894000
2000
אבל אתם יכולים לייצר לעצמכם לולאת משוב אישית.
15:11
Anybodyמִישֶׁהוּ can createלִיצוֹר theirשֶׁלָהֶם feedbackמָשׁוֹב loopלוּלָאָה by askingשואל these simpleפָּשׁוּט questionsשאלות:
382
896000
3000
כל אחד יכול לייצר משוב אישי אם ישאל את השאלות הפשוטות הבאות:
15:14
Can I have my resultsתוצאות?
383
899000
2000
אפשר לקבל את התוצאות שלי?
15:16
And the only acceptableקָבִיל answerתשובה is --
384
901000
2000
והתשובה היחידה המקובלת תהיה -
15:18
(Audienceקהל: Yes.) -- yes.
385
903000
2000
(קהל: כן.) - כן.
15:20
What does this mean? Help me understandמבין what the dataנתונים is.
386
905000
2000
מה זה אומר? עיזרו לי להבין את הנתונים.
15:22
What are my optionsאפשרויות? What choicesבחירות are now on the tableשולחן?
387
907000
3000
מה האפשרויות שלי? אלו בחירות מונחות לפני?
15:25
And then, what's nextהַבָּא?
388
910000
2000
ולבסוף, מה קורה עכשיו?
15:27
How do I integrateלשלב this informationמֵידָע
389
912000
2000
איך אני משלב את המידע הזה
15:29
into the longerארוך יותר courseקוּרס of my life?
390
914000
2000
באורח חיי לאורך זמן?
15:32
So I want to windרוּחַ up by just showingמראה
391
917000
2000
אז אני רוצה לסיים בכך שאראה
15:34
that people have the capacityקיבולת to understandמבין this informationמֵידָע.
392
919000
2000
שאנשים יכולים להבין את המידע הזה.
15:36
This is not beyondמעבר the graspלִתְפּוֹס of ordinaryרגיל people.
393
921000
3000
אנשים רגילים יכולים לקלוט אותו.
15:39
You do not need to have the educationהַשׂכָּלָה levelרָמָה of people in this roomחֶדֶר.
394
924000
3000
אינכם צריכים את רמת ההשכלה של האנשים בחדר הזה.
15:42
Ordinaryרגיל people are capableבעל יכולת of understandingהֲבָנָה this informationמֵידָע,
395
927000
3000
אנשים רגילים יכולים להבין את המידע הזה,
15:45
if we only go to the effortמַאֲמָץ of presentingמציג it to them
396
930000
3000
אם רק נתאמץ להציג להם אותו
15:48
in a formטופס that they can engageלְהַעֲסִיק with.
397
933000
2000
בצורה שהם יכולים להתחבר אליה.
15:50
And engagementאירוסין is essentialחִיוּנִי here,
398
935000
2000
וההתחברות היא הכרחית,
15:52
because it's not just givingמַתָן them informationמֵידָע;
399
937000
2000
כי איננו נותנים להם רק מידע,
15:54
it's givingמַתָן them an opportunityהִזדַמְנוּת to actפעולה.
400
939000
2000
אלא גם הזדמנות לפעול.
15:56
That's what engagementאירוסין is. It's differentשונה from complianceהענות.
401
941000
2000
זוהי מהות ההתחברות; היא שונה מציות.
15:58
It worksעובד totallyלְגַמרֵי differentשונה from the way we talk about behaviorהִתְנַהֲגוּת
402
943000
3000
היא פועלת בצורה שונה לגמרי מהצורה שאנו מדברים על התנהגות
16:01
in medicineתרופה todayהיום.
403
946000
2000
בתחום הרפואה היום.
16:03
And this informationמֵידָע is out there.
404
948000
2000
והמידע הזה זמין.
16:05
I've been talkingשִׂיחָה todayהיום about latentחָבוּי informationמֵידָע,
405
950000
2000
אני דיברתי היום על מידע חבוי,
16:07
all this informationמֵידָע that existsקיים in the systemמערכת
406
952000
2000
כל המידע הזה שקיים במערכת
16:09
that we're not puttingלשים to use.
407
954000
2000
ושאיננו משתמשים בו.
16:11
But there are all sortsמיני of other bodiesגופים of informationמֵידָע
408
956000
2000
אבל ישנם מקורות מידע מגוונים
16:13
that are comingמגיע onlineבאינטרנט,
409
958000
2000
שעולים לרשת.
16:15
and we need to recognizeלזהות the capacityקיבולת of this informationמֵידָע
410
960000
3000
ועלינו לזהות את היכולת של מידע זה
16:18
to engageלְהַעֲסִיק people, to help people
411
963000
2000
לגרום לאנשים להתחבר, לעזור לאנשים
16:20
and to changeשינוי the courseקוּרס of theirשֶׁלָהֶם livesחיים.
412
965000
2000
לשנות את מהלך חייהם.
16:22
Thank you very much.
413
967000
2000
תודה רבה.
16:24
(Applauseתְשׁוּאוֹת)
414
969000
3000
(מחיאות כפיים)
Translated by Ariel Kirson
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Thomas Goetz - Healthcare communicator
Thomas Goetz is the co-founder of Iodine and author of "The Decision Tree: Taking Control of Your Health in the New Era of Personalized Medicine.”

Why you should listen

Thomas Goetz is the co-founder of Iodine, a new company that gives consumers better information -- and better visualizations -- of their health data. The former executive editor of Wired, Goetz has a Master's of Public Health from UC Berkeley. In 2010 he published The Decision Tree, a fascinating look at modern medical decisionmaking and technology. Former FDA commissioner Dr. David Kessler called the book "a game changer.” His next book, The Remedy, explores the germ theory of disease and the quest to cure tuberculosis.

More profile about the speaker
Thomas Goetz | Speaker | TED.com