sponsored links
TEDGlobal 2012

John Wilbanks: Let's pool our medical data

ジョン・ウィルバンクス: 医療記録をプールしよう

June 29, 2012

医療や検査を受けるときプライバシーは重要です。研究者は厳格な法律により、個人情報の収集を制限されています。しかし、仮説を検証しようとする人が誰でも、あなたの匿名化した医療記録を使えるとしたらどうなるでしょう。ジョン・ウィルバンクスは、プライバシー保護が研究を遅らせており、医療記録のオープン化がヘルスケアの革新の波を促しうるのではないかと考えています。

John Wilbanks - Data Commons Advocate
Imagine the discoveries that could result from a giant pool of freely available health and genomic data. John Wilbanks is working to build it. Full bio

sponsored links
Double-click the English subtitles below to play the video.
So I have bad news, I have good news,
残念なお知らせと
良いお知らせがあります
00:15
and I have a task.
タスクもあります
00:18
So the bad news is that we all get sick.
残念なお知らせとは
我々は皆 病気になるということです
00:20
I get sick. You get sick.
私も皆さんも 病気になります
00:23
And every one of us gets sick, and the question really is,
誰もが病気になりますが
問題なのは
00:25
how sick do we get? Is it something that kills us?
どの程度重症かということです
死ぬ可能性はあるのか?
00:28
Is it something that we survive?
生き延びられるのか?
00:30
Is it something that we can treat?
治療はできるのか?
00:32
And we've gotten sick as long as we've been people.
我々は人間である限り病気をして来ました
00:34
And so we've always looked for reasons to explain why we get sick.
それゆえ
病気の原因を絶えず探ってきました
00:37
And for a long time, it was the gods, right?
長い間 病気は神様がもたらす
とされていましたよね
00:41
The gods are angry with me, or the gods are testing me,
神の怒りや神からの試練というように
00:42
right? Or God, singular, more recently,
また最近では 創造主からの天罰や
裁きというように
00:46
is punishing me or judging me.
また最近では 創造主からの天罰や
裁きというように
00:48
And as long as we've looked for explanations,
説明を求める限り 結局
00:51
we've wound up with something that gets closer and closer to science,
病気になる原因の仮説を立てる行為
科学に辿り着きます
00:53
which is hypotheses as to why we get sick,
病気になる原因の仮説を立てる行為
科学に辿り着きます
00:57
and as long as we've had hypotheses about why we get sick, we've tried to treat it as well.
そして仮説が得られれば
病気の治療を試みてきました
01:00
So this is Avicenna. He wrote a book over a thousand years ago called "The Canon of Medicine,"
この人はイブン・スィーナーです
11世紀に執筆した『医学典範』に
01:04
and the rules he laid out for testing medicines
記された 薬の試験におけるルールは
01:08
are actually really similar to the rules we have today,
現在のものと非常に近いのです
01:11
that the disease and the medicine must be the same strength,
疾患と薬は重篤度と強力さにおいて同等で
01:13
the medicine needs to be pure, and in the end we need
薬は純度を保つ必要があり --
01:15
to test it in people. And so if you put together these themes
最後に 治験を行う必要がある
というものです
01:18
of a narrative or a hypothesis in human testing,
人体を用いた治験の物語
あるいは仮説を統合すると
01:21
right, you get some beautiful results,
たとえ技術が高度でなくても
素晴らしい結果が得られます
01:25
even when we didn't have very good technologies.
たとえ技術が高度でなくても
素晴らしい結果が得られます
01:28
This is a guy named Carlos Finlay. He had a hypothesis
こちらの人物 カルロス・フィンレーは
01:30
that was way outside the box for his time, in the late 1800s.
1800年代後半
当時としてはかなり珍しい仮説を立てました
01:33
He thought yellow fever was not transmitted by dirty clothing.
彼は 黄熱病の原因を
汚れた衣服ではなく
01:36
He thought it was transmitted by mosquitos.
蚊による伝搬だと考えました
01:38
And they laughed at him. For 20 years, they called this guy
人々は彼を嘲笑し 20年にも渡り
01:41
"the mosquito man." But he ran an experiment in people,
“蚊男”と呼んだのです
しかし彼は人体実験を行い
01:43
right? He had this hypothesis, and he tested it in people.
立てた仮説を人間で試したのです
01:47
So he got volunteers to go move to Cuba and live in tents
彼はボランティアをキューパに派遣し
テントに住まわせ
01:50
and be voluntarily infected with yellow fever.
黄熱病に感染しやすい環境をつくりました
01:54
So some of the people in some of the tents had dirty clothes
汚れた衣服を着て
テントで生活する人たちと
01:57
and some of the people were in tents that were full
黄熱病菌に曝露した蚊だらけのテントで
生活する人たちとに分けました
02:00
of mosquitos that had been exposed to yellow fever.
黄熱病菌に曝露した蚊だらけのテントで
生活する人たちとに分けました
02:02
And it definitively proved that it wasn't this magic dust
その結果 黄熱病を引き起こすのは
02:04
called fomites in your clothes that caused yellow fever.
魔法の埃のような媒介物ではないと
はっきり証明されました
02:07
But it wasn't until we tested it in people that we actually knew.
しかし 人体実験をしてはじめて
突き止められたのです
02:11
And this is what those people signed up for.
人々が実験に参加した目的はこれです
02:14
This is what it looked like to have yellow fever in Cuba
当時キューパで
黄熱病に感染するということは
02:16
at that time. You suffered in a tent, in the heat, alone,
テントの中で熱や孤独に苦しみ
死亡する恐れもあることを意味します
02:19
and you probably died.
テントの中で熱や孤独に苦しみ
死亡する恐れもあることを意味します
02:24
But people volunteered for this.
それでも人々は
進んで協力を名乗り出たのです
02:26
And it's not just a cool example of a scientific design
これは科学における実験デザインの
理論的に優れた例であるのみならず
02:30
of experiment in theory. They also did this beautiful thing.
こんな素晴らしいものも
作り上げました
02:33
They signed this document, and it's called an informed consent document.
被験者たちはインフォームド・コンセント(説明同意書)と呼ばれる
書類にサインしました
02:36
And informed consent is an idea that we should be
インフォームド・コンセントは
社会が誇るべきアイデアですよね?
02:40
very proud of as a society, right? It's something that
インフォームド・コンセントは
社会が誇るべきアイデアですよね?
02:42
separates us from the Nazis at Nuremberg,
これが この実験と ニュルンベルグで行われた
02:45
enforced medical experimentation. It's the idea
ナチスによる強制医療実験との決定的な違いです
02:47
that agreement to join a study without understanding isn't agreement.
研究参加の同意は 研究自体の
理解の上に成り立つという考えで
02:50
It's something that protects us from harm, from hucksters,
害や金目当ての人たち --
02:54
from people that would try to hoodwink us into a clinical
理解や同意の無いまま治験に参加させようと
02:58
study that we don't understand, or that we don't agree to.
騙す人たちから私たちを守ってくれます
03:01
And so you put together the thread of narrative hypothesis,
そして 集めた仮説 人体での治験 --
03:05
experimentation in humans, and informed consent,
インフォームド・コンセントを集約したのが
03:09
and you get what we call clinical study, and it's how we do
いわゆる臨床研究で
医療の仕事の大半を占めます
03:12
the vast majority of medical work. It doesn't really matter
これは北から南 東から西まで
03:14
if you're in the north, the south, the east, the west.
世界のどこに行っても同じです
03:17
Clinical studies form the basis of how we investigate,
臨床研究は研究の基本となります
03:20
so if we're going to look at a new drug, right,
新薬を研究するとしますよね
03:24
we test it in people, we draw blood, we do experiments,
治験や採血 実験をしますが
03:26
and we gain consent for that study, to make sure
それには被験者の同意を得ます
03:29
that we're not screwing people over as part of it.
研究の過程で被験者の同意に反する事が無いように
03:31
But the world is changing around the clinical study,
しかし 臨床研究を取り巻く環境は
変わりつつあります
03:34
which has been fairly well established for tens of years
50年や100年とまではいかなくとも
確立されて数十年 治験には
03:37
if not 50 to 100 years.
しっかりとした仕組みが出来上がっていました
03:41
So now we're able to gather data about our genomes,
今や我々はヒトのゲノムデータを収集できますが
03:43
but, as we saw earlier, our genomes aren't dispositive.
先ほどの話のように ゲノム自体は
決め手になりません
03:46
We're able to gather information about our environment.
我々は環境に関する情報を収集できます
03:48
And more importantly, we're able to gather information
そしてより重要なのは選択に関する情報です
03:51
about our choices, because it turns out that what we think of
なぜなら 普通考えられている健康とは
03:53
as our health is more like the interaction of our bodies,
実は身体とゲノム 選択 そして環境の
03:56
our genomes, our choices and our environment.
相互作用により近いものだからです
03:59
And the clinical methods that we've got aren't very good
我々の持つ臨床手法はその研究観察には
あまり向きません
04:02
at studying that because they are based on the idea
我々の持つ臨床手法はその研究観察には
あまり向きません
04:05
of person-to-person interaction. You interact
患者と医師との取り決めに縛られたものだからです
04:08
with your doctor and you get enrolled in the study.
患者は医師を通して研究に参加することになります
04:10
So this is my grandfather. I actually never met him,
私の祖父です
実際に会ったことはありません
04:12
but he's holding my mom, and his genes are in me, right?
母を抱っこしています
祖父の遺伝子は私に受け継がれています
04:14
His choices ran through to me. He was a smoker,
彼の選択は
私にまで影響を与えました
04:18
like most people were. This is my son.
彼もまた喫煙者でした
これは私の息子です
04:21
So my grandfather's genes go all the way through to him,
祖父の遺伝子は
彼にももちろん受け継がれ
04:24
and my choices are going to affect his health.
私の選択は彼の健康に
影響することでしょう
04:27
The technology between these two pictures
これら2枚の写真に使われた技術は
04:30
cannot be more different, but the methodology
全くの別物ですが
臨床研究の方法はというと
04:32
for clinical studies has not radically changed over that time period.
その間 劇的な変化はありませんでした
04:36
We just have better statistics.
今ではより良い統計があるというだけです
04:40
The way we gain informed consent was formed in large part
インフォームド・コンセントを得る方法は
主に第二次世界大戦後に
04:43
after World War II, around the time that picture was taken.
確立されました
あの写真が撮られた頃
04:46
That was 70 years ago, and the way we gain informed consent,
70年前に作られた インフォームド・コンセントを
得る方法 --
04:49
this tool that was created to protect us from harm,
我々を害から守るためにつくられた
この方法が
04:53
now creates silos. So the data that we collect
今ではサイロをつくっています
前立腺癌やアルツハイマー病の
04:56
for prostate cancer or for Alzheimer's trials
臨床試験のために収集したデータが
04:59
goes into silos where it can only be used
それらの研究のみにしか使用できない
05:02
for prostate cancer or for Alzheimer's research.
サイロに蓄積されていきます
05:05
Right? It can't be networked. It can't be integrated.
データを結び付けたり統合したりできませんし
05:08
It cannot be used by people who aren't credentialed.
資格を持たない人は利用できません
05:11
So a physicist can't get access to it without filing paperwork.
物理学者は書類を提出せずにデータに
アクセスできません
05:14
A computer scientist can't get access to it without filing paperwork.
コンピュータ科学者もそうです
05:17
Computer scientists aren't patient. They don't file paperwork.
彼らは患者ではないのですから
普段そうした書類に慣れていないのです
05:20
And this is an accident. These are tools that we created
そしてこれは思わぬ出来事なのです
[インフォームド・コンセントの予期せぬ影響]
05:24
to protect us from harm, but what they're doing
私たちを害から守るための手段が
[インフォームド・コンセントの予期せぬ影響]
05:28
is protecting us from innovation now.
今では私たちのイノベーションを妨げているのです
[インフォームド・コンセントの予期せぬ影響]
05:32
And that wasn't the goal. It wasn't the point. Right?
それは本来の目標でも狙いでも
ありませんでしたよね
05:34
It's a side effect, if you will, of a power we created
私たちをより良く導くために創った仕組みの
05:37
to take us for good.
いわば副作用とも言えます
05:40
And so if you think about it, the depressing thing is that
この例えを考えると 憂鬱になりますが
05:43
Facebook would never make a change to something
フェイスブックが
臨床試験の第3相試験程の小さな
05:46
as important as an advertising algorithm
サンプルサイズのデータでできた
広告表示アルゴリズムを
05:48
with a sample size as small as a Phase III clinical trial.
使い続けるようなものです(データが不十分な事を例えて)
05:50
We cannot take the information from past trials
過去の試験情報を入手し
それらを組み合わせて
05:55
and put them together to form statistically significant samples.
統計学的に意味のあるサンプルを
つくってはいけないのです
05:58
And that sucks, right? So 45 percent of men develop
残念です そう思いますよね?
06:03
cancer. Thirty-eight percent of women develop cancer.
男性の45% 女性の38%が
がんになります
06:06
One in four men dies of cancer.
つまり 少なくともアメリカでは
06:09
One in five women dies of cancer, at least in the United States.
男性の4人に1人
女性の5人に1人ががんで亡くなります
06:12
And three out of the four drugs we give you
がん治療に処方される薬の4分の3は
06:15
if you get cancer fail. And this is personal to me.
効果的ではありません
これは私に直接関係があります
06:17
My sister is a cancer survivor.
私の姉はがんサバイバーです
06:21
My mother-in-law is a cancer survivor. Cancer sucks.
義母もそうです
がんなんて最悪です
06:23
And when you have it, you don't have a lot of privacy
がんになると
プライバシーは期待できません
06:26
in the hospital. You're naked the vast majority of the time.
病院で時間の大半は裸で過ごします
06:29
People you don't know come in and look at you and poke you and prod you,
知らない人が来て
あなたを見たり つついたりします
06:32
and when I tell cancer survivors that this tool we created
がんサバイバーに こう伝えます
06:36
to protect them is actually preventing their data from being used,
患者を守るはずの道具が
実はデータの使用を妨げています
06:39
especially when only three to four percent of people
がん患者の3,4%しか
臨床研究に参加しない場合は特に
06:42
who have cancer ever even sign up for a clinical study,
がん患者の3,4%しか
臨床研究に参加しない場合は特に
06:44
their reaction is not, "Thank you, God, for protecting my privacy."
すると 「プライバシー保護とはありがたい」
なんて反応はありません
06:47
It's outrage
これは不当なことです
06:51
that we have this information and we can't use it.
大問題です
情報を持っているのに使えないのは
06:53
And it's an accident.
これは予期せぬ事態です
06:55
So the cost in blood and treasure of this is enormous.
血液の値段と貴重さは莫大です
06:58
Two hundred and twenty-six billion a year is spent on cancer in the United States.
米国では 年間2260億ドルが
がん治療に充てられ
07:01
Fifteen hundred people a day die in the United States.
1日に1500人が亡くなります
07:05
And it's getting worse.
それはより深刻になっています
07:08
So the good news is that some things have changed,
では良い知らせとは 変化が起きたこと --
[何が変わったのか?]
07:10
and the most important thing that's changed
なかでも最も重要な変化は
[何が変わったのか?]
07:13
is that we can now measure ourselves in ways
以前は医療に委ねられていた方法で
[何が変わったのか?定量化が可能に]
07:15
that used to be the dominion of the health system.
自分自身を測定できるということです
[何が変わったのか?定量化が可能に]
07:17
So a lot of people talk about it as digital exhaust.
多くの人は それを
デジタルの排気ガスと呼びますが
07:20
I like to think of it as the dust that runs along behind my kid.
私はそれらが子供の後ろを舞う
塵のようなものと考えます
07:23
We can reach back and grab that dust,
後ろに手を伸ばし 塵をつかみ
07:26
and we can learn a lot about health from it, so if our choices
そこから健康について多くを学べます
07:28
are part of our health, what we eat is a really important
もし私たちの選択が健康に影響するなら
食生活は
07:30
aspect of our health. So you can do something very simple
健康面において非常に重要です
すなわち簡単で基本的なこと --
07:33
and basic and take a picture of your food,
食事の写真を撮る人が十分いれば
07:36
and if enough people do that, we can learn a lot about
食事が健康にどう影響するか
詳しくわかります
07:38
how our food affects our health.
食事が健康にどう影響するか
詳しくわかります
07:41
One interesting thing that came out of this — this is an app for iPhones called The Eatery —
興味深い一例は --
これはiPhoneアプリThe Eateryですが --
07:42
is that we think our pizza is significantly healthier
私たちは自分が食べるピザは 他とは違い
07:47
than other people's pizza is. Okay? (Laughter)
ずっと健康的だと考えますよね?
(笑)
07:49
And it seems like a trivial result, but this is the sort of research
あたりまえの結果と思うかもしれませんが
これは以前
07:52
that used to take the health system years
医療制度が何年も
07:56
and hundreds of thousands of dollars to accomplish.
何十万ドルも費やした
研究に相当します
07:58
It was done in five months by a startup company of a couple of people.
ベンチャー企業の数人が
5か月間で完成しました
08:01
I don't have any financial interest in it.
私はその会社とは何ら金銭的利害関係を有しません
08:04
But more nontrivially, we can get our genotypes done,
しかし 遺伝子解析を完了できることは
より重要です
08:07
and although our genotypes aren't dispositive, they give us clues.
遺伝子型は決め手とはなりませんが
健康への手がかりを与えてくれます
08:10
So I could show you mine. It's just A's, T's, C's and G's.
私のをお見せしましょう
塩基配列を
08:13
This is the interpretation of it. As you can see,
解釈したものです
お分かりのように
08:15
I carry a 32 percent risk of prostate cancer,
私が有するリスクは
前立腺癌 32%
08:18
22 percent risk of psoriasis and a 14 percent risk of Alzheimer's disease.
乾癬 22%
アルツハイマー病 14%です
08:20
So that means, if you're a geneticist, you're freaking out,
遺伝学者なら
あわててこう言うことでしょう
08:24
going, "Oh my God, you told everyone you carry the ApoE E4 allele. What's wrong with you?"
「まさかアポE E4対立遺伝子の事を公開したの? どうしちゃったの?」と
08:27
Right? When I got these results, I started talking to doctors,
この結果を手にして
医師たちに相談すると
08:31
and they told me not to tell anyone, and my reaction is,
誰にも言わないよう言われました
08:35
"Is that going to help anyone cure me when I get the disease?"
「病気になったら治療に役立つのでは?」
と言っても
08:37
And no one could tell me yes.
イエスと答えられる人はいませんでした
08:40
And I live in a web world where, when you share things,
しかし私は 情報を共有すれば
08:43
beautiful stuff happens, not bad stuff.
悪い事の代わりに素晴らしい事が起こる
ウェブ世界の住人です
08:46
So I started putting this in my slide decks,
スライドにこうした情報をまとめたので
08:49
and I got even more obnoxious, and I went to my doctor,
更に態度が大きくなった私は医師のもとに行き
08:51
and I said, "I'd like to actually get my bloodwork.
「実は血液検査の結果が欲しいんです --
08:53
Please give me back my data." So this is my most recent bloodwork.
データを返してください」と言いました
これが最新の血液検査の結果です
08:55
As you can see, I have high cholesterol.
お分かりのように
コレステロール値が高いです
08:58
I have particularly high bad cholesterol, and I have some
特に悪玉コレステロール値が高く
肝機能の数値も悪いです
09:01
bad liver numbers, but those are because we had a dinner party with a lot of good wine
でも 検査を受ける前夜の食事会で
09:03
the night before we ran the test. (Laughter)
美味しいワインを飲んだからです
(笑)
09:06
Right. But look at how non-computable this information is.
注目すべきは これらがコンピュータで扱える
情報ではないということです
09:09
This is like the photograph of my granddad holding my mom
データという観点からは
祖父が母を抱いた写真と同様の情報で
09:13
from a data perspective, and I had to go into the system
私はシステムの内部から
使えるデータを
09:16
and get it out.
取り出さなければなりませんでした
09:20
So the thing that I'm proposing we do here
ここで提案したいのは
[私たちはコモンズを形成できます]
09:22
is that we reach behind us and we grab the dust,
後ろに手を伸ばし 塵をつかむこと --
[私たちはコモンズを形成できます]
09:25
that we reach into our bodies and we grab the genotype,
身体を調べ 遺伝子型情報を集め --
[私たちはコモンズを形成できます]
09:28
and we reach into the medical system and we grab our records,
医療システムから記録を入手することです
[私たちはコモンズを形成できます]
09:31
and we use it to build something together, which is a commons.
それを使い何かを一緒につくること それがコモンズです
[私たちはコモンズを形成できます]
09:34
And there's been a lot of talk about commonses, right,
コモンズについてはあらゆるところで話題がつきませんよね
09:37
here, there, everywhere, right. A commons is nothing more
コモンズは私的財から生まれた
09:40
than a public good that we build out of private goods.
公共財以外の何物でもありません
09:43
We do it voluntarily, and we do it through standardized
私たちが自発的に かつ標準化された
法律のツールを通して --
09:46
legal tools. We do it through standardized technologies.
さらに標準化された技術を用いて貢献します
09:49
Right. That's all a commons is. It's something that we build
それがコモンズのすべてです
09:52
together because we think it's important.
私たちが共に重要だと考え
一緒につくるものなのです
09:55
And a commons of data is something that's really unique,
データのコモンズが他に類を見ないのは
09:57
because we make it from our own data. And although
自分自身のデータから作られるからです
10:00
a lot of people like privacy as their methodology of control
データ管理の方法として
プライバシーを好む人や
10:03
around data, and obsess around privacy, at least
取りつかれる人は多数存在しますが
10:05
some of us really like to share as a form of control,
少なくとも中には共有することを
管理の一形態として好む人もいます
10:07
and what's remarkable about digital commonses
デジタルコモンズで注目すべきは
10:10
is you don't need a big percentage if your sample size is big enough
データのサイズが十分大きければ
10:13
to generate something massive and beautiful.
参加率が高くなくても 大量で見事なデータになるのです
10:16
So not that many programmers write free software,
従って フリーソフトを書く
プログラマーはあまりいませんが
10:19
but we have the Apache web server.
Apache Webサーバが存在します
10:21
Not that many people who read Wikipedia edit,
ウィキペディアを読み
編集もするという人は多くありませんが
10:24
but it works. So as long as some people like to share
ちゃんと機能しています
つまり 共有という管理形態を選び
10:26
as their form of control, we can build a commons, as long as we can get the information out.
共有する人がいる限り
コモンズを創造し 情報を得られます
10:30
And in biology, the numbers are even better.
そして生物学では
貢献者の数はさらに優れています
10:34
So Vanderbilt ran a study asking people, we'd like to take
(テネシー州の)ヴァンダービルト大学は研究に際し
10:37
your biosamples, your blood, and share them in a biobank,
生態サンプルや血液を
バイオバンクで共有するよう求めました
10:39
and only five percent of the people opted out.
拒否した人はたった5%でした
10:42
I'm from Tennessee. It's not the most science-positive state
私はテネシー州出身ですが
そこは米国で最も科学に肯定的な
10:45
in the United States of America. (Laughter)
州というわけではありません
(笑)
10:48
But only five percent of the people wanted out.
しかし 協力したくないと言う人は
たった5%でした
10:51
So people like to share, if you give them the opportunity and the choice.
つまり 選択肢と機会を与えれば
人々は共有したいのです
10:53
And the reason that I got obsessed with this, besides the obvious family aspects,
私がこれに夢中になった理由は
家族の存在というはっきりした側面の他に
10:57
is that I spend a lot of time around mathematicians,
数学者と長い時間を共にしたからです
11:02
and mathematicians are drawn to places where there's a lot of data
彼らは大量のデータがある場所に
引きつけられます
11:05
because they can use it to tease signals out of noise.
というのも データを活用し
ノイズから信号を読み解けるからです
11:08
And those correlations that they can tease out, they're not
彼らがノイズから手繰り出した相関関係から
11:11
necessarily causal agents, but math, in this day and age,
必ずしも病因が特定される訳ではありませんが
現代の数学はいわば
11:14
is like a giant set of power tools
巨大な電動工具セットのようなもので
11:18
that we're leaving on the floor, not plugged in in health,
私たちがのろのろとノコギリを使って
データを分析する傍らそれは医療データに
11:20
while we use hand saws.
繋がれもせずただ
放置されているようなものなのです
11:24
If we have a lot of shared genotypes, and a lot of shared
もし遺伝子型や検査結果 --
11:26
outcomes, and a lot of shared lifestyle choices,
生活様式についての選択 --
11:31
and a lot of shared environmental information, we can start
環境情報が多く共有されれば
11:33
to tease out the correlations between subtle variations
人々の微妙な差異や選択 --
11:36
in people, the choices they make and the health that they create as a result of those choices,
およびその結果生じる健康状態の
相関関係を読み解けるようになります
11:39
and there's open-source infrastructure to do all of this.
そしてそのための
オープンソースなインフラが存在します
11:44
Sage Bionetworks is a nonprofit that's built a giant math system
セージ・バイオネットワークスは
他にはない
11:47
that's waiting for data, but there isn't any.
巨大な数学システムを有する
非営利団体ですが 扱うべきデータが欠けています
11:50
So that's what I do. I've actually started what we think is
それが私の仕事です
11:55
the world's first fully digital, fully self-contributed,
世界初の完全にデジタル化され
完全に自発的参加型であり
11:59
unlimited in scope, global in participation, ethically approved
範囲が無限で 全世界が参加でき
倫理的に認められた
12:02
clinical research study where you contribute the data.
あなたがデータを提供する臨床研究を行う団体です
12:07
So if you reach behind yourself and you grab the dust,
もし皆さんが後ろに手を伸ばし
塵をつかむように --
12:11
if you reach into your body and grab your genome,
身体を調べ ゲノムを知り --
12:13
if you reach into the medical system and somehow extract your medical record,
医療システムから記録を
何らかの方法で入手すれば
12:16
you can actually go through an online informed consent process --
オンラインのインフォームド・コンセントの手順を踏み
12:19
because the donation to the commons must be voluntary
-- コモンズへの情報の寄与は
正しい情報に基づいた任意の判断に
12:22
and it must be informed -- and you can actually upload
よるものなので --
自分の情報を
12:25
your information and have it syndicated to the
アップロードして
この手のビッグデータの研究を行う
12:28
mathematicians who will do this sort of big data research,
数学者たちへと届けられます
12:30
and the goal is to get 100,000 in the first year
ゴールは 最初の1年で10万人分
12:33
and a million in the first five years so that we have
5年で100万人分のデータを
集めることです
12:36
a statistically significant cohort that you can use to take
それは 統計学的に意味のある
コーホートを持つことになり
12:39
smaller sample sizes from traditional research
そこから伝統的な臨床研究のサンプルサイズを取り
12:43
and map it against,
全体に対して比較ができます
12:45
so that you can use it to tease out those subtle correlations
その結果 我々特有の差異と
12:47
between the variations that make us unique
社会として前進させる必要がある
種類の健康との
12:49
and the kinds of health that we need to move forward as a society.
微妙な相関関係も導き出せます
12:52
And I've spent a lot of time around other commons.
さらに私は 他のコモンズにも
多くの時間をかけてきました
12:56
I've been around the early web. I've been around
Webの創世を見てきました
12:59
the early creative commons world, and there's four things
創造的なコモンズの世界の創世に
身を置いてきましたが
13:02
that all of these share, which is, they're all really simple.
共通することが4つあります
それは非常にシンプルだということです
13:04
And so if you were to go to the website and enroll in this study,
もしウェブサイトを訪れて
この研究に参加するとなれば
13:08
you're not going to see something complicated.
複雑に感じることはないでしょう
13:10
But it's not simplistic. These things are weak intentionally,
しかし過度に単純化されたわけではありません
意図的に簡易なのです
13:13
right, because you can always add power and control to a system,
いつでもこのシステムに力を加え
コントロールを加えることが出来るからです
13:18
but it's very difficult to remove those things if you put them in at the beginning,
しかし 最初につけてしまったものを
取り除くのは非常に難しいのです
13:21
and so being simple doesn't mean being simplistic,
シンプルであるということは
簡単すぎるというわけではなく
13:25
and being weak doesn't mean weakness.
データの簡易さは
脆弱さを意味するわけではありません
13:27
Those are strengths in the system.
それらは システムにおいて
強みとなります
13:29
And open doesn't mean that there's no money.
オープンであるのも
お金がないからというわけではありません
13:32
Closed systems, corporations, make a lot of money
閉鎖的なシステムや法人は
オープンウェブ上で
13:34
on the open web, and they're one of the reasons why the open web lives
たくさんの利益を儲けます
オープンウェブが存在するのは
13:37
is that corporations have a vested interest in the openness
法人がシステムの開放性に利益を見出しているおかげにもよるのです
13:41
of the system.
法人がシステムの開放性に利益を見出しているおかげにもよるのです
13:44
And so all of these things are part of the clinical study that we've created,
よってこれらすべては
我々が生み出した臨床研究の一部で
13:46
so you can actually come in, all you have to be is 14 years old,
実際14歳以上であればみなさんがアクセスできます
13:50
willing to sign a contract that says I'm not going to be a jerk,
そして平たく言えば 仕組みを悪用しないという旨の
契約にサインすれば参加出来ます
13:53
basically, and you're in.
そして平たく言えば 仕組みを悪用しないという旨の
契約にサインすれば参加出来ます
13:55
You can start analyzing the data.
するとデータの分析に入れます
13:58
You do have to solve a CAPTCHA as well. (Laughter)
ついでにCAPTCHA認証システムも解く必要があります
(笑)
14:00
And if you'd like to build corporate structures on top of it,
そしてもしその上に会社組織を
形成したいなら
14:04
that's okay too. That's all in the consent,
それも結構です
それらすべてが同意に含まれています
14:07
so if you don't like those terms, you don't come in.
そしてもしそれらの条件が
気に食わないなら参加しなくてよいのです
14:11
It's very much the design principles of a commons
これが私たちが健康データに持ち込もうとしている
14:13
that we're trying to bring to health data.
コモンズの設計原則です
14:16
And the other thing about these systems is that it only takes
これらのシステムをつくるためには
他に
14:19
a small number of really unreasonable people working together
比較的小数の奇特な人々の力が
求められます
14:22
to create them. It didn't take that many people
ウィキペディアをつくるのも維持するのも
14:25
to make Wikipedia Wikipedia, or to keep it Wikipedia.
それほど多くの人は
必要とされませんでした
14:28
And we're not supposed to be unreasonable in health,
健康に無理なことがあってはなりませんし
14:32
and so I hate this word "patient."
だから "患者”という言葉が大嫌いです
14:34
I don't like being patient when systems are broken,
システムが壊れたり
ヘルスケアが壊れるとき
14:36
and health care is broken.
患者になるのは嫌です
14:39
I'm not talking about the politics of health care, I'm talking about the way we scientifically approach health care.
ヘルスケア政策ではなく
ヘルスケアへの科学的な取り組み方について話しています
14:42
So I don't want to be patient. And the task I'm giving to you
患者になりたくないのです
皆さんに与えるタスクとは
14:46
is to not be patient. So I'd like you to actually try,
患者にならないことです
だから 家に帰ったら実際に
14:49
when you go home, to get your data.
ご自身のデータを得ようとしてください
14:52
You'll be shocked and offended and, I would bet, outraged,
ぎょっとし怒るでしょう
データの取得のむずかしさに
14:55
at how hard it is to get it.
きっと憤慨するでしょう
14:58
But it's a challenge that I hope you'll take,
しかし それは皆さんにしてもらいたい
挑戦で
15:01
and maybe you'll share it. Maybe you won't.
おそらく共有してくれるでしょう
もしかしたらしないかもしれませんが
15:03
If you don't have anyone in your family who's sick,
もし家族に病気の人がいないなら
15:06
maybe you wouldn't be unreasonable. But if you do,
奇特な人の一人には
ならないかもしれません
15:07
or if you've been sick, then maybe you would.
しかしもしいたり ご自身が病気なら
共有してくれるでしょう
15:10
And we're going to be able to do an experiment in the next several months
この先数か月に渡って
実験を行えることでしょう
15:12
that lets us know exactly how many unreasonable people are out there.
奇特な人がどれだけいるのか
はっきりすることでしょう
15:15
So this is the Athena Breast Health Network. It's a study
Athena Breast Health Networkが
15:18
of 150,000 women in California, and they're going to
カリフォルニア州の女性15万人を研究し
15:21
return all the data to the participants of the study
研究の参加者のデータ全てを
15:24
in a computable form, with one-clickability to load it into
解析可能な形で参加者に返します
15:27
the study that I've put together. So we'll know exactly
それはワンクリックで私の研究に
当てはめる事ができます
15:30
how many people are willing to be unreasonable.
喜んで奇特になる人が
どれだけいるかはっきりすることでしょう
15:33
So what I'd end [with] is,
終わりにあたって
15:35
the most beautiful thing I've learned since I quit my job
仕事を辞めてから約1年経ちますが
私が学んだ最も美しいことは
15:38
almost a year ago to do this, is that it really doesn't take
素晴らしい結果を達成するのに
15:41
very many of us to achieve spectacular results.
そんなに多くの人を必要としないことです
15:44
You just have to be willing to be unreasonable,
ただ喜んで奇特になることです
15:48
and the risk we're running is not the risk those 14 men
我々の危険は
14人が冒した黄熱病にかかるという
15:51
who got yellow fever ran. Right?
危険には及びませんよね
15:53
It's to be naked, digitally, in public. So you know more
デジタルに 公的ドメインで裸になるように
情報を共有することです
15:55
about me and my health than I know about you. It's asymmetric now.
皆さんは私についてよく知り
今は情報量が不釣り合いの状態です
15:58
And being naked and alone can be terrifying.
裸で一人でいるのは恐ろしいものです
16:01
But to be naked in a group, voluntarily, can be quite beautiful.
しかし集団で自発的に情報をさらけ出し提供する
ことで非常に美しい成果を生み出す可能性があります
16:05
And so it doesn't take all of us.
我々すべては必要ありません
16:09
It just takes all of some of us. Thank you.
我々の中の一部の貢献でできるのです
ありがとうございました
16:11
(Applause)
(拍手)
16:14
Translator:Yuji Tomiyama
Reviewer:Eriko T.

sponsored links

John Wilbanks - Data Commons Advocate
Imagine the discoveries that could result from a giant pool of freely available health and genomic data. John Wilbanks is working to build it.

Why you should listen

Performing a medical or genomic experiment on a human requires informed consent and careful boundaries around privacy. But what if the data that results, once scrubbed of identifying marks, was released into the wild? At WeConsent.us, John Wilbanks thinks through the ethical and procedural steps to create an open, massive, mine-able database of data about health and genomics from many sources. One step: the Portable Legal Consent for Common Genomics Research (PLC-CGR), an experimental bioethics protocol that would allow any test subject to say, "Yes, once this experiment is over, you can use my data, anonymously, to answer any other questions you can think of." Compiling piles of test results in one place, Wilbanks suggests, would turn genetic info into big data--giving researchers the potential to spot patterns that simply aren't viewable up close. 

A campaigner for the wide adoption of data sharing in science, Wilbanks is also a Senior Fellow with the Kauffman Foundation, a Research Fellow at Lybba and supported by Sage Bionetworks

In February 2013, the US government responded to a We the People petition spearheaded by Wilbanks and signed by 65,000 people, and announced a plan to open up taxpayer-funded research data and make it available for free.

sponsored links

If you need translations, you can install "Google Translate" extension into your Chrome Browser.
Furthermore, you can change playback rate by installing "Video Speed Controller" extension.

Data provided by TED.

This website is owned and operated by Tokyo English Network.
The developer's blog is here.