English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2015

David Eagleman: Can we create new senses for humans?

デイヴィッド・イーグルマン: 人間に新たな感覚を作り出すことは可能か?

Filmed
Views 1,763,731

人間が感じ取れる光は全体の10兆分の1たらず—我々の経験する現実は生物としての肉体に制約されているのだと神経科学者デイヴィッド・イーグルマンは言います。そして彼はそれを変えたいと考えています。人の脳を研究する中から彼は「感覚チョッキ」のような新しいインタフェースを作り出し、身の回りの世界の今まで見えなかった情報を感じ取れるようにしています。

- Neuroscientist
David Eagleman decodes the mysteries of the tangled web of neurons and electricity that make our minds tick -- and also make us human. Full bio

We are built out of very small stuff,
私たちの体はとても
小さなものからできていて
00:12
and we are embedded in
a very large cosmos,
すごく大きな宇宙の中に
いるわけですが
00:17
and the fact is that we are not
very good at understanding reality
そのようなスケールの世界を
00:20
at either of those scales,
私たちはあまり
上手く把握できません
00:24
and that's because our brains
私たちの脳は
00:26
haven't evolved to understand
the world at that scale.
そういうスケールで世界を理解するようには
進化して来なかったからです
00:27
Instead, we're trapped on this
very thin slice of perception
私たちの認識はむしろ
00:32
right in the middle.
真ん中のほんの薄い領域に
捕らわれています
00:36
But it gets strange, because even at
that slice of reality that we call home,
さらにおかしなことに 私たちが自分の居場所と
思っている その薄い領域においてすら
00:38
we're not seeing most
of the action that's going on.
私たちは起きていることの
多くを見てはいないのです
00:43
So take the colors of our world.
たとえば世界の色を
例に取って見ましょう
00:46
This is light waves, electromagnetic
radiation that bounces off objects
これは光波で
物に反射した電磁波が
00:49
and it hits specialized receptors
in the back of our eyes.
目の後方にある専用の受容体に
当たることで認識されますが
00:54
But we're not seeing
all the waves out there.
私たちはすべての波長を
見ているわけではありません
00:57
In fact, what we see
実際私たちが
見ているのは
01:01
is less than a 10 trillionth
of what's out there.
全体のほんの10兆分の1に
すぎません
01:03
So you have radio waves and microwaves
だから電波や
マイクロ波や
01:07
and X-rays and gamma rays
passing through your body right now
X線やガンマ線が 今まさに
体を通り抜けているにも関わらず
01:10
and you're completely unaware of it,
まったく気付かないのです
01:13
because you don't come with
the proper biological receptors
それを捕らえられる
感覚受容体が
01:16
for picking it up.
備わっていないからです
01:19
There are thousands
of cell phone conversations
何千という携帯電話の会話が
今まさに
01:21
passing through you right now,
体を通り抜けているというのに
01:24
and you're utterly blind to it.
それがまったく見えません
01:25
Now, it's not that these things
are inherently unseeable.
そういったものが本質的に見えない
という訳ではありません
01:28
Snakes include some infrared
in their reality,
ヘビに見えている世界には
赤外線の一部が含まれているし
01:31
and honeybees include ultraviolet
in their view of the world,
ミツバチが見る世界には
紫外線が含まれています
01:36
and of course we build machines
in the dashboards of our cars
そして私たちの車の
ダッシュボードには
01:40
to pick up on signals
in the radio frequency range,
ラジオ周波数帯の信号を
捕らえる機械があるし
01:43
and we built machines in hospitals
to pick up on the X-ray range.
病院にはX線領域の電磁波を
捕らえられる機械があります
01:46
But you can't sense
any of those by yourself,
しかし私たち自身はそういったものを
感じ取ることができません
01:50
at least not yet,
少なくとも今のところは
01:53
because you don't come equipped
with the proper sensors.
そのためのセンサーを
備えていないからです
01:55
Now, what this means is that
our experience of reality
それが意味するのは
私たちの体験する現実は
01:59
is constrained by our biology,
生物としての肉体に
制約されているということです
02:03
and that goes against
the common sense notion
私たちの目や耳や指先は
02:07
that our eyes and our ears
and our fingertips
客観的な現実を
伝えているという
02:09
are just picking up
the objective reality that's out there.
思い込みに反して
02:12
Instead, our brains are sampling
just a little bit of the world.
実際には私たちの脳は 世界のほんの一部を
サンプリングしているに過ぎないのです
02:16
Now, across the animal kingdom,
生き物の世界を
見渡してみれば
02:22
different animals pick up
on different parts of reality.
異なる生き物は世界の異なる部分を
見ているのが分かります
02:24
So in the blind
and deaf world of the tick,
視覚も聴覚も欠く
ダニの世界で
02:27
the important signals
are temperature and butyric acid;
重要となるシグナルは
温度や酪酸です
02:30
in the world of the black ghost knifefish,
ブラック・ゴースト・ナイフフィッシュの
感覚世界は
02:34
its sensory world is lavishly colored
by electrical fields;
電場で豊かに彩られています
02:37
and for the echolocating bat,
エコーロケーションする
コウモリにとっての現実は
02:42
its reality is constructed
out of air compression waves.
空気圧縮波から
構成されています
02:45
That's the slice of their ecosystem
that they can pick up on,
それが彼らに捕らえられる
世界の断片なんです
02:49
and we have a word for this in science.
科学でそれを指す
言葉があって
02:53
It's called the umwelt,
Umwelt (環世界)と言います
02:55
which is the German word
for the surrounding world.
「周りの世界」という意味の
ドイツ語です
02:56
Now, presumably, every animal assumes
どの生き物もきっと
03:00
that its umwelt is the entire
objective reality out there,
自分の環世界が客観的現実のすべてだと
思っていることでしょう
03:03
because why would you ever stop to imagine
立ち止まって 自分の感覚を越えた世界が
あるかもしれないなどと
03:07
that there's something beyond
what we can sense.
考えはしません
03:10
Instead, what we all do
is we accept reality
自分に与えられた現実を
03:13
as it's presented to us.
みんなただ受け入れるのです
03:16
Let's do a consciousness-raiser on this.
ひとつ意識喚起をしましょう
03:19
Imagine that you are a bloodhound dog.
自分がブラッドハウンド犬だと
思ってください
03:21
Your whole world is about smelling.
世界の中心にあるのは
「におい」です
03:24
You've got a long snout that has
200 million scent receptors in it,
2億という嗅覚受容体を備えた
長い鼻を持ち
03:27
and you have wet nostrils
that attract and trap scent molecules,
濡れている鼻孔は
においの分子を引き寄せて捕らえます
03:31
and your nostrils even have slits
so you can take big nosefuls of air.
鼻孔には切れ目さえあって
鼻いっぱいに空気を取り込むことができます
03:36
Everything is about smell for you.
犬はすべてを
においで捕らえます
03:40
So one day, you stop in your tracks
with a revelation.
ある日 ふと気づいて
足を止めるかもしれません
03:43
You look at your human owner
and you think,
そして飼い主の人間を見上げて
思います
03:47
"What is it like to have the pitiful,
impoverished nose of a human?
「人間みたいに貧弱で情けない鼻を
持っているというのは どんなものなんだろう?」
03:50
(Laughter)
(笑)
03:55
What is it like when you take
a feeble little noseful of air?
「空気をほんのちょびっとしか
取り込めず
03:57
How can you not know that there's
a cat 100 yards away,
たった百メートル向こうに
猫がいることや
04:00
or that your neighbor was on
this very spot six hours ago?"
お隣さんが6時間前この場所にいたことさえ
分からないというのは?」
04:04
(Laughter)
(笑)
04:07
So because we're humans,
私たち人間は
04:10
we've never experienced
that world of smell,
そのようなにおいの世界を
体験したことがないので
04:12
so we don't miss it,
そのことを特に
残念とも思いません
04:15
because we are firmly settled
into our umwelt.
私たちは自分の環世界に
すっかり馴染んでいるからです
04:18
But the question is,
do we have to be stuck there?
しかし私たちは ずっとそこに
捕らわれているしかないのでしょうか?
04:22
So as a neuroscientist, I'm interested
in the way that technology
私は神経科学者として
04:26
might expand our umwelt,
技術が私たちの環世界を
拡張できる可能性や
04:30
and how that's going to change
the experience of being human.
それが人間としての体験を
いかに変えることになるかに興味があります
04:33
So we already know that we can marry
our technology to our biology,
技術を生物的な肉体に組み込みうることを
私たちは知っています
04:38
because there are hundreds of thousands
of people walking around
何十万という人が
04:41
with artificial hearing
and artificial vision.
人工的な聴覚や視覚を使って
歩き回っています
04:45
So the way this works is, you take
a microphone and you digitize the signal,
その仕組みは
マイクを使って信号をデジタル化し
04:49
and you put an electrode strip
directly into the inner ear.
電極を直接内耳に繋ぐ
04:53
Or, with the retinal implant,
you take a camera
あるいは網膜移植なら
カメラを使って
04:57
and you digitize the signal,
and then you plug an electrode grid
信号をデジタル化し
格子状の電極を
04:59
directly into the optic nerve.
視神経に直接繋ぎます
05:02
And as recently as 15 years ago,
15年前という
比較的最近まで
05:05
there were a lot of scientists who thought
these technologies wouldn't work.
そういった技術はうまくいかないと
考える科学者がたくさんいました
05:09
Why? It's because these technologies
speak the language of Silicon Valley,
なぜならそういった技術が話すのは
シリコンバレーの言葉で
05:13
and it's not exactly the same dialect
as our natural biological sense organs.
それは生物的感覚器官の言葉とは
違っているからです
05:18
But the fact is that it works;
しかし実はうまくいくんです
05:24
the brain figures out
how to use the signals just fine.
脳はそういった信号の使い方を
ちゃんと見つけられます
05:26
Now, how do we understand that?
どのようにしてか?
05:31
Well, here's the big secret:
実を言うと
05:33
Your brain is not hearing
or seeing any of this.
脳というのはそういったものを
見も聞きもしてはいないのです
05:35
Your brain is locked in a vault of silence
and darkness inside your skull.
脳は音も光もない
頭蓋骨の中に収められています
05:40
All it ever sees are
electrochemical signals
脳が見るのは様々な
ケーブルから入ってくる
05:47
that come in along different data cables,
電気化学的な信号だけです
05:50
and this is all it has to work with,
and nothing more.
脳が扱うものはそれだけです
05:53
Now, amazingly,
脳というのは
05:58
the brain is really good
at taking in these signals
そのような信号を取り込んで
パターンを抽出し
06:00
and extracting patterns
and assigning meaning,
意味付けを行うことに
驚くほど巧みで
06:03
so that it takes this inner cosmos
and puts together a story
この内的な宇宙から
ストーリーをまとめ上げて
06:07
of this, your subjective world.
皆さんの主観的な世界を
作り出しているんです
06:11
But here's the key point:
ここで鍵になるのは
06:16
Your brain doesn't know,
and it doesn't care,
脳というのはそういうデータが
どこから来ているのか知らないし
06:18
where it gets the data from.
気にもしないということです
06:21
Whatever information comes in,
it just figures out what to do with it.
何であれ情報が入ってきたら
脳はその使い方を見つけ出すのです
06:24
And this is a very efficient
kind of machine.
脳というの
とても効率的な機械です
06:29
It's essentially a general purpose
computing device,
それは基本的には
汎用計算装置で
06:31
and it just takes in everything
どんなデータに対しても
06:36
and figures out
what it's going to do with it,
どう使えばいいか
見出すことができ
06:38
and that, I think, frees up Mother Nature
母なる自然が
様々な入力チャネルを作り出す
06:41
to tinker around with different
sorts of input channels.
自由を生み出しています
06:44
So I call this the P.H.
model of evolution,
私はこれを「進化のPHモデル」
と呼んでいます
06:49
and I don't want to get
too technical here,
ここではあまり
専門用語を使いたくありませんが
06:52
but P.H. stands for Potato Head,
PHは「ポテト・ヘッド」の略です
06:54
and I use this name to emphasize
that all these sensors
この名前を使っているのは
06:57
that we know and love, like our eyes
and our ears and our fingertips,
私たちがよく知り気に入っている感覚器というのは
目にせよ耳にせよ指先にせよ
07:01
these are merely peripheral
plug-and-play devices:
プラグアンドプレイの周辺装置に過ぎないことを
強調するためです
07:04
You stick them in, and you're good to go.
差し込むだけで準備OK
07:08
The brain figures out what to do
with the data that comes in.
脳は入ってくるデータの
使い方を見つけ出します
07:12
And when you look across
the animal kingdom,
動物の世界を見渡すと
07:18
you find lots of peripheral devices.
様々な周辺機器が
見つかります
07:20
So snakes have heat pits
with which to detect infrared,
ヘビには赤外線を感知する
ピット器官があり
07:23
and the ghost knifefish has
electroreceptors,
ブラック・ゴースト・ナイフフィッシュには
電気受容器があり
07:27
and the star-nosed mole has this appendage
ホシバナモグラは
07:30
with 22 fingers on it
鼻先の22本の突起を使って
07:33
with which it feels around and constructs
a 3D model of the world,
周囲を探って
世界の3次元モデルを作り出し
07:35
and many birds have magnetite
so they can orient
鳥類の多くは磁鉄鉱を備えていて
07:39
to the magnetic field of the planet.
地球の磁場を感じ取れます
07:43
So what this means is that
nature doesn't have to continually
これが意味するのは
07:45
redesign the brain.
自然は脳を再設計し続ける必要は
ないということです
07:49
Instead, with the principles
of brain operation established,
脳機能の基本が
確立されたなら
07:52
all nature has to worry about
is designing new peripherals.
あとは新たな周辺装置のデザインだけ
気にすればいいんです
07:56
Okay. So what this means is this:
それが意味するのは
08:01
The lesson that surfaces
我々に備わる器官は
08:04
is that there's nothing
really special or fundamental
別に特別で根本的なものではない
08:06
about the biology that we
come to the table with.
ということです
08:09
It's just what we have inherited
進化の長い道のりで
08:12
from a complex road of evolution.
受け継いできたもの
というに過ぎず
08:14
But it's not what we have to stick with,
我々はそれにしがみついている
必要はないのです
08:18
and our best proof of principle of this
そのことの良い例として
08:21
comes from what's called
sensory substitution.
「感覚代行」と呼ばれる
現象があります
08:23
And that refers to feeding
information into the brain
これは通常とは
異なるチャネルを通じて
08:26
via unusual sensory channels,
脳に情報を送るということで
08:29
and the brain just figures out
what to do with it.
脳はその情報をどうすべきか
ちゃんと見つけ出します
08:32
Now, that might sound speculative,
空論に聞こえるかもしれませんが
08:35
but the first paper demonstrating this was
published in the journal Nature in 1969.
これを実証した最初の論文が
1969年のネイチャー誌に出ています
08:37
So a scientist named Paul Bach-y-Rita
ポール・バキリタという科学者が
08:43
put blind people
in a modified dental chair,
改造した歯科用椅子に
盲人を座らせ
08:46
and he set up a video feed,
ビデオカメラを設置して
08:49
and he put something
in front of the camera,
その前に何か物を置き
08:51
and then you would feel that
被験者はその映像を
08:54
poked into your back
with a grid of solenoids.
格子状に並べた筒型コイルによって
背中で感じるようにしました
08:56
So if you wiggle a coffee cup
in front of the camera,
だからコーヒーカップを
カメラの前で動かすと
08:59
you're feeling that in your back,
それを背中に感じるわけです
09:02
and amazingly, blind people
got pretty good
盲目の人たちは背中の
小さな部分の刺激から
09:04
at being able to determine
what was in front of the camera
カメラの前にあるものを
09:07
just by feeling it
in the small of their back.
驚くほど正確に
言い当てられるようになりました
09:11
Now, there have been many
modern incarnations of this.
その後これをより現代化したものが
いろいろ現れました
09:14
The sonic glasses take a video feed
right in front of you
「ソナー眼鏡」は
目の前にある物の映像を
09:18
and turn that into a sonic landscape,
音の風景に置き換えます
09:21
so as things move around,
and get closer and farther,
物が近づいたり
遠ざかったりすると
09:24
it sounds like "Bzz, bzz, bzz."
「ジジジ ジジジ ジジジ」
と音がします
09:26
It sounds like a cacophony,
雑音みたいですが
09:29
but after several weeks, blind people
start getting pretty good
何週間かすると
盲目の人は
09:31
at understanding what's in front of them
その音をたよりに
目の前に何があるかを
09:34
just based on what they're hearing.
非常に良く
把握できるようになります
09:37
And it doesn't have to be
through the ears:
これは別に耳を使う必要はなく
09:39
this system uses an electrotactile grid
on the forehead,
こちらのシステムでは
格子状の電気触覚を額に貼り付けて
09:41
so whatever's in front of the video feed,
you're feeling it on your forehead.
目の前にあるものを
額で感じ取ります
09:45
Why the forehead? Because you're not
using it for much else.
なぜ額かというと
他に大して使う用がないからです
09:49
The most modern incarnation
is called the brainport,
最も新しい例は
BrainPortと呼ばれるもので
09:51
and this is a little electrogrid
that sits on your tongue,
小さな電極の格子を
舌に付け
09:56
and the video feed gets turned into
these little electrotactile signals,
ビデオ映像を
電気触感信号に変換します
09:59
and blind people get so good at using this
that they can throw a ball into a basket,
盲目の人はこれを驚くほどうまく使うことができ
ボールをカゴに投げ入れたり
10:03
or they can navigate
complex obstacle courses.
複雑な障害物コースを通り抜けたり
できるようになります
10:10
They can come to see through their tongue.
舌で見るようになるんです
10:15
Now, that sounds completely insane, right?
突拍子のない話に
聞こえるかもしれませんが
10:19
But remember, all vision ever is
視覚は脳の中を流れる
電気化学的信号でしかない
10:21
is electrochemical signals
coursing around in your brain.
ということを
思い出してください
10:24
Your brain doesn't know
where the signals come from.
脳はその信号が
どこから来たのか気にしません
10:28
It just figures out what to do with them.
単にそれをどう使ったら良いか
見出すんです
10:31
So my interest in my lab
is sensory substitution for the deaf,
私の研究室で関心を持っているのは
聴覚障害者のための感覚代行です
10:34
and this is a project I've undertaken
ご紹介するのは
10:40
with a graduate student
in my lab, Scott Novich,
私が大学院生のスコット・ノーヴィックと
一緒にやっているプロジェクトで
10:43
who is spearheading this for his thesis.
彼は博士論文に向けて
この研究を主導しています
10:46
And here is what we wanted to do:
私たちがやりたいのは
10:48
we wanted to make it so that
sound from the world gets converted
周囲の音を
何らかの形に変換し
10:50
in some way so that a deaf person
can understand what is being said.
聴覚障害者が言われたことを
理解できるようにすることです
10:54
And we wanted to do this, given the power
and ubiquity of portable computing,
私たちは携帯機器の
性能と遍在性を生かし
10:59
we wanted to make sure that this
would run on cell phones and tablets,
携帯電話やタブレットで
使えるものにしたいと思いました
11:03
and also we wanted
to make this a wearable,
またこれは身に付けて
11:08
something that you could wear
under your clothing.
服の下に着られるものに
したいと思いました
11:11
So here's the concept.
コンセプトを
お目にかけましょう
11:14
So as I'm speaking, my sound
is getting captured by the tablet,
私が話すと その音を
タブレットが捕らえて
11:17
and then it's getting mapped onto a vest
that's covered in vibratory motors,
チョッキに埋め込まれた
たくさんのバイブレータに対応付けます
11:22
just like the motors in your cell phone.
携帯に入っているような
モーターを使っています
11:28
So as I'm speaking,
私が話した言葉が
11:31
the sound is getting translated
to a pattern of vibration on the vest.
チョッキの振動パターンへと
変換されるわけです
11:33
Now, this is not just conceptual:
これはただの
コンセプトではありません
11:40
this tablet is transmitting Bluetooth,
and I'm wearing the vest right now.
このタブレットはブルートゥース通信をしていて
私は今そのチョッキを身に付けています
11:41
So as I'm speaking -- (Applause) --
だから私がしゃべると — (拍手)
11:47
the sound is getting translated
into dynamic patterns of vibration.
その音がダイナミックな
振動パターンへと変換されます
11:50
I'm feeling the sonic world around me.
これによって周囲の音響世界を
肌で感じ取ることができます
11:55
So, we've been testing this
with deaf people now,
私たちはこれを聴覚障害者に
試してもらっていますが
12:01
and it turns out that after
just a little bit of time,
ほんのわずかな期間で
12:05
people can start feeling,
they can start understanding
チョッキの言葉を感じ取り
12:08
the language of the vest.
理解できるようになることが
分かりました
12:12
So this is Jonathan. He's 37 years old.
He has a master's degree.
彼はジョナサン 37歳で
修士号を持っています
12:14
He was born profoundly deaf,
生まれもっての
重度聴覚障害者です
12:19
which means that there's a part
of his umwelt that's unavailable to him.
普通の人の環世界の一部が
彼には欠けているわけです
12:22
So we had Jonathan train with the vest
for four days, two hours a day,
それで彼にこのチョッキの訓練を4日間
日に2時間ずつしてもらい
12:26
and here he is on the fifth day.
5日目の様子がこちらです
12:30
Scott Novich: You.
(ノーヴィック) You
12:33
David Eagleman: So Scott says a word,
Jonathan feels it on the vest,
(イーグルマン) スコットが言葉を言い
ジョナサンがそれをチョッキから感じ取って
12:36
and he writes it on the board.
ホワイトボードに書いています
12:39
SN: Where. Where.
(ノーヴィック) Where
12:42
DE: Jonathan is able to translate
this complicated pattern of vibrations
(イーグルマン) ジョナサンは
複雑な振動パターンを解釈して
12:46
into an understanding
of what's being said.
言われた言葉を
理解することができます
12:49
SN: Touch. Touch.
(ノーヴィック) Touch
12:52
DE: Now, he's not doing this --
(イーグルマン) ジョナサンはこれを—
12:56
(Applause) --
(拍手)
13:00
Jonathan is not doing this consciously,
because the patterns are too complicated,
意識的にやっているわけではありません
パターンがあまりにも複雑なためです
13:07
but his brain is starting to unlock
the pattern that allows it to figure out
彼の脳がパターンを紐解いて
13:12
what the data mean,
データの意味を
理解するようになっているのです
13:17
and our expectation is that,
after wearing this for about three months,
私たちの予想では
このチョッキを3ヶ月も着ていれば
13:19
he will have a direct
perceptual experience of hearing
彼は直接的な聴覚の感覚を
持つようになるでしょう
13:23
in the same way that when a blind person
passes a finger over braille,
ちょうど盲目の人が
点字の上に指を滑らせたときに
13:28
the meaning comes directly off the page
without any conscious intervention at all.
意識的な努力なしに 意味が直接ページから
飛び込んでくるように感じるのと同じように
13:32
Now, this technology has the potential
to be a game-changer,
この技術は大きな変化をもたらす
可能性を持っています
13:38
because the only other solution
for deafness is a cochlear implant,
現在 聴覚障害の唯一の解決法は
人工内耳ですが
13:42
and that requires an invasive surgery.
それには外科手術が必要です
13:46
And this can be built for 40 times cheaper
than a cochlear implant,
しかもこのチョッキは人工内耳の
40分の1以下の値段で作ることができ
13:49
which opens up this technology globally,
even for the poorest countries.
この技術を広く世界に
最も貧しい国々にも行き渡らせることができます
13:54
Now, we've been very encouraged
by our results with sensory substitution,
私たちは感覚代行での結果に
強く勇気づけられ
14:00
but what we've been thinking a lot about
is sensory addition.
「感覚追加」について
考えるようになりました
14:05
How could we use a technology like this
to add a completely new kind of sense,
このような技術を使って
まったく新しい感覚を
14:09
to expand the human umvelt?
人間の環世界に付け加えることは
できないでしょうか?
14:14
For example, could we feed
real-time data from the Internet
たとえばインターネットから
リアルタイムデータを
14:17
directly into somebody's brain,
直接人の脳に送り込んで
14:22
and can they develop a direct
perceptual experience?
直接的な認知経験を発達させることは
できないでしょうか?
14:24
So here's an experiment
we're doing in the lab.
これは私たちの研究室で
やっている実験ですが
14:27
A subject is feeling a real-time
streaming feed from the Net of data
被験者はインターネットからの
リアルタイムデータを
14:30
for five seconds.
5秒間体感します
14:34
Then, two buttons appear,
and he has to make a choice.
その後2つのボタンが現れ
どちらかを選択します
14:36
He doesn't know what's going on.
被験者は何のデータか知りません
14:39
He makes a choice,
and he gets feedback after one second.
選択が正しかったか
1秒後にフィードバックが与えられます
14:41
Now, here's the thing:
ここで見たいのは
14:43
The subject has no idea
what all the patterns mean,
被験者はパターンが何を意味するのか
知らないわけですが
14:45
but we're seeing if he gets better
at figuring out which button to press.
どちらのボタンを押せばよいか
正しく判断できるようになるかどうかです
14:47
He doesn't know that what we're feeding
被験者は私たちの
送っているデータが
14:51
is real-time data from the stock market,
株式市場のリアルタイムデータで
14:53
and he's making buy and sell decisions.
自分がボタンで売買の選択を
していることを知りません
14:56
(Laughter)
(笑)
14:59
And the feedback is telling him
whether he did the right thing or not.
フィードバックで正しい選択を
したかどうか伝えています
15:01
And what we're seeing is,
can we expand the human umvelt
私たちが見たいのは
何週間かの訓練の後に
15:04
so that he comes to have,
after several weeks,
世界経済の動きを
直接把握する感覚を持つように
15:07
a direct perceptual experience
of the economic movements of the planet.
人間の環世界を拡張することは
可能かということです
15:10
So we'll report on that later
to see how well this goes.
結果がどういうことになったか
追ってご報告します
15:16
(Laughter)
(笑)
15:20
Here's another thing we're doing:
これは私たちが試している
もう1つのことですが
15:22
During the talks this morning,
we've been automatically scraping Twitter
今朝のこのセッションの間
15:24
for the TED2015 hashtag,
TED2015のハッシュタグが
ついたツイートを
15:29
and we've been doing
an automated sentiment analysis,
自動的に集めて
センチメント分析にかけています
15:31
which means, are people using positive
words or negative words or neutral?
みんなが肯定的な言葉を使っているか
否定的な言葉を使っているかということです
15:34
And while this has been going on,
この講演の間ずっと
15:39
I have been feeling this,
私はこれを感じていました
15:41
and so I am plugged in
to the aggregate emotion
私は何千という人々の
集合的な感情に
15:44
of thousands of people in real time,
リアルタイムで
繋がっているわけで
15:48
and that's a new kind of human experience,
because now I can know
これは人にとって
新しい種類の経験です
15:52
how everyone's doing
and how much you're loving this.
みんなが今どうしていて
どれくらいこれを楽しんでいるか判るんですから
15:56
(Laughter) (Applause)
(笑) (拍手)
16:00
It's a bigger experience
than a human can normally have.
これは人が通常体験できるよりも
大きなものです
16:06
We're also expanding the umvelt of pilots.
私たちはまたパイロットの環世界を
拡張しようとしています
16:11
So in this case, the vest is streaming
nine different measures
ここではチョッキに
クアッドコプターから
16:14
from this quadcopter,
9種類のデータ —
16:18
so pitch and yaw and roll
and orientation and heading,
ピッチ ヨー ロール
方位 方向などが送られていて
16:20
and that improves
this pilot's ability to fly it.
パイロットの操縦能力を
向上させています
16:23
It's essentially like he's extending
his skin up there, far away.
パイロットの皮膚感覚が遙か向こうの機体にまで
拡張されているようなものです
16:27
And that's just the beginning.
これはとっかかりに
過ぎません
16:32
What we're envisioning is taking
a modern cockpit full of gauges
私たちはこれを計器で埋められた
現代的なコックピットに適用したいと考えています
16:34
and instead of trying
to read the whole thing, you feel it.
個々の計器を読み取る代わりに
感じ取れるようにしたいのです
16:40
We live in a world of information now,
私たちは情報の世界に
生きていますが
16:44
and there is a difference
between accessing big data
ビッグデータに
アクセスするのと
16:47
and experiencing it.
それを肌で感じ取るということの間には
違いがあります
16:51
So I think there's really no end
to the possibilities
人間の地平を拡張することの
可能性には
16:54
on the horizon for human expansion.
本当に限りがないと思います
16:58
Just imagine an astronaut
being able to feel
たとえば 宇宙飛行士が
国際宇宙ステーション全体の状態を
17:00
the overall health
of the International Space Station,
感じ取れるというのを
想像してみてください
17:05
or, for that matter, having you feel
the invisible states of your own health,
あるいは自分の体の血糖値や
マイクロバイオームの状態といった
17:08
like your blood sugar
and the state of your microbiome,
見えない健康状態を
感じ取れるというのを
17:13
or having 360-degree vision
or seeing in infrared or ultraviolet.
あるいは360度の視覚や
赤外線や紫外線の視覚を持つというのを
17:17
So the key is this:
As we move into the future,
ここで鍵となるのは
未来へと進む中で
17:23
we're going to increasingly be able
to choose our own peripheral devices.
私たちは自らの周辺機器を
選んでいけるようになるだろうということです
17:26
We no longer have to wait
for Mother Nature's sensory gifts
母なる自然が長いタイムスケールで
感覚器官を与えてくれるのを
17:31
on her timescales,
待つ必要はありません
17:35
but instead, like any good parent,
she's given us the tools that we need
良い親が皆するように
世界に出て行って進む道を決めるために必要な道具は
17:37
to go out and define our own trajectory.
既に与えてくれているのですから
17:41
So the question now is,
今 私たちが問うべきことは
17:45
how do you want to go out
and experience your universe?
自分の世界をどう体験し
探索したいかということです
17:47
Thank you.
ありがとうございました
17:52
(Applause)
(スタンディングオベーション)
17:54
Chris Anderson: Can you feel it?
DE: Yeah.
(アンダーソン) これ 感じていますか?
(イーグルマン) ええ
18:11
Actually, this was the first time
I felt applause on the vest.
このチョッキで拍手を感じるのは初めてですが
良い気持ちです
18:13
It's nice. It's like a massage. (Laughter)
マッサージされているみたい (笑)
18:16
CA: Twitter's going crazy.
Twitter's going mad.
(アンダーソン) ツイッターでみんな熱狂し
驚喜している!
18:19
So that stock market experiment.
例の株式市場の実験ですが
18:22
This could be the first experiment
that secures its funding forevermore,
もし成功すれば
研究資金に困ることは
18:25
right, if successful?
もうなくなりますね?
18:29
DE: Well, that's right, I wouldn't
have to write to NIH anymore.
(イーグルマン) そうですね もう国立衛生研究所に
提案を書かなくて済みます
18:31
CA: Well look, just to be
skeptical for a minute,
(アンダーソン) ちょっとの間だけ
懐疑的な見方をしてみましょう
18:34
I mean, this is amazing,
but isn't most of the evidence so far
これはすごいものだと思いますが
これまで得られた結果の多くは
18:37
that sensory substitution works,
感覚代行が機能するということで
18:40
not necessarily
that sensory addition works?
それは必ずしも感覚追加がうまくいく
ということではありませんよね?
18:43
I mean, isn't it possible that the
blind person can see through their tongue
盲目の人が舌で
見ることができるのは
18:45
because the visual cortex is still there,
ready to process,
視覚中枢があって
情報処理できるからで
18:48
and that that is needed as part of it?
それが必要な構成要素だという
可能性はありませんか?
18:53
DE: That's a great question.
We actually have no idea
(イーグルマン) 良い質問です
実のところ
18:55
what the theoretical limits are of what
kind of data the brain can take in.
脳はどのようなデータを取り込めるのか
理論的な限界を私たちは知りません
18:58
The general story, though,
is that it's extraordinarily flexible.
しかし一般論として
ものすごく柔軟だとは言えます
19:02
So when a person goes blind,
what we used to call their visual cortex
人が視覚を失うと
視覚中枢が
19:05
gets taken over by other things,
by touch, by hearing, by vocabulary.
他のものに引き継がれることになります
触覚や 聴覚や 言葉によって
19:09
So what that tells us is that
the cortex is kind of a one-trick pony.
それから分かるのは
皮質は単機能で
19:14
It just runs certain kinds
of computations on things.
単にある種の計算を行う
ということです
19:18
And when we look around
at things like braille, for example,
たとえば点字のようなものに
目を向けると
19:20
people are getting information
through bumps on their fingers.
指で感じるでこぼこから
情報を受け取っているのです
19:24
So I don't thing we have any reason
to think there's a theoretical limit
理論的な限界があると
信ずべき理由は
19:27
that we know the edge of.
ないと思います
19:30
CA: If this checks out,
you're going to be deluged.
(アンダーソン) それが正しいとなったら
みんな殺到することでしょう
19:33
There are so many
possible applications for this.
非常に多くの応用が可能です
19:36
Are you ready for this? What are you most
excited about, the direction it might go?
その準備はできていますか? もっとも期待していること
これが進む方向はどのようなものだと思いますか?
19:39
DE: I mean, I think there's
a lot of applications here.
(イーグルマン) 応用はとても
たくさんあると思います
19:43
In terms of beyond sensory substitution,
the things I started mentioning
感覚代行を越えるという意味では
19:46
about astronauts on the space station,
they spend a lot of their time
宇宙ステーションの宇宙飛行士
という話をしましたが
19:49
monitoring things, and they could instead
just get what's going on,
監視に多くの時間費やす代わりに
状況を感じ取れるようになるのではと思います
19:54
because what this is really good for
is multidimensional data.
これが特に適しているのは
多次元データだからです
19:57
The key is this: Our visual systems
are good at detecting blobs and edges,
鍵となるのは 私たちの視覚システムは
塊や境界を検出するのには優れていますが
20:00
but they're really bad
at what our world has become,
世界の状態を把握するのは
うまくないことです
20:05
which is screens
with lots and lots of data.
無数のデータを表示する
たくさんの画面を
20:07
We have to crawl that
with our attentional systems.
1つひとつ注意して
見ていく必要があります
20:10
So this is a way of just
feeling the state of something,
だからこれは物事の状態を
感覚的に把握する方法になると思います
20:12
just like the way you know the state
of your body as you're standing around.
何もしないでいても
自分の体の状態を知ることができるように
20:15
So I think heavy machinery, safety,
feeling the state of a factory,
重機や 安全性 工場や装置の
状態を感じ取るというのは
20:18
of your equipment, that's one place
it'll go right away.
すぐに応用できる
領域だと思います
20:22
CA: David Eagleman, that was one
mind-blowing talk. Thank you very much.
(アンダーソン) デイヴィッド 本当に驚嘆させられる話でした
どうもありがとう
20:25
DE: Thank you, Chris.
(Applause)
(イーグルマン) ありがとう クリス (拍手)
20:28
Translated by Yasushi Aoki
Reviewed by Takafusa Kitazume

▲Back to top

About the speaker:

David Eagleman - Neuroscientist
David Eagleman decodes the mysteries of the tangled web of neurons and electricity that make our minds tick -- and also make us human.

Why you should listen

As the creator of stacks of compelling research, books and now the 6-part PBS series The Brain, grey matter expert David Eagleman is our most visible evangelist for neuroscience. He has helmed ground-breaking studies on time perception, brain plasticity and neurolaw. His latest research explores technology that bypasses sensory impairment -- such as a smartphone-controlled vest that translates sound into patterns of vibration for the deaf.

Eagleman is also the author of Sum, an internationally bestselling short story collection speculating on life, death and what it means to be human. Translated into 28 languages, Sum has been turned into two separate operas at the Sydney Opera House and the Royal Opera House in London.

More profile about the speaker
David Eagleman | Speaker | TED.com