English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TEDGlobal 2010

Tan Le: A headset that reads your brainwaves

タン・レイ 「脳波を読むヘッドセット」

Filmed
Views 2,486,411

タン・レイのびっくりするような新しいコンピュータインタフェースは、ユーザの脳波を読み取り、仮想的なオブジェクトや実際の家電機器を念じるだけで(それと少しばかりの集中によって)操作することができます。タン・レイがこのヘッドセットのデモを披露し、いろいろな応用例を紹介します。

- Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG). Full bio

Up until now, our communication with machines
これまでの私達の 機械に対する
00:16
has always been limited
コミュニケーションは 意識的で
00:18
to conscious and direct forms.
直接的なものに 限られていました
00:20
Whether it's something simple
スイッチで電灯を点けるという
00:22
like turning on the lights with a switch,
単純なことから
00:24
or even as complex as programming robotics,
ロボティクスのプログラミングのような複雑なものまで
00:26
we have always had to give a command to a machine,
機械に何かをさせようと思ったら
00:29
or even a series of commands,
はっきりと命じたり
00:32
in order for it to do something for us.
一連のコマンドを与える必要がありました
00:34
Communication between people, on the other hand,
一方で 人と人のコミュニケーションは
00:37
is far more complex and a lot more interesting
ずっと複雑で ずっと興味深いものです
00:39
because we take into account
明示的には示されない
00:42
so much more than what is explicitly expressed.
多くのことが考慮されるからです
00:44
We observe facial expressions, body language,
表情やボディランゲージを読むことで
00:47
and we can intuit feelings and emotions
会話しながら気持ちや感情を
00:50
from our dialogue with one another.
直感的につかみ取ることができます
00:52
This actually forms a large part
実際これは私達の意志決定において
00:55
of our decision-making process.
大きな部分を占めています
00:57
Our vision is to introduce
私達がビジョンに掲げているのは
00:59
this whole new realm of human interaction
人とコンピュータの対話の中に 今までにはなかった
01:01
into human-computer interaction
人の対話の要素を導入することで
01:04
so that computers can understand
コンピュータが
01:06
not only what you direct it to do,
直接命令されたことだけでなく
01:08
but it can also respond
人の表情や
01:10
to your facial expressions
感情にも
01:12
and emotional experiences.
反応できるようにすることです
01:14
And what better way to do this
そのための方法として
01:16
than by interpreting the signals
私達の制御や体験の中心にある
01:18
naturally produced by our brain,
脳が作り出す信号を解釈するより
01:20
our center for control and experience.
良い方法はないでしょう
01:22
Well, it sounds like a pretty good idea,
これはとても良いアイデアに見えますが
01:25
but this task, as Bruno mentioned,
ブルーノも紹介してくれたように
01:27
isn't an easy one for two main reasons:
2つの理由により 容易なことではないのです
01:29
First, the detection algorithms.
第一の問題は 検出アルゴリズムです
01:32
Our brain is made up of
私達の脳には
01:35
billions of active neurons,
活動状態のニューロンが何十億もあり
01:37
around 170,000 km
軸索を繋ぎ合わせると
01:39
of combined axon length.
17万キロにも及びます
01:42
When these neurons interact,
これらのニューロンが情報を伝えるとき
01:44
the chemical reaction emits an electrical impulse,
化学反応が起こす電気信号を
01:46
which can be measured.
計測することができます
01:48
The majority of our functional brain
脳の機能部位の
01:50
is distributed over
大部分は
01:53
the outer surface layer of the brain,
脳の表層部分にあります
01:55
and to increase the area that's available for mental capacity,
そして知的能力に使える領域を増やすために
01:57
the brain surface is highly folded.
脳の表面には たくさんの皺があります
02:00
Now this cortical folding
この皮質にある皺のために
02:03
presents a significant challenge
脳表層の電気信号の解釈は
02:05
for interpreting surface electrical impulses.
難しい問題となっています
02:07
Each individual's cortex
皮質の皺の入り方は
02:10
is folded differently,
指紋のように 個人ごとに
02:12
very much like a fingerprint.
異なっているのです
02:14
So even though a signal
だから信号が
02:16
may come from the same functional part of the brain,
脳の同じ機能部位から来ているにしても
02:18
by the time the structure has been folded,
この皺になった構造のために
02:21
its physical location
物理的な位置が
02:23
is very different between individuals,
個人ごとに大きく異なり
02:25
even identical twins.
たとえ一卵性双生児でも 同じにはなりません
02:27
There is no longer any consistency
表層の信号に
02:30
in the surface signals.
一貫した解釈はできないのです
02:32
Our breakthrough was to create an algorithm
私達は この問題の解決のため
02:34
that unfolds the cortex,
皮質の皺を展開するアルゴリズムを作りました
02:36
so that we can map the signals
それによって信号を その発生元に
02:38
closer to its source,
対応づけることが可能になり
02:40
and therefore making it capable of working across a mass population.
多くの人に適用できるようになったのです
02:42
The second challenge
もう1つの難問は
02:46
is the actual device for observing brainwaves.
脳波を観察するための装置です
02:48
EEG measurements typically involve
脳波測定には通常
02:51
a hairnet with an array of sensors,
センサが並んだヘアネットのようなものを使います
02:53
like the one that you can see here in the photo.
写真でご覧頂いているようなものです
02:56
A technician will put the electrodes
その電極を 技師が伝導性の
02:59
onto the scalp
ジェルやペーストを使って
03:01
using a conductive gel or paste
頭皮に取り付けるのですが
03:03
and usually after a procedure of preparing the scalp
これをやると あとで軽い
03:05
by light abrasion.
擦り傷のようになります
03:08
Now this is quite time consuming
これはとても時間がかかりますし
03:10
and isn't the most comfortable process.
あまり快適なものでもありません
03:12
And on top of that, these systems
その上 こういったシステムは
03:14
actually cost in the tens of thousands of dollars.
何万ドルもするのです
03:16
So with that, I'd like to invite onstage
ここで去年の講演者であるエヴァン グラントに
03:20
Evan Grant, who is one of last year's speakers,
登場してもらいましょう
03:23
who's kindly agreed
彼は快く
03:25
to help me to demonstrate
私達の発明のデモへの協力を
03:27
what we've been able to develop.
引き受けてくださいました
03:29
(Applause)
(拍手)
03:31
So the device that you see
ご覧頂いている装置は
03:37
is a 14-channel, high-fidelity
14チャネル 高忠実度
03:39
EEG acquisition system.
脳波捕捉システムです
03:41
It doesn't require any scalp preparation,
頭皮にジェルやペーストを
03:43
no conductive gel or paste.
付ける必要はありません
03:46
It only takes a few minutes to put on
装着して信号が安定するまで
03:48
and for the signals to settle.
ほんの数分しかかかりません
03:51
It's also wireless,
ワイヤレスですので
03:53
so it gives you the freedom to move around.
自由に動き回れます
03:55
And compared to the tens of thousands of dollars
何万ドルもする従来の
03:58
for a traditional EEG system,
脳波捕捉システムに対し
04:01
this headset only costs
このヘッドセットは
04:04
a few hundred dollars.
ほんの数百ドルしかしません
04:06
Now on to the detection algorithms.
検出アルゴリズムについてお話ししましょう
04:08
So facial expressions --
前に感情表現としての
04:11
as I mentioned before in emotional experiences --
表情の話をしましたが
04:13
are actually designed to work out of the box
個人に合わせた簡単な
04:15
with some sensitivity adjustments
感度調整だけで
04:17
available for personalization.
すぐに表情の捕捉ができるようになります
04:19
But with the limited time we have available,
今日は時間が限られていますので
04:22
I'd like to show you the cognitive suite,
認知セットだけを ご紹介します
04:24
which is the ability for you
これは心の中で
04:26
to basically move virtual objects with your mind.
仮想的な物体を動かすというものです
04:28
Now, Evan is new to this system,
エヴァンは 初めて
04:32
so what we have to do first
このシステムを使うので
04:34
is create a new profile for him.
最初に新しいプロフィールを作ります
04:36
He's obviously not Joanne -- so we'll "add user."
彼がジョアンなわけありませんね 「ユーザの追加」で
04:38
Evan. Okay.
エヴァンと入れます
04:41
So the first thing we need to do with the cognitive suite
認知セットを行うにあたって
04:43
is to start with training
まずニュートラルな状態の信号による
04:46
a neutral signal.
トレーニングから始めます
04:48
With neutral, there's nothing in particular
ニュートラルというのは
04:50
that Evan needs to do.
何もしない状態ということです
04:52
He just hangs out. He's relaxed.
ただくつろいで リラックスします
04:54
And the idea is to establish a baseline
これによって ベースラインというか
04:56
or normal state for his brain,
脳の標準的な状態を設定します
04:58
because every brain is different.
脳は人によって異なるからです
05:00
It takes eight seconds to do this,
これには8秒かかります
05:02
and now that that's done,
それが済んだら
05:04
we can choose a movement-based action.
ものを動かす課題をどれか選びます
05:06
So Evan, choose something
ではエヴァン 心の中で明確に
05:08
that you can visualize clearly in your mind.
イメージできるものを選んでください
05:10
Evan Grant: Let's do "pull."
「引く」をやってみます
05:12
Tan Le: Okay, so let's choose "pull."
では「引く」を選択します
05:14
So the idea here now
エヴァンには
05:16
is that Evan needs to
物体が画面の
05:18
imagine the object coming forward
手前の方にやってくるところを
05:20
into the screen,
イメージしてもらいます
05:22
and there's a progress bar that will scroll across the screen
その間プログレスバーが
05:24
while he's doing that.
伸びていきます
05:27
The first time, nothing will happen,
最初は何も起きません
05:29
because the system has no idea how he thinks about "pull."
彼が「引く」をどう考えるのか システムはまだ知らないからです
05:31
But maintain that thought
8秒間「引く」ことを
05:34
for the entire duration of the eight seconds.
イメージし続けてください
05:36
So: one, two, three, go.
それでは 1、2、3、はい
05:38
Okay.
いいでしょう
05:49
So once we accept this,
これを登録してやると
05:51
the cube is live.
立方体を動かせるようになります
05:53
So let's see if Evan
ではエヴァンに
05:55
can actually try and imagine pulling.
「引く」ことをイメージしてもらいましょう
05:57
Ah, good job!
わぁ すごい!
06:00
(Applause)
(拍手)
06:02
That's really amazing.
びっくりしました
06:05
(Applause)
(拍手)
06:07
So we have a little bit of time available,
まだ少し時間があるようですので
06:11
so I'm going to ask Evan
エヴァンにすごく難しい課題に
06:13
to do a really difficult task.
挑戦してもらいましょう
06:15
And this one is difficult
これが難しいのは
06:17
because it's all about being able to visualize something
実際の世界には存在しないことを
06:19
that doesn't exist in our physical world.
イメージする必要があるためです
06:22
This is "disappear."
「消す」をやります
06:24
So what you want to do -- at least with movement-based actions,
移動に関するアクションであれば
06:26
we do that all the time, so you can visualize it.
いつもやっている事なので 容易にイメージできます
06:28
But with "disappear," there's really no analogies --
でも「消す」というのは経験がありません
06:31
so Evan, what you want to do here
ではエヴァン 立方体がゆっくりと
06:33
is to imagine the cube slowly fading out, okay.
消えていくところをイメージしてください
06:35
Same sort of drill. So: one, two, three, go.
まずは練習です 1、2、3、はい
06:38
Okay. Let's try that.
じゃあ試してみましょう
06:50
Oh, my goodness. He's just too good.
ほら! 彼は本当に優秀です
06:53
Let's try that again.
もう一度やってみて…
06:57
EG: Losing concentration.
集中力が切れちゃったな
07:04
(Laughter)
(笑)
07:06
TL: But we can see that it actually works,
でも一度うまくいったの分かりますよね
07:08
even though you can only hold it
あまり長くは
07:10
for a little bit of time.
保てませんでしたけど
07:12
As I said, it's a very difficult process
さっきも言ったように これはイメージするのが
07:14
to imagine this.
とても難しいんです
07:17
And the great thing about it is that
これのいいところは
07:19
we've only given the software one instance
「消す」をどう考えるか
07:21
of how he thinks about "disappear."
ソフトウェアに いっぺん教えればいいということです
07:23
As there is a machine learning algorithm in this --
この中には機械学習アルゴリズムが入っていて…
07:26
(Applause)
(歓声)
07:29
Thank you.
どうもありがとう
07:33
Good job. Good job.
すごい すごい
07:35
(Applause)
(拍手)
07:38
Thank you, Evan, you're a wonderful, wonderful
本当にありがとう エヴァン
07:40
example of the technology.
おかげで素晴しいデモができました
07:43
So, as you can see, before,
ご覧頂いたように
07:46
there is a leveling system built into this software
このソフトには計測システムがあって
07:48
so that as Evan, or any user,
ユーザがシステムに
07:51
becomes more familiar with the system,
馴染んでいくのに応じて
07:53
they can continue to add more and more detections,
機能を追加していくことができるんです
07:55
so that the system begins to differentiate
そうやってシステムが
07:58
between different distinct thoughts.
いろいろ異なる考えを 識別できるようになります
08:00
And once you've trained up the detections,
一通り検出のトレーニングが済んだら
08:04
these thoughts can be assigned or mapped
それぞれの考えを コンピュータや
08:06
to any computing platform,
アプリケーションや 装置に
08:08
application or device.
割り当てることができます
08:10
So I'd like to show you a few examples,
いくつか例をお見せしましょう
08:12
because there are many possible applications
この新しいインタフェースに
08:14
for this new interface.
どれほど多くの応用があるか
08:16
In games and virtual worlds, for example,
たとえばゲームや仮想空間では
08:19
your facial expressions
普通に表情を直感的に使って
08:21
can naturally and intuitively be used
アバターや 仮想のキャラクタを
08:23
to control an avatar or virtual character.
操作することができます
08:25
Obviously, you can experience the fantasy of magic
もちろん魔法のファンタジーを体験し
08:29
and control the world with your mind.
心で世界をコントロールすることだってできます
08:31
And also, colors, lighting,
それからまた 色や 光や
08:36
sound and effects
音や 特殊効果も
08:39
can dynamically respond to your emotional state
感情の状態に応じて変化させ
08:41
to heighten the experience that you're having, in real time.
リアルタイムで体験を増幅することができます
08:43
And moving on to some applications
世界中の研究者や開発者によって
08:47
developed by developers and researchers around the world,
ロボットや機械を使った応用例が
08:49
with robots and simple machines, for example --
開発されています たとえば
08:52
in this case, flying a toy helicopter
ここではオモチャのヘリコプターを
08:55
simply by thinking "lift" with your mind.
飛べと念じるだけで飛ばしています
08:57
The technology can also be applied
このテクノロジーは実用的なことにも
09:00
to real world applications --
応用することができます
09:02
in this example, a smart home.
たとえばスマートホームです
09:04
You know, from the user interface of the control system
制御システムのユーザインタフェースを通して
09:06
to opening curtains
カーテンを開けたり
09:09
or closing curtains.
閉めたりできます
09:11
And of course, also to the lighting --
それにもちろん照明を
09:22
turning them on
点けたり
09:25
or off.
消したりもできます
09:28
And finally,
最後に
09:30
to real life-changing applications,
本当に人の生活を変える応用です
09:32
such as being able to control an electric wheelchair.
電動車椅子のコントロールができるんです
09:34
In this example,
この例では
09:37
facial expressions are mapped to the movement commands.
表情を移動コマンドに対応づけています
09:39
Man: Now blink right to go right.
右目のウィンクで右に曲がります
09:42
Now blink left to turn back left.
左目のウィンクで左に曲がります
09:50
Now smile to go straight.
笑顔で直進します
10:02
TL: We really -- Thank you.
ここでは…ありがとうございます
10:08
(Applause)
(拍手)
10:10
We are really only scratching the surface of what is possible today,
現在可能なことのほんの一部をご紹介しました
10:15
and with the community's input,
コミュニティからの意見や
10:18
and also with the involvement of developers
世界中の開発者や研究者の参加によって
10:20
and researchers from around the world,
このテクノロジーがこれからどこへ向かうべきか
10:22
we hope that you can help us to shape
見極めるのに力を貸していただけたらと思います
10:25
where the technology goes from here. Thank you so much.
どうもありがとうございました
10:27
Translated by Yasushi Aoki
Reviewed by Yuki Okada

▲Back to top

About the speaker:

Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com