ABOUT THE SPEAKER
Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com
TEDGlobal 2010

Tan Le: A headset that reads your brainwaves

タン・レイ 「脳波を読むヘッドセット」

Filmed:
2,732,929 views

タン・レイのびっくりするような新しいコンピュータインタフェースは、ユーザの脳波を読み取り、仮想的なオブジェクトや実際の家電機器を念じるだけで(それと少しばかりの集中によって)操作することができます。タン・レイがこのヘッドセットのデモを披露し、いろいろな応用例を紹介します。
- Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG). Full bio

Double-click the English transcript below to play the video.

00:16
Up until〜まで now, our communicationコミュニケーション with machines機械
0
1000
2000
これまでの私達の 機械に対する
00:18
has always been limited限られた
1
3000
2000
コミュニケーションは 意識的で
00:20
to conscious意識的な and direct直接 formsフォーム.
2
5000
2000
直接的なものに 限られていました
00:22
Whetherどうか it's something simple単純
3
7000
2000
スイッチで電灯を点けるという
00:24
like turning旋回 on the lightsライト with a switchスイッチ,
4
9000
2000
単純なことから
00:26
or even as complex複合体 as programmingプログラミング roboticsロボット工学,
5
11000
3000
ロボティクスのプログラミングのような複雑なものまで
00:29
we have always had to give a commandコマンド to a machine機械,
6
14000
3000
機械に何かをさせようと思ったら
00:32
or even a seriesシリーズ of commandsコマンド,
7
17000
2000
はっきりと命じたり
00:34
in order注文 for it to do something for us.
8
19000
3000
一連のコマンドを与える必要がありました
00:37
Communicationコミュニケーション betweenの間に people, on the other handハンド,
9
22000
2000
一方で 人と人のコミュニケーションは
00:39
is far遠い more complex複合体 and a lot more interesting面白い
10
24000
3000
ずっと複雑で ずっと興味深いものです
00:42
because we take into accountアカウント
11
27000
2000
明示的には示されない
00:44
so much more than what is explicitly明示的 expressed表現された.
12
29000
3000
多くのことが考慮されるからです
00:47
We observe観察する facialフェイシャル expressions表現, body language言語,
13
32000
3000
表情やボディランゲージを読むことで
00:50
and we can intuit直観 feelings感情 and emotions感情
14
35000
2000
会話しながら気持ちや感情を
00:52
from our dialogue対話 with one another別の.
15
37000
3000
直感的につかみ取ることができます
00:55
This actually実際に formsフォーム a large part
16
40000
2000
実際これは私達の意志決定において
00:57
of our decision-making意思決定 processプロセス.
17
42000
2000
大きな部分を占めています
00:59
Our visionビジョン is to introduce紹介する
18
44000
2000
私達がビジョンに掲げているのは
01:01
this whole全体 new新しい realmレルム of human人間 interactionインタラクション
19
46000
3000
人とコンピュータの対話の中に 今までにはなかった
01:04
into human-computer人間のコンピュータ interactionインタラクション
20
49000
2000
人の対話の要素を導入することで
01:06
so that computersコンピュータ can understandわかる
21
51000
2000
コンピュータが
01:08
not only what you direct直接 it to do,
22
53000
2000
直接命令されたことだけでなく
01:10
but it can alsoまた、 respond応答する
23
55000
2000
人の表情や
01:12
to your facialフェイシャル expressions表現
24
57000
2000
感情にも
01:14
and emotional感情の experiences経験.
25
59000
2000
反応できるようにすることです
01:16
And what better way to do this
26
61000
2000
そのための方法として
01:18
than by interpreting解釈する the signalsシグナル
27
63000
2000
私達の制御や体験の中心にある
01:20
naturally当然 produced生産された by our brain,
28
65000
2000
脳が作り出す信号を解釈するより
01:22
our centerセンター for controlコントロール and experience経験.
29
67000
3000
良い方法はないでしょう
01:25
Well, it sounds like a prettyかなり good ideaアイディア,
30
70000
2000
これはとても良いアイデアに見えますが
01:27
but this task仕事, as Brunoブルーノ mentioned言及した,
31
72000
2000
ブルーノも紹介してくれたように
01:29
isn't an easy簡単 one for two mainメイン reasons理由:
32
74000
3000
2つの理由により 容易なことではないのです
01:32
First, the detection検出 algorithmsアルゴリズム.
33
77000
3000
第一の問題は 検出アルゴリズムです
01:35
Our brain is made up of
34
80000
2000
私達の脳には
01:37
billions何十億 of activeアクティブ neuronsニューロン,
35
82000
2000
活動状態のニューロンが何十億もあり
01:39
around 170,000 kmkm
36
84000
3000
軸索を繋ぎ合わせると
01:42
of combined結合された axon軸索 length長さ.
37
87000
2000
17万キロにも及びます
01:44
When these neuronsニューロン interact相互作用する,
38
89000
2000
これらのニューロンが情報を伝えるとき
01:46
the chemical化学 reaction反応 emits放出する an electrical電気 impulseインパルス,
39
91000
2000
化学反応が起こす電気信号を
01:48
whichどの can be measured測定された.
40
93000
2000
計測することができます
01:50
The majority多数 of our functional機能的 brain
41
95000
3000
脳の機能部位の
01:53
is distributed配布された over
42
98000
2000
大部分は
01:55
the outerアウター surface表面 layer of the brain,
43
100000
2000
脳の表層部分にあります
01:57
and to increase増加する the areaエリア that's available利用可能な for mental精神的な capacity容量,
44
102000
3000
そして知的能力に使える領域を増やすために
02:00
the brain surface表面 is highly高く folded折り畳まれた.
45
105000
3000
脳の表面には たくさんの皺があります
02:03
Now this cortical皮質 folding折畳み
46
108000
2000
この皮質にある皺のために
02:05
presentsプレゼント a significant重要な challengeチャレンジ
47
110000
2000
脳表層の電気信号の解釈は
02:07
for interpreting解釈する surface表面 electrical電気 impulsesインパルス.
48
112000
3000
難しい問題となっています
02:10
Each individual's個人の cortex皮質
49
115000
2000
皮質の皺の入り方は
02:12
is folded折り畳まれた differently異なって,
50
117000
2000
指紋のように 個人ごとに
02:14
very much like a fingerprint指紋.
51
119000
2000
異なっているのです
02:16
So even thoughしかし a signal信号
52
121000
2000
だから信号が
02:18
mayかもしれない come from the same同じ functional機能的 part of the brain,
53
123000
3000
脳の同じ機能部位から来ているにしても
02:21
by the time the structure構造 has been folded折り畳まれた,
54
126000
2000
この皺になった構造のために
02:23
its physical物理的 locationロケーション
55
128000
2000
物理的な位置が
02:25
is very different異なる betweenの間に individuals個人,
56
130000
2000
個人ごとに大きく異なり
02:27
even identical同一 twins双子.
57
132000
3000
たとえ一卵性双生児でも 同じにはなりません
02:30
There is no longerより長いです any consistency一貫性
58
135000
2000
表層の信号に
02:32
in the surface表面 signalsシグナル.
59
137000
2000
一貫した解釈はできないのです
02:34
Our breakthrough画期的な was to create作成する an algorithmアルゴリズム
60
139000
2000
私達は この問題の解決のため
02:36
that unfolds展開する the cortex皮質,
61
141000
2000
皮質の皺を展開するアルゴリズムを作りました
02:38
so that we can map地図 the signalsシグナル
62
143000
2000
それによって信号を その発生元に
02:40
closerクローザー to its sourceソース,
63
145000
2000
対応づけることが可能になり
02:42
and thereforeしたがって、 making作る it capable可能な of workingワーキング across横断する a mass質量 population人口.
64
147000
3000
多くの人に適用できるようになったのです
02:46
The second二番 challengeチャレンジ
65
151000
2000
もう1つの難問は
02:48
is the actual実際の deviceデバイス for observing観察する brainwaves脳波.
66
153000
3000
脳波を観察するための装置です
02:51
EEG脳波 measurements測定値 typically典型的には involve関与する
67
156000
2000
脳波測定には通常
02:53
a hairnetヘアネット with an arrayアレイ of sensorsセンサ,
68
158000
3000
センサが並んだヘアネットのようなものを使います
02:56
like the one that you can see here in the photo写真.
69
161000
3000
写真でご覧頂いているようなものです
02:59
A technician技術者 will put the electrodes電極
70
164000
2000
その電極を 技師が伝導性の
03:01
onto〜に the scalp頭皮
71
166000
2000
ジェルやペーストを使って
03:03
usingを使用して a conductive導電性の gelゲル or pasteペースト
72
168000
2000
頭皮に取り付けるのですが
03:05
and usually通常 after a procedure手順 of preparing準備 the scalp頭皮
73
170000
3000
これをやると あとで軽い
03:08
by light abrasion摩耗.
74
173000
2000
擦り傷のようになります
03:10
Now this is quiteかなり time consuming消費する
75
175000
2000
これはとても時間がかかりますし
03:12
and isn't the most最も comfortable快適 processプロセス.
76
177000
2000
あまり快適なものでもありません
03:14
And on top of that, these systemsシステム
77
179000
2000
その上 こういったシステムは
03:16
actually実際に costコスト in the tens数十 of thousands of dollarsドル.
78
181000
3000
何万ドルもするのです
03:20
So with that, I'd like to invite招待する onstageステージ上
79
185000
3000
ここで去年の講演者であるエヴァン グラントに
03:23
Evanエヴァン Grant付与, who is one of last year's speakersスピーカー,
80
188000
2000
登場してもらいましょう
03:25
who'sだれの kindly親切に agreed同意した
81
190000
2000
彼は快く
03:27
to help me to demonstrate実証する
82
192000
2000
私達の発明のデモへの協力を
03:29
what we've私たちは been ableできる to develop開発する.
83
194000
2000
引き受けてくださいました
03:31
(Applause拍手)
84
196000
6000
(拍手)
03:37
So the deviceデバイス that you see
85
202000
2000
ご覧頂いている装置は
03:39
is a 14-channel-チャネル, high-fidelity高忠実度
86
204000
2000
14チャネル 高忠実度
03:41
EEG脳波 acquisition取得 systemシステム.
87
206000
2000
脳波捕捉システムです
03:43
It doesn't require要求する any scalp頭皮 preparation準備,
88
208000
3000
頭皮にジェルやペーストを
03:46
no conductive導電性の gelゲル or pasteペースト.
89
211000
2000
付ける必要はありません
03:48
It only takes a few少数 minutes to put on
90
213000
3000
装着して信号が安定するまで
03:51
and for the signalsシグナル to settle解決する.
91
216000
2000
ほんの数分しかかかりません
03:53
It's alsoまた、 wireless無線,
92
218000
2000
ワイヤレスですので
03:55
so it gives与える you the freedom自由 to move動く around.
93
220000
3000
自由に動き回れます
03:58
And compared比較した to the tens数十 of thousands of dollarsドル
94
223000
3000
何万ドルもする従来の
04:01
for a traditional伝統的な EEG脳波 systemシステム,
95
226000
3000
脳波捕捉システムに対し
04:04
this headsetヘッドセット only costsコスト
96
229000
2000
このヘッドセットは
04:06
a few少数 hundred dollarsドル.
97
231000
2000
ほんの数百ドルしかしません
04:08
Now on to the detection検出 algorithmsアルゴリズム.
98
233000
3000
検出アルゴリズムについてお話ししましょう
04:11
So facialフェイシャル expressions表現 --
99
236000
2000
前に感情表現としての
04:13
as I mentioned言及した before in emotional感情の experiences経験 --
100
238000
2000
表情の話をしましたが
04:15
are actually実際に designed設計 to work out of the boxボックス
101
240000
2000
個人に合わせた簡単な
04:17
with some sensitivity感度 adjustments調整
102
242000
2000
感度調整だけで
04:19
available利用可能な for personalizationパーソナライゼーション.
103
244000
3000
すぐに表情の捕捉ができるようになります
04:22
But with the limited限られた time we have available利用可能な,
104
247000
2000
今日は時間が限られていますので
04:24
I'd like to showショー you the cognitive認知 suiteスイート,
105
249000
2000
認知セットだけを ご紹介します
04:26
whichどの is the ability能力 for you
106
251000
2000
これは心の中で
04:28
to basically基本的に move動く virtualバーチャル objectsオブジェクト with your mindマインド.
107
253000
3000
仮想的な物体を動かすというものです
04:32
Now, Evanエヴァン is new新しい to this systemシステム,
108
257000
2000
エヴァンは 初めて
04:34
so what we have to do first
109
259000
2000
このシステムを使うので
04:36
is create作成する a new新しい profileプロフィール for him.
110
261000
2000
最初に新しいプロフィールを作ります
04:38
He's obviously明らかに not Joanneジョアン -- so we'll私たちは "add追加する userユーザー."
111
263000
3000
彼がジョアンなわけありませんね 「ユーザの追加」で
04:41
Evanエヴァン. Okay.
112
266000
2000
エヴァンと入れます
04:43
So the first thing we need to do with the cognitive認知 suiteスイート
113
268000
3000
認知セットを行うにあたって
04:46
is to start開始 with trainingトレーニング
114
271000
2000
まずニュートラルな状態の信号による
04:48
a neutral中性 signal信号.
115
273000
2000
トレーニングから始めます
04:50
With neutral中性, there's nothing in particular特に
116
275000
2000
ニュートラルというのは
04:52
that Evanエヴァン needsニーズ to do.
117
277000
2000
何もしない状態ということです
04:54
He just hangsハングする out. He's relaxedリラックスした.
118
279000
2000
ただくつろいで リラックスします
04:56
And the ideaアイディア is to establish確立します a baselineベースライン
119
281000
2000
これによって ベースラインというか
04:58
or normal正常 state状態 for his brain,
120
283000
2000
脳の標準的な状態を設定します
05:00
because everyすべて brain is different異なる.
121
285000
2000
脳は人によって異なるからです
05:02
It takes eight8 seconds to do this,
122
287000
2000
これには8秒かかります
05:04
and now that that's done完了,
123
289000
2000
それが済んだら
05:06
we can choose選択する a movement-based動きベース actionアクション.
124
291000
2000
ものを動かす課題をどれか選びます
05:08
So Evanエヴァン, choose選択する something
125
293000
2000
ではエヴァン 心の中で明確に
05:10
that you can visualize視覚化する clearlyはっきりと in your mindマインド.
126
295000
2000
イメージできるものを選んでください
05:12
Evanエヴァン Grant付与: Let's do "pull引く."
127
297000
2000
「引く」をやってみます
05:14
Tanタン Le: Okay, so let's choose選択する "pull引く."
128
299000
2000
では「引く」を選択します
05:16
So the ideaアイディア here now
129
301000
2000
エヴァンには
05:18
is that Evanエヴァン needsニーズ to
130
303000
2000
物体が画面の
05:20
imagine想像する the objectオブジェクト coming到来 forward前進
131
305000
2000
手前の方にやってくるところを
05:22
into the screen画面,
132
307000
2000
イメージしてもらいます
05:24
and there's a progress進捗 barバー that will scrollスクロール across横断する the screen画面
133
309000
3000
その間プログレスバーが
05:27
while he's doing that.
134
312000
2000
伸びていきます
05:29
The first time, nothing will happen起こる,
135
314000
2000
最初は何も起きません
05:31
because the systemシステム has no ideaアイディア how he thinks考える about "pull引く."
136
316000
3000
彼が「引く」をどう考えるのか システムはまだ知らないからです
05:34
But maintain維持する that thought
137
319000
2000
8秒間「引く」ことを
05:36
for the entire全体 duration期間 of the eight8 seconds.
138
321000
2000
イメージし続けてください
05:38
So: one, two, three, go.
139
323000
3000
それでは 1、2、3、はい
05:49
Okay.
140
334000
2000
いいでしょう
05:51
So once一度 we accept受け入れる this,
141
336000
2000
これを登録してやると
05:53
the cube立方体 is liveライブ.
142
338000
2000
立方体を動かせるようになります
05:55
So let's see if Evanエヴァン
143
340000
2000
ではエヴァンに
05:57
can actually実際に try and imagine想像する pulling引っ張る.
144
342000
3000
「引く」ことをイメージしてもらいましょう
06:00
Ahああ, good jobジョブ!
145
345000
2000
わぁ すごい!
06:02
(Applause拍手)
146
347000
3000
(拍手)
06:05
That's really amazing素晴らしい.
147
350000
2000
びっくりしました
06:07
(Applause拍手)
148
352000
4000
(拍手)
06:11
So we have a little bitビット of time available利用可能な,
149
356000
2000
まだ少し時間があるようですので
06:13
so I'm going to ask尋ねる Evanエヴァン
150
358000
2000
エヴァンにすごく難しい課題に
06:15
to do a really difficult難しい task仕事.
151
360000
2000
挑戦してもらいましょう
06:17
And this one is difficult難しい
152
362000
2000
これが難しいのは
06:19
because it's all about beingであること ableできる to visualize視覚化する something
153
364000
3000
実際の世界には存在しないことを
06:22
that doesn't exist存在する in our physical物理的 world世界.
154
367000
2000
イメージする必要があるためです
06:24
This is "disappear姿を消す."
155
369000
2000
「消す」をやります
06:26
So what you want to do -- at least少なくとも with movement-based動きベース actions行動,
156
371000
2000
移動に関するアクションであれば
06:28
we do that all the time, so you can visualize視覚化する it.
157
373000
3000
いつもやっている事なので 容易にイメージできます
06:31
But with "disappear姿を消す," there's really no analogies類推 --
158
376000
2000
でも「消す」というのは経験がありません
06:33
so Evanエヴァン, what you want to do here
159
378000
2000
ではエヴァン 立方体がゆっくりと
06:35
is to imagine想像する the cube立方体 slowlyゆっくり fading退色する out, okay.
160
380000
3000
消えていくところをイメージしてください
06:38
Same同じ sortソート of drillドリル. So: one, two, three, go.
161
383000
3000
まずは練習です 1、2、3、はい
06:50
Okay. Let's try that.
162
395000
3000
じゃあ試してみましょう
06:53
Oh, my goodness良さ. He's just too good.
163
398000
3000
ほら! 彼は本当に優秀です
06:57
Let's try that again.
164
402000
2000
もう一度やってみて…
07:04
EG例えば: Losing負け concentration濃度.
165
409000
2000
集中力が切れちゃったな
07:06
(Laughter笑い)
166
411000
2000
(笑)
07:08
TLTL: But we can see that it actually実際に works作品,
167
413000
2000
でも一度うまくいったの分かりますよね
07:10
even thoughしかし you can only holdホールド it
168
415000
2000
あまり長くは
07:12
for a little bitビット of time.
169
417000
2000
保てませんでしたけど
07:14
As I said, it's a very difficult難しい processプロセス
170
419000
3000
さっきも言ったように これはイメージするのが
07:17
to imagine想像する this.
171
422000
2000
とても難しいんです
07:19
And the great thing about it is that
172
424000
2000
これのいいところは
07:21
we've私たちは only given与えられた the softwareソフトウェア one instanceインスタンス
173
426000
2000
「消す」をどう考えるか
07:23
of how he thinks考える about "disappear姿を消す."
174
428000
3000
ソフトウェアに いっぺん教えればいいということです
07:26
As there is a machine機械 learning学習 algorithmアルゴリズム in this --
175
431000
3000
この中には機械学習アルゴリズムが入っていて…
07:29
(Applause拍手)
176
434000
4000
(歓声)
07:33
Thank you.
177
438000
2000
どうもありがとう
07:35
Good jobジョブ. Good jobジョブ.
178
440000
3000
すごい すごい
07:38
(Applause拍手)
179
443000
2000
(拍手)
07:40
Thank you, Evanエヴァン, you're a wonderful素晴らしい, wonderful素晴らしい
180
445000
3000
本当にありがとう エヴァン
07:43
example of the technology技術.
181
448000
3000
おかげで素晴しいデモができました
07:46
So, as you can see, before,
182
451000
2000
ご覧頂いたように
07:48
there is a levelingレベリング systemシステム built建てられた into this softwareソフトウェア
183
453000
3000
このソフトには計測システムがあって
07:51
so that as Evanエヴァン, or any userユーザー,
184
456000
2000
ユーザがシステムに
07:53
becomes〜になる more familiar身近な with the systemシステム,
185
458000
2000
馴染んでいくのに応じて
07:55
they can continue持続する to add追加する more and more detections検出,
186
460000
3000
機能を追加していくことができるんです
07:58
so that the systemシステム begins始まる to differentiate差別化する
187
463000
2000
そうやってシステムが
08:00
betweenの間に different異なる distinct明確な thoughts思考.
188
465000
3000
いろいろ異なる考えを 識別できるようになります
08:04
And once一度 you've trained訓練された up the detections検出,
189
469000
2000
一通り検出のトレーニングが済んだら
08:06
these thoughts思考 can be assigned割り当てられた or mappedマップされた
190
471000
2000
それぞれの考えを コンピュータや
08:08
to any computing計算 platformプラットフォーム,
191
473000
2000
アプリケーションや 装置に
08:10
application応用 or deviceデバイス.
192
475000
2000
割り当てることができます
08:12
So I'd like to showショー you a few少数 examples,
193
477000
2000
いくつか例をお見せしましょう
08:14
because there are manyたくさんの possible可能 applicationsアプリケーション
194
479000
2000
この新しいインタフェースに
08:16
for this new新しい interfaceインタフェース.
195
481000
2000
どれほど多くの応用があるか
08:19
In gamesゲーム and virtualバーチャル worlds世界, for example,
196
484000
2000
たとえばゲームや仮想空間では
08:21
your facialフェイシャル expressions表現
197
486000
2000
普通に表情を直感的に使って
08:23
can naturally当然 and intuitively直感的に be used
198
488000
2000
アバターや 仮想のキャラクタを
08:25
to controlコントロール an avatarアバター or virtualバーチャル characterキャラクター.
199
490000
3000
操作することができます
08:29
Obviously明らかに, you can experience経験 the fantasyファンタジー of magicマジック
200
494000
2000
もちろん魔法のファンタジーを体験し
08:31
and controlコントロール the world世界 with your mindマインド.
201
496000
3000
心で世界をコントロールすることだってできます
08:36
And alsoまた、, colors, lighting点灯,
202
501000
3000
それからまた 色や 光や
08:39
sound and effects効果
203
504000
2000
音や 特殊効果も
08:41
can dynamically動的に respond応答する to your emotional感情の state状態
204
506000
2000
感情の状態に応じて変化させ
08:43
to heighten高まる the experience経験 that you're having持つ, in realリアル time.
205
508000
3000
リアルタイムで体験を増幅することができます
08:47
And moving動く on to some applicationsアプリケーション
206
512000
2000
世界中の研究者や開発者によって
08:49
developed発展した by developers開発者 and researchers研究者 around the world世界,
207
514000
3000
ロボットや機械を使った応用例が
08:52
with robotsロボット and simple単純 machines機械, for example --
208
517000
3000
開発されています たとえば
08:55
in this case場合, flying飛行 a toyおもちゃ helicopterヘリコプター
209
520000
2000
ここではオモチャのヘリコプターを
08:57
simply単に by thinking考え "liftリフト" with your mindマインド.
210
522000
3000
飛べと念じるだけで飛ばしています
09:00
The technology技術 can alsoまた、 be applied適用された
211
525000
2000
このテクノロジーは実用的なことにも
09:02
to realリアル world世界 applicationsアプリケーション --
212
527000
2000
応用することができます
09:04
in this example, a smartスマート home.
213
529000
2000
たとえばスマートホームです
09:06
You know, from the userユーザー interfaceインタフェース of the controlコントロール systemシステム
214
531000
3000
制御システムのユーザインタフェースを通して
09:09
to opening開ける curtainsカーテン
215
534000
2000
カーテンを開けたり
09:11
or closing閉鎖 curtainsカーテン.
216
536000
3000
閉めたりできます
09:22
And of courseコース, alsoまた、 to the lighting点灯 --
217
547000
3000
それにもちろん照明を
09:25
turning旋回 them on
218
550000
3000
点けたり
09:28
or off.
219
553000
2000
消したりもできます
09:30
And finally最後に,
220
555000
2000
最後に
09:32
to realリアル life-changing生活変化 applicationsアプリケーション,
221
557000
2000
本当に人の生活を変える応用です
09:34
suchそのような as beingであること ableできる to controlコントロール an electric電気の wheelchair車椅子.
222
559000
3000
電動車椅子のコントロールができるんです
09:37
In this example,
223
562000
2000
この例では
09:39
facialフェイシャル expressions表現 are mappedマップされた to the movement移動 commandsコマンド.
224
564000
3000
表情を移動コマンドに対応づけています
09:42
Man: Now blink点滅する right to go right.
225
567000
3000
右目のウィンクで右に曲がります
09:50
Now blink点滅する left to turn順番 back left.
226
575000
3000
左目のウィンクで左に曲がります
10:02
Now smileスマイル to go straightまっすぐ.
227
587000
3000
笑顔で直進します
10:08
TLTL: We really -- Thank you.
228
593000
2000
ここでは…ありがとうございます
10:10
(Applause拍手)
229
595000
5000
(拍手)
10:15
We are really only scratching引っ掻く the surface表面 of what is possible可能 today今日,
230
600000
3000
現在可能なことのほんの一部をご紹介しました
10:18
and with the community'sコミュニティの input入力,
231
603000
2000
コミュニティからの意見や
10:20
and alsoまた、 with the involvement関与 of developers開発者
232
605000
2000
世界中の開発者や研究者の参加によって
10:22
and researchers研究者 from around the world世界,
233
607000
3000
このテクノロジーがこれからどこへ向かうべきか
10:25
we hope希望 that you can help us to shape形状
234
610000
2000
見極めるのに力を貸していただけたらと思います
10:27
where the technology技術 goes行く from here. Thank you so much.
235
612000
3000
どうもありがとうございました
Translated by Yasushi Aoki
Reviewed by Yuki Okada

▲Back to top

ABOUT THE SPEAKER
Tan Le - Entrepreneur
Tan Le is the founder & CEO of Emotiv, a bioinformatics company that's working on identifying biomarkers for mental and other neurological conditions using electroencephalography (EEG).

Why you should listen

Tan Le is the co-founder and president of Emotiv. Before this, she headed a firm that worked on a new form of remote control that uses brainwaves to control digital devices and digital media. It's long been a dream to bypass the mechanical (mouse, keyboard, clicker) and have our digital devices respond directly to what we think. Emotiv's EPOC headset uses 16 sensors to listen to activity across the entire brain. Software "learns" what each user's brain activity looks like when one, for instance, imagines a left turn or a jump.

Le herself has an extraordinary story -- a refugee from Vietnam at age 4, she entered college at 16 and has since become a vital young leader in her home country of Australia.

More profile about the speaker
Tan Le | Speaker | TED.com