sponsored links
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

シンシア・ブリジール:パーソナル・ロボットの台頭

December 8, 2010

大学院生の頃 シンシア・ブリジールはなぜ火星ではロボットを使っているのに 私たちのリビングルームにはいないのか考えました。彼女が気づいた鍵は、人々と交流できるようにロボットを学習させようとするものでした。今彼女は、そのような考えのもとで、人に教えたり、学習し、一緒に遊べるようなロボットを作っています。子供達のための新しいインタラクティブ・ゲームの驚くべきデモをご覧ください。

Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

sponsored links
Double-click the English subtitles below to play the video.
Ever since I was a little girl
小さい子供の頃から
00:15
seeing "Star Wars" for the first time,
『スター・ウォーズ』を見てからというもの
00:18
I've been fascinated by this idea
私はパーソナル・ロボットというアイデアに
00:20
of personal robots.
魅了されてきました
00:22
And as a little girl,
子供の頃は
00:24
I loved the idea of a robot that interacted with us
ロボットが私たちと交流し合い
00:26
much more like a helpful, trusted sidekick --
私たちを助け 信頼できるパートナーとなるというアイディアが大好きでした
00:28
something that would delight us, enrich our lives
私たちを喜ばせ 人生を豊かにしてくれたり
00:31
and help us save a galaxy or two.
銀河の一つか二つ救う手助けをしてくれるのです
00:33
I knew robots like that didn't really exist,
そのようなロボットは実在しないことは知っていましたが
00:37
but I knew I wanted to build them.
それを作りたいと強く思っていました
00:40
So 20 years pass --
20年後
00:42
I am now a graduate student at MIT
私はMITの大学院生となり
00:44
studying artificial intelligence,
人工知能を勉強していました
00:46
the year is 1997,
時代は1997年です
00:48
and NASA has just landed the first robot on Mars.
NASAが火星に始めてロボットを着陸させた年でした
00:50
But robots are still not in our home, ironically.
でも皮肉なことに ロボットはまだ私たちの家にはいませんでした
00:53
And I remember thinking about
なぜそういう結果となったのか
00:56
all the reasons why that was the case.
その理由について考えていたのを覚えています
00:58
But one really struck me.
でも何より衝撃的だったことは
01:00
Robotics had really been about interacting with things,
ロボット工学が物とのやりとりにのみ注力されていたことです
01:02
not with people --
人とではありません
01:05
certainly not in a social way that would be natural for us
これは間違いなく 社会的に日常生活において
01:07
and would really help people accept robots
人々がロボットを受け入れる
01:09
into our daily lives.
手助けとなる方法ではありませんでした
01:11
For me, that was the white space; that's what robots could not do yet.
私にとって それがまだロボットたちにできていない分野でした
01:13
And so that year, I started to build this robot, Kismet,
そこでその年に このロボット キスメットの製作に取りかかりました
01:16
the world's first social robot.
世界で最初の社会的なロボットです
01:19
Three years later --
3年後
01:22
a lot of programming,
多くのプログラミングと
01:24
working with other graduate students in the lab --
研究室の他の大学院生との作業によって
01:26
Kismet was ready to start interacting with people.
キスメットが人と交流し始める準備が整いました
01:28
(Video) Scientist: I want to show you something.
(動画)科学者:君に見せたい物があるんだ
01:30
Kismet: (Nonsense)
キスメット:(言葉)
01:32
Scientist: This is a watch that my girlfriend gave me.
科学者:この時計は僕の彼女がくれたものなんだ
01:34
Kismet: (Nonsense)
キスメット:(言葉)
01:37
Scientist: Yeah, look, it's got a little blue light in it too.
科学者:見てごらん 中に小さな青い光が光ってるでしょ
01:39
I almost lost it this week.
今週は 気が変になりそうだったよ
01:41
Cynthia Breazeal: So Kismet interacted with people
シンシア・ブリジール:キスメットは人と
01:44
like kind of a non-verbal child or pre-verbal child,
まったく話せない もしくはまだ話せない子供のように接します
01:47
which I assume was fitting because it was really the first of its kind.
今までに類を見ないものであったので ひとまずこれでよしとしました
01:50
It didn't speak language, but it didn't matter.
言葉はしゃべりませんが 大したことではありません
01:53
This little robot was somehow able
この小さなロボットは どういうわけか
01:55
to tap into something deeply social within us --
私たちの奥底にある社会的な何かを引き出してくれました
01:57
and with that, the promise of an entirely new way
これによって まったく新しい方法で
02:00
we could interact with robots.
ロボットと交流する展望が開けたのです
02:02
So over the past several years
数年前から今にかけて
02:04
I've been continuing to explore this interpersonal dimension of robots,
私はロボットによる対人的側面について
02:06
now at the media lab
メディアラボの自分の研究室に在籍する
02:08
with my own team of incredibly talented students.
非常に才能ある学生達と共に探求し続けています
02:10
And one of my favorite robots is Leonardo.
私のお気に入りのロボットはレオナルドです
02:12
We developed Leonardo in collaboration with Stan Winston Studio.
レオナルドはスタン・ウィンストン・スタジオと共同で開発しました
02:15
And so I want to show you a special moment for me of Leo.
レオとの特別なひと時を皆さんにお見せしたいと思います
02:18
This is Matt Berlin interacting with Leo,
レオと接しているのはマット・ベルリンです
02:21
introducing Leo to a new object.
レオに新しい物体を紹介しています
02:23
And because it's new, Leo doesn't really know what to make of it.
新しいため レオはどうしたらいいのか判断できません
02:25
But sort of like us, he can actually learn about it
でも 私たちと同じように 彼も
02:28
from watching Matt's reaction.
マットの反応を見ながら学習が可能です
02:30
(Video) Matt Berlin: Hello, Leo.
(動画)マット・ベルリン:やあ レオ
02:33
Leo, this is Cookie Monster.
レオ これはクッキーモンスターだよ
02:38
Can you find Cookie Monster?
クッキーモンスターを探せるかな?
02:44
Leo, Cookie Monster is very bad.
レオ クッキーモンスターはとても悪い奴なんだよ
02:52
He's very bad, Leo.
彼はとても悪い奴だ レオ
02:56
Cookie Monster is very, very bad.
クッキーモンスターはとてもとても悪い奴さ
03:00
He's a scary monster.
彼は怖いモンスターだよ
03:07
He wants to get your cookies.
君のクッキーを取り上げたいんだ
03:09
(Laughter)
(笑)
03:12
CB: All right, so Leo and Cookie
CB:ええ レオとクッキーとの
03:14
might have gotten off to a little bit of a rough start,
初顔合わせは若干難があったようですが
03:17
but they get along great now.
今はとても仲良くしています
03:19
So what I've learned
これらを作り上げることで
03:22
through building these systems
学んだこととしては
03:24
is that robots are actually
ロボットは実際に
03:26
a really intriguing social technology,
魅力的な社会的技術であるということです
03:28
where it's actually their ability
彼らは実際に
03:30
to push our social buttons
私たちの社会的なボタンを押し
03:32
and to interact with us like a partner
まるでパートナーのように接してくれます
03:34
that is a core part of their functionality.
それが彼らの中心となる機能なのです
03:36
And with that shift in thinking, we can now start to imagine
そのように考えを変えることで
03:39
new questions, new possibilities for robots
私たちはロボットに対して今まで考えたことがなかった
03:41
that we might not have thought about otherwise.
新しい問いかけや可能性を想像することが可能になりました
03:44
But what do I mean when I say "push our social buttons?"
でも「私たちの社会的なボタンを押す」事とは何でしょうか?
03:47
Well, one of the things that we've learned
私たちが学んだものの一つとして
03:49
is that, if we design these robots to communicate with us
同じボディ・ランゲージを使い 私たちと
03:51
using the same body language,
コミュニケートできるようにロボットをデザインしたら
03:53
the same sort of non-verbal cues that people use --
例えばこの人形ロボットのネクシーのように
03:55
like Nexi, our humanoid robot, is doing here --
人が使う言葉にならない仕草を使えるようにしたら
03:57
what we find is that people respond to robots
人々はロボットに対して人と同じように
04:00
a lot like they respond to people.
反応するようになることを発見しました
04:02
People use these cues to determine things like how persuasive someone is,
人々はこれらの仕草を使って 相手にどれだけ説得力があるか
04:04
how likable, how engaging,
どれだけ好きか どれだけ魅力的か
04:07
how trustworthy.
どれだけ信用できるかを判断するために使います
04:09
It turns out it's the same for robots.
どうやらロボットにも同じことが言えそうです
04:11
It's turning out now
実際にはロボットは
04:13
that robots are actually becoming a really interesting new scientific tool
人間の行動を理解するためのとても興味深い
04:15
to understand human behavior.
新規の科学的ツールになりつつあります
04:18
To answer questions like, how is it that, from a brief encounter,
例えばこのような問いに答えようとしています
04:20
we're able to make an estimate of how trustworthy another person is?
一瞬の出会いから相手の信用度をどのように評価するのか?
04:23
Mimicry's believed to play a role, but how?
人をまねることで理解の一翼を担うと信じられていますが どのように?
04:26
Is it the mimicking of particular gestures that matters?
特定の仕草のものまねがそんなに重要なのか?といった問いです
04:29
It turns out it's really hard
どうやらこれらの問いに対して
04:32
to learn this or understand this from watching people
人への観察から学び 理解するのは困難なことが分かりました
04:34
because when we interact we do all of these cues automatically.
なぜなら 私たちは人と交流する際 自然とこのような仕草を行うからです
04:36
We can't carefully control them because they're subconscious for us.
無意識で行うため 制御することはできません
04:39
But with the robot, you can.
でもロボットなら制御が可能なのです
04:41
And so in this video here --
この動画はノースイースタン大学の
04:43
this is a video taken from David DeSteno's lab at Northeastern University.
デービッド・デステノ研究室で撮影されました
04:45
He's a psychologist we've been collaborating with.
彼は共同研究先の心理学者です
04:48
There's actually a scientist carefully controlling Nexi's cues
この問いについて研究するため ネクシーの仕草を
04:50
to be able to study this question.
制御している科学者が実際にいます
04:53
And the bottom line is -- the reason why this works is
これがなぜ上手くいくかというと
04:56
because it turns out people just behave like people
人はロボットと接する時でも
04:58
even when interacting with a robot.
人として接するからです
05:00
So given that key insight,
このような見識によって
05:03
we can now start to imagine
ロボットの新しい利用方法を
05:05
new kinds of applications for robots.
考え始められるようになりました
05:07
For instance, if robots do respond to our non-verbal cues,
例えば もしロボットが私たちの言葉にならない仕草に反応したら
05:10
maybe they would be a cool, new communication technology.
非常にクールで新しいコミュニケーション技術となるでしょう
05:13
So imagine this:
想像してみてください
05:17
What about a robot accessory for your cellphone?
携帯電話用のロボットアクセサリーはどうでしょう?
05:19
You call your friend, she puts her handset in a robot,
友達に電話し 彼女が電話をロボットに取り付けると
05:21
and, bam! You're a MeBot --
ジャーン!ミーボットの完成です
05:23
you can make eye contact, you can talk with your friends,
友達と話すことはもちろん アイコンタクトもできます
05:25
you can move around, you can gesture --
動き回ることもできますし ジェスチャーを行うこともできます
05:28
maybe the next best thing to really being there, or is it?
実際に その場にいるみたいですよね?
05:30
To explore this question,
この問いを探求するため
05:33
my student, Siggy Adalgeirsson, did a study
私の学生のシギー・アダルゲリソンは
05:35
where we brought human participants, people, into our lab
私たちの研究室の外にいる研究協力者と
05:38
to do a collaborative task
共同作業を行ってくれる
05:41
with a remote collaborator.
参加者を研究室に集めました
05:43
The task involved things
この作業には
05:45
like looking at a set of objects on the table,
例えば テーブル上に設置された物を見て
05:47
discussing them in terms of their importance and relevance to performing a certain task --
特定の作業を行う上で それぞれの重要性や関連性を議論することが含まれます
05:49
this ended up being a survival task --
最終的には
05:52
and then rating them in terms
お互いがどれだけ相手を
05:54
of how valuable and important they thought they were.
信頼できたか評価しました
05:56
The remote collaborator was an experimenter from our group
研究室の外にいた研究協力者は私たちの研究室のメンバーで
05:58
who used one of three different technologies
彼らは3つの異なる技術を使って
06:01
to interact with the participants.
参加者とやり取りしました
06:03
The first was just the screen.
ひとつは ただのスクリーンを使用したものです
06:05
This is just like video conferencing today.
現在のビデオ会議と同じですね
06:07
The next was to add mobility -- so, have the screen on a mobile base.
次は スクリーンに移動能力を追加したものです
06:10
This is like, if you're familiar with any of the telepresence robots today --
これは テレプレゼンスロボットを知っている方にとって
06:13
this is mirroring that situation.
とても見覚えのある光景でしょう
06:16
And then the fully expressive MeBot.
最後に 表現豊かなミーボットです
06:19
So after the interaction,
やり取りのあと
06:21
we asked people to rate their quality of interaction
実験参加者に 研究室の外にいた研究協力者との
06:23
with the technology, with a remote collaborator
それぞれの技術を利用した
06:26
through this technology, in a number of different ways.
交流の質を評価してもらいました
06:28
We looked at psychological involvement --
私たちは 相手に対してどれくらい共感できたか
06:31
how much empathy did you feel for the other person?
その心理的関与について見てみました
06:33
We looked at overall engagement.
全体的な関わりや
06:35
We looked at their desire to cooperate.
協力への欲求について見てました
06:37
And this is what we see when they use just the screen.
そしてこれが スクリーンのみを使用した時の場合です
06:39
It turns out, when you add mobility -- the ability to roll around the table --
テーブル上を動き回れる移動能力を追加すると
06:42
you get a little more of a boost.
もう少し評価が高くなります
06:45
And you get even more of a boost when you add the full expression.
表現を豊かにすると さらに評価が高くなります
06:47
So it seems like this physical, social embodiment
このように移動能力や表現力を取り入れることは
06:50
actually really makes a difference.
実際にはとても効果があるようです
06:52
Now let's try to put this into a little bit of context.
それではこれをもう少し具体化させましょう
06:54
Today we know that families are living further and further apart,
現代において 家族は互いにますます遠くに住むようになり
06:57
and that definitely takes a toll on family relationships
家族関係や絆に対して確実に
07:00
and family bonds over distance.
悪影響を及ぼしています
07:02
For me, I have three young boys,
私の場合 3人の小さな男の子がいますが
07:04
and I want them to have a really good relationship
彼らと祖父母にはとても良い関係を
07:06
with their grandparents.
築いてもらいたいと考えています
07:08
But my parents live thousands of miles away,
しかし 私の両親は数千マイルも遠くに住んでおり
07:10
so they just don't get to see each other that often.
あまりお互い会える機会がありません
07:12
We try Skype, we try phone calls,
Skypeや電話は かけたりしますが
07:14
but my boys are little -- they don't really want to talk;
子供達はまだ小さく しゃべるよりも
07:16
they want to play.
遊びたい年頃です
07:18
So I love the idea of thinking about robots
彼らはロボットを遠くでも遊べる
07:20
as a new kind of distance-play technology.
新しい技術として好意的にとらえてくれています
07:22
I imagine a time not too far from now --
そこで今からそう遠くない未来を私はこんな形で想像します
07:25
my mom can go to her computer,
私の母はコンピューターの前に座って
07:28
open up a browser and jack into a little robot.
ブラウザーを立ち上げ 小さなロボットに接続します
07:30
And as grandma-bot,
するとおばあちゃんロボットは
07:32
she can now play, really play,
私の息子達である孫達と
07:35
with my sons, with her grandsons,
現実世界において
07:37
in the real world with his real toys.
本物の彼らのおもちゃで一緒に遊べるのです
07:39
I could imagine grandmothers being able to do social-plays
私の祖母が
07:42
with their granddaughters, with their friends,
孫娘や友達と遊び
07:44
and to be able to share all kinds of other activities around the house,
家の中で 寝る前におとぎ話を聞かせたりするなど
07:46
like sharing a bedtime story.
様々なことを行う事ができると想像できます
07:48
And through this technology,
この技術を通して
07:50
being able to be an active participant
現在では実現ができないような形で
07:52
in their grandchildren's lives
彼らの孫の日常に積極的に
07:54
in a way that's not possible today.
参加することが可能になるのです
07:56
Let's think about some other domains,
それでは 他の領域に目を向けて見ましょう
07:58
like maybe health.
医療を例にあげます
08:00
So in the United States today,
現在 アメリカ合衆国では
08:02
over 65 percent of people are either overweight or obese,
65%以上の人々が肥満であり
08:04
and now it's a big problem with our children as well.
子供達にとっても大きな問題となっています
08:07
And we know that as you get older in life,
年を重ねるにつれて
08:09
if you're obese when you're younger, that can lead to chronic diseases
若いうちから肥満である場合 慢性的な疾患として
08:11
that not only reduce your quality of life,
日常生活の質を損なうばかりか
08:14
but are a tremendous economic burden on our health care system.
医療サービス制度に大きな経済的負担がかかることに気づきます
08:16
But if robots can be engaging,
でも もしロボットが魅力的で
08:19
if we like to cooperate with robots,
彼らと協力しあうことができ
08:21
if robots are persuasive,
説得力があるものであれば
08:23
maybe a robot can help you
ロボットが人々のダイエットや運動を
08:25
maintain a diet and exercise program,
管理してくれるかもしれません
08:27
maybe they can help you manage your weight.
人々の体重管理をしてくれるかもしれないのです
08:29
Sort of like a digital Jiminy --
有名なおとぎ話に出てくる
08:32
as in the well-known fairy tale --
ジミニーのデジタル版みたいなものです
08:34
a kind of friendly, supportive presence that's always there
とても親切な存在で
08:36
to be able to help you make the right decision
健康的な習慣を身につける上での
08:38
in the right way at the right time
正しい判断を 適切な方法で
08:40
to help you form healthy habits.
時間内に行う手助けをしてくれるのです
08:42
So we actually explored this idea in our lab.
そこで実際にこのアイディアを試してみました
08:44
This is a robot, Autom.
このロボットは オートムと言います
08:46
Cory Kidd developed this robot for his doctoral work.
コーリー・キッドが博士課程の研究でこのロボットを開発しました
08:48
And it was designed to be a robot diet-and-exercise coach.
ダイエットや運動のコーチ用のロボットとしてデザインされました
08:51
It had a couple of simple non-verbal skills it could do.
簡単な言葉にならない仕草を行うことが可能です
08:54
It could make eye contact with you.
人とアイコンタクトすることができます
08:56
It could share information looking down at a screen.
下の画面を見て情報を共有することができます
08:58
You'd use a screen interface to enter information,
スクリーン上のインターフェースに対して
09:00
like how many calories you ate that day,
例えば その日どれくらいのカロリーを摂取したか
09:02
how much exercise you got.
どれくらい運動したかといった情報を入力します
09:04
And then it could help track that for you.
すると それらの情報を追う手助けをしてくれるのです
09:06
And the robot spoke with a synthetic voice
運動させるために ロボットは合成音声で
09:08
to engage you in a coaching dialogue
トレーナーと患者とのやり取りを手本に
09:10
modeled after trainers
作られた指導に関するせりふを
09:12
and patients and so forth.
しゃべり始めます
09:14
And it would build a working alliance with you
そして 指導用のせりふを通して
09:16
through that dialogue.
協調関係を築こうとするのです
09:18
It could help you set goals and track your progress,
目標の設定や進捗を記録してくれたり
09:20
and it would help motivate you.
やる気を出させてくれるのです
09:22
So an interesting question is,
ここで問われている興味深い質問は
09:24
does the social embodiment really matter? Does it matter that it's a robot?
社交的な機能の実装に意味があるのか?ロボットであることに意味があるのか?
09:26
Is it really just the quality of advice and information that matters?
提供するアドバイスと情報の質のみが重要なのか?といったことです
09:29
To explore that question,
それらの問いに答えるために
09:32
we did a study in the Boston area
ボストンエリアで
09:34
where we put one of three interventions in people's homes
3つの異なる内容を数週間にかけて
09:36
for a period of several weeks.
それぞれの人々の家で実験を行いました
09:39
One case was the robot you saw there, Autom.
1つ目はロボットのオートムです
09:41
Another was a computer that ran the same touch-screen interface,
次は 同じタッチ・スクリーンインターフェースと
09:44
ran exactly the same dialogues.
同じ会話内容を表示するコンピュータです
09:47
The quality of advice was identical.
アドバイスの質はいずれも同じです
09:49
And the third was just a pen and paper log,
3つ目はただのペンとメモ用紙です
09:51
because that's the standard intervention you typically get
これは ダイエットや運動プログラムを始める時に
09:53
when you start a diet-and-exercise program.
大抵利用するものだからです
09:55
So one of the things we really wanted to look at
私たちが最も注目していたのは
09:58
was not how much weight people lost,
どれだけ人々が体重を落としたかではなく
10:01
but really how long they interacted with the robot.
実際にどれだけ長くロボットとやり取りしたかです
10:04
Because the challenge is not losing weight, it's actually keeping it off.
なぜなら体重を落とす事よりも 維持することが課題であり
10:07
And the longer you could interact with one of these interventions,
これらの対象と長くやり取りするほど
10:10
well that's indicative, potentially, of longer-term success.
それだけの期間うまくいっていることを意味するからです
10:13
So the first thing I want to look at is how long,
そこで私はまず始めに どれだけ長く
10:16
how long did people interact with these systems.
これらの対象と人々がやり取りできたのか確認しました
10:18
It turns out that people interacted with the robot
どうやら人々はアドバイスの質が
10:20
significantly more,
コンピュータと同等であったにも関わらず
10:22
even though the quality of the advice was identical to the computer.
ロボットとより長くやり取りをしていることが分かりました
10:24
When it asked people to rate it on terms of the quality of the working alliance,
協調関係の質について評価を人々にお願いした所
10:28
people rated the robot higher
人々はロボットに対して他よりも高く評価し
10:31
and they trusted the robot more.
信頼していていたようです
10:33
(Laughter)
(笑)
10:35
And when you look at emotional engagement,
感情的な関わりに目を向けると
10:37
it was completely different.
まったく異なっていました
10:39
People would name the robots.
人々はロボットを名付けます
10:41
They would dress the robots.
彼らはロボットに服を着せます
10:43
(Laughter)
(笑)
10:45
And even when we would come up to pick up the robots at the end of the study,
しかも 学習の後にロボットを回収しに来た時も
10:47
they would come out to the car and say good-bye to the robots.
彼らは車から出てロボットにさよならを言いに来るのです
10:50
They didn't do this with a computer.
コンピュータの場合はこんな対応はありませんでした
10:52
The last thing I want to talk about today
最後にお話したいのは
10:54
is the future of children's media.
未来の子供のメディアについてです
10:56
We know that kids spend a lot of time behind screens today,
現在 子供達はテレビにせよ コンピュータ・ゲームにせよ
10:58
whether it's television or computer games or whatnot.
多くの時間を画面の前で過ごしています
11:01
My sons, they love the screen. They love the screen.
私の息子達は本当に画面が大好きです
11:04
But I want them to play; as a mom, I want them to play,
でも私は母親として 彼らに現実世界で遊んで欲しいと
11:07
like, real-world play.
思っています
11:10
And so I have a new project in my group I wanted to present to you today
そこで今日は 私のグループの新しいプロジェクトである
11:12
called Playtime Computing
プレイタイム・コンピューティングをご紹介します
11:15
that's really trying to think about how we can take
これは デジタルメディアにおいて
11:17
what's so engaging about digital media
人を引きつけるものとは何か 真剣に考え
11:19
and literally bring it off the screen
それらを画面上から子供の現実世界に
11:21
into the real world of the child,
文字通り引っ張りだして
11:23
where it can take on many of the properties of real-world play.
現実世界の様々な遊びの特性を持たせることを目的にしています
11:25
So here's the first exploration of this idea,
これはこのアイディアを初めて試した時のものです
11:29
where characters can be physical or virtual,
キャラクターは物理的でも仮想的でもよく
11:33
and where the digital content
デジタルコンテンツは
11:36
can literally come off the screen
画面上から抜け出して
11:38
into the world and back.
現実世界を行き来します
11:40
I like to think of this
私はこの
11:42
as the Atari Pong
現実と仮想が混じりあった遊びを
11:44
of this blended-reality play.
アタリ社のポンのように捉えたいと思います
11:46
But we can push this idea further.
しかもこのアイディアは更に広げることができます
11:48
What if --
もし
11:50
(Game) Nathan: Here it comes. Yay!
(ゲーム)ネーサン:きたよ ほら!
11:52
CB: -- the character itself could come into your world?
CB:キャラクター自体が皆さんの世界に現れたらどうですか?
11:55
It turns out that kids love it
どうやら子供達は
11:58
when the character becomes real and enters into their world.
キャラクターが現実化することを喜ぶようです
12:00
And when it's in their world,
そして現実化した時
12:03
they can relate to it and play with it in a way
彼らはスクリーン上で行っていた遊びとは
12:05
that's fundamentally different from how they play with it on the screen.
根本的に異なる方法で遊ぶことができます
12:07
Another important idea is this notion
次に重要なのは
12:09
of persistence of character across realities.
キャラクターによる現実との間の継続性についてです
12:11
So changes that children make in the real world
子供が現実世界で起こす変化は
12:14
need to translate to the virtual world.
仮想世界でも反映される必要があります
12:16
So here, Nathan has changed the letter A to the number 2.
ここでは ネーサンが文字Aを数字2に変更しています
12:18
You can imagine maybe these symbols
このような記号はキャラクターが仮想世界に
12:21
give the characters special powers when it goes into the virtual world.
戻った際に特殊な力を与えるものと考えてください
12:23
So they are now sending the character back into that world.
彼らはこれからキャラクターを元の世界に戻してます
12:26
And now it's got number power.
これで数字の力を得ました
12:29
And then finally, what I've been trying to do here
私がここで行おうとしているのは
12:32
is create a really immersive experience for kids,
まるでその物語の一部となり
12:34
where they really feel like they are part of that story,
子供達が没入できる
12:37
a part of that experience.
体験を作り出す事です
12:40
And I really want to spark their imaginations
そして私が小さな頃に『スターウォーズ』をみて
12:42
the way mine was sparked as a little girl watching "Star Wars."
感じたことと同じく 彼らの創作意欲をかき立てたいのです
12:44
But I want to do more than that.
更にもう一歩踏み込んで
12:47
I actually want them to create those experiences.
彼らにそれらの体験を創造してほしいと思っています
12:49
I want them to be able to literally build their imagination
文字通り彼らの想像力を元に
12:52
into these experiences and make them their own.
このような体験を作り出して欲しいのです
12:54
So we've been exploring a lot of ideas
このように
12:56
in telepresence and mixed reality
テレプレゼンスや合成現実を通して
12:58
to literally allow kids to project their ideas into this space
子供達のアイディアをこの空間に反映させ
13:00
where other kids can interact with them
他の子供達が遊んだり それらを元に新しいものを
13:03
and build upon them.
作れる様々なアイディアをご紹介してきました
13:05
I really want to come up with new ways of children's media
想像力や学習力 イノベーション性を育てる
13:07
that foster creativity and learning and innovation.
子供のための新しいメディアを切に用意したいと考えています
13:10
I think that's very, very important.
これはとても重要なことだと思います
13:13
So this is a new project.
そこでこの新しいプロジェクトを発足しました
13:16
We've invited a lot of kids into this space,
このような空間に多くの子供達を招待し
13:18
and they think it's pretty cool.
彼らにはなかなか好評でした
13:20
But I can tell you, the thing that they love the most
でもこれだけは言えます 彼らが最も愛していたのは
13:23
is the robot.
ロボットです
13:25
What they care about is the robot.
彼らが関心を持っていたのがロボットでした
13:27
Robots touch something deeply human within us.
ロボットは私たちの人間らしさを呼び起こしてくれます
13:30
And so whether they're helping us
私たちの想像力を
13:33
to become creative and innovative,
底上げしてくれたり
13:35
or whether they're helping us
遠く離れていても人との繋がりを
13:37
to feel more deeply connected despite distance,
より強く感じられるようにしてくれたり
13:39
or whether they are our trusted sidekick
自分が目指す個人的な目標を達成するための
13:41
who's helping us attain our personal goals
信頼出来るパートナーとなってくれるなど
13:43
in becoming our highest and best selves,
様々な面がある中で
13:45
for me, robots are all about people.
私にとってロボットとは人々のためのものだと思っています
13:47
Thank you.
ありがとうございました
13:50
(Applause)
(拍手)
13:52
Translator:Yuki Okada
Reviewer:Hidetoshi Yamauchi

sponsored links

Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

sponsored links

If you need translations, you can install "Google Translate" extension into your Chrome Browser.
Furthermore, you can change playback rate by installing "Video Speed Controller" extension.

Data provided by TED.

This website is owned and operated by Tokyo English Network.
The developer's blog is here.