ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Синтия Брийзъл: Възходът на личните роботи

Filmed:
1,201,057 views

Като студентка, Синтия Брийзъл се чудила защо използваме роботи на Марс, но не и във всекидневните си. Ключът, тя осъзнала: обучаването на роботите да взаимодействат с хора. Сега тя си представя и строи роботи, които преподават, учат -- и играят. Гледайте за поразителни кадри от нова интерактивна игра за деца.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sinceот I was a little girlмомиче
0
0
3000
Откакто бях малко момиче
00:18
seeingвиждане "StarЗвезда WarsВойни" for the first time,
1
3000
2000
гледайки "Междузвездни Войни" за първи път
00:20
I've been fascinatedочарован by this ideaидея
2
5000
2000
бях запленена от тази идея
00:22
of personalперсонален robotsроботи.
3
7000
2000
за лични роботи.
00:24
And as a little girlмомиче,
4
9000
2000
И като малко момиче,
00:26
I lovedобичал the ideaидея of a robotробот that interactedвзаимодействали with us
5
11000
2000
обичах идеята за робот, който взаимодейства с нас
00:28
much more like a helpfulполезен, trustedдоверен sidekickпомощник --
6
13000
3000
много повече като услужлив, доверен приятел --
00:31
something that would delightнаслада us, enrichобогатяване на our livesживота
7
16000
2000
нещо, което ще ни очарова, обогати нашите животи
00:33
and help us saveспасяване a galaxyгалактика or two.
8
18000
3000
и ще ни помогне да спасим галактика-две.
00:37
I knewЗнаех robotsроботи like that didn't really existсъществувам,
9
22000
3000
И така, аз знаех, че такива роботи не съществуват,
00:40
but I knewЗнаех I wanted to buildпострои them.
10
25000
2000
но и знаех, че искам да ги създам.
00:42
So 20 yearsгодини passминавам --
11
27000
2000
20 години изминаха --
00:44
I am now a graduateзавършвам studentстудент at MITMIT
12
29000
2000
сега съм студентка в Техническия Университет в Масачузетс
00:46
studyingизучаване artificialизкуствен intelligenceинтелигентност,
13
31000
2000
учеща изкуствен интелект,
00:48
the yearгодина is 1997,
14
33000
2000
годината е 1997,
00:50
and NASAНАСА has just landedкацнал the first robotробот on MarsМарс.
15
35000
3000
и НАСА току що е приземила първият робот на Марс.
00:53
But robotsроботи are still not in our home, ironicallyпо ирония на съдбата.
16
38000
3000
Но роботите, иронично, все още, не са в нашия дом.
00:56
And I rememberпомня thinkingмислене about
17
41000
2000
И си спомням, мислейки си за
00:58
all the reasonsпричини why that was the caseслучай.
18
43000
2000
всички причини защо това се случва.
01:00
But one really struckпоразен me.
19
45000
2000
Но една наистина ме порази.
01:02
RoboticsРоботика had really been about interactingвзаимодействащи with things,
20
47000
3000
Роботиката наистина е била относно взаимодействие с неща,
01:05
not with people --
21
50000
2000
не с хора --
01:07
certainlyразбира се not in a socialсоциален way that would be naturalестествен for us
22
52000
2000
със сигурност не по социален начин, който би бил естествен за нас
01:09
and would really help people acceptприемам robotsроботи
23
54000
2000
и наистина ще помогне на хората да приемат роботите
01:11
into our dailyежедневно livesживота.
24
56000
2000
в ежедневието ни.
01:13
For me, that was the whiteбял spaceпространство; that's what robotsроботи could not do yetоще.
25
58000
3000
За мен, това беше празното пространство, това е което роботите, все още, не можеха да правят.
01:16
And so that yearгодина, I startedзапочна to buildпострои this robotробот, KismetKismet,
26
61000
3000
И така, същата година, аз започнах да изграждам този робот, Кисмет,
01:19
the world'sв света first socialсоциален robotробот.
27
64000
3000
първият в света социален робот.
01:22
ThreeТри yearsгодини laterпо късно --
28
67000
2000
Три години по-късно --
01:24
a lot of programmingпрограмиране,
29
69000
2000
много програмиране,
01:26
workingработа with other graduateзавършвам studentsстуденти in the labлаборатория --
30
71000
2000
работа с други студенти в лабораторията --
01:28
KismetKismet was readyготов to startначало interactingвзаимодействащи with people.
31
73000
2000
Кисмет беше готов да започне да взаимодейства с хора.
01:30
(VideoВидео) ScientistУчен: I want to showшоу you something.
32
75000
2000
(Видео) Учен: Искам да ти покажа нещо.
01:32
KismetKismet: (NonsenseГлупост)
33
77000
2000
Кисмет: (Безмислица).
01:34
ScientistУчен: This is a watch that my girlfriendприятелка gaveдадох me.
34
79000
3000
Учен: Това е часовник, който приятелката ми подари.
01:37
KismetKismet: (NonsenseГлупост)
35
82000
2000
Кисмет: (Безмислица)
01:39
ScientistУчен: Yeah, look, it's got a little blueсин lightсветлина in it too.
36
84000
2000
Учен: Да, виж, той също има малка синя светлина.
01:41
I almostпочти lostзагубен it this weekседмица.
37
86000
3000
За малко да го изгубя тази седмица.
01:44
CynthiaСинтия BreazealBreazeal: So KismetKismet interactedвзаимодействали with people
38
89000
3000
Синтия Брийзъл: Кисмет взаимодействаше с хора
01:47
like kindмил of a non-verbalневербална childдете or pre-verbalпредварително словесни childдете,
39
92000
3000
като невербално дете или дете преди да проговори,
01:50
whichкойто I assumeпредполагам was fittingсглобяване because it was really the first of its kindмил.
40
95000
3000
което предполагам е подходящо, защото беше наистина първото по рода си.
01:53
It didn't speakговоря languageезик, but it didn't matterвъпрос.
41
98000
2000
Не говореше език, но нямаше значение.
01:55
This little robotробот was somehowнякак си ableспособен
42
100000
2000
Този малък робот някак си беше способен
01:57
to tapкран into something deeplyдълбоко socialсоциален withinв рамките на us --
43
102000
3000
да се включи в нещо дълбоко социално вътре в нас.
02:00
and with that, the promiseобещание of an entirelyизцяло newнов way
44
105000
2000
И с това, обещание за напълно нов начин
02:02
we could interactвзаимодействат with robotsроботи.
45
107000
2000
по който ние да взаимодействаме с роботи.
02:04
So over the pastминало severalняколко yearsгодини
46
109000
2000
И така, през последните няколко години
02:06
I've been continuingпродължаващото to exploreизследвам this interpersonalмеждуличностни dimensionизмерение of robotsроботи,
47
111000
2000
аз продължих да изследвам тoва междуличностно измерение на роботите,
02:08
now at the mediaсредства labлаборатория
48
113000
2000
сега в медийната лаборатория
02:10
with my ownсобствен teamекип of incrediblyневероятно talentedталантлив studentsстуденти.
49
115000
2000
с мой собствен екип от невероятно талантливи студенти.
02:12
And one of my favoriteлюбим robotsроботи is LeonardoЛеонардо.
50
117000
3000
И един от моите любими роботи е Леонардо.
02:15
We developedразвита LeonardoЛеонардо in collaborationсътрудничество with StanСтан WinstonУинстън StudioСтудио.
51
120000
3000
Разработихме Леонардо в сътрудничество със Стан Уинстън Студио.
02:18
And so I want to showшоу you a specialспециален momentмомент for me of LeoЛъв.
52
123000
3000
И така, искам да ви покажа един специален момент за мен, на Лео.
02:21
This is MattМат BerlinБерлин interactingвзаимодействащи with LeoЛъв,
53
126000
2000
Това е Мат Берлин взаимодействащ с Лео,
02:23
introducingвъвеждане LeoЛъв to a newнов objectобект.
54
128000
2000
представяйки на Лео нов предмет.
02:25
And because it's newнов, LeoЛъв doesn't really know what to make of it.
55
130000
3000
И защото е нов, Лео не знае точно какво да прави с него.
02:28
But sortвид of like us, he can actuallyвсъщност learnуча about it
56
133000
2000
Но, отчасти като нас, той може някакси да научи за него
02:30
from watchingгледане Matt'sНа Мат reactionреакция.
57
135000
3000
като наблюдава реакцията на Мат.
02:33
(VideoВидео) MattМат BerlinБерлин: HelloЗдравейте, LeoЛъв.
58
138000
2000
(Видео) Мат Берлин: Здравей, Лео.
02:38
LeoЛъв, this is CookieБисквитка MonsterЧудовище.
59
143000
3000
Лео, това е Бисквитеното чудовище.
02:44
Can you find CookieБисквитка MonsterЧудовище?
60
149000
3000
Можеш ли да намериш Бисквитеното чудовище?
02:52
LeoЛъв, CookieБисквитка MonsterЧудовище is very badлошо.
61
157000
3000
Лео, Бисквитеното чудовище е много лошо.
02:56
He's very badлошо, LeoЛъв.
62
161000
2000
Той е много лош, Лео.
03:00
CookieБисквитка MonsterЧудовище is very, very badлошо.
63
165000
3000
Бисквитеното чудовище е много, много лошо.
03:07
He's a scaryстрашен monsterчудовище.
64
172000
2000
Той е страшно чудовище.
03:09
He wants to get your cookiesбисквитки.
65
174000
2000
Той иска да ти вземе бисквитките.
03:12
(LaughterСмях)
66
177000
2000
(Смях)
03:14
CBЦБ: All right, so LeoЛъв and CookieБисквитка
67
179000
3000
СБ: Добре, Лео и Бисквитко
03:17
mightбиха могли, може have gottenнамерила off to a little bitмалко of a roughгруб startначало,
68
182000
2000
може да започнаха малко трудно,
03:19
but they get alongзаедно great now.
69
184000
3000
но сега се разбират много добре.
03:22
So what I've learnedнаучен
70
187000
2000
Това което научих
03:24
throughпрез buildingсграда these systemsсистеми
71
189000
2000
чрез изграждането на тези системи
03:26
is that robotsроботи are actuallyвсъщност
72
191000
2000
е, че роботите всъщност са
03:28
a really intriguingзаинтригуващ socialсоциален technologyтехнология,
73
193000
2000
много интригуваща социална технология.
03:30
where it's actuallyвсъщност theirтехен abilityспособност
74
195000
2000
Където всъщност тяхната способност
03:32
to pushтласък our socialсоциален buttonsбутони
75
197000
2000
да натискат нашите социални бутони
03:34
and to interactвзаимодействат with us like a partnerпартньор
76
199000
2000
и да взаимодействат с нас като партньор
03:36
that is a coreсърцевина partчаст of theirтехен functionalityфункционалност.
77
201000
3000
която е съществената част от тяхната функционалност.
03:39
And with that shiftизместване in thinkingмислене, we can now startначало to imagineПредставете си
78
204000
2000
И с тази промяна в мисленето, ние сега можем да започнем да си представяме
03:41
newнов questionsвъпроси, newнов possibilitiesвъзможности for robotsроботи
79
206000
3000
нови въпроси, нови възможности за роботите
03:44
that we mightбиха могли, може not have thought about otherwiseв противен случай.
80
209000
3000
за които може да не бяхме се сетили иначе.
03:47
But what do I mean when I say "pushтласък our socialсоциален buttonsбутони?"
81
212000
2000
Но какво имам в предвид, когато казвам "натискат социалните ни бутони?"
03:49
Well, one of the things that we'veние имаме learnedнаучен
82
214000
2000
Ами, едно от нещата, които сме научили
03:51
is that, if we designдизайн these robotsроботи to communicateобщуват with us
83
216000
2000
е, че ако проектираме тези роботи да общуват с нас
03:53
usingизползвайки the sameедин и същ bodyтяло languageезик,
84
218000
2000
използвайки същият език на тялото,
03:55
the sameедин и същ sortвид of non-verbalневербална cuesподсказване that people use --
85
220000
2000
същите невербални знаци, които хората използват --
03:57
like NexiNexi, our humanoidхуманоид robotробот, is doing here --
86
222000
3000
както Некси, нашият хуманоиден робот прави тук --
04:00
what we find is that people respondотговарям to robotsроботи
87
225000
2000
това което откриваме е, че хората отговарят на роботите
04:02
a lot like they respondотговарям to people.
88
227000
2000
много подобно на техния отговор на хората.
04:04
People use these cuesподсказване to determineопредели things like how persuasiveубедителен someoneнякой is,
89
229000
3000
Хората използват тези знаци, за да определят неща като колко убедителен е някой,
04:07
how likableмил, how engagingпривлекателен,
90
232000
2000
колко приятен, колко интригуващ,
04:09
how trustworthyнадежден.
91
234000
2000
колко надежден.
04:11
It turnsзавои out it's the sameедин и същ for robotsроботи.
92
236000
2000
Оказва се, че същото важи и за роботите.
04:13
It's turningобръщане out now
93
238000
2000
Оказва се в момента,
04:15
that robotsроботи are actuallyвсъщност becomingпревръща a really interestingинтересен newнов scientificнаучен toolинструмент
94
240000
3000
че роботите всъщност стават много интересен нов научен инструмент
04:18
to understandразбирам humanчовек behaviorповедение.
95
243000
2000
за разбиране на човешкото поведение.
04:20
To answerотговор questionsвъпроси like, how is it that, from a briefкратък encounterсблъскване,
96
245000
3000
Да отговарят на въпроси като, как така, от кратка среща,
04:23
we're ableспособен to make an estimateприблизителна оценка of how trustworthyнадежден anotherоще personчовек is?
97
248000
3000
ние сме способни да преценим колко надежден друг човек е?
04:26
Mimicry'sНа мимикрия в believedвярвал to playиграя a roleроля, but how?
98
251000
3000
Подражанието се смята да играе роля, но как?
04:29
Is it the mimickingимитиране of particularособен gesturesжестове that mattersвъпроси?
99
254000
3000
Дали подражанието на определени жестове е това, което е важно?
04:32
It turnsзавои out it's really hardтвърд
100
257000
2000
Оказва се, че наистина е трудно
04:34
to learnуча this or understandразбирам this from watchingгледане people
101
259000
2000
да научим това или да го разберем от наблюдението на хора,
04:36
because when we interactвзаимодействат we do all of these cuesподсказване automaticallyавтоматично.
102
261000
3000
защото, когато взаимодействаме ние правим всички тези знаци автоматично.
04:39
We can't carefullyвнимателно controlконтрол them because they're subconsciousподсъзнание for us.
103
264000
2000
Не можем внимателно да ги контролираме, защото те са подсъзнателни за нас.
04:41
But with the robotробот, you can.
104
266000
2000
Но с робота ти можеш.
04:43
And so in this videoвидео here --
105
268000
2000
И така, в това видео --
04:45
this is a videoвидео takenвзета from DavidДейвид DeSteno'sDeSteno на labлаборатория at NortheasternСевероизточна UniversityУниверситет.
106
270000
3000
това е видео взето от лабораторията на Дейвид ДеСтено в Североизточния Университет.
04:48
He's a psychologistпсихолог we'veние имаме been collaboratingсъвместна работа with.
107
273000
2000
Той е психолог, с който си съдействаме.
04:50
There's actuallyвсъщност a scientistучен carefullyвнимателно controllingконтролинг Nexi'sНа Nexi в cuesподсказване
108
275000
3000
В действителност има учен, който внимателно контролира знаците на Некси,
04:53
to be ableспособен to studyуча this questionвъпрос.
109
278000
3000
за да може да изучава този въпрос.
04:56
And the bottomдъно lineлиния is -- the reasonпричина why this worksвърши работа is
110
281000
2000
И в основата е -- причината това да работи е --
04:58
because it turnsзавои out people just behaveдържа се like people
111
283000
2000
защото се оказва, че хората просто се държат като хора
05:00
even when interactingвзаимодействащи with a robotробот.
112
285000
3000
дори, когато взаимодействат с робот.
05:03
So givenдаден that keyключ insightпрозрение,
113
288000
2000
Имайки предвид това ключово прозрение,
05:05
we can now startначало to imagineПредставете си
114
290000
2000
сега можем да започнем да си представяме
05:07
newнов kindsвидове of applicationsприложения for robotsроботи.
115
292000
3000
нови видове приложения за роботите.
05:10
For instanceинстанция, if robotsроботи do respondотговарям to our non-verbalневербална cuesподсказване,
116
295000
3000
Например, ако роботите отговарят на нашите невербални знаци,
05:13
maybe they would be a coolготино, newнов communicationобщуване technologyтехнология.
117
298000
4000
може би те могат да бъдат готина, нова технология за комуникация.
05:17
So imagineПредставете си this:
118
302000
2000
Така че, представете си това:
05:19
What about a robotробот accessoryаксесоар for your cellphoneмобилен телефон?
119
304000
2000
Какво да кажем за робот аксесоар за вашият мобилен телефон?
05:21
You call your friendприятел, she putsпоставя her handsetмобилен телефон in a robotробот,
120
306000
2000
Обаждате се на приятелката си, тя слага апарата в робот,
05:23
and, bamбам! You're a MeBotMeBot --
121
308000
2000
и, бам!, вие сте МиБот --
05:25
you can make eyeоко contactконтакт, you can talk with your friendsприятели,
122
310000
3000
можете да правите контакт с очи, можете да говорите с приятелите си,
05:28
you can moveход around, you can gestureжест --
123
313000
2000
можете да се движите наоколо, можете да жестикулирате --
05:30
maybe the nextследващия bestнай-доброто thing to really beingсъщество there, or is it?
124
315000
3000
вероятно следващото най-хубаво нещо е наистина да сте там, дали?
05:33
To exploreизследвам this questionвъпрос,
125
318000
2000
За да проучи този въпрос
05:35
my studentстудент, SiggySiggy AdalgeirssonAdalgeirsson, did a studyуча
126
320000
3000
моят студент, Сиги Адалгейрсън, направи проучване
05:38
where we broughtдонесе humanчовек participantsучастниците, people, into our labлаборатория
127
323000
3000
където доведохме човешки участници, хора, в нашата лаборатория
05:41
to do a collaborativeсътрудничество taskзадача
128
326000
2000
да извършат задача в сътрудничество
05:43
with a remoteотдалечен collaboratorсътрудник.
129
328000
2000
със сътрудник на дистанционно разположение.
05:45
The taskзадача involvedучастващи things
130
330000
2000
Задачата включваше неща
05:47
like looking at a setкомплект of objectsобекти on the tableмаса,
131
332000
2000
като гледане на поредица от обекти на масата,
05:49
discussingобсъждане them in termsусловия of theirтехен importanceважност and relevanceуместност to performingизвършване a certainопределен taskзадача --
132
334000
3000
тяхното обсъждане по отношение на значимост и уместност за изпълнение на определена задача --
05:52
this endedприключила up beingсъщество a survivalоцеляване taskзадача --
133
337000
2000
това се оказа да бъде задача за оцеляване --
05:54
and then ratingрейтинг them in termsусловия
134
339000
2000
и след това тяхното оценяване по отношение
05:56
of how valuableценен and importantважно they thought they were.
135
341000
2000
на колко ценни и важни те смятаха, че са.
05:58
The remoteотдалечен collaboratorсътрудник was an experimenterекспериментатор from our groupгрупа
136
343000
3000
Сътрудникът на дистанционно разположение беше експериментатор от нашата група,
06:01
who used one of threeтри differentразличен technologiesтехнологии
137
346000
2000
където използваха една от три различни технологии,
06:03
to interactвзаимодействат with the participantsучастниците.
138
348000
2000
за да вазимодействат с участниците.
06:05
The first was just the screenекран.
139
350000
2000
Първата беше просто екрана.
06:07
This is just like videoвидео conferencingконференции todayднес.
140
352000
3000
Така че, това е точно като днешните видео конференции.
06:10
The nextследващия was to addдобави mobilityподвижност -- so, have the screenекран on a mobileПодвижен baseбаза.
141
355000
3000
Следващото беше да се добави мобилност, така че, екранът да е на мобилна база.
06:13
This is like, if you're familiarзапознат with any of the telepresenceTelePresence robotsроботи todayднес --
142
358000
3000
Това е като, ако сте запознати със някои от TelePresence роботите днес --
06:16
this is mirroringОтразявайки that situationситуация.
143
361000
3000
това е отражение на тази ситуация.
06:19
And then the fullyнапълно expressiveизразителен MeBotMeBot.
144
364000
2000
И след това напълно изразителния МиБот.
06:21
So after the interactionвзаимодействие,
145
366000
2000
И така, след взаимодействието,
06:23
we askedпопитах people to rateскорост theirтехен qualityкачество of interactionвзаимодействие
146
368000
3000
ние помолихме хората да оценят тяхното качество на взаимодействие
06:26
with the technologyтехнология, with a remoteотдалечен collaboratorсътрудник
147
371000
2000
с технологията, със сътрудника на дистанционно разположение,
06:28
throughпрез this technologyтехнология, in a numberномер of differentразличен waysначини.
148
373000
3000
чрез тази технология, по няколко различни начина.
06:31
We lookedпогледнах at psychologicalпсихологичен involvementучастие --
149
376000
2000
Разгледахме психологическото участие --
06:33
how much empathyсъпричастие did you feel for the other personчовек?
150
378000
2000
колко съпричастие изпитахте за другия човек?
06:35
We lookedпогледнах at overallцялостен engagementангажимент.
151
380000
2000
Разгледахме цялостното взаимодействие.
06:37
We lookedпогледнах at theirтехен desireжелание to cooperateси сътрудничат.
152
382000
2000
Разгледахме тяхното желание да сътрудничат.
06:39
And this is what we see when they use just the screenекран.
153
384000
3000
И това е, което видяхме, когато те използват само екрана.
06:42
It turnsзавои out, when you addдобави mobilityподвижност -- the abilityспособност to rollролка around the tableмаса --
154
387000
3000
Оказва се, че когат добавиш мобилност -- способността да се въртиш около масата --
06:45
you get a little more of a boostбасите.
155
390000
2000
получаваш малко повече тласък.
06:47
And you get even more of a boostбасите when you addдобави the fullпълен expressionизразяване.
156
392000
3000
И получаваш дори повече тласък, когато добавиш пълното изражение.
06:50
So it seemsИзглежда like this physicalфизически, socialсоциален embodimentизпълнение
157
395000
2000
Изглежда че това физическо, социално въплъщение
06:52
actuallyвсъщност really makesправи a differenceразлика.
158
397000
2000
всъщност, наистина има значение.
06:54
Now let's try to put this into a little bitмалко of contextконтекст.
159
399000
3000
Сега, нека се опитаме да сложим това в контекст.
06:57
TodayДнес we know that familiesсемейства are livingжив furtherоще and furtherоще apartна части,
160
402000
3000
Днес, знаем че, семействата живеят все по-далеч и по-далеч,
07:00
and that definitelyопределено takes a tollдан on familyсемейство relationshipsвзаимоотношения
161
405000
2000
и това определено оказва своя ефект на семейните взаимоотношения
07:02
and familyсемейство bondsоблигации over distanceразстояние.
162
407000
2000
и семейните връзки на разстояние.
07:04
For me, I have threeтри youngмлад boysмомчета,
163
409000
2000
За мен, аз имам три малки момчета,
07:06
and I want them to have a really good relationshipвръзка
164
411000
2000
и искам те да имат много добра връзка
07:08
with theirтехен grandparentsбаби и дядовци.
165
413000
2000
с техните баби и дядовци.
07:10
But my parentsродители liveживея thousandsхиляди of milesмили away,
166
415000
2000
Но моите родители живеят на хиляди километри,
07:12
so they just don't get to see eachвсеки other that oftenчесто.
167
417000
2000
така че, те нямат възможността да се виждат толкова често.
07:14
We try SkypeSkype, we try phoneтелефон callsповиквания,
168
419000
2000
Опитваме Скайп, опитваме телефонни обаждания,
07:16
but my boysмомчета are little -- they don't really want to talk;
169
421000
2000
но моите момчета са малки -- те не искат да говорят,
07:18
they want to playиграя.
170
423000
2000
те искат да играят.
07:20
So I love the ideaидея of thinkingмислене about robotsроботи
171
425000
2000
Те обичат идеята да мислят за роботи
07:22
as a newнов kindмил of distance-playразстояние-play technologyтехнология.
172
427000
3000
като нов вид дистанционна технология за игра.
07:25
I imagineПредставете си a time not too farдалече from now --
173
430000
3000
И така си представям в недалечно време
07:28
my momмама can go to her computerкомпютър,
174
433000
2000
майка мо може да отиде до нейния компютър,
07:30
openотворен up a browserбраузър and jackкрик into a little robotробот.
175
435000
2000
да отвори браузър и да се включи в малък робот.
07:32
And as grandma-botбаба-бот,
176
437000
3000
И като баба-бот,
07:35
she can now playиграя, really playиграя,
177
440000
2000
тя ще може да играе, наистина да играе
07:37
with my sonsсинове, with her grandsonsвнуците,
178
442000
2000
с моите синове, с нейните внуци,
07:39
in the realреален worldсвят with his realреален toysиграчки.
179
444000
3000
в истинския свят с истински играчки.
07:42
I could imagineПредставете си grandmothersбаби beingсъщество ableспособен to do social-playsсоциално-пиеси
180
447000
2000
Мога да си представя баби способни да правят социални игри
07:44
with theirтехен granddaughtersвнучки, with theirтехен friendsприятели,
181
449000
2000
с техните внучки, с техните приятели,
07:46
and to be ableспособен to shareдял all kindsвидове of other activitiesдейности around the houseкъща,
182
451000
2000
и да могат да споделят всякакви дейности из къщата,
07:48
like sharingсподеляне a bedtimeпреди лягане storyистория.
183
453000
2000
като да разкажат приказка за лека нощ.
07:50
And throughпрез this technologyтехнология,
184
455000
2000
И чрез тази технология,
07:52
beingсъщество ableспособен to be an activeактивен participantучастник
185
457000
2000
да могат да са активен участник
07:54
in theirтехен grandchildren'sвнуци livesживота
186
459000
2000
в животите на техните внуци
07:56
in a way that's not possibleвъзможен todayднес.
187
461000
2000
по начин, който не е възможен днес.
07:58
Let's think about some other domainsдомейни,
188
463000
2000
Нека помислим за някои други области,
08:00
like maybe healthздраве.
189
465000
2000
като например здравето.
08:02
So in the UnitedЮнайтед StatesДържавите todayднес,
190
467000
2000
В Съединените Щати днес,
08:04
over 65 percentна сто of people are eitherедин overweightнаднорменото тегло or obeseдебел,
191
469000
3000
над 65 процента от хората са или с наднормено тегло, или затлъстели,
08:07
and now it's a bigголям problemпроблем with our childrenдеца as well.
192
472000
2000
и сега това е голям проблем също и за нашите деца.
08:09
And we know that as you get olderпо-стари in life,
193
474000
2000
И ние знаем, че като остаряваш в живота,
08:11
if you're obeseдебел when you're youngerпо-млад, that can leadводя to chronicхронична diseasesзаболявания
194
476000
3000
ако си затлъстял, когато си по-млад, това може да доведе до хронични заболявания,
08:14
that not only reduceнамаляване на your qualityкачество of life,
195
479000
2000
които не само намаляват нашето качество на живот,
08:16
but are a tremendousогромен economicикономически burdenтежест on our healthздраве careгрижа systemсистема.
196
481000
3000
но са и огромно икономическо бреме на нашата здравеопазваща система.
08:19
But if robotsроботи can be engagingпривлекателен,
197
484000
2000
Но ако роботите могат да бъдат ангажиращи,
08:21
if we like to cooperateси сътрудничат with robotsроботи,
198
486000
2000
ако харесваме да сътрудничим с роботи,
08:23
if robotsроботи are persuasiveубедителен,
199
488000
2000
ако роботите са убедителни,
08:25
maybe a robotробот can help you
200
490000
2000
може би един робот може да ви помогне
08:27
maintainподдържане a dietдиета and exerciseупражнение programпрограма,
201
492000
2000
да поддържате диета и програма за упражнения,
08:29
maybe they can help you manageуправлявам your weightтегло.
202
494000
3000
може би те могат да ви помогнат да управлявате теглото си.
08:32
SortСортиране of like a digitalдигитален JiminyJiminy --
203
497000
2000
Така че, нещо като дигитален Джимини --
08:34
as in the well-knownдобре известни fairyфея taleприказка --
204
499000
2000
като добре познатата приказка --
08:36
a kindмил of friendlyприятелски, supportiveподкрепяща presenceприсъствие that's always there
205
501000
2000
един вид приятелско, подкрепящо присъствие, което е винаги там,
08:38
to be ableспособен to help you make the right decisionрешение
206
503000
2000
за да ви помогне да вземете правилното решение
08:40
in the right way at the right time
207
505000
2000
по правилният начин, в правилното време,
08:42
to help you formформа healthyздрав habitsнавици.
208
507000
2000
да ви помогне да създадете здравословни навици.
08:44
So we actuallyвсъщност exploredпроучени this ideaидея in our labлаборатория.
209
509000
2000
Ние всъщност, проучихме тази идея в нашата лаборатория.
08:46
This is a robotробот, AutomАвтоматична.
210
511000
2000
Това е робот, Аутом.
08:48
CoryКори KiddКид developedразвита this robotробот for his doctoralдокторска work.
211
513000
3000
Кори Кид разработи този робот за неговата докторска работа.
08:51
And it was designedпроектиран to be a robotробот diet-and-exerciseдиета и упражнения coachтреньор.
212
516000
3000
И беше проектиран да бъде робот за диета и упражнение.
08:54
It had a coupleдвойка of simpleпрост non-verbalневербална skillsумения it could do.
213
519000
2000
Имаше няколко прости невербални умения, които можеше да извършва.
08:56
It could make eyeоко contactконтакт with you.
214
521000
2000
Можеше да направи контакт с очи.
08:58
It could shareдял informationинформация looking down at a screenекран.
215
523000
2000
Можеше да споделя информация като гледа в екрана.
09:00
You'dВие бихте use a screenекран interfaceинтерфейс to enterвъведете informationинформация,
216
525000
2000
Вие ще използвате екранен интерфейс за въвеждане на информация,
09:02
like how manyмного caloriesкалории you ateяли that day,
217
527000
2000
като например, колко калории сте изяли този ден,
09:04
how much exerciseупражнение you got.
218
529000
2000
колко упражнения сте направили.
09:06
And then it could help trackпът that for you.
219
531000
2000
И след това той може да ви помогне като следи това за вас.
09:08
And the robotробот spokeспица with a syntheticсинтетичен voiceглас
220
533000
2000
И роботът говореше със синтетичен глас
09:10
to engageангажират you in a coachingТреньорска dialogueдиалог
221
535000
2000
за да ви ангажира в тренировъчен диалог
09:12
modeledмоделира after trainersобучители
222
537000
2000
моделиран спрямо треньори
09:14
and patientsпациенти and so forthнапред.
223
539000
2000
и пациенти и т.н.
09:16
And it would buildпострои a workingработа allianceалианс with you
224
541000
2000
И той ще създаде работещо партньорство с вас
09:18
throughпрез that dialogueдиалог.
225
543000
2000
чрез този диалог.
09:20
It could help you setкомплект goalsцели and trackпът your progressпрогрес,
226
545000
2000
Може да ви помогне да поставите цели и да следите прогреса си,
09:22
and it would help motivateмотивирам you.
227
547000
2000
и ще ви помогне да сте мотивирани.
09:24
So an interestingинтересен questionвъпрос is,
228
549000
2000
Така че, интересен въпрос е,
09:26
does the socialсоциален embodimentизпълнение really matterвъпрос? Does it matterвъпрос that it's a robotробот?
229
551000
3000
дали социалното въплъщение наистина има значение? Има ли значение, че е робот?
09:29
Is it really just the qualityкачество of adviceсъвет and informationинформация that mattersвъпроси?
230
554000
3000
Наистина ли само качеството на съвета и информацията е, което има значение?
09:32
To exploreизследвам that questionвъпрос,
231
557000
2000
За да разрешим този въпрос,
09:34
we did a studyуча in the BostonБостън area■ площ
232
559000
2000
ние направихме проучване в района на Бостън,
09:36
where we put one of threeтри interventionsинтервенции in people'sнародната homesдомове
233
561000
3000
където поставихме една от три интервенции в домовете на хората
09:39
for a periodПериод of severalняколко weeksседмици.
234
564000
2000
за период от няколко седмици.
09:41
One caseслучай was the robotробот you saw there, AutomАвтоматична.
235
566000
3000
Един случай беше роботът, който видяхте там, Аутом.
09:44
AnotherДруг was a computerкомпютър that ranзавтече the sameедин и същ touch-screenсензорен екран interfaceинтерфейс,
236
569000
3000
Друг беше компютър, който имаше същият интерфейс със сензорен екран
09:47
ranзавтече exactlyточно the sameедин и същ dialoguesдиалози.
237
572000
2000
и изпълняваше абсолютно същият диалог.
09:49
The qualityкачество of adviceсъвет was identicalидентичен.
238
574000
2000
Качеството на съвета беше идентично.
09:51
And the thirdтрета was just a penхимилка and paperхартия logдънер,
239
576000
2000
И третият беше просто дневник с химикалка и хартия,
09:53
because that's the standardстандарт interventionинтервенция you typicallyтипично get
240
578000
2000
защото това е стандартната интервенция, която обикновено получаваш,
09:55
when you startначало a diet-and-exerciseдиета и упражнения programпрограма.
241
580000
3000
когато започваш диета и програма с упражнения.
09:58
So one of the things we really wanted to look at
242
583000
3000
Едно от нещата, които наистина искахме да разгледаме
10:01
was not how much weightтегло people lostзагубен,
243
586000
3000
беше не колко тегло хората за изгубили,
10:04
but really how long they interactedвзаимодействали with the robotробот.
244
589000
3000
а всъщност колко дълго за взаимодействали с робота.
10:07
Because the challengeпредизвикателство is not losingзагуба weightтегло, it's actuallyвсъщност keepingсъхраняемост it off.
245
592000
3000
Защото предизвикателството не е да намалиш теглото, а да го задържиш така.
10:10
And the longerповече време you could interactвзаимодействат with one of these interventionsинтервенции,
246
595000
3000
И колкото по-дълго можете да взаимодействате с една от тези интервенции,
10:13
well that's indicativeиндикативните, potentiallyпотенциално, of longer-termдългосрочни successуспех.
247
598000
3000
това е показателно за потенциален дългосрочен успех.
10:16
So the first thing I want to look at is how long,
248
601000
2000
Така че, първото нещо, което искам да разгледам е колко дълго,
10:18
how long did people interactвзаимодействат with these systemsсистеми.
249
603000
2000
колко дълго хората взаимодействат с тези системи.
10:20
It turnsзавои out that people interactedвзаимодействали with the robotробот
250
605000
2000
Оказва се, че хората взаимодействат с робота
10:22
significantlyзначително more,
251
607000
2000
значително повече,
10:24
even thoughвъпреки че the qualityкачество of the adviceсъвет was identicalидентичен to the computerкомпютър.
252
609000
3000
въпреки че, качеството на съвета беше идентично с това на компютъра.
10:28
When it askedпопитах people to rateскорост it on termsусловия of the qualityкачество of the workingработа allianceалианс,
253
613000
3000
Когато той помоли хората да го оценят по отношение на качеството на работния съюз,
10:31
people ratedноминално the robotробот higherпо-висок
254
616000
2000
хората оцениха робота по-високо
10:33
and they trustedдоверен the robotробот more.
255
618000
2000
и му се довериха повече.
10:35
(LaughterСмях)
256
620000
2000
(Смях)
10:37
And when you look at emotionalемоционален engagementангажимент,
257
622000
2000
И когато погледнем емоционалната ангажираност,
10:39
it was completelyнапълно differentразличен.
258
624000
2000
беше напълно различно.
10:41
People would nameиме the robotsроботи.
259
626000
2000
Хората наименуваха роботите.
10:43
They would dressрокля the robotsроботи.
260
628000
2000
Облякоха ги.
10:45
(LaughterСмях)
261
630000
2000
(Смях)
10:47
And even when we would come up to pickизбирам up the robotsроботи at the endкрай of the studyуча,
262
632000
3000
И дори когато дойдохме да приберем роботите в края на проучването,
10:50
they would come out to the carкола and say good-byeДовиждане to the robotsроботи.
263
635000
2000
те излизаха от колите, за да кажат довиждане на роботите.
10:52
They didn't do this with a computerкомпютър.
264
637000
2000
Не направиха същото с компютъра.
10:54
The last thing I want to talk about todayднес
265
639000
2000
Последното нещо, за което искам да говоря днес
10:56
is the futureбъдеще of children'sна децата mediaсредства.
266
641000
2000
е бъдещето на детската медия.
10:58
We know that kidsдеца spendхарча a lot of time behindзад screensекрани todayднес,
267
643000
3000
Ние знаем, че децата днес прекарват много време пред екраните,
11:01
whetherдали it's televisionтелевизия or computerкомпютър gamesигри or whatnotкакъв.
268
646000
3000
дали е телевизия или компютърни игри, или какво ли не.
11:04
My sonsсинове, they love the screenекран. They love the screenекран.
269
649000
3000
Моите синове, те обичат екрана. Те обичат екрана.
11:07
But I want them to playиграя; as a momмама, I want them to playиграя,
270
652000
3000
Но аз искам те да играят; като майка искам те да играят
11:10
like, real-worldреалния свят playиграя.
271
655000
2000
истинкси игри от реалния свят.
11:12
And so I have a newнов projectпроект in my groupгрупа I wanted to presentнастояще to you todayднес
272
657000
3000
И така, имам нов проект в моята група, който искам да ви представя днес
11:15
calledНаречен PlaytimeДора ComputingКомпютърни
273
660000
2000
наречен Компютърно Време за Игра,
11:17
that's really tryingопитвайки to think about how we can take
274
662000
2000
който наистина се опитва да мисли
11:19
what's so engagingпривлекателен about digitalдигитален mediaсредства
275
664000
2000
кое е толкова ангажиращо в дигиталната медия
11:21
and literallyбуквално bringвъвеждат it off the screenекран
276
666000
2000
и буквално да го пренесе извън екрана,
11:23
into the realреален worldсвят of the childдете,
277
668000
2000
в реалният свят на детето,
11:25
where it can take on manyмного of the propertiesсвойства of real-worldреалния свят playиграя.
278
670000
3000
където може да приеме много от свойствата на играта от реалния свят.
11:29
So here'sето the first explorationпроучване of this ideaидея,
279
674000
4000
И ето го първото изследване на тази идея,
11:33
where charactersзнаци can be physicalфизически or virtualвиртуален,
280
678000
3000
където героите могат да бъдат физически или виртуални,
11:36
and where the digitalдигитален contentсъдържание
281
681000
2000
и където дигиталното съдържание
11:38
can literallyбуквално come off the screenекран
282
683000
2000
може буквално да изпадне от екрана,
11:40
into the worldсвят and back.
283
685000
2000
в реалния свят и обратно.
11:42
I like to think of this
284
687000
2000
Иска ми се да мисля за това
11:44
as the AtariAtari PongПонг
285
689000
2000
като за Атари Понг
11:46
of this blended-realityсмесени реалност playиграя.
286
691000
2000
на тази игра със смесена реалност.
11:48
But we can pushтласък this ideaидея furtherоще.
287
693000
2000
Но ние можем да тласнем тази идея и по-далеч.
11:50
What if --
288
695000
2000
Какво ако --
11:52
(GameИграта) NathanНейтън: Here it comesидва. YayУау!
289
697000
3000
(Игра) Нейтън: Ето идва. Йей!
11:55
CBЦБ: -- the characterхарактер itselfсебе си could come into your worldсвят?
290
700000
3000
СБ: -- самият герой може да дойде във вашия свят?
11:58
It turnsзавои out that kidsдеца love it
291
703000
2000
Оказва се, че децата обожават,
12:00
when the characterхарактер becomesстава realреален and entersнавлиза into theirтехен worldсвят.
292
705000
3000
когато героят става реален и навлиза в техния свят.
12:03
And when it's in theirтехен worldсвят,
293
708000
2000
И когато е в техния свят,
12:05
they can relateотнасят to it and playиграя with it in a way
294
710000
2000
те могат да се свържат и играят с него по начин,
12:07
that's fundamentallyв основата си differentразличен from how they playиграя with it on the screenекран.
295
712000
2000
който е фундаментално различен от този, по който те играят с него на екрана.
12:09
AnotherДруг importantважно ideaидея is this notionпонятие
296
714000
2000
Друга важна идея е това понятие
12:11
of persistenceупоритост of characterхарактер acrossпрез realitiesреалности.
297
716000
3000
за запазване на героя между реалностите.
12:14
So changesпромени that childrenдеца make in the realреален worldсвят
298
719000
2000
Така че, промени, които децата правят в реалния свят
12:16
need to translateпревеждам to the virtualвиртуален worldсвят.
299
721000
2000
трябва да се пренасят във виртуалния.
12:18
So here, NathanНейтън has changedпроменен the letterписмо A to the numberномер 2.
300
723000
3000
Тук, Нейтън е променил буквата А в числото 2.
12:21
You can imagineПредставете си maybe these symbolsсимволи
301
726000
2000
Можете да си представите, може би тези символи
12:23
give the charactersзнаци specialспециален powersправомощия when it goesотива into the virtualвиртуален worldсвят.
302
728000
3000
дават на героя специални сили, когато отиде във виртуалния свят.
12:26
So they are now sendingизпращане the characterхарактер back into that worldсвят.
303
731000
3000
И така, сега те изпращат героя обратно в този свят.
12:29
And now it's got numberномер powerмощност.
304
734000
3000
И сега той има силата на числата.
12:32
And then finallyнакрая, what I've been tryingопитвайки to do here
305
737000
2000
И най-накрая, какво се опитах да направя тук
12:34
is createсъздавам a really immersiveпотапяне experienceопит for kidsдеца,
306
739000
3000
е да създам наистина обгръщащо изживяване за децата,
12:37
where they really feel like they are partчаст of that storyистория,
307
742000
3000
където те наистина се чувстват като част от тази история,
12:40
a partчаст of that experienceопит.
308
745000
2000
част от това изживяване.
12:42
And I really want to sparkИскра theirтехен imaginationsвъображението
309
747000
2000
И наистина искам да разпаля тяхното въображение
12:44
the way mineмоята was sparkedразпали as a little girlмомиче watchingгледане "StarЗвезда WarsВойни."
310
749000
3000
по същия начин както моето беше разпалено като малко момиче гледащо "Междузвездни Войни".
12:47
But I want to do more than that.
311
752000
2000
Но аз искам да направя повече от това.
12:49
I actuallyвсъщност want them to createсъздавам those experiencesпреживявания.
312
754000
3000
Всъщност аз искам те да създават тези изживявания.
12:52
I want them to be ableспособен to literallyбуквално buildпострои theirтехен imaginationвъображение
313
757000
2000
Искам те буквално да могат да вграждат въображението си
12:54
into these experiencesпреживявания and make them theirтехен ownсобствен.
314
759000
2000
в тези изживявания и да ги правят свои.
12:56
So we'veние имаме been exploringпроучване a lot of ideasидеи
315
761000
2000
И така, ние проучваме много идеи
12:58
in telepresenceTelePresence and mixedсмесен realityреалност
316
763000
2000
в телеприсъствието и смесената реалност
13:00
to literallyбуквално allowпозволява kidsдеца to projectпроект theirтехен ideasидеи into this spaceпространство
317
765000
3000
за да може буквално да позволим на децата да прожектират техните идеи в това пространство,
13:03
where other kidsдеца can interactвзаимодействат with them
318
768000
2000
където други деца могат да взаимодействат с тях
13:05
and buildпострои uponвърху them.
319
770000
2000
и да ги надграждат.
13:07
I really want to come up with newнов waysначини of children'sна децата mediaсредства
320
772000
3000
Наистина искам да изляза с нови начини за детска медия,
13:10
that fosterнасърчаване на creativityтворчество and learningизучаване на and innovationиновация.
321
775000
3000
които насърчават творчеството и обучението, и иновацията.
13:13
I think that's very, very importantважно.
322
778000
3000
Мисля, че това е много, много важно.
13:16
So this is a newнов projectпроект.
323
781000
2000
Така че това е нов проект.
13:18
We'veНие сме invitedпоканена a lot of kidsдеца into this spaceпространство,
324
783000
2000
Поканили сме много деца в това пространство,
13:20
and they think it's prettyкрасива coolготино.
325
785000
3000
и те мислят, че е доста готино.
13:23
But I can tell you, the thing that they love the mostнай-много
326
788000
2000
Но мога да ви кажа, нещото, което обичат най-много
13:25
is the robotробот.
327
790000
2000
е робота.
13:27
What they careгрижа about is the robotробот.
328
792000
3000
Това, за което ги е грижа е роботът.
13:30
RobotsРоботи touchдокосване something deeplyдълбоко humanчовек withinв рамките на us.
329
795000
3000
Роботите докосват нещо дълбоко човешко в нас.
13:33
And so whetherдали they're helpingподпомагане us
330
798000
2000
И така, дали ни помагат
13:35
to becomeда стане creativeтворчески and innovativeиновативен,
331
800000
2000
да станем креативни и иновативни,
13:37
or whetherдали they're helpingподпомагане us
332
802000
2000
или ни помагат
13:39
to feel more deeplyдълбоко connectedсвързан despiteвъпреки distanceразстояние,
333
804000
2000
да се чувстваме по-дълбоко свързани въпреки разстоянието,
13:41
or whetherдали they are our trustedдоверен sidekickпомощник
334
806000
2000
или са нашите доверени помощници,
13:43
who'sкой е helpingподпомагане us attainпостигане на our personalперсонален goalsцели
335
808000
2000
които ни помагат да достигнем личните си цели
13:45
in becomingпревръща our highestнай-висока and bestнай-доброто selvesсъщност,
336
810000
2000
да станем най-високите и най-добрите себе си,
13:47
for me, robotsроботи are all about people.
337
812000
3000
за мен, роботите са изцяло посветени за хората.
13:50
Thank you.
338
815000
2000
Благодаря ви.
13:52
(ApplauseАплодисменти)
339
817000
5000
(Аплодисменти)
Translated by Iskra Teneva
Reviewed by Darina Stoyanova

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee