ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Cynthia Breazeal: Ascensiunea roboților personali

Filmed:
1,201,057 views

Ca absolventă, Cynthia Breazeal se întreba de ce folosim roboți pe Marte, dar nu în sufrageriile noastre. Cheia, a realizat ea: antrenarea roboților pentru a interacționa cu oamenii. Acum ea visează mai departe și construiește roboți care predau, învață... și se joacă. Fiți pregătiți pentru imagini demonstrative ale unui nou joc interactiv pentru copii.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sincede cand I was a little girlfată
0
0
3000
Încă de când eram mică,
00:18
seeingvedere "StarStar WarsRăzboaie" for the first time,
1
3000
2000
văzând "Star Wars" pentru prima dată,
00:20
I've been fascinatedfascinat by this ideaidee
2
5000
2000
am fost fascinată de această idee
00:22
of personalpersonal robotsroboți.
3
7000
2000
a roboților personali.
00:24
And as a little girlfată,
4
9000
2000
Copil fiind
00:26
I lovediubit the ideaidee of a robotrobot that interactedinteractionat with us
5
11000
2000
mă încânta ideea unui robot care să iteracționeze cu noi
00:28
much more like a helpfulutil, trustedde încredere sidekickSidekick --
6
13000
3000
mai mult ca un amic de încredere, capabil să ne-ajute --
00:31
something that would delightîncântare us, enrichîmbogăţi our livesvieți
7
16000
2000
care să ne delecteze, să ne îmbogățească viețile
00:33
and help us saveSalvați a galaxygalaxie or two.
8
18000
3000
și să ne ajute să salvăm o galaxie sau două.
00:37
I knewștiut robotsroboți like that didn't really existexista,
9
22000
3000
Știam că astfel de roboți nu existau,
00:40
but I knewștiut I wanted to buildconstrui them.
10
25000
2000
dar știam ca vreau să-i construiesc.
00:42
So 20 yearsani passtrece --
11
27000
2000
Au trecut 20 de ani --
00:44
I am now a graduateabsolvent studentstudent at MITMIT
12
29000
2000
sunt studentă MIT
00:46
studyingstudiu artificialartificial intelligenceinteligență,
13
31000
2000
în domeniul inteligență artificială,
00:48
the yearan is 1997,
14
33000
2000
este anul 1997,
00:50
and NASANASA has just landeda aterizat the first robotrobot on MarsMarte.
15
35000
3000
și NASA tocmai a amartizat primul robot pe Marte.
00:53
But robotsroboți are still not in our home, ironicallyironic.
16
38000
3000
Dar roboții nu sunt încă în casele noastre.
00:56
And I remembertine minte thinkinggândire about
17
41000
2000
Și îmi amintesc cum mă gândeam
00:58
all the reasonsmotive why that was the casecaz.
18
43000
2000
la toate motivele pentru care nu era așa.
01:00
But one really strucklovit me.
19
45000
2000
Unul dintre motive m-a marcat îndeosebi.
01:02
RoboticsRobotica had really been about interactinginteracționând with things,
20
47000
3000
Robotica fusese tot timpul o abordare a interacției cu obiecte,
01:05
not with people --
21
50000
2000
nu cu oameni --
01:07
certainlycu siguranță not in a socialsocial way that would be naturalnatural for us
22
52000
2000
în orice caz, nu o interacție socială, care ar fi naturală pentru noi
01:09
and would really help people acceptAccept robotsroboți
23
54000
2000
și ar ajuta oamenii sa accepte roboții
01:11
into our dailyzilnic livesvieți.
24
56000
2000
în viața cotidiană.
01:13
For me, that was the whitealb spacespaţiu; that's what robotsroboți could not do yetinca.
25
58000
3000
Pentru mine acesta era domeniul neexploatat; era ceea ce roboții nu puteau face încă.
01:16
And so that yearan, I starteda început to buildconstrui this robotrobot, KismetKismet,
26
61000
3000
Așadar, în acel an, am început să construiesc acest robot, Kismet,
01:19
the world'slume first socialsocial robotrobot.
27
64000
3000
primul robot social din lume.
01:22
ThreeTrei yearsani latermai tarziu --
28
67000
2000
Și trei ani mai târziu --
01:24
a lot of programmingprogramare,
29
69000
2000
după multă programare,
01:26
workinglucru with other graduateabsolvent studentselevi in the lablaborator --
30
71000
2000
multă muncă de laborator împreună cu alți studenți --
01:28
KismetKismet was readygata to startstart interactinginteracționând with people.
31
73000
2000
Kismet era pregătit să înceapă interacția cu oamenii.
01:30
(VideoPagina) ScientistOm de ştiinţă: I want to showspectacol you something.
32
75000
2000
(Video) Savant: Vreau să îți arăt ceva.
01:32
KismetKismet: (NonsenseProstii)
33
77000
2000
Kismet: (Indescifrabil).
01:34
ScientistOm de ştiinţă: This is a watch that my girlfriendiubita gavea dat me.
34
79000
3000
Savant: Acesta e un ceas pe care mi l-a dat prietena mea.
01:37
KismetKismet: (NonsenseProstii)
35
82000
2000
Kismet: (Indescifrabil).
01:39
ScientistOm de ştiinţă: Yeah, look, it's got a little bluealbastru lightușoară in it too.
36
84000
2000
Savant: Da, uite, are și o luminiță albastră.
01:41
I almostaproape lostpierdut it this weeksăptămână.
37
86000
3000
Era să-l pierd săptămâna asta.
01:44
CynthiaCynthia BreazealBreazeal: So KismetKismet interactedinteractionat with people
38
89000
3000
Cynthia Breazeal: Așadar Kismet interacționa cu oamenii
01:47
like kinddrăguț of a non-verbalnonverbal childcopil or pre-verbalpre-verbale childcopil,
39
92000
3000
asemenea unui copil non-verbal sau pre-verbal,
01:50
whichcare I assumepresupune was fittingmontaj because it was really the first of its kinddrăguț.
40
95000
3000
ceea ce cred că i se potrivea, din moment ce era primul de felul său.
01:53
It didn't speakvorbi languagelimba, but it didn't mattermaterie.
41
98000
2000
Nu vorbea nici o limbă, dar asta nu conta.
01:55
This little robotrobot was somehowoarecum ablecapabil
42
100000
2000
Acest mic robot era cumva capabil
01:57
to tapAtingeți into something deeplyprofund socialsocial withinîn us --
43
102000
3000
să înțeleagă aspecte sociale fundamentale caracteristice nouă.
02:00
and with that, the promisepromisiune of an entirelyîn întregime newnou way
44
105000
2000
Și, astfel, promitea o modalitate cu totul nouă
02:02
we could interactinteracționa with robotsroboți.
45
107000
2000
de a interacționa cu roboții.
02:04
So over the pasttrecut severalmai mulți yearsani
46
109000
2000
Așadar, de-a lungul ultimilor ani,
02:06
I've been continuingcontinuarea to exploreexplora this interpersonalinterpersonale dimensiondimensiune of robotsroboți,
47
111000
2000
am continuat să explorez această dimensiune interpersonală a roboților,
02:08
now at the mediamass-media lablaborator
48
113000
2000
acum în laboratorul media,
02:10
with my ownpropriu teamechipă of incrediblyincredibil talentedtalentat studentselevi.
49
115000
2000
cu propria mea echipă de studenți incredibil de talentați.
02:12
And one of my favoritefavorit robotsroboți is LeonardoLeonardo.
50
117000
3000
Unul dintre roboții mei preferați este Leonardo.
02:15
We developeddezvoltat LeonardoLeonardo in collaborationcolaborare with StanStan WinstonWinston StudioStudio.
51
120000
3000
L-am conceput pe Leonardo în colaborare cu Stan Winston Studio.
02:18
And so I want to showspectacol you a specialspecial momentmoment for me of LeoLeo.
52
123000
3000
Vreau să vă arăt un moment cu Leo special pentru mine.
02:21
This is MattMatt BerlinBerlin interactinginteracționând with LeoLeo,
53
126000
2000
Acesta e Matt Berlin interacționând cu Leo,
02:23
introducingIntroducand LeoLeo to a newnou objectobiect.
54
128000
2000
prezentându-i un obiect nou.
02:25
And because it's newnou, LeoLeo doesn't really know what to make of it.
55
130000
3000
Și, fiindcă e nou, Leo nu prea știe ce să creadă despre el.
02:28
But sortfel of like us, he can actuallyde fapt learnînvăța about it
56
133000
2000
Dar, ca și noi, el poate oarecum să învețe despre el
02:30
from watchingvizionarea Matt'sMatt pe reactionreacţie.
57
135000
3000
urmărind reacțiile lui Matt.
02:33
(VideoPagina) MattMatt BerlinBerlin: Hellobună, LeoLeo.
58
138000
2000
(Video) Matt Berlin: Bună, Leo.
02:38
LeoLeo, this is CookieCookie-ul MonsterMonstru.
59
143000
3000
Leo, acesta e Monstrul Biscuiților.
02:44
Can you find CookieCookie-ul MonsterMonstru?
60
149000
3000
Îl poți găsi pe Monstrul Biscuiților?
02:52
LeoLeo, CookieCookie-ul MonsterMonstru is very badrău.
61
157000
3000
Leo, Monstrul Biscuiților e foarte rău.
02:56
He's very badrău, LeoLeo.
62
161000
2000
E foarte rău, Leo.
03:00
CookieCookie-ul MonsterMonstru is very, very badrău.
63
165000
3000
Monstrul Biscuiților e foarte, foarte rău.
03:07
He's a scaryinfricosator monstermonstru.
64
172000
2000
E un monstru înfricoșător.
03:09
He wants to get your cookiescookie-uri.
65
174000
2000
Vrea să-ți fure biscuiții.
03:12
(LaughterRâs)
66
177000
2000
(Râsete)
03:14
CBCB: All right, so LeoLeo and CookieCookie-ul
67
179000
3000
CB: Bun, așadar Leo și Monstrul Biscuiților
03:17
mightar putea have gottenajuns off to a little bitpic of a roughstare brută startstart,
68
182000
2000
poate au pornit pe picior greșit,
03:19
but they get alongde-a lungul great now.
69
184000
3000
dar acum se înțeleg de minune.
03:22
So what I've learnedînvățat
70
187000
2000
Ceea ce am învățat
03:24
throughprin buildingclădire these systemssisteme
71
189000
2000
construind aceste sisteme
03:26
is that robotsroboți are actuallyde fapt
72
191000
2000
e că roboții sunt de fapt
03:28
a really intriguingintrigant socialsocial technologytehnologie,
73
193000
2000
o tehnologie socială intrigantă.
03:30
where it's actuallyde fapt theiral lor abilityabilitate
74
195000
2000
E în puterea lor
03:32
to pushApăsaţi our socialsocial buttonsbutoane
75
197000
2000
să ne apese butoanele sociale
03:34
and to interactinteracționa with us like a partnerpartener
76
199000
2000
și să interacționeze cu noi asemenea unui partener,
03:36
that is a coremiez partparte of theiral lor functionalityfuncționalitate.
77
201000
3000
e parte din funcționalitatea lor.
03:39
And with that shiftschimb in thinkinggândire, we can now startstart to imagineimagina
78
204000
2000
Și cu această schimbare în gândire, putem acum începe să imaginăm
03:41
newnou questionsîntrebări, newnou possibilitiesposibilităţi for robotsroboți
79
206000
3000
noi întrebări, noi posibilități pentru roboți,
03:44
that we mightar putea not have thought about otherwisein caz contrar.
80
209000
3000
la care altfel nu ne-am fi gândit.
03:47
But what do I mean when I say "pushApăsaţi our socialsocial buttonsbutoane?"
81
212000
2000
Ce vreau să spun prin "a apăsa butoanele noastre sociale"?
03:49
Well, one of the things that we'vene-am learnedînvățat
82
214000
2000
Unul dintre lucrurile pe care le-am învățat e
03:51
is that, if we designproiecta these robotsroboți to communicatecomunica with us
83
216000
2000
dacă proiectăm roboți care să comunice cu noi
03:53
usingutilizând the samela fel bodycorp languagelimba,
84
218000
2000
folosind același limbaj al trupului,
03:55
the samela fel sortfel of non-verbalnonverbal cuesindicii that people use --
85
220000
2000
același tip de indicii non-verbale pe care le folosesc oamenii --
03:57
like NexiNexi, our humanoidhumanoid robotrobot, is doing here --
86
222000
3000
așa cum Nexi, robotul nostru uman, face aici --
04:00
what we find is that people respondrăspunde to robotsroboți
87
225000
2000
ceea ce descoperim e că oamenii răspund roboților
04:02
a lot like they respondrăspunde to people.
88
227000
2000
foarte similar modului în care răspund altor oameni.
04:04
People use these cuesindicii to determinea determina things like how persuasivepersuasivă someonecineva is,
89
229000
3000
Oamenii folosesc aceste indicii pentru a determina cât de persuasiv,
04:07
how likablesimpatic, how engagingcaptivant,
90
232000
2000
simpatic, captivant e cineva,
04:09
how trustworthydemn de încredere.
91
234000
2000
cât de demn de încredere este.
04:11
It turnstransformă out it's the samela fel for robotsroboți.
92
236000
2000
Se pare că e la fel și în cazul roboților.
04:13
It's turningcotitură out now
93
238000
2000
Descoperim acum
04:15
that robotsroboți are actuallyde fapt becomingdevenire a really interestinginteresant newnou scientificștiințific toolinstrument
94
240000
3000
că roboții devin o unealtă științifică utilă
04:18
to understanda intelege humanuman behaviorcomportament.
95
243000
2000
în înțelegerea comportamentului uman.
04:20
To answerRăspuns questionsîntrebări like, how is it that, from a briefscurt encounterîntâlni,
96
245000
3000
Pentru a răspunde unor întrebări de genul: cum se întâmplă că, dintr-o simplă întâlnire,
04:23
we're ablecapabil to make an estimateestima of how trustworthydemn de încredere anothero alta personpersoană is?
97
248000
3000
suntem capabili să estimăm cât de demnă de încredere e o altă persoană?
04:26
Mimicry'sMimetism pe believeda crezut to playa juca a rolerol, but how?
98
251000
3000
Mimica se consideră a avea un rol, dar cum?
04:29
Is it the mimickingimitarea of particularspecial gesturesgesturi that matterschestiuni?
99
254000
3000
Oare mimica anumitor gesturi e cea care contează?
04:32
It turnstransformă out it's really hardgreu
100
257000
2000
Se pare că e foarte dificil
04:34
to learnînvăța this or understanda intelege this from watchingvizionarea people
101
259000
2000
să înveți sau să înțelegi asta urmărind oamenii
04:36
because when we interactinteracționa we do all of these cuesindicii automaticallyautomat.
102
261000
3000
deoarece, atunci când interacționăm, facem toate aceste gesturi automat.
04:39
We can't carefullycu grija controlControl them because they're subconscioussubconştient for us.
103
264000
2000
Nu le putem controla pentru că sunt acționate de subconștientul nostru.
04:41
But with the robotrobot, you can.
104
266000
2000
Dar cu un robot poți face asta.
04:43
And so in this videovideo here --
105
268000
2000
Așadar, în acest video --
04:45
this is a videovideo takenluate from DavidDavid DeSteno'sDeSteno pe lablaborator at NortheasternNord-Est UniversityUniversitatea.
106
270000
3000
acesta e un video filmat în laboratorul lui David DeSteno la Universitatea Northwestern.
04:48
He's a psychologistpsiholog we'vene-am been collaboratingcolaborarea with.
107
273000
2000
El e un psiholog cu care colaborăm.
04:50
There's actuallyde fapt a scientistom de stiinta carefullycu grija controllingcontrolul Nexi'sNexi pe cuesindicii
108
275000
3000
Există un om de știința care studiază atent gesturile lui Nexi
04:53
to be ablecapabil to studystudiu this questionîntrebare.
109
278000
3000
pentru a putea studia această întrebare.
04:56
And the bottomfund linelinia is -- the reasonmotiv why this workslucrări is
110
281000
2000
Și concluzia e că -- motivul pentru care facem asta --
04:58
because it turnstransformă out people just behavecomporta like people
111
283000
2000
oamenii se comportă natural
05:00
even when interactinginteracționând with a robotrobot.
112
285000
3000
și când interacționează cu un robot.
05:03
So givendat that keycheie insightînțelegere,
113
288000
2000
Având, așadar, această perspectivă esențială,
05:05
we can now startstart to imagineimagina
114
290000
2000
ne putem acum imagina
05:07
newnou kindstipuri of applicationsaplicații for robotsroboți.
115
292000
3000
noi tipuri de aplicații pentru roboți.
05:10
For instanceinstanță, if robotsroboți do respondrăspunde to our non-verbalnonverbal cuesindicii,
116
295000
3000
De exemplu, dacă roboții ne pot răspunde gesturilor non-verbale,
05:13
maybe they would be a coolmisto, newnou communicationcomunicare technologytehnologie.
117
298000
4000
ar putea deveni o nouă tehnologie de comunicare interesantă.
05:17
So imagineimagina this:
118
302000
2000
Imaginați-vă următorul lucru:
05:19
What about a robotrobot accessoryaccesoriu for your cellphonetelefon mobil?
119
304000
2000
Cum ar fi un accesoriu robot pentru telefonul mobil?
05:21
You call your friendprieten, she putsputs her handsettelefon in a robotrobot,
120
306000
2000
Suni o prietenă, ea plasează dispozitivul într-un robot,
05:23
and, bambam! You're a MeBotMeBot --
121
308000
2000
și, iată, ești MeBot --
05:25
you can make eyeochi contacta lua legatura, you can talk with your friendsprieteni,
122
310000
3000
poți face contact vizual, poți vorbi cu prietenii tăi,
05:28
you can movemișcare around, you can gesturegest --
123
313000
2000
te poți mișca, poți gesticula --
05:30
maybe the nextUrmător → bestCel mai bun thing to really beingfiind there, or is it?
124
315000
3000
poate cea mai bună alternativă prezenței fizice. Așa să fie?
05:33
To exploreexplora this questionîntrebare,
125
318000
2000
Pentru a explora această întrebare
05:35
my studentstudent, SiggySiggy AdalgeirssonAdalgeirsson, did a studystudiu
126
320000
3000
studentul meu, Siggy Adalgeirsson, a realizat un studiu
05:38
where we broughtadus humanuman participantsparticipanți, people, into our lablaborator
127
323000
3000
în cadrul căruia am adus participanți, oameni, în laboratorul nostru
05:41
to do a collaborativecolaborare tasksarcină
128
326000
2000
pentru o activitate colectivă
05:43
with a remotela distanta collaboratorcolaborator.
129
328000
2000
cu un colaborator aflat la distanță.
05:45
The tasksarcină involvedimplicat things
130
330000
2000
Activitatea a presupus activități precum
05:47
like looking at a seta stabilit of objectsobiecte on the tablemasa,
131
332000
2000
examinarea unui set de obiecte aflate pe o masă,
05:49
discussingdiscutarea them in termstermeni of theiral lor importanceimportanţă and relevancerelevanţă to performingefectuarea a certainanumit tasksarcină --
132
334000
3000
discutarea importanței și relevanței lor în îndeplinirea unei anumite activități --
05:52
this endedîncheiat up beingfiind a survivalsupravieţuire tasksarcină --
133
337000
2000
o activitate de supraviețuire --
05:54
and then ratingrating them in termstermeni
134
339000
2000
și apoi să le clasifice în funcție
05:56
of how valuablevaloros and importantimportant they thought they were.
135
341000
2000
de valoarea și importanța ce le-a fost atribuită.
05:58
The remotela distanta collaboratorcolaborator was an experimenterexperimentator from our groupgrup
136
343000
3000
Colaboratorul aflat la distanță a fost un experimentator din grupul nostru
06:01
who used one of threeTrei differentdiferit technologiestehnologii
137
346000
2000
care a utilizat una din trei tehnologii diferite
06:03
to interactinteracționa with the participantsparticipanți.
138
348000
2000
pentru a interacţiona cu participanții.
06:05
The first was just the screenecran.
139
350000
2000
Primul pas a fost un simplu ecran.
06:07
This is just like videovideo conferencingconferinte todayastăzi.
140
352000
3000
E asemănător cu o video-conferință de astăzi.
06:10
The nextUrmător → was to addadăuga mobilitymobilitate -- so, have the screenecran on a mobilemobil basebaza.
141
355000
3000
Următorul a fost adăugarea mobilității, mai exact amplasarea ecranului pe o bază mobilă.
06:13
This is like, if you're familiarfamiliar with any of the telepresenceTeleprezenta robotsroboți todayastăzi --
142
358000
3000
-- asemănător roboților pentru teleprezență de astăzi --
06:16
this is mirroringOglindire that situationsituatie.
143
361000
3000
reflectă o astfel de situație.
06:19
And then the fullycomplet expressiveexpresiv MeBotMeBot.
144
364000
2000
Și apoi MeBot cu adevărat expresiv.
06:21
So after the interactioninteracţiune,
145
366000
2000
La finalul acestei interacții
06:23
we askedîntrebă people to raterată theiral lor qualitycalitate of interactioninteracţiune
146
368000
3000
am rugat oamenii sa clasifice calitatea interacției
06:26
with the technologytehnologie, with a remotela distanta collaboratorcolaborator
147
371000
2000
cu această tehnologie, cu un colaborator aflat la distanță,
06:28
throughprin this technologytehnologie, in a numbernumăr of differentdiferit waysmoduri.
148
373000
3000
prin intermediul tehnologiei în mai multe moduri.
06:31
We lookedprivit at psychologicalpsihologic involvementimplicare --
149
376000
2000
Am urmărit implicarea psihologică --
06:33
how much empathyempatie did you feel for the other personpersoană?
150
378000
2000
câtă afecțiune au simțit pentru cealaltă persoană?
06:35
We lookedprivit at overallper total engagementlogodnă.
151
380000
2000
Am urmărit implicarea generală.
06:37
We lookedprivit at theiral lor desiredorință to cooperatecoopera.
152
382000
2000
Am urmărit dorința lor de-a coopera.
06:39
And this is what we see when they use just the screenecran.
153
384000
3000
Și asta e ce vedem când folosesc doar un ecran.
06:42
It turnstransformă out, when you addadăuga mobilitymobilitate -- the abilityabilitate to rollrulou around the tablemasa --
154
387000
3000
Se pare că adaugând mobilitate -- abilitatea de mișcare în jurul mesei --
06:45
you get a little more of a boostimpuls.
155
390000
2000
primești un plus de apreciere.
06:47
And you get even more of a boostimpuls when you addadăuga the fulldeplin expressionexpresie.
156
392000
3000
Primești un plus și mai mare când adaugi maximul de expresivitate.
06:50
So it seemspare like this physicalfizic, socialsocial embodimentîntruchipare
157
395000
2000
Se pare că această întruchipare socială fizică
06:52
actuallyde fapt really makesmărci a differencediferență.
158
397000
2000
chiar are importanță.
06:54
Now let's try to put this into a little bitpic of contextcontext.
159
399000
3000
Acum să încercăm să integrăm într-un context.
06:57
TodayAstăzi we know that familiesfamilii are livingviaţă furthermai departe and furthermai departe apartseparat,
160
402000
3000
Azi știm că familiile trăiesc la distanțe din ce în ce mai mari,
07:00
and that definitelycategoric takes a tollTaxă on familyfamilie relationshipsrelaţii
161
405000
2000
și asta are desigur un impact asupra relațiilor de familie
07:02
and familyfamilie bondsobligațiuni over distancedistanţă.
162
407000
2000
și asupra legăturilor dintre membrii acesteia aflați la distanță.
07:04
For me, I have threeTrei youngtineri boysbăieți,
163
409000
2000
Eu am trei băieți mici
07:06
and I want them to have a really good relationshiprelaţie
164
411000
2000
și îmi doresc să aibă o relați foarte bună
07:08
with theiral lor grandparentsbunicii.
165
413000
2000
cu bunicii lor.
07:10
But my parentspărinţi livetrăi thousandsmii of milesmile away,
166
415000
2000
Dar părinții mei locuiesc la mii de mile distanță,
07:12
so they just don't get to see eachfiecare other that oftende multe ori.
167
417000
2000
deci nu reușesc să se întâlnească atât de des.
07:14
We try SkypeSkype, we try phonetelefon callsapeluri,
168
419000
2000
Încercăm Skype, încercăm convorbirile telefonice,
07:16
but my boysbăieți are little -- they don't really want to talk;
169
421000
2000
dar băieții mei sunt mici -- nu prea vor să vorbească,
07:18
they want to playa juca.
170
423000
2000
vor să se joace.
07:20
So I love the ideaidee of thinkinggândire about robotsroboți
171
425000
2000
Le place ideea de a vedea roboții
07:22
as a newnou kinddrăguț of distance-playdistanta-play technologytehnologie.
172
427000
3000
ca o nouă tehnologie ce permite joaca la distanță.
07:25
I imagineimagina a time not too fardeparte from now --
173
430000
3000
Îmi imaginez un moment nu prea depărtat de acesta --
07:28
my mommama can go to her computercomputer,
174
433000
2000
mama mea poate merge la calculatorul ei,
07:30
opendeschis up a browserbrowser-ul and jackjack into a little robotrobot.
175
435000
2000
deschide un browser și se conectează la un mic robot.
07:32
And as grandma-botBunica-bot,
176
437000
3000
Și ca robot-bunică,
07:35
she can now playa juca, really playa juca,
177
440000
2000
ea poate acum să se joace, chiar să se joace,
07:37
with my sonsfiii, with her grandsonsnepoți,
178
442000
2000
cu fiii mei, nepoții ei,
07:39
in the realreal worldlume with his realreal toysjucarii.
179
444000
3000
în lumea reală, cu jucării adevărate.
07:42
I could imagineimagina grandmothersbunicile beingfiind ablecapabil to do social-playssociale-joacă
180
447000
2000
Îmi pot imagina bunicile jucându-se jocuri sociale
07:44
with theiral lor granddaughtersnepoatele, with theiral lor friendsprieteni,
181
449000
2000
cu nepoatele lor, cu prietenele lor,
07:46
and to be ablecapabil to shareacțiune all kindstipuri of other activitiesactivitati around the housecasă,
182
451000
2000
și să poată împărtăși multe alte activități din casă,
07:48
like sharingpartajare a bedtimeora de culcare storypoveste.
183
453000
2000
cum ar fi o poveste înainte de culcare.
07:50
And throughprin this technologytehnologie,
184
455000
2000
Și prin intermediul acestei tehnologii,
07:52
beingfiind ablecapabil to be an activeactiv participantparticipant
185
457000
2000
e posibil să fie participanți activi
07:54
in theiral lor grandchildren'snepoților livesvieți
186
459000
2000
în viețile nepoților lor
07:56
in a way that's not possibleposibil todayastăzi.
187
461000
2000
într-un mod care nu-i posibil în prezent.
07:58
Let's think about some other domainsdomenii,
188
463000
2000
Să ne gândim și la alte domenii,
08:00
like maybe healthsănătate.
189
465000
2000
cum ar fi sănătatea.
08:02
So in the UnitedMarea StatesStatele todayastăzi,
190
467000
2000
Actualmente, în Statele Unite,
08:04
over 65 percentla sută of people are eitherfie overweightexcesul de greutate or obeseobez,
191
469000
3000
peste 65% din populație sunt fie supraponderali, fie obezi,
08:07
and now it's a bigmare problemproblemă with our childrencopii as well.
192
472000
2000
și acum e o problemă mare și în ce-i privește pe copiii noștri.
08:09
And we know that as you get oldermai batran in life,
193
474000
2000
Știm că, pe măsură ce înaintăm în vârstă,
08:11
if you're obeseobez when you're youngermai tanar, that can leadconduce to chroniccronice diseasesboli
194
476000
3000
dacă ești obez în tinerețe poate cauza afecțiuni cronice serioase
08:14
that not only reducereduce your qualitycalitate of life,
195
479000
2000
care nu doar reduc calitatea vieții,
08:16
but are a tremendousextraordinar economiceconomic burdenpovară on our healthsănătate careîngrijire systemsistem.
196
481000
3000
dar sunt și o povară economică a sistemului nostru de sănătate.
08:19
But if robotsroboți can be engagingcaptivant,
197
484000
2000
Dar dacă roboții pot fi captivanți,
08:21
if we like to cooperatecoopera with robotsroboți,
198
486000
2000
dacă ne place să cooperăm cu roboți,
08:23
if robotsroboți are persuasivepersuasivă,
199
488000
2000
dacă roboții sunt convingători,
08:25
maybe a robotrobot can help you
200
490000
2000
poate că un robot te-ar putea ajuta
08:27
maintainmenţine a dietcura de slabire and exerciseexercițiu programprogram,
201
492000
2000
să menții o dietă și un program de exerciții,
08:29
maybe they can help you manageadministra your weightgreutate.
202
494000
3000
poate te pot ajuta să-ți controlezi greutatea.
08:32
SortSortare of like a digitaldigital JiminyJiminy --
203
497000
2000
Asemenea unui Jiminy digital --
08:34
as in the well-knownbine-cunoscut fairyZana talepoveste --
204
499000
2000
aşa cum spune bine cunoscuta poveste --
08:36
a kinddrăguț of friendlyprietenos, supportivede susținere presenceprezenţă that's always there
205
501000
2000
o prezenţă prietenoasă, încurajatoare, care e mereu acolo,
08:38
to be ablecapabil to help you make the right decisiondecizie
206
503000
2000
să te ajute să iei decizia corectă
08:40
in the right way at the right time
207
505000
2000
în modul corect, la timpul potrivit,
08:42
to help you formformă healthysănătos habitsobiceiuri.
208
507000
2000
care să te ajute să-ți formezi obiceiuri sănătoase.
08:44
So we actuallyde fapt exploredexplorat this ideaidee in our lablaborator.
209
509000
2000
Am explorat această idee în laboratorul nostru.
08:46
This is a robotrobot, AutomAutom.
210
511000
2000
Acesta este un robot, Autom.
08:48
CoryCory KiddKidd developeddezvoltat this robotrobot for his doctoralDoctorat work.
211
513000
3000
Corz Kidd a conceput acest robot pentru lucrarea sa de doctorat.
08:51
And it was designedproiectat to be a robotrobot diet-and-exercisedieta şi exercitarea coachantrenor.
212
516000
3000
A fost proiectat drept un robot-antrenor pentru dietă şi exerciţiu.
08:54
It had a couplecuplu of simplesimplu non-verbalnonverbal skillsaptitudini it could do.
213
519000
2000
Stăpânea o serie de abilităţi non-verbale.
08:56
It could make eyeochi contacta lua legatura with you.
214
521000
2000
Putea realiza contact vizual.
08:58
It could shareacțiune informationinformație looking down at a screenecran.
215
523000
2000
Putea împărtăşi informaţii privind un ecran.
09:00
You'dAr fi use a screenecran interfaceinterfață to enterintroduce informationinformație,
216
525000
2000
Foloseai o interfaţă de tip ecran pentru a introduce informaţia,
09:02
like how manymulți caloriescalorii you atea mancat that day,
217
527000
2000
ca de exemplu, caloriile consumate în ziua respectivă,
09:04
how much exerciseexercițiu you got.
218
529000
2000
cantitatea de exerciţiu efectuată.
09:06
And then it could help trackurmări that for you.
219
531000
2000
Şi apoi te putea ajuta în depistarea acestor informaţii.
09:08
And the robotrobot spokevorbit with a syntheticsintetic voicevoce
220
533000
2000
Iar robotul vorbea folosind o voce sintetizată
09:10
to engageangaja you in a coachingCoaching-ul dialoguedialog
221
535000
2000
pentru a te angaja într-o discuţie de antrenare,
09:12
modeledmodelat after trainersFormatori
222
537000
2000
modelată după cea purtată de antrenori
09:14
and patientspacienți and so forthmai departe.
223
539000
2000
şi pacienţi, ş.a.m.d.
09:16
And it would buildconstrui a workinglucru allianceAlianţa with you
224
541000
2000
Forma cu tine o relaţie de colaborare în muncă
09:18
throughprin that dialoguedialog.
225
543000
2000
prin intermediul acelui dialog.
09:20
It could help you seta stabilit goalsgoluri and trackurmări your progressprogres,
226
545000
2000
Te putea ajuta să-ţi stabileşti obiective şi să-ţi monitorizezi progresul,
09:22
and it would help motivatemotiva you.
227
547000
2000
şi te putea motiva.
09:24
So an interestinginteresant questionîntrebare is,
228
549000
2000
Aşadar, o întrebare interesantă este:
09:26
does the socialsocial embodimentîntruchipare really mattermaterie? Does it mattermaterie that it's a robotrobot?
229
551000
3000
Chiar contează întruchiparea socială? Chiar contează că este un robot?
09:29
Is it really just the qualitycalitate of advicesfat and informationinformație that matterschestiuni?
230
554000
3000
Oare chiar numai calitatea sfaturilor şi a informaţiei contează?
09:32
To exploreexplora that questionîntrebare,
231
557000
2000
Pentru a lămuri această întrebare,
09:34
we did a studystudiu in the BostonBoston areazonă
232
559000
2000
am realizat un studiu în zona Boston
09:36
where we put one of threeTrei interventionsintervenții in people'soamenii lui homescase
233
561000
3000
unde am instalat una din trei metode de intervenţie în casele oamenilor
09:39
for a periodperioadă of severalmai mulți weekssăptămâni.
234
564000
2000
pentru mai multe săptămâni.
09:41
One casecaz was the robotrobot you saw there, AutomAutom.
235
566000
3000
Într-unul dintre cazuri a fost robotul pe care l-aţi văzut, Autom.
09:44
AnotherUn alt was a computercomputer that rana fugit the samela fel touch-screenecran tactil interfaceinterfață,
236
569000
3000
Un altul a fost un computer care folosea aceeaşi interfaţă bazată pe ecran tactil,
09:47
rana fugit exactlyexact the samela fel dialoguesdialoguri.
237
572000
2000
care folosea exact aceleaşi dialoguri.
09:49
The qualitycalitate of advicesfat was identicalidentic.
238
574000
2000
Calitatea sfaturilor furnizate a fost aceeaşi.
09:51
And the thirdal treilea was just a penstilou and paperhârtie logButuruga,
239
576000
2000
Iar a treia a constat în simpla înregistrare folosind creionul şi hârtia,
09:53
because that's the standardstandard interventionintervenţie you typicallytipic get
240
578000
2000
pentru că asta e intervenția standard primită de obicei
09:55
when you startstart a diet-and-exercisedieta şi exercitarea programprogram.
241
580000
3000
când începi un program de dietă şi exerciţiu.
09:58
So one of the things we really wanted to look at
242
583000
3000
Unul dintre aspectele pe care chiar am vrut să le urmărim
10:01
was not how much weightgreutate people lostpierdut,
243
586000
3000
nu a fost greutatea de care persoanele au reuşit să scape,
10:04
but really how long they interactedinteractionat with the robotrobot.
244
589000
3000
ci cât de mult interacţionau cu robotul.
10:07
Because the challengeprovocare is not losingpierzând weightgreutate, it's actuallyde fapt keepingpăstrare it off.
245
592000
3000
Pentru că provocarea nu constă în pierderea greutăţii, ci în evitarea dobândirii ei.
10:10
And the longermai lung you could interactinteracționa with one of these interventionsintervenții,
246
595000
3000
Şi cu cât poţi interacţiona mai mult cu una din aceste modalităţi de intervenţie,
10:13
well that's indicativeindicativă, potentiallypotenţial, of longer-termpe termen lung successsucces.
247
598000
3000
aceasta indică, potenţial, un succes de mai lungă durată.
10:16
So the first thing I want to look at is how long,
248
601000
2000
Aşadar, primul aspect pe care vreau să-l urmăresc
10:18
how long did people interactinteracționa with these systemssisteme.
249
603000
2000
e cât de mult interacţionează oamenii cu aceste sisteme.
10:20
It turnstransformă out that people interactedinteractionat with the robotrobot
250
605000
2000
Se pare că oamenii au interacţionat cu robotul
10:22
significantlysemnificativ more,
251
607000
2000
semnificativ mai mult,
10:24
even thoughdeşi the qualitycalitate of the advicesfat was identicalidentic to the computercomputer.
252
609000
3000
deşi calitatea sfaturilor oferite era identică celor oferite de computer.
10:28
When it askedîntrebă people to raterată it on termstermeni of the qualitycalitate of the workinglucru allianceAlianţa,
253
613000
3000
Rugaţi să le clasifice în ceea ce priveşte calitatea colaborării,
10:31
people ratedevaluat the robotrobot highersuperior
254
616000
2000
oamenii au apreciat mai mult robotul
10:33
and they trustedde încredere the robotrobot more.
255
618000
2000
şi au dovedit mai multă încredere în el.
10:35
(LaughterRâs)
256
620000
2000
(Râsete)
10:37
And when you look at emotionalemoţional engagementlogodnă,
257
622000
2000
Iar când consideri implicarea emoţională,
10:39
it was completelycomplet differentdiferit.
258
624000
2000
aceasta a fost complet diferită.
10:41
People would nameNume the robotsroboți.
259
626000
2000
Oamenii au pus nume roboţilor.
10:43
They would dressrochie the robotsroboți.
260
628000
2000
I-au îmbrăcat.
10:45
(LaughterRâs)
261
630000
2000
(Râsete)
10:47
And even when we would come up to pickalege up the robotsroboți at the endSfârşit of the studystudiu,
262
632000
3000
Când am venit să luăm roboţii la finalul studiului,
10:50
they would come out to the carmașină and say good-byela revedere to the robotsroboți.
263
635000
2000
au venit până la maşină să-și ia rămas bun de la roboţi.
10:52
They didn't do this with a computercomputer.
264
637000
2000
N-au făcut asta în cazul unui computer.
10:54
The last thing I want to talk about todayastăzi
265
639000
2000
Ultimul lucru despre care doresc să vorbesc astăzi
10:56
is the futureviitor of children'scopilăresc mediamass-media.
266
641000
2000
e legat de viitorul materialelor media pentru copii.
10:58
We know that kidscopii spendpetrece a lot of time behindin spate screensecrane todayastăzi,
267
643000
3000
Ştim că azi copiii petrec mult timp în faţa ecranelor,
11:01
whetherdacă it's televisionteleviziune or computercomputer gamesjocuri or whatnotfleacuri.
268
646000
3000
televizor, jocuri pe computer sau altele.
11:04
My sonsfiii, they love the screenecran. They love the screenecran.
269
649000
3000
Fiilor mei le place mult în faţa ecranului. Adoră ecranul.
11:07
But I want them to playa juca; as a mommama, I want them to playa juca,
270
652000
3000
Dar îmi doresc să se joace; ca mamă îmi doresc să se joace
11:10
like, real-worldlumea reala playa juca.
271
655000
2000
ca în lumea reală.
11:12
And so I have a newnou projectproiect in my groupgrup I wanted to presentprezent to you todayastăzi
272
657000
3000
Avem un nou proiect în grupul nostru, pe care am dorit să vi-l prezint astăzi,
11:15
calleddenumit PlaytimeRedare ComputingCalcul
273
660000
2000
numit Playtime Computing
11:17
that's really tryingîncercat to think about how we can take
274
662000
2000
care încearcă să găsească
11:19
what's so engagingcaptivant about digitaldigital mediamass-media
275
664000
2000
ceea ce e captivant în domeniul media digital
11:21
and literallyliteralmente bringaduce it off the screenecran
276
666000
2000
şi să aducă de pe ecran
11:23
into the realreal worldlume of the childcopil,
277
668000
2000
în lumea reală a copilului,
11:25
where it can take on manymulți of the propertiesproprietăţi of real-worldlumea reala playa juca.
278
670000
3000
unde poate lua multe caracteristici ale jocului din lumea reală.
11:29
So here'saici e the first explorationexplorare of this ideaidee,
279
674000
4000
Iată prima formă de explorare a acestei idei,
11:33
where characterscaractere can be physicalfizic or virtualvirtual,
280
678000
3000
unde personajele pot fi fizice sau virtuale,
11:36
and where the digitaldigital contentconţinut
281
681000
2000
şi unde conţinutul digital
11:38
can literallyliteralmente come off the screenecran
282
683000
2000
poate cu adevărat să treacă de pe ecran
11:40
into the worldlume and back.
283
685000
2000
în lumea reală şi înapoi.
11:42
I like to think of this
284
687000
2000
Îmi place să mă gândesc la asta
11:44
as the AtariAtari PongPong
285
689000
2000
ca la un Atari Pong
11:46
of this blended-realityamestec de realitate playa juca.
286
691000
2000
al acestei realităţi de joacă îmbinate.
11:48
But we can pushApăsaţi this ideaidee furthermai departe.
287
693000
2000
Dar putem merge mai departe cu această idee.
11:50
What if --
288
695000
2000
Cum ar fi dacă --
11:52
(GameJoc) NathanNathan: Here it comesvine. YayYay!
289
697000
3000
(Joc) Nathan: Uite-l că vine. Ura!
11:55
CBCB: -- the charactercaracter itselfîn sine could come into your worldlume?
290
700000
3000
CB: -- chiar personajul ar veni în lumea reală?
11:58
It turnstransformă out that kidscopii love it
291
703000
2000
Se pare că le place mult copiilor
12:00
when the charactercaracter becomesdevine realreal and entersintră into theiral lor worldlume.
292
705000
3000
atunci când personajul devine real şi păşeşte în lumea lor.
12:03
And when it's in theiral lor worldlume,
293
708000
2000
Şi, odată ajuns în lumea lor,
12:05
they can relateraporta to it and playa juca with it in a way
294
710000
2000
ei pot relaţiona cu acesta şi se pot juca într-un mod
12:07
that's fundamentallyfundamental differentdiferit from how they playa juca with it on the screenecran.
295
712000
2000
fundamental diferit de modul de joacă folosind ecranul.
12:09
AnotherUn alt importantimportant ideaidee is this notionnoţiune
296
714000
2000
O altă idee importantă e această noţiune
12:11
of persistencepersistenţă of charactercaracter acrosspeste realitiesrealități.
297
716000
3000
a persistenţei unui personaj în toate aceste realităţi.
12:14
So changesschimbări that childrencopii make in the realreal worldlume
298
719000
2000
Aşadar, schimbările pe care copiii le realizează în lumea reală
12:16
need to translateTraduceți to the virtualvirtual worldlume.
299
721000
2000
trebuie translatate în lumea virtuală.
12:18
So here, NathanNathan has changedschimbat the letterscrisoare A to the numbernumăr 2.
300
723000
3000
Aici, Nathan a schimbat litera A în numărul 2.
12:21
You can imagineimagina maybe these symbolssimboluri
301
726000
2000
Vă puteţi imagina că aceste simboluri
12:23
give the characterscaractere specialspecial powersputeri when it goesmerge into the virtualvirtual worldlume.
302
728000
3000
redau personajelor puteri speciale la revenirea în lumea virtuală.
12:26
So they are now sendingtrimitere the charactercaracter back into that worldlume.
303
731000
3000
Şi acum trimit personajul înapoi în acea lume.
12:29
And now it's got numbernumăr powerputere.
304
734000
3000
Şi acum are puterea numerelor.
12:32
And then finallyin sfarsit, what I've been tryingîncercat to do here
305
737000
2000
Şi, într-un final, ceea ce am încercat să fac prin asta
12:34
is createcrea a really immersivecaptivantă experienceexperienţă for kidscopii,
306
739000
3000
a fost să creez o experienţă captivantă pentru copii,
12:37
where they really feel like they are partparte of that storypoveste,
307
742000
3000
în care chiar să simtă că fac parte din acea poveste,
12:40
a partparte of that experienceexperienţă.
308
745000
2000
din acea experienţă.
12:42
And I really want to sparkscânteie theiral lor imaginationsimaginația
309
747000
2000
Şi îmi doresc să le stimulez imaginația
12:44
the way mineA mea was sparkeda stârnit as a little girlfată watchingvizionarea "StarStar WarsRăzboaie."
310
749000
3000
aşa cum mi s-a întâmplat mie când am fost mică, urmărind "Star Wars".
12:47
But I want to do more than that.
311
752000
2000
Dar îmi doresc să realizez mai mult decât atât.
12:49
I actuallyde fapt want them to createcrea those experiencesexperiențe.
312
754000
3000
Vreau să-şi poată crea aceste experienţe.
12:52
I want them to be ablecapabil to literallyliteralmente buildconstrui theiral lor imaginationimaginație
313
757000
2000
Vreau să-şi poată modela cu adevărat imaginaţia
12:54
into these experiencesexperiențe and make them theiral lor ownpropriu.
314
759000
2000
în aceste experienţe, să şi le însuşească.
12:56
So we'vene-am been exploringexplorarea a lot of ideasidei
315
761000
2000
Am explorat multe idei
12:58
in telepresenceTeleprezenta and mixedamestecat realityrealitate
316
763000
2000
legate de teleprezenţă şi realităţi mixte
13:00
to literallyliteralmente allowpermite kidscopii to projectproiect theiral lor ideasidei into this spacespaţiu
317
765000
3000
pentru a le permite copiilor să-şi expună ideile în acest spaţiu
13:03
where other kidscopii can interactinteracționa with them
318
768000
2000
în care alţi copii pot interacţiona cu ei
13:05
and buildconstrui uponpe them.
319
770000
2000
şi pot construi alte idei pe baza ideilor lor.
13:07
I really want to come up with newnou waysmoduri of children'scopilăresc mediamass-media
320
772000
3000
Îmi doresc să găsim noi metode legate de conţinutul media adresat copiilor
13:10
that fosterfavoriza creativitycreativitate and learningînvăţare and innovationinovaţie.
321
775000
3000
care să permită dezvoltarea creativităţii, învăţării și inovaţiei.
13:13
I think that's very, very importantimportant.
322
778000
3000
Cred că e foarte, foarte important.
13:16
So this is a newnou projectproiect.
323
781000
2000
Aşadar, acesta e un nou proiect.
13:18
We'veNe-am inviteda invitat a lot of kidscopii into this spacespaţiu,
324
783000
2000
Am invitat mulţi copii în acest spaţiu,
13:20
and they think it's prettyfrumos coolmisto.
325
785000
3000
şi ei îl găsesc destul de interesant.
13:23
But I can tell you, the thing that they love the mostcel mai
326
788000
2000
Dar, vă pot spune, ceea ce le place cel mai mult
13:25
is the robotrobot.
327
790000
2000
este robotul.
13:27
What they careîngrijire about is the robotrobot.
328
792000
3000
Ceea ce-i interesează este robotul.
13:30
RobotsRoboti touchatingere something deeplyprofund humanuman withinîn us.
329
795000
3000
Roboţii reuşesc să atingă ceva profund uman în interiorul nostru.
13:33
And so whetherdacă they're helpingajutor us
330
798000
2000
Şi, astfel, fie că ne ajută
13:35
to becomedeveni creativecreator and innovativeinovatoare,
331
800000
2000
să devenim creativi sau inovatori,
13:37
or whetherdacă they're helpingajutor us
332
802000
2000
sau că ne ajută
13:39
to feel more deeplyprofund connectedconectat despitein ciuda distancedistanţă,
333
804000
2000
să ne simţim mai aproape în ciuda distanţei,
13:41
or whetherdacă they are our trustedde încredere sidekickSidekick
334
806000
2000
sau că ne sunt ajutorul de nădejde
13:43
who'scine helpingajutor us attainatinge our personalpersonal goalsgoluri
335
808000
2000
care ne ajută să ne îndeplinim ţelurile personale
13:45
in becomingdevenire our highestcel mai inalt and bestCel mai bun selvesSinele,
336
810000
2000
în a deveni cât mai buni,
13:47
for me, robotsroboți are all about people.
337
812000
3000
pentru mine, roboţii sunt strâns legaţi de oameni.
13:50
Thank you.
338
815000
2000
Mulţumesc.
13:52
(ApplauseAplauze)
339
817000
5000
(Aplauze)
Translated by marius veltan
Reviewed by Ariana Bleau Lugo

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee