ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com
TEDWomen 2010

Cynthia Breazeal: The rise of personal robots

Cynthia Breazeal: Kişisel robotların yükselişi

Filmed:
1,201,057 views

Yüksek lisans öğrencisi Cynthia Breazeal robotları Mars'ta kullanmamıza rağmen neden kendi oturma odamızda kullanmadığımızı merak etti. Bunun için anahtar noktanın robotlara insanlarla iletişim kurmasını öğretmek olduğunu fark etti. O şimdi hayalinde yarattığı öğrenebilen, öğreten ve oynayan robotları yapıyor. Çocuklar için geliştirilen yeni interaktif bir oyunun vidyosunu izlemek için bekleyin.
- Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do. Full bio

Double-click the English transcript below to play the video.

00:15
Ever sincedan beri I was a little girlkız
0
0
3000
Çocukluğumda
00:18
seeinggörme "StarYıldız WarsSavaşları" for the first time,
1
3000
2000
"Star Wars"u ilk defa gördüğümden beri,
00:20
I've been fascinatedbüyülenmiş by this ideaFikir
2
5000
2000
kişisel robotlar fikrinden
00:22
of personalkişisel robotsrobotlar.
3
7000
2000
hep etkilenmişimdir.
00:24
And as a little girlkız,
4
9000
2000
Ve küçük bir kızken,
00:26
I lovedsevilen the ideaFikir of a robotrobot that interactedetkileşim with us
5
11000
2000
insanlarla yardımsever, güvenilir bir dost gibi
00:28
much more like a helpfulfaydalı, trustedgüvenilir sidekickyardımcı --
6
13000
3000
etkileşim içinde olan robot fikrini hep sevmişimdir --
00:31
something that would delightzevk us, enrichzenginleştirmek our liveshayatları
7
16000
2000
bizi mutlu eden, hayatımızı zenginleştiren
00:33
and help us savekayıt etmek a galaxygökada or two.
8
18000
3000
ve bize birkaç galaksiyi kurtarmamızda yardımcı olan birşey.
00:37
I knewbiliyordum robotsrobotlar like that didn't really existvar olmak,
9
22000
3000
Böyle robotların olmadığını biliyordum,
00:40
but I knewbiliyordum I wanted to buildinşa etmek them.
10
25000
2000
ama onları yapmak istediğimi de.
00:42
So 20 yearsyıl passpas --
11
27000
2000
20 yıl geçti --
00:44
I am now a graduatemezun olmak studentÖğrenci at MITMIT
12
29000
2000
Şu an MIT'de öğrenciyim
00:46
studyingders çalışıyor artificialyapay intelligencezeka,
13
31000
2000
ve yapay zeka üzerine çalışıyorum,
00:48
the yearyıl is 1997,
14
33000
2000
yıllardan 1997,
00:50
and NASANASA has just landedindi the first robotrobot on MarsMars.
15
35000
3000
ve NASA Mars'a ilk robotu indirdi.
00:53
But robotsrobotlar are still not in our home, ironicallyironik.
16
38000
3000
Fakat işe bakın ki robotlar hala evlerimize girmediler.
00:56
And I rememberhatırlamak thinkingdüşünme about
17
41000
2000
Ve ben bunun neden böyle olduğuyla ilgili
00:58
all the reasonsnedenleri why that was the casedurum.
18
43000
2000
sebepleri düşündüğümü hatırlıyorum.
01:00
But one really struckvurdu me.
19
45000
2000
Bunlardan biri beni çok etkiledi.
01:02
RoboticsRobotik had really been about interactingetkileşim with things,
20
47000
3000
Robotik hep birşeylerle etkileşim içinde olmakla ilgili omuştur,
01:05
not with people --
21
50000
2000
insanlar dışında --
01:07
certainlykesinlikle not in a socialsosyal way that would be naturaldoğal for us
22
52000
2000
tabii ki bize normal gelen sosyal bir şekilde değil
01:09
and would really help people acceptkabul etmek robotsrobotlar
23
54000
2000
ki böyle birşey insanların robotların günlük hayatımıza girmesini
01:11
into our dailygünlük liveshayatları.
24
56000
2000
kabul etmesine yardımcı olurdu.
01:13
For me, that was the whitebeyaz spaceuzay; that's what robotsrobotlar could not do yethenüz.
25
58000
3000
Benim için bu, robotların henüz eksik olduğu bir noktaydı.
01:16
And so that yearyıl, I startedbaşladı to buildinşa etmek this robotrobot, KismetKısmet,
26
61000
3000
O sene bir robot yapmaya başladım, Kısmet,
01:19
the world'sDünyanın en first socialsosyal robotrobot.
27
64000
3000
Dünya'nın ilk sosyal robotu.
01:22
ThreeÜç yearsyıl latersonra --
28
67000
2000
Üç yıl sonra --
01:24
a lot of programmingprogramlama,
29
69000
2000
çok uzun süren programlama,
01:26
workingçalışma with other graduatemezun olmak studentsöğrencilerin in the lablaboratuvar --
30
71000
2000
diğer öğrencilerle laboratuvarda yapılan çalışmalar --
01:28
KismetKısmet was readyhazır to startbaşlama interactingetkileşim with people.
31
73000
2000
Kismet insanlarla etkileşime hazırdı.
01:30
(VideoVideo) ScientistBilim adamı: I want to showgöstermek you something.
32
75000
2000
(Vidyo) Biliminsanı: Size birşey göstermek istiyorum.
01:32
KismetKısmet: (NonsenseSaçma)
33
77000
2000
Kismet: (Mantıksız).
01:34
ScientistBilim adamı: This is a watch that my girlfriendkız arkadaşı gaveverdi me.
34
79000
3000
Biliminsanı: Bu benim kız arkadaşımın bana verdiği bir saat.
01:37
KismetKısmet: (NonsenseSaçma)
35
82000
2000
Kismet: (Mantıksız).
01:39
ScientistBilim adamı: Yeah, look, it's got a little bluemavi lightışık in it too.
36
84000
2000
Biliminsanı: Evet, bak, içinde birde mavi bir ışık var.
01:41
I almostneredeyse lostkayıp it this weekhafta.
37
86000
3000
Bu hafta onu nerdeyse kaybediyordum.
01:44
CynthiaCynthia BreazealBreazeal: So KismetKısmet interactedetkileşim with people
38
89000
3000
Cynthia Breazeal: Kismet insanlarla bu şekilde
01:47
like kindtür of a non-verbalSözsüz childçocuk or pre-verbalöncesi sözel childçocuk,
39
92000
3000
konuşmayı bilmeyen yada yeni öğrenen bir çocuk gibi iletişim kurdu,
01:50
whichhangi I assumeüstlenmek was fittinguydurma because it was really the first of its kindtür.
40
95000
3000
bu ona çok uygundu çünkü o türünün gerçekten de ilk örneğiydi.
01:53
It didn't speakkonuşmak languagedil, but it didn't mattermadde.
41
98000
2000
Bir dili konuşmuyordu ama bu önemli değildi.
01:55
This little robotrobot was somehowbir şekilde ableyapabilmek
42
100000
2000
Bu küçük robot bir şekilde
01:57
to tapmusluk into something deeplyderinden socialsosyal withiniçinde us --
43
102000
3000
içimizdeki o derin sosyal duyguya dokunmayı başarıyordu.
02:00
and with that, the promisesöz vermek of an entirelyBaştan sona newyeni way
44
105000
2000
Ve bu şekilde robotlarla iletişim kurmanın
02:02
we could interactetkileşim with robotsrobotlar.
45
107000
2000
yepyeni bir yolu vaad ediliyordu.
02:04
So over the pastgeçmiş severalbirkaç yearsyıl
46
109000
2000
Geçtiğimiz birkaç yıl içerisinde
02:06
I've been continuingdevam ediyor to explorekeşfetmek this interpersonalkişiler arası dimensionboyut of robotsrobotlar,
47
111000
2000
robotlarla insanlar arasındaki bu ilişkiyi inceledim,
02:08
now at the mediamedya lablaboratuvar
48
113000
2000
ve şimdi medya laboratuvarında
02:10
with my ownkendi teamtakım of incrediblyinanılmaz talentedyetenekli studentsöğrencilerin.
49
115000
2000
kendi takımımdaki inanılmaz yetenekli öğrencilerle birlikte çalışmaya devam ediyorum.
02:12
And one of my favoritesevdiğim robotsrobotlar is LeonardoLeonardo.
50
117000
3000
Favori robotlarımdan biri Leonardo.
02:15
We developedgelişmiş LeonardoLeonardo in collaborationişbirliği with StanStan WinstonWinston StudioStüdyo.
51
120000
3000
Leonardoyu Stan Winston stüdyosuyla birlikte geliştirdik.
02:18
And so I want to showgöstermek you a specialözel momentan for me of LeoLeo.
52
123000
3000
Ve şimdi size Leo'nun benim için özel bir anını göstermek istiyorum.
02:21
This is MattMatt BerlinBerlin interactingetkileşim with LeoLeo,
53
126000
2000
Leo ile iletişim içinde olan Matt Berlin,
02:23
introducingtanıtım LeoLeo to a newyeni objectnesne.
54
128000
2000
Leo'ya yeni bir nesneyi tanıtıyor.
02:25
And because it's newyeni, LeoLeo doesn't really know what to make of it.
55
130000
3000
Ve yeni olduğu için Leo bu nesneyle ne yapacağını bilemiyor.
02:28
But sortçeşit of like us, he can actuallyaslında learnöğrenmek about it
56
133000
2000
Ama bizim gibi, Matt'in tepkisini izleyerek
02:30
from watchingseyretme Matt'sMatt'in reactionreaksiyon.
57
135000
3000
hakkında birşeyler öğrenebilir.
02:33
(VideoVideo) MattMatt BerlinBerlin: HelloMerhaba, LeoLeo.
58
138000
2000
(Video) Matt Berlin: Merhaba, Leo.
02:38
LeoLeo, this is CookieTanımlama bilgisi MonsterCanavar.
59
143000
3000
Leo, bu kurabiye canavarı.
02:44
Can you find CookieTanımlama bilgisi MonsterCanavar?
60
149000
3000
Kurabiye Canavarı'nı bulabilirmisin?
02:52
LeoLeo, CookieTanımlama bilgisi MonsterCanavar is very badkötü.
61
157000
3000
Leo, Kurabiye Canavarı çok kötü.
02:56
He's very badkötü, LeoLeo.
62
161000
2000
O çok kötü, Leo.
03:00
CookieTanımlama bilgisi MonsterCanavar is very, very badkötü.
63
165000
3000
Kurabiye Canavarı çok çok kötü.
03:07
He's a scarykorkutucu monstercanavar.
64
172000
2000
O korkunç bir canavar.
03:09
He wants to get your cookiestanımlama bilgileri.
65
174000
2000
Senin kurabiyelerini almak istiyor.
03:12
(LaughterKahkaha)
66
177000
2000
(Gülüşmeler)
03:14
CBCB: All right, so LeoLeo and CookieTanımlama bilgisi
67
179000
3000
CB: Tamam, Leo ve Kurabiye
03:17
mightbelki have gottenkazanılmış off to a little bitbit of a roughkaba startbaşlama,
68
182000
2000
zor bi başlangıç yapmış olabilirler,
03:19
but they get alonguzun bir great now.
69
184000
3000
ama şimdi araları çok iyi.
03:22
So what I've learnedbilgili
70
187000
2000
Bu sistemleri oluştururken
03:24
throughvasitasiyla buildingbina these systemssistemler
71
189000
2000
öğrendim ki
03:26
is that robotsrobotlar are actuallyaslında
72
191000
2000
robotlar aslında
03:28
a really intriguingilgi çekici socialsosyal technologyteknoloji,
73
193000
2000
çok etkileyici soyal bir teknolojiymişler.
03:30
where it's actuallyaslında theironların abilitykabiliyet
74
195000
2000
Aslında onların
03:32
to pushit our socialsosyal buttonsdüğmeleri
75
197000
2000
bizim sosyal yanımıza dokunabilme
03:34
and to interactetkileşim with us like a partnerortak
76
199000
2000
ve bizimle bir arkadaş gibi ilişki kurabilme yetenekleri
03:36
that is a coreçekirdek partBölüm of theironların functionalityişlevselliği.
77
201000
3000
onların temel işlevlerinden biri.
03:39
And with that shiftvardiya in thinkingdüşünme, we can now startbaşlama to imaginehayal etmek
78
204000
2000
Ve bu farklı düşünce şekliyle şimdi robotlar için
03:41
newyeni questionssorular, newyeni possibilitiesolasılıklar for robotsrobotlar
79
206000
3000
yeni sorular, yeni olasılıklar üzerinde
03:44
that we mightbelki not have thought about otherwiseaksi takdirde.
80
209000
3000
düşünmeye başlayabiliriz.
03:47
But what do I mean when I say "pushit our socialsosyal buttonsdüğmeleri?"
81
212000
2000
Peki ben "sosyal yanımıza dokunuyor" derken ne söylemek istiyorum?
03:49
Well, one of the things that we'vebiz ettik learnedbilgili
82
214000
2000
Öğrendiğimiz şeylerden bir tanesi,
03:51
is that, if we designdizayn these robotsrobotlar to communicateiletişim kurmak with us
83
216000
2000
eğer bu robotları bizimle iletişim kurmaları için dizayn edersek,
03:53
usingkullanma the sameaynı bodyvücut languagedil,
84
218000
2000
insanların kullandığı aynı vücut dilini,
03:55
the sameaynı sortçeşit of non-verbalSözsüz cuesİpuçları that people use --
85
220000
2000
ve aynı şekildeki sözsüz ifadeleri kullanarak --
03:57
like NexiNexi, our humanoidinsanımsı robotrobot, is doing here --
86
222000
3000
bizim insancıl robotumuz Nexi'nin yaptığı gibi --
04:00
what we find is that people respondyanıtlamak to robotsrobotlar
87
225000
2000
bulduğumuz şey insanların robotlara, insanlara verdikleri tepkiye
04:02
a lot like they respondyanıtlamak to people.
88
227000
2000
çok benzer bir şekilde tepki vermeleriydi.
04:04
People use these cuesİpuçları to determinebelirlemek things like how persuasiveikna edici someonebirisi is,
89
229000
3000
İnsanlar bu tepkileri kullanarak birisinin ne kadar ikna edici,
04:07
how likablesevimli, how engagingçekici,
90
232000
2000
ne kadar sevilebilir, ne kadar çekici,
04:09
how trustworthygüvenilir.
91
234000
2000
ne kadar güvenilir olduğuna karar verirler.
04:11
It turnsdönüşler out it's the sameaynı for robotsrobotlar.
92
236000
2000
Aynı şey robotlar içinde geçerli.
04:13
It's turningdöndürme out now
93
238000
2000
Şu anlaşılıyorki
04:15
that robotsrobotlar are actuallyaslında becomingolma a really interestingilginç newyeni scientificilmi toolaraç
94
240000
3000
robotlar insan davranışını anlamak için çok ilginç bilimsel bir araç
04:18
to understandanlama humaninsan behaviordavranış.
95
243000
2000
haline geliyorlar.
04:20
To answerCevap questionssorular like, how is it that, from a briefkısa encounterkarşılaşma,
96
245000
3000
Nasıl oluyorda kısa bir karşılaşmadan sonra bir insanın ne kadar
04:23
we're ableyapabilmek to make an estimatetahmin of how trustworthygüvenilir anotherbir diğeri personkişi is?
97
248000
3000
güvenilir olduğunu tahmin edebiliyoruz gibi soruları yanıtlamak için.
04:26
Mimicry'sTaklit'ın believedinanılır to playoyun a rolerol, but how?
98
251000
3000
Mimicry bir rol yaptığına inandı, ama nasıl?
04:29
Is it the mimickingtaklit of particularbelirli gesturesmimik that mattershususlar?
99
254000
3000
Önemli olan belirli davranışların taklit edilmesi miydi?
04:32
It turnsdönüşler out it's really hardzor
100
257000
2000
İnsanları izleyerek bunu anlamak yada bunu
04:34
to learnöğrenmek this or understandanlama this from watchingseyretme people
101
259000
2000
öğrenmek çok zor çünkü biz insanlarla iletişim kurarken
04:36
because when we interactetkileşim we do all of these cuesİpuçları automaticallyotomatik olarak.
102
261000
3000
herşeyi otomatik olarak yaparız.
04:39
We can't carefullydikkatlice controlkontrol them because they're subconsciousbilinçaltı for us.
103
264000
2000
Yaptıklarımızı dikkatlice kontrol edemeyiz çünkü onlar bilinç altından gelir.
04:41
But with the robotrobot, you can.
104
266000
2000
Ama robotlarla bunu yapabiliriz.
04:43
And so in this videovideo here --
105
268000
2000
Burda gördüğünüz vidyodaki gibi --
04:45
this is a videovideo takenalınmış from DavidDavid DeSteno'sDeSteno'nın lablaboratuvar at NortheasternKuzeydoğu UniversityÜniversitesi.
106
270000
3000
bu vidyo Northeastern üniversitesi'nde David DeSteno'nun laboratuvarında çekildi.
04:48
He's a psychologistpsikolog we'vebiz ettik been collaboratingişbirliği with.
107
273000
2000
David DeSteno birlikte çalıştığımız bir psikolog.
04:50
There's actuallyaslında a scientistBilim insanı carefullydikkatlice controllingkontrol Nexi'sNexi'nın cuesİpuçları
108
275000
3000
Aradığımız cevaba ulaşmak için
04:53
to be ableyapabilmek to studyders çalışma this questionsoru.
109
278000
3000
Nexi'nin hareketlerini çok dikkatlice inceleyen bir biliminsanı var.
04:56
And the bottomalt linehat is -- the reasonneden why this worksEserleri is
110
281000
2000
Sonuç olarak -- bu yöntemin işe yaramasının sebebi --
04:58
because it turnsdönüşler out people just behaveDavranmak like people
111
283000
2000
insanlar robotlarla iletişim kurarken yine
05:00
even when interactingetkileşim with a robotrobot.
112
285000
3000
insan gibi davranıyorlar.
05:03
So givenverilmiş that keyanahtar insightIçgörü,
113
288000
2000
Bu anahtar fikir ele alındığında
05:05
we can now startbaşlama to imaginehayal etmek
114
290000
2000
robotlar için yeni uygulama alanları bulmayı
05:07
newyeni kindsçeşit of applicationsuygulamaları for robotsrobotlar.
115
292000
3000
hayal etmeye başlayabiliriz.
05:10
For instanceörnek, if robotsrobotlar do respondyanıtlamak to our non-verbalSözsüz cuesİpuçları,
116
295000
3000
Örneğin, eğer robotlar bizim söylevsel olmayan davranışlarımıza
05:13
maybe they would be a coolgüzel, newyeni communicationiletişim technologyteknoloji.
117
298000
4000
tepki verebilselerdi, bu çok ilginç bir iletişim teknolojisi olabilirdi.
05:17
So imaginehayal etmek this:
118
302000
2000
Şunu hayal edin:
05:19
What about a robotrobot accessoryAksesuar for your cellphonecep telefonu?
119
304000
2000
Cep telefonunuz için bir robot aksesuvarına ne dersiniz?
05:21
You call your friendarkadaş, she putskoyar her handsetcep telefonu in a robotrobot,
120
306000
2000
Arkadaşını arıyorsun, o cep telefonunu bir robotun içine koyuyor,
05:23
and, bambam! You're a MeBotMeBot --
121
308000
2000
ve, bem!, şimdi bir MeBot'sun (BenRobot) --
05:25
you can make eyegöz contacttemas, you can talk with your friendsarkadaşlar,
122
310000
3000
arkadaşlarınla göz kontağı kurabilir, onlarla konuşabilirsin,
05:28
you can movehareket around, you can gesturejest --
123
313000
2000
etrafta dolanabilir ve tepkini gösterebilirsin --
05:30
maybe the nextSonraki besten iyi thing to really beingolmak there, or is it?
124
315000
3000
orda gerçekten olmaktan sonra en iyi şey, değil mi?
05:33
To explorekeşfetmek this questionsoru,
125
318000
2000
Bu soruyu incelemek için
05:35
my studentÖğrenci, SiggySiggy AdalgeirssonAdalgeirsson, did a studyders çalışma
126
320000
3000
öğrencim Siggy Adalgeirsson bir araştırma yaptı.
05:38
where we broughtgetirdi humaninsan participantskatılımcılar, people, into our lablaboratuvar
127
323000
3000
Bu araştırmada insanları laboratuvarımıza davet ettik
05:41
to do a collaborativeişbirlikçi taskgörev
128
326000
2000
ve onlardan başka bir yerdeki insanlarla
05:43
with a remoteuzak collaboratorişbirlikçi.
129
328000
2000
ortaklaşa bir ödevi gerçekleştirmelerini istedik.
05:45
The taskgörev involvedilgili things
130
330000
2000
Bu ödevin içerdikleri
05:47
like looking at a setset of objectsnesneleri on the tabletablo,
131
332000
2000
masa üstünde duran bir kaç nesneye bakıp
05:49
discussingtartışılması them in termsşartlar of theironların importanceönem and relevanceilgi to performingicra a certainbelli taskgörev --
132
334000
3000
bunların belli bir ödevi yerine getirmek için ne kadar alakalı ve önemli olduğunu tartışmak --
05:52
this endedbitti up beingolmak a survivalhayatta kalma taskgörev --
133
337000
2000
bu bir hayatta kalma görevine dönmüştü --
05:54
and then ratingderecelendirme them in termsşartlar
134
339000
2000
ve bunları önemine göre
05:56
of how valuabledeğerli and importantönemli they thought they were.
135
341000
2000
sıralamaktı.
05:58
The remoteuzak collaboratorişbirlikçi was an experimenterdeneyci from our groupgrup
136
343000
3000
Uzaktaki işbirlikçimiz bizim grubumuzdan birisiydi
06:01
who used one of threeüç differentfarklı technologiesteknolojiler
137
346000
2000
ve katılımcılarla iletişime geçmek için
06:03
to interactetkileşim with the participantskatılımcılar.
138
348000
2000
üç farklı teknolojiyi kullandılar.
06:05
The first was just the screenekran.
139
350000
2000
Bunlardan ilki bir ekrandı.
06:07
This is just like videovideo conferencingKonferans todaybugün.
140
352000
3000
Günümüzdeki vidyo konferansın aynısı.
06:10
The nextSonraki was to addeklemek mobilityhareketlilik -- so, have the screenekran on a mobileseyyar basebaz.
141
355000
3000
İkincisi ekranı hareketli bir plaform üstüne yerleştirip, hareket yeteneği sağlamaktı.
06:13
This is like, if you're familiartanıdık with any of the telepresenceTelepresence robotsrobotlar todaybugün --
142
358000
3000
Eğer bugünkü teleprezens robotlarını biliyorsanız,
06:16
this is mirroringyansıtma that situationdurum.
143
361000
3000
burda yaptığımız bunun bir örneği.
06:19
And then the fullytamamen expressiveifade MeBotMeBot.
144
364000
2000
Ve son olarak MeBot.
06:21
So after the interactionetkileşim,
145
366000
2000
Bu deneyden sonra
06:23
we askeddiye sordu people to rateoran theironların qualitykalite of interactionetkileşim
146
368000
3000
insanlara uzaktaki arkadaşımızla
06:26
with the technologyteknoloji, with a remoteuzak collaboratorişbirlikçi
147
371000
2000
teknolojiyi farklı şekillerde kullanarak
06:28
throughvasitasiyla this technologyteknoloji, in a numbernumara of differentfarklı waysyolları.
148
373000
3000
gerçekleştirdikleri iletişimin kalitesini sorduk.
06:31
We lookedbaktı at psychologicalpsikolojik involvementilgi --
149
376000
2000
Psikolojik katılımı inceledik --
06:33
how much empathyempati did you feel for the other personkişi?
150
378000
2000
diğer insan için ne kadar empati hissetiniz?
06:35
We lookedbaktı at overalltüm engagementnişan.
151
380000
2000
Toplamda gösterilen çabayı inceledik.
06:37
We lookedbaktı at theironların desirearzu etmek to cooperateişbirliği.
152
382000
2000
İnsanların işbirliği yapma isteğini inceledik.
06:39
And this is what we see when they use just the screenekran.
153
384000
3000
Ve burda gördüğümüz, insanlar sadece ekranı kullandığında ortaya çıkan sonuç.
06:42
It turnsdönüşler out, when you addeklemek mobilityhareketlilik -- the abilitykabiliyet to rollrulo around the tabletablo --
154
387000
3000
Eğer hareket kabiliyeti eklersen -- masanın etrafında dönme yeteneği --
06:45
you get a little more of a boostalttan yukarıya ittirmek.
155
390000
2000
sonuçlarda hafif bir artma görülüyor.
06:47
And you get even more of a boostalttan yukarıya ittirmek when you addeklemek the fulltam expressionifade.
156
392000
3000
Ve MeBot kullanıldığında, çok daha fazla bir artış elde ediliyor.
06:50
So it seemsgörünüyor like this physicalfiziksel, socialsosyal embodimentşekillenme
157
395000
2000
Ve öyle görülüyorki bu fiziki sosyal ifade biçimi
06:52
actuallyaslında really makesmarkaları a differencefark.
158
397000
2000
gerçekten bir fark yaratıyor.
06:54
Now let's try to put this into a little bitbit of contextbağlam.
159
399000
3000
Şimdi bunu bir kontekste oturtalım.
06:57
TodayBugün we know that familiesaileleri are livingyaşam furtherayrıca and furtherayrıca apartayrı,
160
402000
3000
Günümüzde aileler birbirinden çok uzaklarda yaşıyorlar,
07:00
and that definitelykesinlikle takes a tollGeçiş ücreti on familyaile relationshipsilişkiler
161
405000
2000
ve bu aile ilişkilerine ve birbirinden
07:02
and familyaile bondstahviller over distancemesafe.
162
407000
2000
uzak aile bağlarına zarar veriyor.
07:04
For me, I have threeüç younggenç boysçocuklar,
163
409000
2000
Bana gelince, benim üç oğlum var
07:06
and I want them to have a really good relationshipilişki
164
411000
2000
ve ben onların büyükanne ve büyükbabalarıyla iyi
07:08
with theironların grandparentsBüyükanne ve büyükbaba.
165
413000
2000
ilişkileri olmasını istiyorum.
07:10
But my parentsebeveyn livecanlı thousandsbinlerce of milesmil away,
166
415000
2000
Ama annem ve babam bizden binlerce mil uzakta yaşıyor
07:12
so they just don't get to see eachher other that oftensık sık.
167
417000
2000
ve bu yüzden birbirlerini çok sık göremiyorlar.
07:14
We try SkypeSkype, we try phonetelefon callsaramalar,
168
419000
2000
Skype'ı deniyoruz, telefonla konuşmayı deniyoruz,
07:16
but my boysçocuklar are little -- they don't really want to talk;
169
421000
2000
ama benim çocuklarım daha küçük -- konuşmak o kadar hoşlarına gitmiyor,
07:18
they want to playoyun.
170
423000
2000
oynamak istiyorlar.
07:20
So I love the ideaFikir of thinkingdüşünme about robotsrobotlar
171
425000
2000
Robotları yeni bir uzaktan oynama teknolojisi
07:22
as a newyeni kindtür of distance-playmesafe-oyun technologyteknoloji.
172
427000
3000
olarak düşünmeyi seviyorlar.
07:25
I imaginehayal etmek a time not too faruzak from now --
173
430000
3000
Şu andan çok uzak olmayan bir gelecek düşünüyorum --
07:28
my momanne can go to her computerbilgisayar,
174
433000
2000
annem bilgisayarına gidiyor,
07:30
openaçık up a browserTarayıcı and jackkriko into a little robotrobot.
175
435000
2000
internet tarayıcısını açıyor ve küçük bir robota bağlanıyor.
07:32
And as grandma-botBüyükanne-bot,
176
437000
3000
Ve grandma-bot(Büyükanne-bot) olarak,
07:35
she can now playoyun, really playoyun,
177
440000
2000
o şimdi oynayabilir, ama gerçekten oynayabilir,
07:37
with my sonsoğulları, with her grandsonstorunları,
178
442000
2000
benim çocuklarımla, onun torunlarıyla,
07:39
in the realgerçek worldDünya with his realgerçek toysoyuncaklar.
179
444000
3000
gerçek Dünya'da gerçek oyuncaklarla.
07:42
I could imaginehayal etmek grandmothersAnneannelerin beingolmak ableyapabilmek to do social-playsSosyal-çalış
180
447000
2000
Büyükannelerin torunlarıyla, arakadaşlarıyla sosyal oyunlar
07:44
with theironların granddaughtersgranddaughters, with theironların friendsarkadaşlar,
181
449000
2000
oynayabildiğini ve evdeki başka hertürlü aktiviteyi,
07:46
and to be ableyapabilmek to sharepay all kindsçeşit of other activitiesfaaliyetler around the houseev,
182
451000
2000
uyumadan önce anlatılan bir hikaye gibi,
07:48
like sharingpaylaşım a bedtimeYatma zamanı storyÖykü.
183
453000
2000
paylaşabildiğini hayal edebiliyorum.
07:50
And throughvasitasiyla this technologyteknoloji,
184
455000
2000
Ve bu teknoloji sayesinde,
07:52
beingolmak ableyapabilmek to be an activeaktif participantkatılımcı
185
457000
2000
torunlarının hayatının
07:54
in theironların grandchildren'storun adlı liveshayatları
186
459000
2000
aktiv bir parçası olabilecekler,
07:56
in a way that's not possiblemümkün todaybugün.
187
461000
2000
bugün mümkün olmayan bir yöntemle.
07:58
Let's think about some other domainsetki alanları,
188
463000
2000
Başka alanları ele alalım,
08:00
like maybe healthsağlık.
189
465000
2000
sağlık mesela.
08:02
So in the UnitedAmerika StatesBirleşik todaybugün,
190
467000
2000
Bugün Amerika'da,
08:04
over 65 percentyüzde of people are eitherya overweightkilolu or obeseaşırı şişman,
191
469000
3000
insanların yüzde 65'i ya aşırı kilolu yada obez,
08:07
and now it's a bigbüyük problemsorun with our childrençocuklar as well.
192
472000
2000
ve bu şimdi çocuklarımız içinde büyük bir problem.
08:09
And we know that as you get olderdaha eski in life,
193
474000
2000
Ve biliyoruzki, gençlikte obezlik
08:11
if you're obeseaşırı şişman when you're youngerdaha genç, that can leadöncülük etmek to chronicKronik diseaseshastalıklar
194
476000
3000
ilerleyen yaşlarda kronik hastalıklara sebep olabiliyor,
08:14
that not only reduceazaltmak your qualitykalite of life,
195
479000
2000
ki bu sadece hayat kalitemizi düşürmekle kalmıyor,
08:16
but are a tremendousmuazzam economicekonomik burdenyük on our healthsağlık carebakım systemsistem.
196
481000
3000
aynı zamanda sağlık sistemimiz için de son derece ağır bir yük.
08:19
But if robotsrobotlar can be engagingçekici,
197
484000
2000
Eğer robotlar insanlarda ilgi uyandırabilirlerse,
08:21
if we like to cooperateişbirliği with robotsrobotlar,
198
486000
2000
eğer biz robotlarla işbirliği yapmak istersek,
08:23
if robotsrobotlar are persuasiveikna edici,
199
488000
2000
eğer robotlar ikna edici olabilirse,
08:25
maybe a robotrobot can help you
200
490000
2000
belki bir robot sana diyet yada
08:27
maintainsürdürmek a dietdiyet and exerciseegzersiz programprogram,
201
492000
2000
egzersiz programına bağlı kalmanda,
08:29
maybe they can help you manageyönetmek your weightağırlık.
202
494000
3000
belkide kilonu korumanda yardımcı olabilir.
08:32
SortSıralama of like a digitaldijital JiminyJiminy --
203
497000
2000
Bir çeşit dijital Jiminiy --
08:34
as in the well-knowniyi bilinen fairyperi talemasal --
204
499000
2000
o çok ünlü peri masalındaki gibi,
08:36
a kindtür of friendlyarkadaş canlısı, supportivedestekleyici presencevarlık that's always there
205
501000
2000
her zaman yanınızda olan sizi destekleyen bir arakadaş,
08:38
to be ableyapabilmek to help you make the right decisionkarar
206
503000
2000
size doğru kararı vermenizde yardımcı olan,
08:40
in the right way at the right time
207
505000
2000
doğru şekilde ve doğru zamanda,
08:42
to help you formform healthysağlıklı habitsalışkanlıkları.
208
507000
2000
size doğru alışkanlıklar kazanmanıza yardımcı olan.
08:44
So we actuallyaslında exploredaraştırdı this ideaFikir in our lablaboratuvar.
209
509000
2000
Bu fikri aslında laboratuvarlarımızda keşfettik.
08:46
This is a robotrobot, AutomAutom.
210
511000
2000
Bu bir robot, Autom.
08:48
CoryCory KiddKidd developedgelişmiş this robotrobot for his doctoralDoktora work.
211
513000
3000
Cory Kidd bu robotu doktora çalışması için geliştirdi.
08:51
And it was designedtasarlanmış to be a robotrobot diet-and-exercisediyet ve egzersiz coachKoç.
212
516000
3000
Ve o bir egzersiz ve diyet koçu olarak dizayn edildi.
08:54
It had a coupleçift of simplebasit non-verbalSözsüz skillsbecerileri it could do.
213
519000
2000
Yapabildiği söylevsel olmayan birkaç yeteneği vardı.
08:56
It could make eyegöz contacttemas with you.
214
521000
2000
Sizinle göz kontağı kurabilirdi.
08:58
It could sharepay informationbilgi looking down at a screenekran.
215
523000
2000
Bir ekrana bakarak bilgiyi paylaşabilirdi.
09:00
You'dOlur use a screenekran interfacearayüzey to entergirmek informationbilgi,
216
525000
2000
Bir ekranı kullanarak bugün kaç kalori yediğiniz,
09:02
like how manyçok calorieskalori you ateyemek yedi that day,
217
527000
2000
ne kadar egzersiz yaptığınız
09:04
how much exerciseegzersiz you got.
218
529000
2000
bilgisini girebilirdiniz.
09:06
And then it could help trackiz that for you.
219
531000
2000
Ve o bunu takip etmenizde size yardımcı olurdu.
09:08
And the robotrobot spokekonuştu with a syntheticsentetik voiceses
220
533000
2000
Robot sentetik bir sesle konuştu,
09:10
to engagetutmak you in a coachingkoçluk dialoguediyalog
221
535000
2000
sizi antrenör ve hastalar örnek alınarak
09:12
modeledmodellenmiştir after trainerseğitmenler
222
537000
2000
hazırlanan bir diyaloğa
09:14
and patientshastalar and so forthileri.
223
539000
2000
dahil etmek için.
09:16
And it would buildinşa etmek a workingçalışma allianceİttifak with you
224
541000
2000
O sizinle bu diyalog yoluyla bir işbirliği
09:18
throughvasitasiyla that dialoguediyalog.
225
543000
2000
kurmaya çalışırdı.
09:20
It could help you setset goalshedefleri and trackiz your progressilerleme,
226
545000
2000
Size hedefler koymanızda ve ilerleyişinizi takip etmenizde
09:22
and it would help motivatemotive etmek you.
227
547000
2000
yardımcı olabilir, sizi motive edebilirdi.
09:24
So an interestingilginç questionsoru is,
228
549000
2000
Şöyle bir soru akla geliyor,
09:26
does the socialsosyal embodimentşekillenme really mattermadde? Does it mattermadde that it's a robotrobot?
229
551000
3000
sosyal kimlik gerçekten önemli mi? Onun bir robot olması birşeyi değiştirir mi?
09:29
Is it really just the qualitykalite of advicetavsiye and informationbilgi that mattershususlar?
230
554000
3000
Önemli olan sadece verilen bilgi ve tavsiyenin kalitesi mi?
09:32
To explorekeşfetmek that questionsoru,
231
557000
2000
Bu soruyu yanıtlamak için,
09:34
we did a studyders çalışma in the BostonBoston areaalan
232
559000
2000
Boston civarında bir araştırma yaptık,
09:36
where we put one of threeüç interventionsmüdahaleler in people'sinsanların homesevler
233
561000
3000
birkaç haftalığına insanların evlerine üç faklı
09:39
for a perioddönem of severalbirkaç weekshaftalar.
234
564000
2000
müdahilden birini yerleştirdik.
09:41
One casedurum was the robotrobot you saw there, AutomAutom.
235
566000
3000
Bunlardan ilki şurda gördüğünüz robottu.
09:44
AnotherBaşka bir was a computerbilgisayar that ranran the sameaynı touch-screendokunmatik ekran interfacearayüzey,
236
569000
3000
Diğeri ise aynı dokunmatik ekranı ve aynı diyalogları kullanan
09:47
ranran exactlykesinlikle the sameaynı dialoguesdiyaloglar.
237
572000
2000
bir bilgisayardı.
09:49
The qualitykalite of advicetavsiye was identicalözdeş.
238
574000
2000
Verilen tavsiyelerin kalitesi aynıydı.
09:51
And the thirdüçüncü was just a pendolma kalem and paperkâğıt logkütük,
239
576000
2000
Ve üçüncüsü sadece bir kalem ve kağıttan ibaretti
09:53
because that's the standardstandart interventionmüdahale you typicallytipik get
240
578000
2000
çünkü bir diyet yada egzersiz programına başladığında,
09:55
when you startbaşlama a diet-and-exercisediyet ve egzersiz programprogram.
241
580000
3000
normalde takip için kullanacağın yöntem budur.
09:58
So one of the things we really wanted to look at
242
583000
3000
Sonuç olarak görmek istediğimiz şeylerden bir tanesi
10:01
was not how much weightağırlık people lostkayıp,
243
586000
3000
insanların ne kadar kilo kaybettiği değil
10:04
but really how long they interactedetkileşim with the robotrobot.
244
589000
3000
robotlarla ne kadar etkileşim içinde olduklarıydı.
10:07
Because the challengemeydan okuma is not losingkaybetme weightağırlık, it's actuallyaslında keepingkoruma it off.
245
592000
3000
Aslında mesele kilo vermek değil, mesele kilo almamak.
10:10
And the longeruzun you could interactetkileşim with one of these interventionsmüdahaleler,
246
595000
3000
Ve ne kadar uzun süre bu kontrol yöntemlerinden birini kullanırsan
10:13
well that's indicativegösterge, potentiallypotansiyel, of longer-termdaha uzun vadeli successbaşarı.
247
598000
3000
potansiyel olarak daha uzun vadeli bir başarıya ulaşılabilir.
10:16
So the first thing I want to look at is how long,
248
601000
2000
İlk olarak bakmak istediğim şey,
10:18
how long did people interactetkileşim with these systemssistemler.
249
603000
2000
insanların bu sistemlerle ne kadar uzun süre etkileşim içinde olduğu.
10:20
It turnsdönüşler out that people interactedetkileşim with the robotrobot
250
605000
2000
İnsanlar robotlarla çok daha fazla
10:22
significantlyanlamlı more,
251
607000
2000
etkileşim içindeler,
10:24
even thoughgerçi the qualitykalite of the advicetavsiye was identicalözdeş to the computerbilgisayar.
252
609000
3000
yapılan tavsiyelerin kalitesinin bilgisayarlarla aynı olmasına rağmen.
10:28
When it askeddiye sordu people to rateoran it on termsşartlar of the qualitykalite of the workingçalışma allianceİttifak,
253
613000
3000
İnsanlardan farklı sistemlerle yapılan bu işbirliğinin kalitesinin değerlendirilmesi istenildiğinde,
10:31
people ratedOy the robotrobot higherdaha yüksek
254
616000
2000
insanlar robotlara daha fazla değer verdiler
10:33
and they trustedgüvenilir the robotrobot more.
255
618000
2000
ve robotlara daha fazla güvendiler.
10:35
(LaughterKahkaha)
256
620000
2000
(Gülüşmeler)
10:37
And when you look at emotionalduygusal engagementnişan,
257
622000
2000
Ve kurulan duygusal bağı incelersek,
10:39
it was completelytamamen differentfarklı.
258
624000
2000
bu çok farklıydı.
10:41
People would nameisim the robotsrobotlar.
259
626000
2000
İnsanlar robotlara isimler verdiler.
10:43
They would dresselbise the robotsrobotlar.
260
628000
2000
Robotları giydirdiler.
10:45
(LaughterKahkaha)
261
630000
2000
(Gülüşmeler)
10:47
And even when we would come up to pickalmak up the robotsrobotlar at the endson of the studyders çalışma,
262
632000
3000
Ve hatta bu araştırmanın sonunda robotları almaya geldiğimizde,
10:50
they would come out to the cararaba and say good-byeGüle güle to the robotsrobotlar.
263
635000
2000
insanlar arabanın yanına kadar gelip robotlarla vedalaştılar.
10:52
They didn't do this with a computerbilgisayar.
264
637000
2000
Bunu bir bilgisayarla yapmadılar.
10:54
The last thing I want to talk about todaybugün
265
639000
2000
Bu gün hakkında konuşmak istediğim son şey,
10:56
is the futuregelecek of children'sçocuk mediamedya.
266
641000
2000
çocuk medyasının geleceği.
10:58
We know that kidsçocuklar spendharcamak a lot of time behindarkasında screensekranlar todaybugün,
267
643000
3000
Bildiğimiz gibi çocuklar ekranın karşısında çok fazla zaman geçiriyorlar,
11:01
whetherolup olmadığını it's televisiontelevizyon or computerbilgisayar gamesoyunlar or whatnotetajer.
268
646000
3000
bu televizyon, bilgisayar oyunları yada herhangi başka birşey olabilir.
11:04
My sonsoğulları, they love the screenekran. They love the screenekran.
269
649000
3000
Çocuklarım ekranı çok seviyorlar.
11:07
But I want them to playoyun; as a momanne, I want them to playoyun,
270
652000
3000
Ama ben onların oynamalarını istiyorum; bir anne olarak onların
11:10
like, real-worldgerçek dünya playoyun.
271
655000
2000
gerçek Dünyada'ki oyunları oynamalarını istiyorum.
11:12
And so I have a newyeni projectproje in my groupgrup I wanted to presentmevcut to you todaybugün
272
657000
3000
Bugün size grubumda başlattığım yeni bir projemi sunmak istiyorum,
11:15
calleddenilen PlaytimeÇalma süresi ComputingBilgi işlem
273
660000
2000
adı Playtime Computing olan bu proje
11:17
that's really tryingçalışıyor to think about how we can take
274
662000
2000
dijital medyanın neden bu kadar çekici
11:19
what's so engagingçekici about digitaldijital mediamedya
275
664000
2000
olduğu konusunda düşünmeye çalışıyor
11:21
and literallyharfi harfine bringgetirmek it off the screenekran
276
666000
2000
ve kelimenin tam anlamıyla bunu ekranın dışına taşımaya çalışıyor,
11:23
into the realgerçek worldDünya of the childçocuk,
277
668000
2000
çocukların gerçek Dünya'sına,
11:25
where it can take on manyçok of the propertiesözellikleri of real-worldgerçek dünya playoyun.
278
670000
3000
gerçek Dünya'daki oyunların birçok özelliğini alabileceği yere.
11:29
So here'sburada the first explorationkeşif of this ideaFikir,
279
674000
4000
Bu fikrin ilk araştırması şu oldu,
11:33
where characterskarakterler can be physicalfiziksel or virtualsanal,
280
678000
3000
karakterler gerçek yada sanal olabilir,
11:36
and where the digitaldijital contentiçerik
281
681000
2000
ve dijital içerik
11:38
can literallyharfi harfine come off the screenekran
282
683000
2000
ekranın dışına taşınabilir,
11:40
into the worldDünya and back.
283
685000
2000
gerçek Dünya'ya ve tekrar sanal ortama.
11:42
I like to think of this
284
687000
2000
Ben bunu karmaşık
11:44
as the AtariAtari PongPong
285
689000
2000
bir Atari oyunu gibi
11:46
of this blended-realityharmanlanmış reality playoyun.
286
691000
2000
düşünmeyi seviyorum.
11:48
But we can pushit this ideaFikir furtherayrıca.
287
693000
2000
Bu fikri daha da geliştirbiliriz.
11:50
What if --
288
695000
2000
Eğer --
11:52
(GameOyunu) NathanNathan: Here it comesgeliyor. YayYay!
289
697000
3000
(Oyun) Nathan: İşte o geliyor. Yay!
11:55
CBCB: -- the characterkarakter itselfkendisi could come into your worldDünya?
290
700000
3000
CB: -- karakterin kendisi sizin Dünya'nıza gelebiliseydi?
11:58
It turnsdönüşler out that kidsçocuklar love it
291
703000
2000
Görülüyorki karakterlerin gerçek olup
12:00
when the characterkarakter becomesolur realgerçek and entersgirer into theironların worldDünya.
292
705000
3000
onların Dünya'sına girmesi çocukların hoşuna gidiyor.
12:03
And when it's in theironların worldDünya,
293
708000
2000
Ve onların Dünya'sındayken,
12:05
they can relateilgili to it and playoyun with it in a way
294
710000
2000
çocuklar onlarla ekranda olduğundan çok farklı bir
12:07
that's fundamentallyesasen differentfarklı from how they playoyun with it on the screenekran.
295
712000
2000
şekilde oynayabilir ve onlarla bir ilişki kurabilir.
12:09
AnotherBaşka bir importantönemli ideaFikir is this notionkavram
296
714000
2000
Önemli başka bir nokta ise
12:11
of persistencesebat of characterkarakter acrosskarşısında realitiesgerçekler.
297
716000
3000
karakterin sanal ve gerçek Dünya arasındaki devamlılığı.
12:14
So changesdeğişiklikler that childrençocuklar make in the realgerçek worldDünya
298
719000
2000
Çocukların gerçek Dünya'da yaptığı değişiklikler
12:16
need to translateÇevirmek to the virtualsanal worldDünya.
299
721000
2000
sanal Dünya'ya da yansıtılmalı.
12:18
So here, NathanNathan has changeddeğişmiş the lettermektup A to the numbernumara 2.
300
723000
3000
Burda Nathan A harfini 2 sayısına çevirdi.
12:21
You can imaginehayal etmek maybe these symbolssemboller
301
726000
2000
Bu sembollerin karakterlere
12:23
give the characterskarakterler specialözel powersgüçler when it goesgider into the virtualsanal worldDünya.
302
728000
3000
sanal Dünya'da farklı güçler verdiğini düşünebilirsiniz.
12:26
So they are now sendinggönderme the characterkarakter back into that worldDünya.
303
731000
3000
Şimdi karakteri gerçek Dünya'ya gönderiyorlar.
12:29
And now it's got numbernumara powergüç.
304
734000
3000
Ve şimdi karakterin sayı gücü var.
12:32
And then finallyen sonunda, what I've been tryingçalışıyor to do here
305
737000
2000
Sonuç olarak, burda yapmaya çalıştığım
12:34
is createyaratmak a really immersivesürükleyici experiencedeneyim for kidsçocuklar,
306
739000
3000
çocuklar için tamamen gerçekci bir deneyim yaratmak,
12:37
where they really feel like they are partBölüm of that storyÖykü,
307
742000
3000
onların bu hikayenin bir parçası olduklarını hissettikleri
12:40
a partBölüm of that experiencedeneyim.
308
745000
2000
bir deneyim.
12:42
And I really want to sparkkıvılcım theironların imaginationshayal
309
747000
2000
Çocukların hayal güçlerini harekete geçirmek istiyorum,
12:44
the way mineMayın was sparkedyol açtı as a little girlkız watchingseyretme "StarYıldız WarsSavaşları."
310
749000
3000
ben küçük bir kızken "Star Wars" izlediğimde olduğu gibi.
12:47
But I want to do more than that.
311
752000
2000
Ama ben bundan fazlasını yapmak istiyorum.
12:49
I actuallyaslında want them to createyaratmak those experiencesdeneyimler.
312
754000
3000
Ben onların kendilerinin bu denyimi yaratmalarını istiyorum.
12:52
I want them to be ableyapabilmek to literallyharfi harfine buildinşa etmek theironların imaginationhayal gücü
313
757000
2000
Onların hayal ettiklerini bu deneyimlere yansıtmalarını
12:54
into these experiencesdeneyimler and make them theironların ownkendi.
314
759000
2000
ve bu deneyimleri kendilerinin yapmalarını istiyorum.
12:56
So we'vebiz ettik been exploringkeşfetmek a lot of ideasfikirler
315
761000
2000
Teleprezens ve karışık realiteyle ilgili farklı
12:58
in telepresenceTelepresence and mixedkarışık realitygerçeklik
316
763000
2000
fikirleri ele alarak çocukların düşüncelerini bu
13:00
to literallyharfi harfine allowizin vermek kidsçocuklar to projectproje theironların ideasfikirler into this spaceuzay
317
765000
3000
alana nasıl yansıtacağını ve diğer çocukların bu fikirlerle
13:03
where other kidsçocuklar can interactetkileşim with them
318
768000
2000
etkileşim içinde olup bu fikirleri nasıl
13:05
and buildinşa etmek uponüzerine them.
319
770000
2000
geliştireceğini araştırdık.
13:07
I really want to come up with newyeni waysyolları of children'sçocuk mediamedya
320
772000
3000
Çocuk medyasında çocukların yaratıcılıklarını, öğrenmelerini
13:10
that fosterbeslemek creativityyaratıcılık and learningöğrenme and innovationyenilik.
321
775000
3000
ve yeni fikirleri teşvik edecek yeni yöntemler bulmak istiyorum.
13:13
I think that's very, very importantönemli.
322
778000
3000
Bunun çok çok önemli olduğunu düşünüyorum.
13:16
So this is a newyeni projectproje.
323
781000
2000
Bu yeni bir proje.
13:18
We'veBiz ettik inviteddavet a lot of kidsçocuklar into this spaceuzay,
324
783000
2000
Çocukları buraya davet ettik,
13:20
and they think it's prettygüzel coolgüzel.
325
785000
3000
onlar bunu mükemmel buldu.
13:23
But I can tell you, the thing that they love the mostçoğu
326
788000
2000
Şunu söyleyebilirim, çocukların en çok sevdiği şey
13:25
is the robotrobot.
327
790000
2000
robot.
13:27
What they carebakım about is the robotrobot.
328
792000
3000
Önem verdikleri şey robot.
13:30
RobotsRobotlar touchdokunma something deeplyderinden humaninsan withiniçinde us.
329
795000
3000
Robotlar içimizdeki derin insani duyguya dokunuyorlar.
13:33
And so whetherolup olmadığını they're helpingyardım ediyor us
330
798000
2000
İster bize yaratıcı ve yenilikçi olmamızda
13:35
to becomeolmak creativeyaratıcı and innovativeyenilikçi,
331
800000
2000
yardımcı olmaları,
13:37
or whetherolup olmadığını they're helpingyardım ediyor us
332
802000
2000
ister bize uzaklara rağmen derinden
13:39
to feel more deeplyderinden connectedbağlı despiterağmen distancemesafe,
333
804000
2000
bağlılık hissetmemizde yardım etmeleri,
13:41
or whetherolup olmadığını they are our trustedgüvenilir sidekickyardımcı
334
806000
2000
yada bizim güvenilir destekçimiz olarak
13:43
who'skim helpingyardım ediyor us attainulaşmak our personalkişisel goalshedefleri
335
808000
2000
bize olabileceğimizin en iyisi olmak için koyduğumuz
13:45
in becomingolma our highesten yüksek and besten iyi selvescanlarından,
336
810000
2000
hedeflerimize ulaşmamızda yardımcı olmaları,
13:47
for me, robotsrobotlar are all about people.
337
812000
3000
benim için, robotlar tamamen insanlarla ilgili.
13:50
Thank you.
338
815000
2000
Teşekkür ederim.
13:52
(ApplauseAlkış)
339
817000
5000
(Alkışlar)
Translated by Cihan Senel
Reviewed by osman oguz ahsen

▲Back to top

ABOUT THE SPEAKER
Cynthia Breazeal - Roboticist
At MIT, Cynthia Breazeal and her team are building robots with social intelligence that communicate and learn the same way people do.

Why you should listen

Cynthia Breazeal founded and directs the Personal Robots Group at MIT’s Media Lab. Her research focuses on developing the principles and technologies for building personal robots that are socially intelligent—that interact and communicate with people in human-centric terms, work with humans as peers, and learn from people as an apprentice.

She has developed some of the world’s most famous robotic creatures, ranging from small hexapod robots to highly expressive humanoids, including the social robot Kismet and the expressive robot Leonardo. Her recent work investigates the impact of social robots on helping people of all ages to achieve personal goals that contribute to quality of life, in domains such as physical performance, learning and education, health, and family communication and play over distance.

More profile about the speaker
Cynthia Breazeal | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee