English-Video.net comment policy

The comment field is common to all languages

Let's write in your language and use "Google Translate" together

Please refer to informative community guidelines on TED.com

TED2015

Laura Schulz: The surprisingly logical minds of babies

Laura Schulz: Bebeklerin inanılmaz derecede mantıklı zihinleri

Filmed
Views 1,632,838

Bebekler bu kadar az şeyden bu kadar çok bilgiyi çabucak nasıl öğreniyor? Eğlenceli, deneyle dolu konuşmasında, bilişsel bilimci Laura Schulz, bebeklerimizin şaşırtıcı derecede güçlü bir mantıkla, konuşmadan bile önce nasıl karar verdiğini gösteriyor.

- Cognitive scientist
Developmental behavior studies spearheaded by Laura Schulz are changing our notions of how children learn. Full bio

Mark Twain summed up
what I take to be
Mark Twain, benim bilişsel bilimlerin
00:12
one of the fundamental problems
of cognitive science
temel sorunlarından biri olarak
gördüğüm şeyi
00:14
with a single witticism.
tek bir espriyle özetledi.
00:18
He said, "There's something
fascinating about science.
"Bilimle ilgili inanılmaz bir şey var.
00:20
One gets such wholesale
returns of conjecture
İncir çekirdeğini doldurmayan
gerçeğe yatırımla,
00:23
out of such a trifling
investment in fact."
varsayımların toptan satış
kârını elde edebilirsiniz."
00:26
(Laughter)
(Gülüşmeler)
00:29
Twain meant it as a joke,
of course, but he's right:
Twain bunu şaka amaçlı söyledi
tabii ki de, ama haklı:
00:32
There's something
fascinating about science.
Bilimle ilgili inanılmaz bir şey var.
00:34
From a few bones, we infer
the existence of dinosuars.
Birkaç kemikten, dinozorların
varlığına ulaşıyoruz.
00:37
From spectral lines,
the composition of nebulae.
Tayf çizgilerinden,
bulutsuların dizilimine;
00:42
From fruit flies,
meyve sineklerinden,
00:47
the mechanisms of heredity,
kalıtım düzeneklerine
00:50
and from reconstructed images
of blood flowing through the brain,
ve beynin içinde akan kanın
yeniden oluşturulan görüntülerinden,
00:53
or in my case, from the behavior
of very young children,
ya da benim durumumda, çok küçük
çocukların davranışından,
00:57
we try to say something about
the fundamental mechanisms
insan bilişinin temel düzenekleriyle
ilgili bir şeyler
01:02
of human cognition.
söylemeye çalışıyoruz.
01:05
In particular, in my lab in the Department
of Brain and Cognitive Sciences at MIT,
Özellikle, MIT'teki Beyin ve Bilişsel
Bilimler Bölümü'ndeki laboratuvarımda,
01:07
I have spent the past decade
trying to understand the mystery
geçen on yılı, çocukların çok az bilgiyle
bu kadar çok bilgiyi çok hızlıca
01:12
of how children learn so much
from so little so quickly.
nasıl öğrendiğini
anlamaya çalışarak harcadım.
01:16
Because, it turns out that
the fascinating thing about science
Çünkü, bilimle ilgili
büyüleyici olan şey,
01:20
is also a fascinating
thing about children,
aynı zamanda çocuklarla ilgili
olarak da büyüleyici bir şey oluyor,
01:23
which, to put a gentler
spin on Mark Twain,
Mark Twain'in bakışıyla
ele alırsak,
01:27
is precisely their ability
to draw rich, abstract inferences
bu durum, tam olarak çocukların
yetersiz ve belirsiz veriden
01:29
rapidly and accurately
from sparse, noisy data.
hızlıca ve doğruca zengin ve soyut
çıkarımlar yapma yeteneği demek.
01:34
I'm going to give you
just two examples today.
Bugün size yalnızca iki örnek vereceğim.
01:40
One is about a problem of generalization,
Birisi genelleme sorunuyla ilgili,
01:42
and the other is about a problem
of causal reasoning.
diğeriyse nedensel akıl yürütme
sorunuyla ilgili.
01:45
And although I'm going to talk
about work in my lab,
Ve laboratuvarımdaki çalışmamla
ilgili konuşacak olsam da,
01:47
this work is inspired by
and indebted to a field.
bu çalışma alanımda teşekkür borçlu
olduğum kişilerden ilham alıyor.
01:50
I'm grateful to mentors, colleagues,
and collaborators around the world.
Dünyadaki tüm danışmanlara, meslektaşlara
ve işbirlikçilere minnettârım.
01:53
Let me start with the problem
of generalization.
Genelleme sorunuyla başlayalım.
01:59
Generalizing from small samples of data
is the bread and butter of science.
Küçük veri örneklerinden genelleme yapmak
bilimin ekmek teknesidir.
02:02
We poll a tiny fraction of the electorate
Küçücük bir seçmen kitlesine anket yaparız
02:06
and we predict the outcome
of national elections.
ve ulusal seçimlerin sonucunu öngörürüz.
02:09
We see how a handful of patients
responds to treatment in a clinical trial,
Bir klinik deneyde bir avuç insanın
tedaviye verdiği tepkiye bakar
02:12
and we bring drugs to a national market.
ve ilaçları ülke pazarına süreriz.
02:16
But this only works if our sample
is randomly drawn from the population.
Fakat böyle bir şey, ancak örneğimiz
ana kitleden rastgele alınırsa işe yarar.
02:19
If our sample is cherry-picked
in some way --
Örneğimiz bir şekilde
keyfî olarak seçilmişse,
02:23
say, we poll only urban voters,
diyelim ki yalnızca şehirdeki seçmenleri
02:26
or say, in our clinical trials
for treatments for heart disease,
ya da diyelim ki kalp hastalığı
tedavisi klinik deneylerimizde
02:28
we include only men --
yalnızca erkekleri dâhil ettik --
02:32
the results may not generalize
to the broader population.
sonuçlar daha geniş ana kitleye
genellenemeyebilir.
02:34
So scientists care whether evidence
is randomly sampled or not,
Bu yüzden bilim insanları, bulgunun
rastgeleliğine önem verir,
02:38
but what does that have to do with babies?
ama bunun bebeklerle ne ilgisi var?
02:42
Well, babies have to generalize
from small samples of data all the time.
Şöyle ki, bebekler sürekli küçük veri
örneklerinden genellemek zorundadır.
02:44
They see a few rubber ducks
and learn that they float,
Birkaç oyuncak ördek görürler ve
batmadan durduğunu öğrenirler
02:49
or a few balls and learn that they bounce.
ya da birkaç topun zıpladığını öğrenirler.
02:52
And they develop expectations
about ducks and balls
Ördekler ve toplarla ilgili
02:55
that they're going to extend
to rubber ducks and balls
yaşamları boyunca
oyuncak ördek ve toplara ekleyecekleri
02:58
for the rest of their lives.
beklentiler edinirler.
03:01
And the kinds of generalizations
babies have to make about ducks and balls
Ve bebekler, ördekler ve toplarla ilgili
yapması gereken bu tür genellemeleri
03:03
they have to make about almost everything:
neredeyse her şey için yapmak zorundadır:
03:07
shoes and ships and sealing wax
and cabbages and kings.
ayakkabılar, gemiler, mühür mumları,
lahanalar, krallar...
03:09
So do babies care whether
the tiny bit of evidence they see
Peki bebekler gördükleri
küçücük bulgu parçasının
03:14
is plausibly representative
of a larger population?
daha büyük bir ana kitleyi
temsil edişini umursar mı?
03:17
Let's find out.
Haydi öğrenelim.
03:21
I'm going to show you two movies,
Size iki video göstereceğim,
03:23
one from each of two conditions
of an experiment,
bir deneyin iki koşulunu
da gösteren videolar
03:25
and because you're going to see
just two movies,
ve yalnızca iki video izleyeceğiniz için
03:27
you're going to see just two babies,
yalnızca iki bebek göreceksiniz
03:30
and any two babies differ from each other
in innumerable ways.
ve herhangi iki bebek birbirinden
sayısız farklılıklar gösterir.
03:32
But these babies, of course,
here stand in for groups of babies,
Fakat bu bebekler, tabii ki,
bebek gruplarını temsil ediyor
03:36
and the differences you're going to see
ve göreceğiniz farklılıklar
03:39
represent average group differences
in babies' behavior across conditions.
bebeklerin davranışındaki koşullar arası
ortalama grup farklılıklarını temsil ediyor.
03:41
In each movie, you're going to see
a baby doing maybe
Her videoda, bir bebeğin belki de
03:47
just exactly what you might
expect a baby to do,
bir bebekten tam da bekleyeceğiniz
şeyi yaptığını göreceksiniz
03:49
and we can hardly make babies
more magical than they already are.
ve bebekleri olduklarından daha sihirli
yapmamız mümkün değildir.
03:53
But to my mind the magical thing,
Fakat benim zihnimde, sihirli olan şey
03:58
and what I want you to pay attention to,
ve dikkat etmenizi istediğim şey
04:00
is the contrast between
these two conditions,
bu iki koşul arasındaki zıtlık,
04:02
because the only thing
that differs between these two movies
çünkü bu iki video arasındaki
tek farklı şey
04:05
is the statistical evidence
the babies are going to observe.
bebeklerin gözlemleyeceği
istatistiksel bulgu.
04:08
We're going to show babies
a box of blue and yellow balls,
Bebeklere mavi ve sarı toplarla dolu
bir kutu göstereceğiz
04:13
and my then-graduate student,
now colleague at Stanford, Hyowon Gweon,
ve eski yüksek lisans öğrencim, şimdiki
Stanford'lu meslektaşım Hyowon Gweon,
04:16
is going to pull three blue balls
in a row out of this box,
bu kutudan art arda
üç mavi top çekecek
04:21
and when she pulls those balls out,
she's going to squeeze them,
ve bu topları çektiğinde
onları sıkacak
04:24
and the balls are going to squeak.
ve toplar ses çıkaracak.
04:27
And if you're a baby,
that's like a TED Talk.
Ve bebekseniz, bu tam
TED Konuşması gibidir.
04:29
It doesn't get better than that.
Bundan daha iyisi olamaz.
04:32
(Laughter)
(Gülüşmeler)
04:34
But the important point is it's really
easy to pull three blue balls in a row
Fakat önemli olan şey şu ki çoğu topun
mavi olduğu bir kutudan art arda
04:38
out of a box of mostly blue balls.
üç mavi top çekmek gerçekten kolaydır.
04:42
You could do that with your eyes closed.
Bunu gözleriniz kapalı da yapabilirsiniz.
04:44
It's plausibly a random sample
from this population.
Ana kitleden çekilen toplar
olası biçimde rastgele bir örnektir.
04:46
And if you can reach into a box at random
and pull out things that squeak,
Ve kutunun içinden rastgele çektiğiniz
toplar ses çıkarıyorsa, belki
04:49
then maybe everything in the box squeaks.
kutudaki tüm toplar ses çıkarıyordur.
04:53
So maybe babies should expect
those yellow balls to squeak as well.
Bu yüzden belki bebekler sarı topların da
ses çıkarmasını bekliyordur.
04:56
Now, those yellow balls
have funny sticks on the end,
Bu sarı topların ucunda
komik çubuklar takılı,
05:00
so babies could do other things
with them if they wanted to.
bebekler isterlerse sarı toplara
farklı şeyler de yapabilir.
05:02
They could pound them or whack them.
Alıp yere vurabilirler.
05:05
But let's see what the baby does.
Ama bir görelim ne yapıyorlar.
05:07
(Video) Hyowon Gweon: See this?
(Ball squeaks)
(Video) Hyowon Gweon: Bunu görüyor musun?
(Top ses çıkarıyor)
05:12
Did you see that?
(Ball squeaks)
Gördün mü?
(Top ses çıkarıyor)
05:16
Cool.
Çok güzel.
05:20
See this one?
Bunu görüyor musun?
05:24
(Ball squeaks)
(Top ses çıkarıyor)
05:26
Wow.
Vay be.
05:28
Laura Schulz: Told you. (Laughs)
Laura Schulz: Dedim size. (Gülüşmeler)
05:33
(Video) HG: See this one?
(Ball squeaks)
(Video) HG: Bunu görüyor musun?
(Top ses çıkarıyor)
05:35
Hey Clara, this one's for you.
You can go ahead and play.
Bak Clara, bu sana.
Alıp oynayabilirsin.
05:39
(Laughter)
(Gülüşmeler)
05:51
LS: I don't even have to talk, right?
LS: Konuşmama bile gerek yok, değil mi?
05:56
All right, it's nice that babies
will generalize properties
Pekâlâ, bebeklerin mavi topların
özelliklerini sarı toplara
05:59
of blue balls to yellow balls,
genellemesi güzel
06:02
and it's impressive that babies
can learn from imitating us,
ve bizi taklit ederek
öğrenebilmeleri etkileyici
06:03
but we've known those things about babies
for a very long time.
fakat bebeklerle ilgili olarak
bunları uzun süredir biliyoruz.
06:06
The really interesting question
Gerçekten ilginç olan soru şu:
06:10
is what happens when we show babies
exactly the same thing,
bebeklere tam olarak
aynı şeyi gösterirsek ne olur?
06:12
and we can ensure it's exactly the same
because we have a secret compartment
Birebir aynı olduğuna emin olabiliriz,
çünkü gizli bir bölmemiz var
06:15
and we actually pull the balls from there,
ve aslında topları oradan çekiyoruz,
06:18
but this time, all we change
is the apparent population
ancak bu sefer, değiştirdiğimiz
tek şey bulgunun çekildiği
06:20
from which that evidence was drawn.
görünürdeki ana kitlenin kendisi.
06:24
This time, we're going to show babies
three blue balls
Bu sefer, bebeklere üç mavi topu
06:27
pulled out of a box
of mostly yellow balls,
çoğunlukla sarı topların olduğu
kutudan çekerek göstereceğiz
06:30
and guess what?
ve bilin bakalım ne olacak?
06:34
You [probably won't] randomly draw
three blue balls in a row
Çoğunluğun sarı toplar olduğu
kutudan art arda üç mavi topu
06:35
out of a box of mostly yellow balls.
[muhtemelen] çekemezsiniz.
06:38
That is not plausibly
randomly sampled evidence.
Böyle bir şey muhtemelen
rastgele örnekli bulgu olmaz.
06:40
That evidence suggests that maybe Hyowon
was deliberately sampling the blue balls.
Böyle bir bulgu, Hyowon'un kasıtlı olarak
mavi topları çektiği izlenimini verebilir.
06:44
Maybe there's something special
about the blue balls.
Belki toplarla ilgili özel bir şey var.
06:49
Maybe only the blue balls squeak.
Belki yalnızca mavi toplar ses çıkarıyor.
06:52
Let's see what the baby does.
Bakalım bebek ne yapıyor.
06:55
(Video) HG: See this?
(Ball squeaks)
(Video) HG: Bunu görüyor musun?
(Top ses çıkarıyor)
06:57
See this toy?
(Ball squeaks)
Bu oyuncağı görüyor musun?
(Top ses çıkarıyor)
07:02
Oh, that was cool. See?
(Ball squeaks)
Aman da ne güzel. Gördün mü?
(Top ses çıkarıyor)
07:05
Now this one's for you to play.
You can go ahead and play.
Bak bu da senin için.
Alıp oynayabilirsin.
07:10
(Fussing)
(Laughter)
(Mızıldanıyor)
(Gülüşmeler)
07:18
LS: So you just saw
two 15-month-old babies
LS: Az önce 15 aylık iki bebeğin
07:26
do entirely different things
yalnızca gözlemledikleri örneğin
07:29
based only on the probability
of the sample they observed.
olasılığına dayanarak bambaşka
şeyler yapışını gördünüz.
07:31
Let me show you the experimental results.
Deneysel sonuçlara bakalım.
07:35
On the vertical axis, you'll see
the percentage of babies
Dikey eksende, her iki durumda da
topu sıkan bebeklerin
07:37
who squeezed the ball in each condition,
yüzdesini görüyorsunuz
07:40
and as you'll see, babies are much
more likely to generalize the evidence
ve gördüğünüz gibi, bebekler;
bulgu, ana kitlenin muhtemel temsilcisi
07:42
when it's plausibly representative
of the population
olduğunda bulguyu genellemeye,
07:46
than when the evidence
is clearly cherry-picked.
bulgu keyfî olarak seçildiğindeki durumda
genellemekten daha yatkınlar.
07:49
And this leads to a fun prediction:
Ve bu, eğlenceli bir öngörüye çıkıyor:
07:53
Suppose you pulled just one blue ball
out of the mostly yellow box.
Çoğu sarı top olan kutudan yalnızca bir
mavi top çektiğinizi varsayın.
07:55
You [probably won't] pull three blue balls
in a row at random out of a yellow box,
Sarı top kutusundan art arda üç kez
mavi topu muhtemelen çekemezsiniz,
08:00
but you could randomly sample
just one blue ball.
ama rastgele yalnızca
bir mavi top çekebilirsiniz.
08:04
That's not an improbable sample.
Olasılıksız bir örnek değil.
08:07
And if you could reach into
a box at random
Ve bir kutudan rastgele bir şey çekip de
08:09
and pull out something that squeaks,
maybe everything in the box squeaks.
çektiğiniz şey ses çıkarıyorsa, belki
kutudaki her şey ses çıkarıyordur.
08:11
So even though babies are going to see
much less evidence for squeaking,
Bu yüzden, bebekler bu tek top koşulunda
izlediğiniz bir önceki koşula göre
08:15
and have many fewer actions to imitate
ses çıkaran daha az bulgu görseler de
08:20
in this one ball condition than in
the condition you just saw,
ve taklit edecekleri daha az eylem olsa da
08:22
we predicted that babies themselves
would squeeze more,
bebeklerin daha çok
top sıkacağını öngördük
08:25
and that's exactly what we found.
ve bulduğumuz da tam olarak bu oldu.
08:29
So 15-month-old babies,
in this respect, like scientists,
15 aylık bebekler, bu hususta,
tıpkı bilim adamları gibi
08:32
care whether evidence
is randomly sampled or not,
bulgunun rastgele örneklenip
örneklenmediğini önemsiyor
08:37
and they use this to develop
expectations about the world:
ve bunu dünyayla ilgili beklentiler
edinmek için kullanıyorlar:
08:40
what squeaks and what doesn't,
Ne ses çıkarır, ne ses çıkarmaz,
08:43
what to explore and what to ignore.
ne keşfedilmeli, ne görmezden gelinmeli?
08:45
Let me show you another example now,
Şimdi size bir başka örnek göstereyim,
08:50
this time about a problem
of causal reasoning.
bu seferki nedensel
akıl yürütme sorunuyla ilgili.
08:52
And it starts with a problem
of confounded evidence
Ve hepimizin yaşadığı bir şaşırtıcı bulgu
08:55
that all of us have,
sorunuyla başlıyor,
08:57
which is that we are part of the world.
dünyanın parçası olmamızın sorunu.
08:59
And this might not seem like a problem
to you, but like most problems,
Ve size bir sorun gibi görünmeyebilir,
fakat çoğu sorun gibi,
09:01
it's only a problem when things go wrong.
yalnızca işler yoldan çıkınca
sorun hâlini alıyor.
09:04
Take this baby, for instance.
Örneğin bu bebeği ele alalım.
09:07
Things are going wrong for him.
Onun için işler yolunda gitmiyor.
09:09
He would like to make
this toy go, and he can't.
Bu oyuncağı çalıştırmak
istiyor ve yapamıyor.
09:10
I'll show you a few-second clip.
Birkaç saniyelik videoyu göstereceğim.
09:13
And there's two possibilities, broadly:
Ve kabaca iki olasılık var:
09:21
Maybe he's doing something wrong,
Belki bir şeyleri yanlış yapıyor
09:23
or maybe there's something
wrong with the toy.
ya da belki oyuncakta
bir bozukluk var.
09:25
So in this next experiment,
Diğerini izleyen bu deneyde,
09:30
we're going to give babies
just a tiny bit of statistical data
bebeklere, bir varsayımı diğerine göre
destekleyen yalnızca küçücük
09:32
supporting one hypothesis over the other,
istatistiksel veri parçası vereceğiz
09:35
and we're going to see if babies
can use that to make different decisions
ve bebekler, yapacakları
şeye karar verirken bunu
09:38
about what to do.
kullanabilecekler mi göreceğiz.
09:41
Here's the setup.
Böyle bir kurgumuz var.
09:43
Hyowon is going to try to make
the toy go and succeed.
Hyowon oyuncağı çalıştırmayı
deneyecek ve başaracak.
09:46
I am then going to try twice
and fail both times,
Sonra ben iki kez deneyeceğim
ve ikisinde de başarısız olacağım
09:49
and then Hyowon is going
to try again and succeed,
ve sonra Hyowon yeniden
deneyip başaracak
09:52
and this roughly sums up my relationship
to my graduate students
ve bu durum, kurul boyunca yüksek
lisans öğrencilerimle teknoloji
09:55
in technology across the board.
durumumu kabaca özetliyor.
09:58
But the important point here is
it provides a little bit of evidence
Fakat buradaki önemli nokta,
sorunun oyuncakla ilgili olmadığı;
10:02
that the problem isn't with the toy,
it's with the person.
kişiyle ilgili olduğuyla ilgili küçük
bulgu sağlanıyor.
10:05
Some people can make this toy go,
Kimi insanlar bu oyuncağı çalıştırabiliyor
10:08
and some can't.
kimileri yapamıyor.
10:11
Now, when the baby gets the toy,
he's going to have a choice.
Şimdi, bebek oyuncağı alınca
bir seçim yapacak.
10:12
His mom is right there,
Annesi hemen yanında,
10:16
so he can go ahead and hand off the toy
and change the person,
bu yüzden oyuncağı ona verip
kişiyi değiştirebilir,
10:18
but there's also going to be
another toy at the end of that cloth,
fakat kumaşın ucunda başka bir
oyuncak daha bulunacak
10:21
and he can pull the cloth towards him
and change the toy.
ve kumaşı kendine çekerek
oyuncağı değiştirebilir.
10:24
So let's see what the baby does.
Haydi bakalım bebek ne yapıyor.
10:28
(Video) HG: Two, three. Go!
(Music)
(Video) HG: İki, üç. Başla!
(Müzik)
10:30
LS: One, two, three, go!
LS: Bir, iki, üç, başla!
10:34
Arthur, I'm going to try again.
One, two, three, go!
Arthur, yeniden deneyeceğim.
Bir, iki, üç, başla!
10:37
YG: Arthur, let me try again, okay?
YG: Arthur, ben yeniden
deneyeyim, olur mu?
10:45
One, two, three, go!
(Music)
Bir, iki, üç, başla!
(Müzik)
10:48
Look at that. Remember these toys?
Şuna bak. Bu oyuncakları hatırladın mı?
10:53
See these toys? Yeah, I'm going
to put this one over here,
Oyuncakları görüyor musun?
Tamam, bunu buraya koyuyorum
10:55
and I'm going to give this one to you.
ve bunu da sana veriyorum.
10:58
You can go ahead and play.
Alıp oynayabilirsin.
11:00
LS: Okay, Laura, but of course,
babies love their mommies.
LS: Tamam Laura, ama tabii ki
bebekler annelerini severler.
11:23
Of course babies give toys
to their mommies
Tabii ki bebekler
oyuncakları çalıştıramayınca
11:27
when they can't make them work.
annelerine verir.
11:30
So again, the really important question
is what happens when we change
Bu yüzden yine, önemli soru,
istatistiksel veriyi çok azıcık
11:32
the statistical data ever so slightly.
değiştirince ne olacağıdır.
11:35
This time, babies are going to see the toy
work and fail in exactly the same order,
Bu sefer, bebekler oyuncağın bir öncekiyle
aynı biçimde çalışıp bozulduğunu görecek,
11:38
but we're changing
the distribution of evidence.
fakat bulgunun dağılımını değiştireceğiz.
11:42
This time, Hyowon is going to succeed
once and fail once, and so am I.
Bu sefer, Hyowon bir kez başarıp bir kez
yapamayacak, bende de aynısı olacak.
11:45
And this suggests it doesn't matter
who tries this toy, the toy is broken.
Ve oyuncağı kimin denediğinin önemi
olmayacak, oyuncak bozuk izlenimi verecek.
11:49
It doesn't work all the time.
Oyuncak her denemede çalışmıyor.
11:55
Again, the baby's going to have a choice.
Yine, bebek bir seçim yapacak.
11:57
Her mom is right next to her,
so she can change the person,
Annesi hemen yanında, bu yüzden
bebek deneyeni değiştirebilir
11:59
and there's going to be another toy
at the end of the cloth.
ve kumaşın ucunda başka
bir oyuncak daha olacak.
12:02
Let's watch what she does.
Bebek ne yapıyor izleyelim.
12:05
(Video) HG: Two, three, go!
(Music)
(Video) HG: İki, üç, başla!
(Müzik)
12:07
Let me try one more time.
One, two, three, go!
Bir kere daha deneyeyim.
Bir, iki, üç, başla!
12:11
Hmm.
Hımm.
12:17
LS: Let me try, Clara.
LS: Ben deneyeyim Clara.
12:19
One, two, three, go!
Bir, iki, üç, başla!
12:22
Hmm, let me try again.
Hımm, bir daha deneyeyim.
12:27
One, two, three, go!
(Music)
Bir, iki, üç, başla!
(Müzik)
12:29
HG: I'm going
to put this one over here,
HG: Bunu buraya koyuyorum
12:35
and I'm going to give this one to you.
ve bunu da sana veriyorum.
12:37
You can go ahead and play.
Alıp oynayabilirsin.
12:39
(Applause)
(Alkış)
12:58
LS: Let me show you
the experimental results.
LS: Size deney sonuçlarını göstereyim.
13:04
On the vertical axis,
you'll see the distribution
Dikey eksende,
çocukların her durumla ilgili
13:07
of children's choices in each condition,
seçimlerini görüyorsunuz
13:09
and you'll see that the distribution
of the choices children make
ve çocukların yaptığı seçimlerin dağılımı
13:12
depends on the evidence they observe.
gözlemledikleri bulguya bağlı.
13:16
So in the second year of life,
Yaşamın ikinci yılında,
13:19
babies can use a tiny bit
of statistical data
bebekler küçücük
istatistiksel veri parçasını,
13:21
to decide between two
fundamentally different strategies
temelde farklı stratejiler arasında
dünyada eylemde bulunmak için
13:24
for acting in the world:
karara varırken kullanabiliyorlar:
13:27
asking for help and exploring.
yardım istemek ve keşfetmek.
13:29
I've just shown you
two laboratory experiments
Size az önce iki laboratuvar deneyini
13:33
out of literally hundreds in the field
that make similar points,
alandaki abartısız yüzlerce benzer noktaya
vurgu yapanların arasından gösterdim,
13:37
because the really critical point
çünkü esas önemli mesele
13:40
is that children's ability
to make rich inferences from sparse data
çocukların belirsiz verilerden zengin
çıkarımlar yapabilme yeteneği
13:43
underlies all the species-specific
cultural learning that we do.
türümüze özgü kültürel
öğrenmemizin temelini oluşturuyor.
13:48
Children learn about new tools
from just a few examples.
Çocuklar yeni araçları yalnızca
birkaç örnekten öğreniyor.
13:53
They learn new causal relationships
from just a few examples.
Nedensel ilişkilerini yalnızca
birkaç örnekten öğreniyor.
13:58
They even learn new words,
in this case in American Sign Language.
Hatta yeni sözcükleri bile öğreniyorlar,
bu örnekte Amerikan İşaret Dili'ni.
14:03
I want to close with just two points.
Konuşmamı iki hususla kapatmak istiyorum.
14:08
If you've been following my world,
the field of brain and cognitive sciences,
Benim dünyamı, beyin ve bilişsel
bilimler alanını, son birkaç yıldır
14:12
for the past few years,
takip ediyorsanız,
14:15
three big ideas will have come
to your attention.
üç büyük fikir ilginizi çekmiştir.
14:17
The first is that this is
the era of the brain.
Birincisi, bu çağ beyin çağıdır.
14:20
And indeed, there have been
staggering discoveries in neuroscience:
Ve aslında, sinirbilimde insanı
afallatan keşifler yapıldı:
14:23
localizing functionally specialized
regions of cortex,
beyin kabuğunun işlevselce özelleşmiş
bölgelerinin yerinin belirlenmesi,
14:27
turning mouse brains transparent,
fare beyinlerinin şeffaflaştırılması,
14:30
activating neurons with light.
sinir hücrelerinin
ışıkla etkinleştirilmesi.
14:33
A second big idea
İkinci büyük fikir,
14:36
is that this is the era of big data
and machine learning,
bu çağ, büyük veri
ve makine öğrenimi çağıdır
14:38
and machine learning promises
to revolutionize our understanding
ve makine öğrenimi,
sosyal ağlardan salgınbilimine
14:43
of everything from social networks
to epidemiology.
her şeyi anlayışımızı
değiştirmeye söz veriyor.
14:46
And maybe, as it tackles problems
of scene understanding
Ve belki makine öğrenimi, mekan algılama
14:50
and natural language processing,
ve doğal dil işleme sorunlarıyla
14:53
to tell us something
about human cognition.
bize insan bilişi hakkında
bir şeyler anlatmak için uğraşıyor.
14:55
And the final big idea you'll have heard
Ve duyacağınız üçüncü büyük fikir,
14:59
is that maybe it's a good idea we're going
to know so much about brains
beyin hakkında o kadar çok şey
bilmemiz ve büyük veriye o kadar çok
15:01
and have so much access to big data,
erişimimizin olması iyi olacak,
15:05
because left to our own devices,
çünkü işler kendi
irademize bırakıldığında,
15:06
humans are fallible, we take shortcuts,
insanlar yanılabilir,
kestirmeleri seçiyoruz
15:09
we err, we make mistakes,
konuşurken duraksıyoruz,
hatalar yapıyoruz,
15:13
we're biased, and in innumerable ways,
önyargılıyız ve birçok biçimde
15:16
we get the world wrong.
dünyaya kötülük yapıyoruz.
15:20
I think these are all important stories,
Bence bunların hepsi önemli hikâyeler
15:24
and they have a lot to tell us
about what it means to be human,
ve insan olmanın anlamı üzerine
bize söyleyecekleri çok şey var,
15:27
but I want you to note that today
I told you a very different story.
fakat bir kenara yazmanızı istiyorum,
bugün size çok başka bir hikâye anlattım.
15:31
It's a story about minds and not brains,
Anlattığım zihin hakkında,
beyin hakkında değil
15:35
and in particular, it's a story
about the kinds of computations
ve özellikle, yalnızca insan
zihninin gerçekleştirebildiği türde,
15:39
that uniquely human minds can perform,
zengin, yapılandırılmış bilgi
ve küçük miktarda veriden;
15:42
which involve rich, structured knowledge
and the ability to learn
yalnızca birkaç örneğin bulgusundan
öğrenme yeteneğini içeren türde
15:45
from small amounts of data,
the evidence of just a few examples.
hesaplamalar hakkında bir hikâye,
yalnızca birkaç örneğin bulgusu.
15:49
And fundamentally, it's a story
about how starting as very small children
Ve temelde, küçük bir
çocuk olarak başlayıp
15:56
and continuing out all the way
to the greatest accomplishments
kültürümüzdeki en büyük
başarılara giden yolda
16:00
of our culture,
devam ederek,
16:04
we get the world right.
dünyayı düzeltişimizin hikâyesidir.
16:08
Folks, human minds do not only learn
from small amounts of data.
Arkadaşlar, insan zihni yalnızca
küçük miktarda veriyle öğrenmez.
16:12
Human minds think
of altogether new ideas.
İnsan zihni, bütün fikirleri
bir arada düşünür.
16:18
Human minds generate
research and discovery,
İnsan zihni,
araştırma ve keşif yaratır,
16:20
and human minds generate
art and literature and poetry and theater,
insan zihni; sanat, edebiyat,
şiir ve tiyatro yaratır
16:23
and human minds take care of other humans:
ve insan zihni diğer insanlarla ilgilenir:
16:29
our old, our young, our sick.
yaşlılarımızla, gençlerimizle,
hastalarımızla.
16:32
We even heal them.
Hatta insanları iyileştiriyoruz.
16:36
In the years to come, we're going
to see technological innovations
Gelecek yıllarda, zihnimde
canlandırabileceğimin bile ötesinde
16:39
beyond anything I can even envision,
teknolojik yenileşmeler göreceğiz,
16:42
but we are very unlikely
fakat benim ya da sizin yaşamınız boyunca
16:46
to see anything even approximating
the computational power of a human child
bir insan çocuğunun
hesaplama gücüne yaklaşacak güçte bile
16:48
in my lifetime or in yours.
bir şeyin görülmesi olası değil.
16:54
If we invest in these most powerful
learners and their development,
Bu en güçlü öğrenicilere
ve onların gelişimine;
16:58
in babies and children
bebeklere ve çocuklara,
17:03
and mothers and fathers
annelere ve babalara,
17:06
and caregivers and teachers
bakıcılara ve öğretmenlere,
17:08
the ways we invest in our other
most powerful and elegant forms
diğer teknolojinin, mühendisliğin
ve tasarımın en güçlü ve zeki türlerine
17:11
of technology, engineering and design,
yatırım yaptığımız gibi yaparsak,
17:15
we will not just be dreaming
of a better future,
yalnızca daha iyi bir geleceğin
hayalini kuruyor olmayacağız,
17:18
we will be planning for one.
iyi bir geleceği planlıyor olacağız.
17:21
Thank you very much.
Çok teşekkür ederim.
17:23
(Applause)
(Alkış)
17:25
Chris Anderson: Laura, thank you.
I do actually have a question for you.
Chris Anderson: Laura, teşekkür ederiz.
Sana soracağım bir sorum var.
17:29
First of all, the research is insane.
Öncelikle, bu çılgınca bir araştırma.
17:34
I mean, who would design
an experiment like that? (Laughter)
Demek istediğim, kim böyle
bir deney tasarlar ki? (Gülüşmeler)
17:36
I've seen that a couple of times,
Birkaç kez izledim
17:41
and I still don't honestly believe
that that can truly be happening,
ve hâlâ gerçekten bunun
olabileceğine inanmıyorum,
17:42
but other people have done
similar experiments; it checks out.
fakat diğer insanlar da benzer
deneyler yaptı ve sonuçlar örtüşüyor.
17:46
The babies really are that genius.
Bebekler gerçekten tam bir dâhi.
17:49
LS: You know, they look really impressive
in our experiments,
LS: Biliyor musun, deneylerimizde
gerçekten şaşırtıcı görünüyor,
17:50
but think about what they
look like in real life, right?
fakat gerçek yaşamda
nasıl olduklarını bir düşün.
17:53
It starts out as a baby.
Bebek olarak başlıyor.
17:56
Eighteen months later,
it's talking to you,
On sekiz ay sonra,
seninle konuşuyor
17:57
and babies' first words aren't just
things like balls and ducks,
ve bebeklerin ilk sözcükleri
yalnızca top ya da ördek değil,
17:59
they're things like "all gone,"
which refer to disappearance,
"hepsi gitti" gibi ortadan
kaybolmayla ilgili şeyler ya da
18:02
or "uh-oh," which refer
to unintentional actions.
"a-aa" gibi istemsiz
eylemlerle ilgili şeyler.
18:05
It has to be that powerful.
Bebeğin güçlü olması gerekiyor.
18:07
It has to be much more powerful
than anything I showed you.
Gösterdiğim herhangi bir şeyden
daha güçlü olması gerekiyor.
18:09
They're figuring out the entire world.
Koca dünyayı anlamlandırıyorlar.
18:12
A four-year-old can talk to you
about almost anything.
Dört yaşında bir çocuk neredeyse
her şey hakkında konuşabilir.
18:14
(Applause)
(Alkış)
18:17
CA: And if I understand you right,
the other key point you're making is,
CA: Sizi doğru anladıysam,
dikkat çektiğiniz diğer bir husus
18:19
we've been through these years
where there's all this talk
yıllardır şu konuşma ortada dönüyor,
18:22
of how quirky and buggy our minds are,
beynimiz ve zihnimiz acayip ve kusurlu,
18:25
that behavioral economics
and the whole theories behind that
davranışsal ekonomi
ve ardındaki bütün kuramlar
18:27
that we're not rational agents.
mantıklı varlıklar olmadığımızı söyler.
18:29
You're really saying that the bigger
story is how extraordinary,
Gerçekten de büyük
hikâyenin olağanüstü olduğunu
18:31
and there really is genius there
that is underappreciated.
ve gerçekten gereğinden az değer verilen
bir dâhinin varlığından bahsediyorsunuz.
18:35
LS: One of my favorite
quotes in psychology
LS: Ruhbilimdeki
en sevdiğim alıntılardan biri
18:40
comes from the social
psychologist Solomon Asch,
toplumsal ruhbilimci
Solomon Asch'tan gelir
18:42
and he said the fundamental task
of psychology is to remove
ve Solomon, ruhbilimin
temel görevinin zâten ortada olanın
18:45
the veil of self-evidence from things.
örtüsünü kaldırmak olduğunu söylemiştir.
18:47
There are orders of magnitude
more decisions you make every day
Her gün önem sırasına göre
verdiğiniz birçok karar vardır,
18:50
that get the world right.
bu kararlar dünyayı düzeltir.
18:55
You know about objects
and their properties.
Nesneleri ve özelliklerini bilirsiniz.
18:56
You know them when they're occluded.
You know them in the dark.
Önüne engel gelince tanırsınız.
Karanlıkta tanırsınız.
18:58
You can walk through rooms.
Bir odadan diğerine yürüyebilirsiniz.
19:01
You can figure out what other people
are thinking. You can talk to them.
Başkalarının ne düşündüğünü
anlarsınız. Onlarla konuşursunuz.
19:02
You can navigate space.
You know about numbers.
Uzayda hareket edersiniz.
Sayıları bilirsiniz.
19:06
You know causal relationships.
You know about moral reasoning.
Nedensel ilişkileri bilirsiniz.
Ahlâkî akıl yürütmeyi bilirsiniz.
19:08
You do this effortlessly,
so we don't see it,
Bunları çabasız yaparsınız,
bu yüzden pek bir şey görmeyiz,
19:11
but that is how we get the world right,
and it's a remarkable
fakat dünyayı böyle
anlamlandırırız, bu dikkate değerdir
19:14
and very difficult-to-understand
accomplishment.
ve anlaması çok zor bir başarımdır.
19:16
CA: I suspect there are people
in the audience who have
CA: Sanırım izleyicilerimiz arasında
teknolojinin hızlanan gücünü
19:19
this view of accelerating
technological power
benimseyen sizin
üç yaşındaki çocuğun
19:21
who might dispute your statement
that never in our lifetimes
yapabileceklerini bir bilgisayarın
hiçbir zaman yapamayacağı
19:24
will a computer do what
a three-year-old child can do,
açıklamanıza itiraz
edecek insanlar olabilir,
19:27
but what's clear is that in any scenario,
fakat net olan şey şu, her durumda
19:29
our machines have so much to learn
from our toddlers.
makinelerimizin bebeklerimizden
öğreneceği çok şey var.
19:32
LS: I think so. You'll have some
machine learning folks up here.
LS: Bence de. Burada makine
öğrenimiyle ilgilenen arkadaşlar vardır.
19:38
I mean, you should never bet
against babies or chimpanzees
Diyorum ki, asla bebekleri şempanzelerle
19:41
or technology as a matter of practice,
ya da teknolojiyle kıyaslamayın,
19:45
but it's not just
a difference in quantity,
fakat bu yalnızca
nicelik farklılığı değil.
19:49
it's a difference in kind.
Tür farklılığı.
19:53
We have incredibly powerful computers,
İnanılmaz güçlü bilgisayarlarımız var
19:55
and they do do amazingly
sophisticated things,
ve inanılmaz karmaşık
şeyler yapıyorlar,
19:57
often with very big amounts of data.
sıklıkla büyük miktarda veriyle.
20:00
Human minds do, I think,
something quite different,
İnsan zihni, bence,
oldukça farklı bir şey yapıyor
20:03
and I think it's the structured,
hierarchical nature of human knowledge
ve bence, asıl zorlayıcı olan şey,
20:05
that remains a real challenge.
insan zihninin yapısal, basamaklı doğası.
20:09
CA: Laura Schulz, wonderful
food for thought. Thank you so much.
CA: Laura Schulz, üstünde düşünülecek
harika bir konuşmaydı. Çok teşekkürler.
20:11
LS: Thank you.
(Applause)
LS: Teşekkürler
(Alkış)
20:14
Translated by Şâkir Aşçı
Reviewed by güney örnek

▲Back to top

About the speaker:

Laura Schulz - Cognitive scientist
Developmental behavior studies spearheaded by Laura Schulz are changing our notions of how children learn.

Why you should listen

MIT Early Childhood Cognition Lab lead investigator Laura Schulz studies learning in early childhood. Her research bridges computational models of cognitive development and behavioral studies in order to understand the origins of inquiry and discovery.

Working in play labs, children’s museums, and a recently-launched citizen science website, Schultz is reshaping how we view young children’s perceptions of the world around them. Some of the surprising results of her research: before the age of four, children expect hidden causes when events happen probabilistically, use simple experiments to distinguish causal hypotheses, and trade off learning from instruction and exploration.

More profile about the speaker
Laura Schulz | Speaker | TED.com