ABOUT THE SPEAKER
Laura Schulz - Cognitive scientist
Developmental behavior studies spearheaded by Laura Schulz are changing our notions of how children learn.

Why you should listen

MIT Early Childhood Cognition Lab lead investigator Laura Schulz studies learning in early childhood. Her research bridges computational models of cognitive development and behavioral studies in order to understand the origins of inquiry and discovery.

Working in play labs, children’s museums, and a recently-launched citizen science website, Schultz is reshaping how we view young children’s perceptions of the world around them. Some of the surprising results of her research: before the age of four, children expect hidden causes when events happen probabilistically, use simple experiments to distinguish causal hypotheses, and trade off learning from instruction and exploration.

More profile about the speaker
Laura Schulz | Speaker | TED.com
TED2015

Laura Schulz: The surprisingly logical minds of babies

Laura Schulz: Les esprits étonnamment logiques des bébés

Filmed:
1,888,975 views

Comment les bébés apprennent-ils tellement de si peu si rapidement ? Dans cet amusant Talk riche d’expériences, la scientifique cognitive Laura Schulz démontre comment nos plus jeunes prennent des décisions avec un sens de la logique étonnamment fort, bien avant même qu’ils ne puissent parler.
- Cognitive scientist
Developmental behavior studies spearheaded by Laura Schulz are changing our notions of how children learn. Full bio

Double-click the English transcript below to play the video.

00:12
MarkMark TwainTWAIN summedsommé up
what I take to be
0
835
2155
Mark Twain a résumé
ce que je considère être
00:14
one of the fundamentalfondamental problemsproblèmes
of cognitivecognitif sciencescience
1
2990
3120
un des problèmes fondamentaux
de la science cognitive
00:18
with a singleunique witticismboutade.
2
6110
1710
avec une plaisanterie unique.
Il a dit, « La science
a quelque chose de fascinant.
00:20
He said, "There's something
fascinatingfascinant about sciencescience.
3
8410
3082
00:23
One getsobtient suchtel wholesalevente en gros
returnsrésultats of conjectureconjecture
4
11492
3228
On reçoit des retours en masse
de conjecture
00:26
out of suchtel a triflinginsignifiante
investmentinvestissement in factfait."
5
14720
3204
sur un investissement
aussi insignifiant en soi. »
00:29
(LaughterRires)
6
17924
1585
(Rires)
C'était une plaisanterie,
bien-sûr, mais Twain a raison :
00:32
TwainTWAIN meantsignifiait it as a jokeblague,
of coursecours, but he's right:
7
20199
2604
00:34
There's something
fascinatingfascinant about sciencescience.
8
22803
2876
la science a quelque chose de fascinant.
00:37
From a fewpeu bonesdes os, we inferinférer
the existenceexistence of dinosuarsdinosuars.
9
25679
4261
De quelques os, nous déduisons
l’existence des dinosaures.
00:42
From spectralspectral lineslignes,
the compositioncomposition of nebulaenébuleuses.
10
30910
3871
De raies spectrales,
la composition des nébuleuses.
00:47
From fruitfruit fliesmouches,
11
35471
2938
De mouches à fruits,
00:50
the mechanismsmécanismes of heredityhérédité,
12
38409
2943
les mécanismes de l'hérédité,
00:53
and from reconstructedreconstruit imagesimages
of blooddu sang flowingécoulement throughpar the braincerveau,
13
41352
4249
et d’images reconstituées
de sang circulant dans le cerveau,
00:57
or in my caseCas, from the behaviorcomportement
of very youngJeune childrenles enfants,
14
45601
4708
ou dans mon cas, du comportement
de très jeunes enfants,
01:02
we try to say something about
the fundamentalfondamental mechanismsmécanismes
15
50309
2829
nous essayons de dire
quelque chose à propos
des mécanismes fondamentaux
de la cognition humaine.
01:05
of humanHumain cognitioncognition.
16
53138
1618
01:07
In particularparticulier, in my lablaboratoire in the DepartmentDépartement
of BrainCerveau and CognitiveCognitive SciencesSciences at MITMIT,
17
55716
4759
Surtout dans mon laboratoire
du Département du Cerveau
et Sciences Cognitives au MIT,
01:12
I have spentdépensé the pastpassé decadedécennie
tryingen essayant to understandcomprendre the mysterymystère
18
60475
3654
j’ai passé la dernière décennie
essayant de comprendre
le mystère derrière lequel
01:16
of how childrenles enfants learnapprendre so much
from so little so quicklyrapidement.
19
64129
3977
les enfants apprennent tellement
à partir de si peu si rapidement.
Parce qu'en fait, ce qui est fascinant
à propos de la science
01:20
Because, it turnsse tourne out that
the fascinatingfascinant thing about sciencescience
20
68666
2978
01:23
is alsoaussi a fascinatingfascinant
thing about childrenles enfants,
21
71644
3529
fascine aussi à propos des enfants,
01:27
whichlequel, to put a gentlerplus doux
spintourner on MarkMark TwainTWAIN,
22
75173
2581
et donc la touche
légère de Mark Twain,
01:29
is preciselyprécisément theirleur abilitycapacité
to drawdessiner richriches, abstractabstrait inferencesinférences
23
77754
4650
est précisément leur capacité
de tirer des conclusions
riches, abstraites,
01:34
rapidlyrapidement and accuratelyavec précision
from sparseclairsemée, noisybruyant dataLes données.
24
82404
4661
avec rapidité et avec précision
à partir de données éparses, bruitées.
01:40
I'm going to give you
just two examplesexemples todayaujourd'hui.
25
88355
2398
Je vais vous donner
deux exemples aujourd’hui.
01:42
One is about a problemproblème of generalizationgénéralisation,
26
90753
2287
L’un porte sur un problème
de généralisation,
01:45
and the other is about a problemproblème
of causalcausal reasoningraisonnement.
27
93040
2850
et l’autre sur une problème
de la relation de causalité.
01:47
And althoughbien que I'm going to talk
about work in my lablaboratoire,
28
95890
2525
Bien que je parle du travail
dans mon laboratoire,
01:50
this work is inspiredinspiré by
and indebtedendettés to a fieldchamp.
29
98415
3460
ce travail est inspiré par un domaine.
auquel je suis redevable.
Je suis reconnaissante
aux mentors, collègues,
01:53
I'm gratefulreconnaissant to mentorsmentors, colleaguescollègues,
and collaboratorscollaborateurs around the worldmonde.
30
101875
4283
et collaborateurs
dans le monde entier.
01:59
Let me startdébut with the problemproblème
of generalizationgénéralisation.
31
107308
2974
Laissez-moi commencer
par le problème de généralisation.
Généraliser à partir
de petits échantillons de données
02:02
GeneralizingEn généralisant from smallpetit sampleséchantillons of dataLes données
is the breadpain and butterbeurre of sciencescience.
32
110652
4133
est le fer de lance de la science.
02:06
We pollsondage a tinyminuscule fractionfraction of the electorateélectorat
33
114785
2554
Nous sondons une infime
fraction de l'électorat
et prévoyons le résultat
des élections nationales.
02:09
and we predictprédire the outcomerésultat
of nationalnationale electionsélections.
34
117339
2321
Nous voyons comment
une poignée de patients
02:12
We see how a handfulpoignée of patientsles patients
respondsrépond to treatmenttraitement in a clinicalclinique trialprocès,
35
120240
3925
réagit au traitement
d'un essai clinique,
02:16
and we bringapporter drugsdrogues to a nationalnationale marketmarché.
36
124165
3065
et nous introduisons les médicaments
à un marché national.
Mais cela ne réussit que
si notre échantillon
02:19
But this only workstravaux if our sampleéchantillon
is randomlyau hasard drawntiré from the populationpopulation.
37
127230
4365
est tiré aléatoirement
à partir de la population.
02:23
If our sampleéchantillon is cherry-pickedaléatoirement
in some way --
38
131595
2735
Si notre échantillon
est trié sur le volet -
02:26
say, we pollsondage only urbanUrbain votersélecteurs,
39
134330
2072
si nous ne sondions
que les électeurs urbains,
02:28
or say, in our clinicalclinique trialsessais
for treatmentstraitements for heartcœur diseasemaladie,
40
136402
4388
ou si, dans nos essais cliniques
pour traitements de maladies cardiaques,
02:32
we includecomprendre only menHommes --
41
140790
1881
nous ne retenions
que des hommes--
02:34
the resultsrésultats maymai not generalizegénéraliser
to the broaderplus large populationpopulation.
42
142671
3158
les résultats ne se généraliseront pas
à l’ensemble de population.
Donc les scientifiques se soucient
02:38
So scientistsscientifiques carese soucier whetherqu'il s'agisse evidencepreuve
is randomlyau hasard sampledéchantillonnés or not,
43
146479
3581
si l'échantillon est aléatoire ou non,
02:42
but what does that have to do with babiesbébés?
44
150060
2015
mais quel rapport
cela a-t-il avec les bébés?
02:44
Well, babiesbébés have to generalizegénéraliser
from smallpetit sampleséchantillons of dataLes données all the time.
45
152585
4621
Eh bien, les bébés doivent généraliser
à partir de petits échantillons
de données tout le temps.
Ils voient quelques canards en caoutchouc
et apprennent qu'ils flottent
02:49
They see a fewpeu rubbercaoutchouc duckscanards
and learnapprendre that they floatflotteur,
46
157206
3158
02:52
or a fewpeu ballsdes balles and learnapprendre that they bounceBounce.
47
160364
3575
ou quelques balles
et apprennent qu'elles rebondissent.
Et ils découvrent les caractéristiques
des canards et des balles
02:55
And they developdévelopper expectationsattentes
about duckscanards and ballsdes balles
48
163939
2951
02:58
that they're going to extendétendre
to rubbercaoutchouc duckscanards and ballsdes balles
49
166890
2716
qu'ils vont attendre des canards
en caoutchouc et balles
03:01
for the restdu repos of theirleur livesvies.
50
169606
1879
pour le restant de leur vie.
03:03
And the kindssortes of generalizationsgénéralisations
babiesbébés have to make about duckscanards and ballsdes balles
51
171485
3739
Et les types de généralisations
que les bébés font à ce propos,
ils devront les faire
à propos de presque tout:
03:07
they have to make about almostpresque everything:
52
175224
2089
03:09
shoeschaussures and shipsnavires and sealingd’étanchéité waxcire
and cabbageschoux and kingsrois.
53
177313
3917
des chaussures, navires,
cire à sceller, choux et rois.
Les bébés se soucient-ils
de savoir
03:14
So do babiesbébés carese soucier whetherqu'il s'agisse
the tinyminuscule bitbit of evidencepreuve they see
54
182200
2961
si le peu de preuves
qu'ils observent
03:17
is plausiblyplausiblement representativereprésentant
of a largerplus grand populationpopulation?
55
185161
3692
représente de manière plausible
l’ensemble de la population?
03:21
Let's find out.
56
189763
1900
Allons vérifier.
03:23
I'm going to showmontrer you two moviesfilms,
57
191663
1723
Je vais vous montrer deux films,
03:25
one from eachchaque of two conditionsconditions
of an experimentexpérience,
58
193386
2462
un pour chacune des 2 conditions
d'une expérience,
03:27
and because you're going to see
just two moviesfilms,
59
195848
2438
et parce que vous n’allez
voir que deux films,
03:30
you're going to see just two babiesbébés,
60
198286
2136
vous n’allez voir que deux bébés,
03:32
and any two babiesbébés differdifférer from eachchaque other
in innumerableinnombrables waysfaçons.
61
200422
3947
et ils diffèrent l'un de l'autre
de bien des façons.
03:36
But these babiesbébés, of coursecours,
here standsupporter in for groupsgroupes of babiesbébés,
62
204369
3051
Mais ces bébés, bien-sûr,
représentent des groupes de bébés,
03:39
and the differencesdifférences you're going to see
63
207420
1895
et les différences ici représentent
les différences moyennes
03:41
representreprésenter averagemoyenne groupgroupe differencesdifférences
in babies'XXS behaviorcomportement acrossà travers conditionsconditions.
64
209315
5195
par groupe dans le comportement des bébés
à travers différentes situations.
Dans chaque film, vous allez voir
qu’un bébé peut-être faire
03:47
In eachchaque moviefilm, you're going to see
a babybébé doing maybe
65
215160
2583
03:49
just exactlyexactement what you mightpourrait
expectattendre a babybébé to do,
66
217743
3460
exactement ce que vous pourriez
attendre de lui qu’il fasse,
03:53
and we can hardlyà peine make babiesbébés
more magicalmagique than they alreadydéjà are.
67
221203
4017
et nous pouvons difficilement
rendre les bébés
plus magiques qu’ils ne sont déjà.
03:58
But to my mindesprit the magicalmagique thing,
68
226090
2010
Mais à mon avis,
ce qui est magique,
04:00
and what I want you to payPayer attentionattention to,
69
228100
2089
et ce sur quoi je voudrais
attirer votre attention,
04:02
is the contrastcontraste betweenentre
these two conditionsconditions,
70
230189
3111
est le contraste entre
ces deux conditions,
04:05
because the only thing
that differsse distingue betweenentre these two moviesfilms
71
233300
3529
parce que le seul élément
qui diffère entre ces deux films
04:08
is the statisticalstatistique evidencepreuve
the babiesbébés are going to observeobserver.
72
236829
3466
est la preuve statistique
que les bébés vont observer.
04:13
We're going to showmontrer babiesbébés
a boxboîte of bluebleu and yellowjaune ballsdes balles,
73
241425
3183
Nous allons montrer aux bébés
une boite de balles bleues et jaunes,
04:16
and my then-graduatealors-diplômé studentétudiant,
now colleaguecollègue at StanfordStanford, HyowonHyowon GweonGweon,
74
244608
4620
et mon étudiante diplômée, Hyowon Gweon,
maintenant une collègue à Stanford,
04:21
is going to pulltirer threeTrois bluebleu ballsdes balles
in a rowrangée out of this boxboîte,
75
249228
3077
va tirer trois balles
d’affilée de cette boite,
04:24
and when she pullstire those ballsdes balles out,
she's going to squeezeécraser them,
76
252305
3123
et en les tirant,
elle va les presser;
04:27
and the ballsdes balles are going to squeakSqueak.
77
255428
2113
les balles vont couiner.
04:29
And if you're a babybébé,
that's like a TEDTED Talk.
78
257541
2763
Et si vous êtes un bébé
c'est comme un Talk TED,
04:32
It doesn't get better than that.
79
260304
1904
on ne fait pas mieux.
04:34
(LaughterRires)
80
262208
2561
(Rires)
Mais le point important
est qu'il est vraiment facile
04:38
But the importantimportant pointpoint is it's really
easyfacile to pulltirer threeTrois bluebleu ballsdes balles in a rowrangée
81
266968
3659
de tirer trois
balles bleues d’affilée
04:42
out of a boxboîte of mostlyla plupart bluebleu ballsdes balles.
82
270627
2305
d'une boîte de balles
surtout bleues.
04:44
You could do that with your eyesles yeux closedfermé.
83
272932
2060
Vous pourriez le faire
les yeux fermés.
04:46
It's plausiblyplausiblement a randomau hasard sampleéchantillon
from this populationpopulation.
84
274992
2996
C'est un échantillon aléatoire possible
de cet ensemble.
Et si vous pouvez tirer au hasard
dans une boîte
04:49
And if you can reachatteindre into a boxboîte at randomau hasard
and pulltirer out things that squeakSqueak,
85
277988
3732
pour en obtenir
des choses qui couinent,
04:53
then maybe everything in the boxboîte squeakscouine.
86
281720
2839
alors peut-être que
tout dans cette boîte couine.
04:56
So maybe babiesbébés should expectattendre
those yellowjaune ballsdes balles to squeakSqueak as well.
87
284559
3650
Les bébés devront donc s’attendre
à ce que les boules jaunes couinent aussi.
05:00
Now, those yellowjaune ballsdes balles
have funnydrôle sticksbâtons on the endfin,
88
288209
2519
Les boules jaunes ont
des bâtons amusants au bout,
donc les bébés peuvent les
utiliser différemment s’ils le veulent.
05:02
so babiesbébés could do other things
with them if they wanted to.
89
290728
2857
05:05
They could poundlivre them or whackbattre them.
90
293585
1831
Ils pourraient les lancer ou taper avec.
05:07
But let's see what the babybébé does.
91
295416
2586
Mais voyons
ce que fait le bébé.
05:12
(VideoVidéo) HyowonHyowon GweonGweon: See this?
(BallBall squeakscouine)
92
300548
3343
(Vidéo) Hyowon Gweon: Tu vois ceci?
(Couinement)
05:16
Did you see that?
(BallBall squeakscouine)
93
304531
3045
(Vidéo) Hyowon Gweon: Tu vois ceci?
(Couinement)
05:20
CoolCool.
94
308036
3066
Cool.
05:24
See this one?
95
312706
1950
Tu vois celle-là?
05:26
(BallBall squeakscouine)
96
314656
1881
(Couinement)
Ouah.
05:28
WowWow.
97
316537
2653
05:33
LauraLaura SchulzSchulz: Told you. (LaughsRires)
98
321854
2113
Laura Schulz: Je vous l'avais dit.
(Rires)
05:35
(VideoVidéo) HGHG: See this one?
(BallBall squeakscouine)
99
323967
4031
(Vidéo) HG: Tu vois celle-là?
(Couinement)
05:39
Hey ClaraClara, this one'sson for you.
You can go aheaddevant and playjouer.
100
327998
4619
Hé Clara, celle-ci est pour toi.
Vas-y, tu peux jouer avec.
(Rires)
05:51
(LaughterRires)
101
339854
4365
LS: Je n’ai même pas besoin
de parler, n’est-ce pas?
05:56
LSLS: I don't even have to talk, right?
102
344219
2995
05:59
All right, it's niceagréable that babiesbébés
will generalizegénéraliser propertiesPropriétés
103
347214
2899
C’est bien que les bébés
généralisent les propriétés
des balles bleues aux balles jaunes
06:02
of bluebleu ballsdes balles to yellowjaune ballsdes balles,
104
350113
1528
et il est impressionnant que les bébés
puissent apprendre en nous imitant,
06:03
and it's impressiveimpressionnant that babiesbébés
can learnapprendre from imitatingimiter us,
105
351641
3096
06:06
but we'venous avons knownconnu those things about babiesbébés
for a very long time.
106
354737
3669
mais nous savions ça à propos
des bébés depuis très longtemps.
06:10
The really interestingintéressant questionquestion
107
358406
1811
La question vraiment intéressante
est ce qui arrive si nous leur montrons
exactement la même chose,
06:12
is what happensarrive when we showmontrer babiesbébés
exactlyexactement the sameMême thing,
108
360217
2852
06:15
and we can ensureassurer it's exactlyexactement the sameMême
because we have a secretsecret compartmentcompartiment
109
363069
3611
et que nous sommes sûrs
que c'est le cas,
parce qu'on a
un compartiment secret
06:18
and we actuallyréellement pulltirer the ballsdes balles from there,
110
366680
2110
dans lequel on garde les balles.
06:20
but this time, all we changechangement
is the apparentapparent populationpopulation
111
368790
3478
Mais cette fois-ci, nous ne changeons
que l'ensemble apparent
06:24
from whichlequel that evidencepreuve was drawntiré.
112
372268
2902
dans lequel cette preuve est tirée.
06:27
This time, we're going to showmontrer babiesbébés
threeTrois bluebleu ballsdes balles
113
375170
3553
Cette fois, nous allons montrer
aux bébés trois balles bleues
06:30
pulledtiré out of a boxboîte
of mostlyla plupart yellowjaune ballsdes balles,
114
378723
3384
tirées d’une boite
essentiellement de boules jaunes.
06:34
and guessdeviner what?
115
382107
1322
et devinez quoi ?
06:35
You [probablyProbablement won'thabitude] randomlyau hasard drawdessiner
threeTrois bluebleu ballsdes balles in a rowrangée
116
383429
2840
Vous ne pourriez pas tirer
de manière aléatoire
trois balles bleues d’affilée
d’une boite de balles surtout jaunes.
06:38
out of a boxboîte of mostlyla plupart yellowjaune ballsdes balles.
117
386269
2484
06:40
That is not plausiblyplausiblement
randomlyau hasard sampledéchantillonnés evidencepreuve.
118
388753
3747
Ce n’est pas
un échantillon aléatoire probable.
06:44
That evidencepreuve suggestssuggère that maybe HyowonHyowon
was deliberatelydélibérément samplingprélèvement d’échantillons the bluebleu ballsdes balles.
119
392500
5123
Cette preuve montre que Hyowon
a peut-être intentionnellement
choisi les balles bleues.
Peut-être que les balles bleues
ont quelque chose de spécial.
06:49
Maybe there's something specialspécial
about the bluebleu ballsdes balles.
120
397623
2583
06:52
Maybe only the bluebleu ballsdes balles squeakSqueak.
121
400846
2976
Peut-être que seules
les balles bleues couinent.
06:55
Let's see what the babybébé does.
122
403822
1895
Voyons voir ce que le bébé fait.
06:57
(VideoVidéo) HGHG: See this?
(BallBall squeakscouine)
123
405717
2904
(Vidéo) HG: Tu vois ceci?
(Couinement)
07:02
See this toyjouet?
(BallBall squeakscouine)
124
410851
2645
Tu vois ce jouet?
(Couinement)
07:05
Oh, that was coolcool. See?
(BallBall squeakscouine)
125
413496
5480
Oh, c’était cool.
(Couinement)
07:10
Now this one'sson for you to playjouer.
You can go aheaddevant and playjouer.
126
418976
4394
Maintenant, c’est à toi de jouer avec.
Vas-y et joue.
07:18
(FussingS’agiter)
(LaughterRires)
127
426074
6347
(Agitation)
(Rires)
07:26
LSLS: So you just saw
two 15-month-old-mois-vieux babiesbébés
128
434901
2748
LS : Vous venez de voir
2 bébés de 15 mois
07:29
do entirelyentièrement differentdifférent things
129
437649
1942
faire 2 choses
totalement différentes
07:31
basedbasé only on the probabilityprobabilité
of the sampleéchantillon they observedobservé.
130
439591
3599
en s'appuyant sur la probabilité
des échantillons qu’ils ont observés.
07:35
Let me showmontrer you the experimentalexpérimental resultsrésultats.
131
443190
2321
Voici les résultats de l’expérience.
07:37
On the verticalverticale axisaxe, you'lltu vas see
the percentagepourcentage of babiesbébés
132
445511
2764
Sur l’axe vertical, vous verrez
le pourcentage de bébés
07:40
who squeezedpressé the ballballon in eachchaque conditioncondition,
133
448275
2530
qui a pressé la balle
dans chacune des situations,
07:42
and as you'lltu vas see, babiesbébés are much
more likelyprobable to generalizegénéraliser the evidencepreuve
134
450805
3715
et comme vous le constaterez,
les bébés généralisent
plus souvent le résultat
07:46
when it's plausiblyplausiblement representativereprésentant
of the populationpopulation
135
454520
3135
quand il représente
un échantillon probable de l'ensemble,
07:49
than when the evidencepreuve
is clearlyclairement cherry-pickedaléatoirement.
136
457655
3738
que quand la preuve
est clairement triée sur le volet.
07:53
And this leadspistes to a funamusement predictionprédiction:
137
461393
2415
Et ceci mène
à une prédiction amusante:
07:55
SupposeSupposons que you pulledtiré just one bluebleu ballballon
out of the mostlyla plupart yellowjaune boxboîte.
138
463808
4868
Supposons que vous n’ayez tiré
qu’une seule balle bleue
d'une boîte de boules
essentiellement jaunes.
08:00
You [probablyProbablement won'thabitude] pulltirer threeTrois bluebleu ballsdes balles
in a rowrangée at randomau hasard out of a yellowjaune boxboîte,
139
468896
3869
Vous ne pourriez pas tirer
au hasard 3 balles bleues
d’une boite de jaunes,
mais vous pourriez ne tirer
au hasard qu’une balle bleue.
08:04
but you could randomlyau hasard sampleéchantillon
just one bluebleu ballballon.
140
472765
2455
08:07
That's not an improbableimprobable sampleéchantillon.
141
475220
1970
Cela n’est pas
un échantillon improbable.
08:09
And if you could reachatteindre into
a boxboîte at randomau hasard
142
477190
2224
Et si vous tirer au hasard dans une boite
08:11
and pulltirer out something that squeakscouine,
maybe everything in the boxboîte squeakscouine.
143
479414
3987
quelque chose qui couine,
peut-être que tout
dans cette boite couine.
08:15
So even thoughbien que babiesbébés are going to see
much lessMoins evidencepreuve for squeakinggrincer,
144
483875
4445
Donc même si les bébés observeront
moins de preuves de couinement,
08:20
and have manybeaucoup fewermoins actionsactes to imitateimiter
145
488320
2242
et ont beaucoup
moins d’actions à imiter
avec une unique balle
08:22
in this one ballballon conditioncondition than in
the conditioncondition you just saw,
146
490562
3343
qu'avec plusieurs
nous avions prédit que
les bébés eux-mêmes
08:25
we predictedprédit that babiesbébés themselvesse
would squeezeécraser more,
147
493905
3892
presseront la boule davantage,
08:29
and that's exactlyexactement what we founda trouvé.
148
497797
2894
et c’est exactement que nous avons trouvé.
08:32
So 15-month-old-mois-vieux babiesbébés,
in this respectle respect, like scientistsscientifiques,
149
500691
4411
Donc les bébés de 15 mois,
à ce sujet, comme les scientifiques,
08:37
carese soucier whetherqu'il s'agisse evidencepreuve
is randomlyau hasard sampledéchantillonnés or not,
150
505102
3088
se soucient si l'échantillon
est aléatoire ou non.
08:40
and they use this to developdévelopper
expectationsattentes about the worldmonde:
151
508190
3507
Et ils emploient ceci pour développer
leurs attentes du monde :
08:43
what squeakscouine and what doesn't,
152
511697
2182
ce qui couine ou ne couine pas,
08:45
what to exploreexplorer and what to ignoreignorer.
153
513879
3145
quoi explorer et quoi ignorer.
08:50
Let me showmontrer you anotherun autre exampleExemple now,
154
518384
2066
Un autre exemple maintenant.
Cette fois sur un problème
de relation de causalité.
08:52
this time about a problemproblème
of causalcausal reasoningraisonnement.
155
520450
2730
08:55
And it startsdéparts with a problemproblème
of confoundedconfondu evidencepreuve
156
523180
2439
Et il commence par la pensée déconcertante
08:57
that all of us have,
157
525619
1672
que nous avons tous,
08:59
whichlequel is that we are partpartie of the worldmonde.
158
527291
2020
à savoir que nous faisons partie du monde.
09:01
And this mightpourrait not seemsembler like a problemproblème
to you, but like mostles plus problemsproblèmes,
159
529311
3436
Et cela ne vous paraît
peut-être pas problématique
mais comme tous les problèmes,
09:04
it's only a problemproblème when things go wrongfaux.
160
532747
2337
ce n'en est un que
quand les choses vont mal.
09:07
Take this babybébé, for instanceexemple.
161
535464
1811
Prenez ce bébé, par exemple.
09:09
Things are going wrongfaux for him.
162
537275
1705
Les choses vont mal pour lui.
Il veut faire marcher
ce jouet, mais n’y arrive pas.
09:10
He would like to make
this toyjouet go, and he can't.
163
538980
2271
09:13
I'll showmontrer you a few-secondquelques secondes clipagrafe.
164
541251
2529
Je vais vous montrer un clip
de quelques secondes.
Et il y a en fait deux possibilités :
09:21
And there's two possibilitiespossibilités, broadlylargement:
165
549340
1920
09:23
Maybe he's doing something wrongfaux,
166
551260
2634
Peut-être fait-il quelque chose de mal,
09:25
or maybe there's something
wrongfaux with the toyjouet.
167
553894
4216
ou alors il y a quelque chose
de mal avec le jouet.
09:30
So in this nextprochain experimentexpérience,
168
558110
2111
Donc dans cette prochaine expérience,
09:32
we're going to give babiesbébés
just a tinyminuscule bitbit of statisticalstatistique dataLes données
169
560221
3297
nous n’allons donner aux bébés
que quelques données statistiques
09:35
supportingsoutenir les one hypothesishypothèse over the other,
170
563518
2582
privilégiant une hypothèse
par rapport à l’autre,
09:38
and we're going to see if babiesbébés
can use that to make differentdifférent decisionsles décisions
171
566100
3455
et nous verrons si les bébés
pourront se baser sur ça
pour décider quoi faire.
09:41
about what to do.
172
569555
1834
09:43
Here'sVoici the setupprogramme d’installation.
173
571389
2022
Voici la situation.
09:46
HyowonHyowon is going to try to make
the toyjouet go and succeedréussir.
174
574071
3030
Hyowon va essayer de faire fonctionner
le jouer et réussir.
09:49
I am then going to try twicedeux fois
and failéchouer bothtous les deux timesfois,
175
577101
3320
Je vais ensuite essayer deux fois
et échouer les deux fois,
09:52
and then HyowonHyowon is going
to try again and succeedréussir,
176
580421
3112
et puis Hyowon va
encore essayer et réussir.
09:55
and this roughlygrossièrement sumsdes sommes up my relationshiprelation
to my graduatediplômé studentsélèves
177
583533
3172
Ceci résume à peu près
ma relation avec mes étudiants diplômés
09:58
in technologyLa technologie acrossà travers the boardplanche.
178
586705
2835
en technologie
à tous les niveaux.
10:02
But the importantimportant pointpoint here is
it providesfournit a little bitbit of evidencepreuve
179
590030
3292
Mais le point important ici est
qu’il fournit un petit peu de preuves
10:05
that the problemproblème isn't with the toyjouet,
it's with the personla personne.
180
593322
3668
sur le fait que le
problème n'est pas le jouet,
mais la personne.
10:08
Some people can make this toyjouet go,
181
596990
2350
Certaines personnes peuvent
faire marcher ce jouet
10:11
and some can't.
182
599340
959
et d'autres non.
10:12
Now, when the babybébé getsobtient the toyjouet,
he's going to have a choicechoix.
183
600799
3413
Donc, quand le bébé reçoit le jouet,
il va avoir le choix.
10:16
His mommaman is right there,
184
604212
2188
Sa maman est juste là,
afin qu'il puisse aller de l'avant
10:18
so he can go aheaddevant and handmain off the toyjouet
and changechangement the personla personne,
185
606400
3315
et rendre le jouet
puis changer la personne,
10:21
but there's alsoaussi going to be
anotherun autre toyjouet at the endfin of that clothtissu,
186
609715
3158
mais il va aussi y avoir
un autre jouet au bout de ce tissu,
10:24
and he can pulltirer the clothtissu towardsvers him
and changechangement the toyjouet.
187
612873
3552
et il pourra tirer le tissu vers lui
pour changer de jouet.
10:28
So let's see what the babybébé does.
188
616425
2090
Alors voyons voir
ce que le bébé fait.
10:30
(VideoVidéo) HGHG: Two, threeTrois. Go!
(MusicMusique)
189
618515
4183
(Vidéo) HG : Deux, trois. Partez!
(Musique)
10:34
LSLS: One, two, threeTrois, go!
190
622698
3131
LS : Un, deux, trois, partez!
10:37
ArthurArthur, I'm going to try again.
One, two, threeTrois, go!
191
625829
7382
Arthur, je vais essayer encore.
Un, deux, trois, partez!
10:45
YGYG: ArthurArthur, let me try again, okay?
192
633677
2600
YG : Arthur,
laisse-moi essayer encore, ok?
10:48
One, two, threeTrois, go!
(MusicMusique)
193
636277
4550
Un, deux, trois, partez!
(Musique)
Regarde-ca.
Tu te souviens de ces jouets?
10:53
Look at that. RememberN’oubliez pas these toysjouets?
194
641583
1883
10:55
See these toysjouets? Yeah, I'm going
to put this one over here,
195
643466
3264
Tu vois ces jouets? Ouais, je vais
placer celui-ci là-bas,
10:58
and I'm going to give this one to you.
196
646730
2062
et je vais te donner celui-là.
11:00
You can go aheaddevant and playjouer.
197
648792
2335
Tu peux y aller et jouer.
11:23
LSLS: Okay, LauraLaura, but of coursecours,
babiesbébés love theirleur mommiesmamans.
198
671213
4737
LS : Ok, Laura, bien évidemment,
les bébés aiment leurs mamans.
11:27
Of coursecours babiesbébés give toysjouets
to theirleur mommiesmamans
199
675950
2182
Évidemment, ils donnent
leurs jouets à leurs mamans
11:30
when they can't make them work.
200
678132
2030
quand ils ne marchent pas.
11:32
So again, the really importantimportant questionquestion
is what happensarrive when we changechangement
201
680162
3593
A nouveau, la question
vraiment importante
est ce qui arrive
quand nous changeons
11:35
the statisticalstatistique dataLes données ever so slightlylégèrement.
202
683755
3154
les données statistiques,
juste légèrement.
11:38
This time, babiesbébés are going to see the toyjouet
work and failéchouer in exactlyexactement the sameMême ordercommande,
203
686909
4087
Cette fois-ci,
les bébés vont voir le jouet fonctionner
et échouer dans le même ordre,
11:42
but we're changingen changeant
the distributionDistribution of evidencepreuve.
204
690996
2415
mais nous changeons
la distribution des preuves.
11:45
This time, HyowonHyowon is going to succeedréussir
onceune fois que and failéchouer onceune fois que, and so am I.
205
693411
4411
Cette fois-ci, Hyowon va réussir
une fois et échouer une fois,
et moi de même.
11:49
And this suggestssuggère it doesn't mattermatière
who triesessais this toyjouet, the toyjouet is brokencassé.
206
697822
5637
Donc cela suggère que peu importe
qui essaie ce jouet, le jouet est cassé.
11:55
It doesn't work all the time.
207
703459
1886
Ça ne marche pas tout le temps.
11:57
Again, the baby'sbébé going to have a choicechoix.
208
705345
1965
De nouveau,
le bébé va avoir le choix.
11:59
Her mommaman is right nextprochain to her,
so she can changechangement the personla personne,
209
707310
3396
Sa maman est juste à côté,
le bébé pourra changer de personne,
12:02
and there's going to be anotherun autre toyjouet
at the endfin of the clothtissu.
210
710706
3204
et il y aura un autre jouet
au bout du tissu.
Regardons ce qu’elle fait.
12:05
Let's watch what she does.
211
713910
1378
12:07
(VideoVidéo) HGHG: Two, threeTrois, go!
(MusicMusique)
212
715288
4348
(Vidéo) HG : Deux, trois, partez!
(Musique)
12:11
Let me try one more time.
One, two, threeTrois, go!
213
719636
4984
Laisse-moi essayer encore une fois.
Un, deux, trois, partez!
12:17
HmmHmm.
214
725460
1697
Hm.
12:19
LSLS: Let me try, ClaraClara.
215
727950
2692
LS : Laisse-moi essayer, Clara.
12:22
One, two, threeTrois, go!
216
730642
3945
Un, deux, trois, partez!
12:27
HmmHmm, let me try again.
217
735265
1935
Hm, laisse-moi essayer encore.
12:29
One, two, threeTrois, go!
(MusicMusique)
218
737200
5670
Un, deux, trois, partez!
(Musique)
12:35
HGHG: I'm going
to put this one over here,
219
743009
2233
HG : Je vais
mettre celui-ci là-bas,
12:37
and I'm going to give this one to you.
220
745242
2001
et je vais te donner celui-là.
12:39
You can go aheaddevant and playjouer.
221
747243
3597
Tu peux y aller et jouer.
12:58
(ApplauseApplaudissements)
222
766376
4897
(Applaudissements)
13:04
LSLS: Let me showmontrer you
the experimentalexpérimental resultsrésultats.
223
772993
2392
LS: Voilà les résultats de l’expérience.
13:07
On the verticalverticale axisaxe,
you'lltu vas see the distributionDistribution
224
775385
2475
Sur l’axe vertical,
vous verrez la distribution
13:09
of children'senfants choicesles choix in eachchaque conditioncondition,
225
777860
2577
des choix des enfants
dans chacune des conditions,
13:12
and you'lltu vas see that the distributionDistribution
of the choicesles choix childrenles enfants make
226
780437
4551
et vous verrez que la distribution
des choix que les enfants font
13:16
dependsdépend on the evidencepreuve they observeobserver.
227
784988
2787
dépend des preuves qu’ils constatent.
13:19
So in the secondseconde yearan of life,
228
787775
1857
Donc au cours de leur deuxième année,
les bébés peuvent utiliser
quelques données statistiques
13:21
babiesbébés can use a tinyminuscule bitbit
of statisticalstatistique dataLes données
229
789632
2577
13:24
to decidedécider betweenentre two
fundamentallyfondamentalement differentdifférent strategiesstratégies
230
792209
3367
pour décider entre 2 stratégies
fondamentalement différentes
13:27
for actingagissant in the worldmonde:
231
795576
1881
pour agir dans le monde:
13:29
askingdemandant for help and exploringexplorant.
232
797457
2743
demander de l’aide ou explorer.
13:33
I've just shownmontré you
two laboratorylaboratoire experimentsexpériences
233
801700
3434
Je viens de vous montrer
deux expériences de laboratoire
13:37
out of literallyLittéralement hundredsdes centaines in the fieldchamp
that make similarsimilaire pointspoints,
234
805134
3691
parmi des centaines dans le domaine
qui constatent les mêmes résultats,
13:40
because the really criticalcritique pointpoint
235
808825
2392
parce que l'idée essentielle
13:43
is that children'senfants abilitycapacité
to make richriches inferencesinférences from sparseclairsemée dataLes données
236
811217
5108
est que la capacité des enfants à tirer
des conclusions à partir de peu de données
13:48
underliesest à la base all the species-specificspécifique à l’espèce
culturalculturel learningapprentissage that we do.
237
816325
5341
est à la source de
l'apprentissage culturel de notre espèce.
13:53
ChildrenEnfants learnapprendre about newNouveau toolsoutils
from just a fewpeu examplesexemples.
238
821666
4597
Les enfants découvrent de nouveaux outils
à partir de quelques exemples uniquement.
13:58
They learnapprendre newNouveau causalcausal relationshipsdes relations
from just a fewpeu examplesexemples.
239
826263
4717
Ils forment des relations causales
à partir de quelques exemples.
14:03
They even learnapprendre newNouveau wordsmots,
in this caseCas in AmericanAméricain SignSigne LanguageLangue.
240
831928
4871
Ils apprennent même de nouveaux mots,
ici, en langue des signes américaine.
14:08
I want to closeFermer with just two pointspoints.
241
836799
2311
Je veux conclure avec juste deux points.
14:12
If you've been followingSuivant my worldmonde,
the fieldchamp of braincerveau and cognitivecognitif sciencesles sciences,
242
840050
3688
Si vous suivez mon univers, le domaine
du cerveau et des sciences cognitives,
14:15
for the pastpassé fewpeu yearsannées,
243
843738
1927
depuis ces quelques dernières années,
trois grandes idées auraient
suscité votre attention.
14:17
threeTrois biggros ideasidées will have come
to your attentionattention.
244
845665
2415
14:20
The first is that this is
the eraère of the braincerveau.
245
848080
3436
La première est qu’il s’agit
de l’ère du cerveau.
14:23
And indeedeffectivement, there have been
staggeringsidérants discoveriesdécouvertes in neuroscienceneuroscience:
246
851516
3669
Il y a eu en fait, des découvertes
stupéfiantes en neurosciences:
14:27
localizinglocalisation functionallyfonctionnellement specializedspécialisé
regionsles régions of cortexcortex,
247
855185
3436
localisant des régions fonctionnellement
spécialisées du cortex,
14:30
turningtournant mouseSouris brainscerveaux transparenttransparent,
248
858621
2601
rendant les cerveaux
des souris transparents,
14:33
activatingactiver neuronsneurones with lightlumière.
249
861222
3776
activant les neurones grâce à la lumière.
14:36
A secondseconde biggros ideaidée
250
864998
1996
La seconde grande idée
est que c’est l’ère
14:38
is that this is the eraère of biggros dataLes données
and machinemachine learningapprentissage,
251
866994
4104
des données volumineuses
et de l’apprentissage automatique.
L’apprentissage automatique promet
de révolutionner notre compréhension
14:43
and machinemachine learningapprentissage promisespromesses
to revolutionizerévolutionner our understandingcompréhension
252
871098
3141
14:46
of everything from socialsocial networksréseaux
to epidemiologyépidémiologie.
253
874239
4667
de tout allant des réseaux sociaux
à l’épidémiologie.
Et peut-être aussi parce qu’il
s’attaque aux problèmes de compréhension
14:50
And maybe, as it tacklesplaqués problemsproblèmes
of scenescène understandingcompréhension
254
878906
2693
14:53
and naturalNaturel languagela langue processingEn traitement,
255
881599
1993
et de traitement du langage naturel
14:55
to tell us something
about humanHumain cognitioncognition.
256
883592
3324
pour nous dire quelque chose
à propos de la connaissance humaine.
Et la dernière grande idée
que vous auriez entendue :
14:59
And the finalfinal biggros ideaidée you'lltu vas have heardentendu
257
887756
1937
15:01
is that maybe it's a good ideaidée we're going
to know so much about brainscerveaux
258
889693
3387
il est peut-être bénéfique
de savoir tant de choses
sur le cerveau
et d'avoir autant accès
aux données volumineuses;
15:05
and have so much accessaccès to biggros dataLes données,
259
893080
1917
15:06
because left to our ownposséder devicesdispositifs,
260
894997
2507
parce que laissés
à nous-mêmes,
15:09
humanshumains are falliblefaillible, we take shortcutsraccourcis,
261
897504
3831
les êtres humains
sont faillibles,
nous prenons des raccourcis,
nous errons, nous faisons des erreurs,
15:13
we errErr, we make mistakeserreurs,
262
901335
3437
15:16
we're biasedbiaisé, and in innumerableinnombrables waysfaçons,
263
904772
3684
nous sommes biaisés,
et d’innombrables façons
15:20
we get the worldmonde wrongfaux.
264
908456
2969
nous comprenons mal le monde.
15:24
I think these are all importantimportant storieshistoires,
265
912843
2949
Je pense que ce sont toutes
des histoires importantes,
15:27
and they have a lot to tell us
about what it meansveux dire to be humanHumain,
266
915792
3785
et elles ont beaucoup à nous dire sur
ce qu'est d'être humain signifie.
Mais je vous ai raconté aujourd'hui
15:31
but I want you to noteRemarque that todayaujourd'hui
I told you a very differentdifférent storyrécit.
267
919577
3529
une histoire bien différente.
15:35
It's a storyrécit about mindsesprits and not brainscerveaux,
268
923966
3807
C’est une histoire sur les esprits
et non des cerveaux,
15:39
and in particularparticulier, it's a storyrécit
about the kindssortes of computationscalculs
269
927773
3006
et en particulier, c’est une histoire
sur les types de calcul
15:42
that uniquelyuniquement humanHumain mindsesprits can performeffectuer,
270
930779
2590
que seuls les esprits humains
peuvent effectuer
impliquant des savoirs
riches et structurées
15:45
whichlequel involveimpliquer richriches, structuredstructuré knowledgeconnaissance
and the abilitycapacité to learnapprendre
271
933369
3944
ainsi que la capacité à apprendre
à partir d’une petite quantité de données,
15:49
from smallpetit amountsles montants of dataLes données,
the evidencepreuve of just a fewpeu examplesexemples.
272
937313
5268
avec seulement quelques exemples.
Fondamentalement, il s’agit d’une histoire
qui commence avec de très jeunes enfants
15:56
And fundamentallyfondamentalement, it's a storyrécit
about how startingdépart as very smallpetit childrenles enfants
273
944301
4299
16:00
and continuingcontinuer out all the way
to the greatestplus grand accomplishmentsréalisations
274
948600
4180
et qui continue
jusqu'au plus grandes réussites
16:04
of our cultureCulture,
275
952780
3843
de notre culture :
16:08
we get the worldmonde right.
276
956623
1997
de comprendre correctement le monde.
16:12
FolksGens, humanHumain mindsesprits do not only learnapprendre
from smallpetit amountsles montants of dataLes données.
277
960433
5267
L'esprit humain n’apprend pas seulement
à partir de quelques données.
16:18
HumanHumaine mindsesprits think
of altogetherau total newNouveau ideasidées.
278
966285
2101
L'esprit humain conçoit
des idées innovantes.
16:20
HumanHumaine mindsesprits generateGénérer
researchrecherche and discoveryDécouverte,
279
968746
3041
L'esprit humain génère
recherche et découverte,
16:23
and humanHumain mindsesprits generateGénérer
artart and literatureLittérature and poetrypoésie and theaterthéâtre,
280
971787
5273
et l'esprit humain génère
art et littérature, poésie et théâtre.
16:29
and humanHumain mindsesprits take carese soucier of other humanshumains:
281
977070
3760
De plus, l'esprit humain
prend soin d’autres humains:
16:32
our oldvieux, our youngJeune, our sickmalade.
282
980830
3427
nos ainés, nos jeunes, nos malades.
16:36
We even healguérir them.
283
984517
2367
Nous les guérissons même.
Dans les années à venir, nous allons
voir des innovations technologiques
16:39
In the yearsannées to come, we're going
to see technologicaltechnologique innovationsinnovations
284
987564
3103
16:42
beyondau-delà anything I can even envisionEnvision,
285
990667
3797
au-delà de tout ce que
nous pouvons envisager,
16:46
but we are very unlikelyimprobable
286
994464
2150
mais il est fort peu probable
de voir quoi que ce soit
16:48
to see anything even approximatingse rapprochant
the computationalcalcul powerPuissance of a humanHumain childenfant
287
996614
5709
approchant la puissance
computationnelle d’un enfant
16:54
in my lifetimedurée de vie or in yoursle tiens.
288
1002323
4298
de mon vivant ou du votre.
Si nous investissons dans
ces plus puissants novices,
16:58
If we investinvestir in these mostles plus powerfulpuissant
learnersapprenants and theirleur developmentdéveloppement,
289
1006621
5047
ainsi que dans leur développement,
17:03
in babiesbébés and childrenles enfants
290
1011668
2917
dans les bébés et enfants
17:06
and mothersmères and fatherspères
291
1014585
1826
ainsi que mères et pères,
17:08
and caregiversaidants naturels and teachersenseignants
292
1016411
2699
soignants et enseignants.
17:11
the waysfaçons we investinvestir in our other
mostles plus powerfulpuissant and elegantélégant formsformes
293
1019110
4170
Les façons dont nous investissons dans
nos plus puissantes et élégantes formes
17:15
of technologyLa technologie, engineeringingénierie and designconception,
294
1023280
3218
de technologie, ingénierie et design,
17:18
we will not just be dreamingrêver
of a better futureavenir,
295
1026498
2939
nous ne serions pas en train
de rêver d’un futur meilleur,
17:21
we will be planningPlanification for one.
296
1029437
2127
nous serions en train de le planifier.
17:23
Thank you very much.
297
1031564
2345
Merci beaucoup.
17:25
(ApplauseApplaudissements)
298
1033909
3421
(Applaudissements)
17:29
ChrisChris AndersonAnderson: LauraLaura, thank you.
I do actuallyréellement have a questionquestion for you.
299
1037810
4426
Chris Anderson: Laura, merci.
J’ai en effet une question pour toi.
17:34
First of all, the researchrecherche is insaneinsensé.
300
1042236
2359
Tout d’abord, la recherche est insensée.
17:36
I mean, who would designconception
an experimentexpérience like that? (LaughterRires)
301
1044595
3725
Je veux dire, qui concevrait
une expérience comme celle-là?
(Rires)
17:41
I've seenvu that a couplecouple of timesfois,
302
1049150
1790
J’ai vu ça quelques fois,
17:42
and I still don't honestlyfranchement believe
that that can trulyvraiment be happeningévénement,
303
1050940
3222
et je n'arrive toujours pas à croire
que ça arrive vraiment,
mais d’autres gens ont fait
de telles expériences ; ça colle.
17:46
but other people have doneterminé
similarsimilaire experimentsexpériences; it checksvérifie out.
304
1054162
3158
Les enfants sont vraiment des génies.
17:49
The babiesbébés really are that geniusgénie.
305
1057320
1633
17:50
LSLS: You know, they look really impressiveimpressionnant
in our experimentsexpériences,
306
1058953
3007
LS: Ils sont vraiment impressionnants
dans nos expériences,
17:53
but think about what they
look like in realréal life, right?
307
1061960
2652
mais pensez à ce qu'ils font
dans la vraie vie.
D'abord un bébé.
17:56
It startsdéparts out as a babybébé.
308
1064612
1150
17:57
EighteenDix-huit ans monthsmois laterplus tard,
it's talkingparlant to you,
309
1065762
2007
18 mois plus tard,
il vous parle,
et les premiers mots de bébés
ne sont pas juste balles ou canard,
17:59
and babies'XXS first wordsmots aren'tne sont pas just
things like ballsdes balles and duckscanards,
310
1067769
3041
c'est plutôt : « tout parti »,
pour la disparition,
18:02
they're things like "all gonedisparu,"
whichlequel referréférer to disappearancedisparition,
311
1070810
2881
ou, « oh-oh », qui fait référence
à des actions involontaires.
18:05
or "uh-ohUh-oh," whichlequel referréférer
to unintentionalnon intentionnelles actionsactes.
312
1073691
2283
18:07
It has to be that powerfulpuissant.
313
1075974
1562
Il doit être aussi puissant.
Il doit l'être beaucoup plus
que ce que je vous ai montré.
18:09
It has to be much more powerfulpuissant
than anything I showedmontré you.
314
1077536
2775
18:12
They're figuringfigurer out the entiretout worldmonde.
315
1080311
1974
Ils comprennent le monde entier.
Un enfant de 4 ans peut vous parler
de presque tout.
18:14
A four-year-oldquatre ans can talk to you
about almostpresque anything.
316
1082285
3144
18:17
(ApplauseApplaudissements)
317
1085429
1601
(Applaudissements)
18:19
CACA: And if I understandcomprendre you right,
the other keyclé pointpoint you're makingfabrication is,
318
1087030
3414
CA: Si je vous comprends bien,
vous affirmez
18:22
we'venous avons been throughpar these yearsannées
where there's all this talk
319
1090444
2754
que ces dernières années
on parle beaucoup
de l'originalité et la folie
de nos cerveaux,
18:25
of how quirkybizarre and buggybuggy our mindsesprits are,
320
1093198
1932
18:27
that behavioralcomportementale economicséconomie
and the wholeentier theoriesthéories behindderrière that
321
1095130
2867
de la science du comportement
et ses théories ;
nous ne sommes pas
des agents rationnels.
18:29
that we're not rationalrationnel agentsagents.
322
1097997
1603
18:31
You're really sayingen disant that the biggerplus gros
storyrécit is how extraordinaryextraordinaire,
323
1099600
4216
Vous insistez que
ce phénomène est extraordinaire
18:35
and there really is geniusgénie there
that is underappreciatedsous-estimés.
324
1103816
4944
et qu’il y a vraiment
du génie sous-estimé.
LS: Une de mes citations
préférées en psychologie
18:40
LSLS: One of my favoritepréféré
quotescitations in psychologypsychologie
325
1108760
2070
18:42
comesvient from the socialsocial
psychologistpsychologue SolomonSalomon AschAsch,
326
1110830
2290
provient du psychologue
social Solomon Asch,
18:45
and he said the fundamentalfondamental tasktâche
of psychologypsychologie is to removeretirer
327
1113120
2807
et il a dit que la tache fondamentale
de la psychologie est
18:47
the veilvoile of self-evidenceévidence from things.
328
1115927
2626
d'ôter le voile de l'évidence.
18:50
There are ordersordres of magnitudeordre de grandeur
more decisionsles décisions you make everychaque day
329
1118553
4551
Il y a des millions
de décisions quotidiennes
qui font avancer le monde.
18:55
that get the worldmonde right.
330
1123104
1347
Vous connaissez les objets
et leurs propriétés.
18:56
You know about objectsobjets
and theirleur propertiesPropriétés.
331
1124451
2132
Vous les reconnaissez quand
ils sont cachés ou dans le noir.
18:58
You know them when they're occludedoccluse.
You know them in the darkfoncé.
332
1126583
3029
Vous pouvez traverser les pièces.
19:01
You can walkmarche throughpar roomspièces.
333
1129612
1308
Vous pouvez deviner les pensées
des autres et leur parler.
19:02
You can figurefigure out what other people
are thinkingen pensant. You can talk to them.
334
1130920
3532
Vous vous orientez dans l’espace
et connaissez les nombres,
19:06
You can navigatenaviguer spaceespace.
You know about numbersNombres.
335
1134452
2230
les relations causales
et les raisonnements moraux.
19:08
You know causalcausal relationshipsdes relations.
You know about moralmoral reasoningraisonnement.
336
1136682
3022
Vous faites ceci sans effort,
donc nous ne le voyons pas.
19:11
You do this effortlesslysans effort,
so we don't see it,
337
1139704
2356
C’est ainsi qu'on comprend bien le monde,
19:14
but that is how we get the worldmonde right,
and it's a remarkableremarquable
338
1142060
2912
et il s’agit d’une activité remarquable,
très difficile à comprendre.
19:16
and very difficult-to-understanddifficile à comprendre
accomplishmentaccomplissement.
339
1144972
2318
CA: Je suppose que des gens
dans l’auditoire
19:19
CACA: I suspectsuspect there are people
in the audiencepublic who have
340
1147290
2628
qui voit l’accélération
de la puissance technologique
19:21
this viewvue of acceleratingaccélérer
technologicaltechnologique powerPuissance
341
1149918
2238
et qui pourraient nier votre affirmation
que jamais de notre vivant
19:24
who mightpourrait disputerèglement des différends your statementdéclaration
that never in our lifetimesdurées de vie
342
1152156
2958
un ordinateur fera ce
qu’un enfant de trois ans fait,
19:27
will a computerordinateur do what
a three-year-oldtrois ans childenfant can do,
343
1155114
2618
mais il est clair
que peu importe le scenario,
19:29
but what's clearclair is that in any scenarioscénario,
344
1157732
3248
19:32
our machinesmachines have so much to learnapprendre
from our toddlerstout-petits.
345
1160980
3770
nos machines ont tant à apprendre
de nos nourrissons.
LS: Des spécialistes de l'apprentissage
automatique viendront sur cette scène.
19:38
LSLS: I think so. You'llVous aurez have some
machinemachine learningapprentissage folksgens up here.
346
1166230
3216
19:41
I mean, you should never betpari
againstcontre babiesbébés or chimpanzeeschimpanzés
347
1169446
4203
Je veux dire, vous ne devriez jamais
parier contre des bébés ou chimpanzés,
19:45
or technologyLa technologie as a mattermatière of practiceentraine toi,
348
1173649
3645
ou la technologie.
19:49
but it's not just
a differencedifférence in quantityquantité,
349
1177294
4528
Mais ce n’est pas juste
une différence de quantité,
19:53
it's a differencedifférence in kindgentil.
350
1181822
1764
c’est une différence de qualité.
19:55
We have incrediblyincroyablement powerfulpuissant computersdes ordinateurs,
351
1183586
2160
On a des ordinateurs
incroyablement puissants,
19:57
and they do do amazinglyétonnamment
sophisticatedsophistiqué things,
352
1185746
2391
et ils font des choses
extrêmement sophistiquées,
20:00
oftensouvent with very biggros amountsles montants of dataLes données.
353
1188137
3204
souvent avec des données
très volumineuses.
20:03
HumanHumaine mindsesprits do, I think,
something quiteassez differentdifférent,
354
1191341
2607
L'esprit humain fait
quelque chose d’assez diffèrent,
20:05
and I think it's the structuredstructuré,
hierarchicalhiérarchique naturela nature of humanHumain knowledgeconnaissance
355
1193948
3895
et c’est la nature hiérarchique
et structurée de la connaissance humaine
20:09
that remainsrestes a realréal challengedéfi.
356
1197843
2032
qui demeure un vrai défi.
20:11
CACA: LauraLaura SchulzSchulz, wonderfulformidable
foodaliments for thought. Thank you so much.
357
1199875
3061
CA: Laura Schulz, très bonne
matière à réflexion.
20:14
LSLS: Thank you.
(ApplauseApplaudissements)
358
1202936
2922
LS: Merci.
(Applaudissements)
Translated by Helene Abousamra
Reviewed by Lison Hasse

▲Back to top

ABOUT THE SPEAKER
Laura Schulz - Cognitive scientist
Developmental behavior studies spearheaded by Laura Schulz are changing our notions of how children learn.

Why you should listen

MIT Early Childhood Cognition Lab lead investigator Laura Schulz studies learning in early childhood. Her research bridges computational models of cognitive development and behavioral studies in order to understand the origins of inquiry and discovery.

Working in play labs, children’s museums, and a recently-launched citizen science website, Schultz is reshaping how we view young children’s perceptions of the world around them. Some of the surprising results of her research: before the age of four, children expect hidden causes when events happen probabilistically, use simple experiments to distinguish causal hypotheses, and trade off learning from instruction and exploration.

More profile about the speaker
Laura Schulz | Speaker | TED.com