ABOUT THE SPEAKER
Deb Roy - Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs.

Why you should listen

Deb Roy directs the Cognitive Machines group at the MIT Media Lab, where he studies how children learn language, and designs machines that learn to communicate in human-like ways. To enable this work, he has pioneered new data-driven methods for analyzing and modeling human linguistic and social behavior. He has authored numerous scientific papers on artificial intelligence, cognitive modeling, human-machine interaction, data mining, and information visualization.

Deb Roy was the co-founder and serves as CEO of Bluefin Labs, a venture-backed technology company. Built upon deep machine learning principles developed in his research over the past 15 years, Bluefin has created a technology platform that analyzes social media commentary to measure real-time audience response to TV ads and shows.

Follow Deb Roy on Twitter>

Roy adds some relevant papers:

Deb Roy. (2009). New Horizons in the Study of Child Language Acquisition. Proceedings of Interspeech 2009. Brighton, England. bit.ly/fSP4Qh

Brandon C. Roy, Michael C. Frank and Deb Roy. (2009). Exploring word learning in a high-density longitudinal corpus. Proceedings of the 31st Annual Meeting of the Cognitive Science Society. Amsterdam, Netherlands. bit.ly/e1qxej

Plenty more papers on our research including technology and methodology can be found here, together with other research from my lab at MIT: bit.ly/h3paSQ

The work that I mentioned on relationships between television content and the social graph is being done at Bluefin Labs (www.bluefinlabs.com). Details of this work have not been published. The social structures we are finding (and that I highlighted in my TED talk) are indeed new. The social media communication channels that are leading to their formation did not even exist a few years ago, and Bluefin's technology platform for discovering these kinds of structures is the first of its kind. We'll certainly have more to say about all this as we continue to dig into this fascinating new kind of data, and as new social structures continue to evolve!

More profile about the speaker
Deb Roy | Speaker | TED.com
TED2011

Deb Roy: The birth of a word

Deb Roy: La naissance d'un mot

Filmed:
2,809,941 views

Deb Roy, chercheur au MIT, voulait comprendre comment son fils a appris à parler - il a donc installé des caméras vidéo dans toute sa maison pour enregistrer tous les moment (à quelques exceptions près) de la vie de son fils, et a ensuite parcouru 90 000 heures de vidéo domestique pour voir "gaaaaa" se transformer lentement en "eau". Une rechercher étonnante et riche en données avec des implications profonde sur le fonctionnement de l'apprentissage.
- Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs. Full bio

Double-click the English transcript below to play the video.

00:15
ImagineImaginez if you could recordrecord your life --
0
0
4000
Imaginez que vous pouvez enregistrer votre vie --
00:19
everything you said, everything you did,
1
4000
3000
tout ce que vous avez dit, tout ce que vous avez fait,
00:22
availabledisponible in a perfectparfait memoryMémoire storele magasin at your fingertipsbout des doigts,
2
7000
3000
à portée de main dans une bibliothèque de souvenirs infaillible,
00:25
so you could go back
3
10000
2000
si bien que vous pourriez revenir en arrière,
00:27
and find memorablemémorable momentsdes moments and reliveRevivez them,
4
12000
3000
trouver des moments mémorables et les revivre,
00:30
or siftTamiser throughpar tracestraces of time
5
15000
3000
ou trier, sélectionner des traces temporelles
00:33
and discoverdécouvrir patternsmodèles in your ownposséder life
6
18000
2000
et découvrir des motifs dans votre vie
00:35
that previouslyprécédemment had gonedisparu undiscoveredUndiscovered.
7
20000
3000
que vous n'aviez pas découvert auparavant.
00:38
Well that's exactlyexactement the journeypériple
8
23000
2000
Et bien, c'est exactement le voyage
00:40
that my familyfamille begana commencé
9
25000
2000
qu'a entrepris ma famille
00:42
fivecinq and a halfmoitié yearsannées agodepuis.
10
27000
2000
il y a cinq ans et demi.
00:44
This is my wifefemme and collaboratorcollaborateur, RupalRupal.
11
29000
3000
Voici ma femme et collègue, Rupal.
00:47
And on this day, at this momentmoment,
12
32000
2000
Et ce jour, à cet instant,
00:49
we walkedmarcha into the housemaison with our first childenfant,
13
34000
2000
nous sommes rentrés dans notre maison avec notre premier enfant,
00:51
our beautifulbeau babybébé boygarçon.
14
36000
2000
notre magnifique petit garçon.
00:53
And we walkedmarcha into a housemaison
15
38000
3000
Et nous sommes rentrés dans une maison
00:56
with a very specialspécial home videovidéo recordingenregistrement systemsystème.
16
41000
4000
avec un système d'enregistrement vidéo très spécial.
01:07
(VideoVidéo) Man: Okay.
17
52000
2000
(Vidéo) Homme: Ok.
01:10
DebDeb RoyRoy: This momentmoment
18
55000
1000
Deb Roy: Ce moment
01:11
and thousandsmilliers of other momentsdes moments specialspécial for us
19
56000
3000
et des milliers d'autres moments chers à nos yeux,
01:14
were capturedcapturé in our home
20
59000
2000
ont été enregistrés dans notre maison
01:16
because in everychaque roomchambre in the housemaison,
21
61000
2000
parce que dans chaque pièce de la maison,
01:18
if you lookedregardé up, you'dtu aurais see a cameracaméra and a microphonemicrophone,
22
63000
3000
si vous regardez au plafond, vous voyez une caméra et un micro,
01:21
and if you lookedregardé down,
23
66000
2000
et si vous regardez en bas,
01:23
you'dtu aurais get this bird's-eyemoucheté viewvue of the roomchambre.
24
68000
2000
vous avez cette vue en plongée de la pièce.
01:25
Here'sVoici our livingvivant roomchambre,
25
70000
3000
Voici notre salon,
01:28
the babybébé bedroomchambre,
26
73000
3000
la chambre du bébé,
01:31
kitchencuisine, diningsalle à manger roomchambre
27
76000
2000
cuisine, salle à manger,
01:33
and the restdu repos of the housemaison.
28
78000
2000
et le reste de la maison.
01:35
And all of these fednourris into a discdisque arraytableau
29
80000
3000
Et tout ceci est envoyé à un ensemble de disques
01:38
that was designedconçu for a continuouscontinu captureCapturer.
30
83000
3000
conçus pour enregistrer en continu.
01:41
So here we are flyingen volant throughpar a day in our home
31
86000
3000
Nous voici donc survolant une journée à la maison,
01:44
as we movebouge toi from sunlitbaignées de soleil morningMatin
32
89000
3000
naviguant d'une aube lumineuse
01:47
throughpar incandescentà incandescence eveningsoir
33
92000
2000
à un crépuscule incandescent
01:49
and, finallyenfin, lightslumières out for the day.
34
94000
3000
pour finalement éteindre les lumières du jour.
01:53
Over the coursecours of threeTrois yearsannées,
35
98000
3000
Trois ans durant,
01:56
we recordedenregistré eighthuit to 10 hoursheures a day,
36
101000
2000
nous avons enregistré entre 8 et 10 heures par jour,
01:58
amassingamasser des roughlygrossièrement a quarter-million250 000 hoursheures
37
103000
3000
amassant au bas mot un quart de million d'heures
02:01
of multi-trackMulti-track audiol'audio and videovidéo.
38
106000
3000
de vidéo multi-piste avec le son.
02:04
So you're looking at a piecepièce of what is by farloin
39
109000
2000
Vous visionnez donc un extrait de ce qui est de loin
02:06
the largestplus grand home videovidéo collectioncollection ever madefabriqué.
40
111000
2000
la plus grande collection de vidéo personnelle jamais créée.
02:08
(LaughterRires)
41
113000
3000
(Rire)
02:11
And what this dataLes données representsreprésente
42
116000
2000
Et ce que ces données représentent
02:13
for our familyfamille at a personalpersonnel levelniveau,
43
118000
4000
pour notre famille d'un point de vue personnel,
02:17
the impactimpact has alreadydéjà been immenseimmense,
44
122000
2000
l'impact a déjà été immense,
02:19
and we're still learningapprentissage its valuevaleur.
45
124000
3000
et nous en réalisons encore la valeur.
02:22
CountlessD’innombrables momentsdes moments
46
127000
2000
Un nombre incalculable de moments
02:24
of unsolicitednon sollicitées naturalNaturel momentsdes moments, not posedposé momentsdes moments,
47
129000
3000
de moments naturels non provoqués, sans poses,
02:27
are capturedcapturé there,
48
132000
2000
sont enregistrés ici,
02:29
and we're startingdépart to learnapprendre how to discoverdécouvrir them and find them.
49
134000
3000
et nous commençons à apprendre comment les découvrir et les retrouver.
02:32
But there's alsoaussi a scientificscientifique reasonraison that drovea conduit this projectprojet,
50
137000
3000
Mais ce projet a aussi été conduit pour une raison scientifique,
02:35
whichlequel was to use this naturalNaturel longitudinallongitudinale dataLes données
51
140000
4000
qui était d'utiliser ces données naturelles longitudinales
02:39
to understandcomprendre the processprocessus
52
144000
2000
pour comprendre le processus
02:41
of how a childenfant learnsapprend languagela langue --
53
146000
2000
menant à l'apprentissage du langage par un enfant --
02:43
that childenfant beingétant my sonfils.
54
148000
2000
cet enfant étant ici mon fils.
02:45
And so with manybeaucoup privacyvie privée provisionsdispositions put in placeendroit
55
150000
4000
Avec de nombreuses dispositions de protection de la vie privée
02:49
to protectprotéger everyonetoutes les personnes who was recordedenregistré in the dataLes données,
56
154000
3000
mises en place pour protéger les personnes enregistrées,
02:52
we madefabriqué elementséléments of the dataLes données availabledisponible
57
157000
3000
nous avons mis des éléments de données à disposition
02:55
to my trustedde confiance researchrecherche teaméquipe at MITMIT
58
160000
3000
de mon équipe de recherche de confiance au MIT
02:58
so we could startdébut teasingteasing apartune part patternsmodèles
59
163000
3000
pour que nous puissions commencer à déchiffrer les motifs
03:01
in this massivemassif dataLes données setensemble,
60
166000
3000
dans cet énorme jeu de données,
03:04
tryingen essayant to understandcomprendre the influenceinfluence of socialsocial environmentsenvironnements
61
169000
3000
en essayant de comprendre l'influence de l'environnement social
03:07
on languagela langue acquisitionacquisition.
62
172000
2000
sur l’acquisition du langage.
03:09
So we're looking here
63
174000
2000
Nous regardons ici
03:11
at one of the first things we startedcommencé to do.
64
176000
2000
l'une des premières choses que nous avons faites.
03:13
This is my wifefemme and I cookingcuisine breakfastdéjeuner in the kitchencuisine,
65
178000
4000
Voici ma femme et moi préparant le petit déjeuner dans la cuisine.
03:17
and as we movebouge toi throughpar spaceespace and throughpar time,
66
182000
3000
En nous déplaçant à travers l'espace et le temps,
03:20
a very everydaytous les jours patternmodèle of life in the kitchencuisine.
67
185000
3000
un premier motif quotidien de la vie dans la cuisine.
03:23
In ordercommande to convertconvertir
68
188000
2000
Pour convertir
03:25
this opaqueopaque, 90,000 hoursheures of videovidéo
69
190000
3000
ces 90 000 heures de vidéo indéchiffrable
03:28
into something that we could startdébut to see,
70
193000
2000
en quelque chose que nous pouvons commencer à visionner,
03:30
we use motionmouvement analysisune analyse to pulltirer out,
71
195000
2000
nous utilisons l'analyse de mouvement pour extraire,
03:32
as we movebouge toi throughpar spaceespace and throughpar time,
72
197000
2000
en naviguant à travers l'espace et le temps,
03:34
what we call space-timeespace-temps wormsvers.
73
199000
3000
ce que nous appelons des vers temporels.
03:37
And this has becomedevenir partpartie of our toolkitboîte à outils
74
202000
3000
C'est devenu l'un de nos outils
03:40
for beingétant ablecapable to look and see
75
205000
3000
pour être capable de voir et de définir
03:43
where the activitiesActivités are in the dataLes données,
76
208000
2000
où se situent les activités dans les données,
03:45
and with it, tracetrace the patternmodèle of, in particularparticulier,
77
210000
3000
et ainsi, suivre le motif, en particulier,
03:48
where my sonfils moveddéplacé throughouttout au long de the home,
78
213000
2000
des déplacements de mon fils à travers la maison,
03:50
so that we could focusconcentrer our transcriptiontranscription effortsefforts,
79
215000
3000
pour que nous puissions focaliser nos efforts de transcription,
03:53
all of the speechdiscours environmentenvironnement around my sonfils --
80
218000
3000
tout l'environnement de dialogues autour de mon fils --
03:56
all of the wordsmots that he heardentendu from myselfmoi même, my wifefemme, our nannynounou,
81
221000
3000
tous les mots qu'il a entendus de moi-même, de ma femme, de la nounou,
03:59
and over time, the wordsmots he begana commencé to produceproduire.
82
224000
3000
et au fur et à mesure, les mots qu'il a commencé à former.
04:02
So with that technologyLa technologie and that dataLes données
83
227000
3000
Avec cette technologie et ces données
04:05
and the abilitycapacité to, with machinemachine assistanceassistance,
84
230000
2000
et la possibilité, grâce à une machine,
04:07
transcribetranscrire speechdiscours,
85
232000
2000
de retranscrire les dialogues,
04:09
we'venous avons now transcribedtranscription de l’acte
86
234000
2000
nous avons maintenant retranscrit
04:11
well over sevenSept millionmillion wordsmots of our home transcriptsrelevés de notes.
87
236000
3000
bien plus de sept millions de mots de nos conversations domestiques.
04:14
And with that, let me take you now
88
239000
2000
Ainsi, laissez-moi vous emmener
04:16
for a first tourtour into the dataLes données.
89
241000
3000
faire un premier voyage dans les données.
04:19
So you've all, I'm sure,
90
244000
2000
Vous avez tous, j'en suis sûr,
04:21
seenvu time-lapselaps de temps videosvidéos
91
246000
2000
vu des vidéos accélérées
04:23
where a flowerfleur will blossomBlossom as you accelerateaccélérer time.
92
248000
3000
où une fleur s’épanouit en temps accéléré.
04:26
I'd like you to now experienceexpérience
93
251000
2000
Je voudrais maintenant vous faire vivre
04:28
the blossomingfloraison of a speechdiscours formforme.
94
253000
2000
l'épanouissement d'une forme de langage.
04:30
My sonfils, soonbientôt after his first birthdayanniversaire,
95
255000
2000
Mon fils, peu après son premier anniversaire,
04:32
would say "gagaGaga" to mean watereau.
96
257000
3000
disait "gaga" pour parler d'eau.
04:35
And over the coursecours of the nextprochain half-yearsemestre,
97
260000
3000
Au fil des six mois suivants,
04:38
he slowlylentement learnedappris to approximateapproximatif
98
263000
2000
il a lentement appris à s'approcher
04:40
the properbon adultadulte formforme, "watereau."
99
265000
3000
de la forme adulte correcte, "eau".
04:43
So we're going to cruisecroisière throughpar halfmoitié a yearan
100
268000
2000
Nous allons donc parcourir 6 mois
04:45
in about 40 secondssecondes.
101
270000
2000
en environ 40 secondes.
04:47
No videovidéo here,
102
272000
2000
Pas de vidéo ici,
04:49
so you can focusconcentrer on the sounddu son, the acousticsacoustique,
103
274000
3000
pour que vous puissiez vous concentrer sur le son, l'acoustique,
04:52
of a newNouveau kindgentil of trajectorytrajectoire:
104
277000
2000
d'une nouvelle forme de trajectoire:
04:54
gagaGaga to watereau.
105
279000
2000
de gaga à eau [prononcé water en anglais].
04:56
(AudioAudio) BabyBébé: GagagagagagaGagagagagaga
106
281000
12000
(Audio) Bébé: Gagagagagaga
05:08
GagaGaga gagaGaga gagaGaga
107
293000
4000
Gaga gaga gaga
05:12
gugaGuga gugaGuga gugaGuga
108
297000
5000
guga guga guga
05:17
wadaAMA gagaGaga gagaGaga gugaGuga gagaGaga
109
302000
5000
wada gaga gaga guga gaga
05:22
waderéchassier gugaGuga gugaGuga
110
307000
4000
wader guga guga
05:26
watereau watereau watereau
111
311000
3000
water water water
05:29
watereau watereau watereau
112
314000
6000
water water water
05:35
watereau watereau
113
320000
4000
water water
05:39
watereau.
114
324000
2000
water.
05:41
DRDR: He sure nailedcloué it, didn't he.
115
326000
2000
DR: Il a bien réussi, n'est-ce pas ?
05:43
(ApplauseApplaudissements)
116
328000
7000
(Applaudissements)
05:50
So he didn't just learnapprendre watereau.
117
335000
2000
Il n'a pas seulement appris à dire eau.
05:52
Over the coursecours of the 24 monthsmois,
118
337000
2000
Pendant les 24 mois,
05:54
the first two yearsannées that we really focusedconcentré on,
119
339000
3000
les 2 ans, sur lesquels nous nous sommes réellement concentrés,
05:57
this is a mapcarte of everychaque wordmot he learnedappris in chronologicalchronologique ordercommande.
120
342000
4000
voici une liste de tous les mots qu'il a appris par ordre chronologique.
06:01
And because we have fullplein transcriptsrelevés de notes,
121
346000
3000
Parce que nous avons les transcriptions complètes,
06:04
we'venous avons identifiedidentifié eachchaque of the 503 wordsmots
122
349000
2000
nous avons identifié chacun des 503 mots
06:06
that he learnedappris to produceproduire by his secondseconde birthdayanniversaire.
123
351000
2000
qu'il a appris à prononcer avant son second anniversaire.
06:08
He was an earlyde bonne heure talkercauseur.
124
353000
2000
Il a été un parleur précoce.
06:10
And so we startedcommencé to analyzeanalyser why.
125
355000
3000
Nous avons donc commencé à analyser pourquoi.
06:13
Why were certaincertain wordsmots bornnée before othersautres?
126
358000
3000
Pourquoi certains mots sont-ils apparus avant d'autres?
06:16
This is one of the first resultsrésultats
127
361000
2000
C'est un des premier résultat
06:18
that camevenu out of our studyétude a little over a yearan agodepuis
128
363000
2000
produit dans notre étude il y a un peu plus d'un an
06:20
that really surprisedsurpris us.
129
365000
2000
qui nous ai réellement surpris.
06:22
The way to interpretinterpréter this apparentlyApparemment simplesimple graphgraphique
130
367000
3000
La manière de lire ce graphe apparemment simple
06:25
is, on the verticalverticale is an indicationindication
131
370000
2000
est d'y voir verticalement une indication
06:27
of how complexcomplexe caregiveraidants naturels utterancesénonciations are
132
372000
3000
de la complexité de l'expression des adultes à proximité
06:30
basedbasé on the lengthlongueur of utterancesénonciations.
133
375000
2000
basée sur la longueur des mots.
06:32
And the [horizontalhorizontal] axisaxe is time.
134
377000
3000
L'axe horizontal est le temps.
06:35
And all of the dataLes données,
135
380000
2000
Toutes les données,
06:37
we alignedaligné basedbasé on the followingSuivant ideaidée:
136
382000
3000
nous les avons alignées en nous basant sur le principe suivant:
06:40
EveryChaque time my sonfils would learnapprendre a wordmot,
137
385000
3000
chaque fois que mon fils apprend un mot,
06:43
we would tracetrace back and look at all of the languagela langue he heardentendu
138
388000
3000
nous rembobinons et analysons le langage qu'il a entendu
06:46
that containedcontenu that wordmot.
139
391000
2000
qui contenait ce mot.
06:48
And we would plotterrain the relativerelatif lengthlongueur of the utterancesénonciations.
140
393000
4000
Nous affichons la longueur relative des mots.
06:52
And what we founda trouvé was this curiouscurieuse phenomenaphénomènes,
141
397000
3000
Et nous avons découvert un phénomène curieux:
06:55
that caregiveraidants naturels speechdiscours would systematicallysystématiquement dipTrempette to a minimumle minimum,
142
400000
3000
le discours des adultes se réduit systématiquement à un minimum,
06:58
makingfabrication languagela langue as simplesimple as possiblepossible,
143
403000
3000
rendant le langage aussi simple que possible,
07:01
and then slowlylentement ascendAscend back up in complexitycomplexité.
144
406000
3000
puis progressivement revient à sa complexité initiale.
07:04
And the amazingincroyable thing was
145
409000
2000
Ce qu'il y avait d'étonnant,
07:06
that bounceBounce, that dipTrempette,
146
411000
2000
ce rebond, ce creux,
07:08
lineddoublé up almostpresque preciselyprécisément
147
413000
2000
était quasiment précisément aligné
07:10
with when eachchaque wordmot was bornnée --
148
415000
2000
avec le moment où chaque mot est né --
07:12
wordmot after wordmot, systematicallysystématiquement.
149
417000
2000
mot après mot, systématiquement.
07:14
So it appearsapparaît that all threeTrois primaryprimaire caregiversaidants naturels --
150
419000
2000
Il semble donc que tous ces adultes directement en contact --
07:16
myselfmoi même, my wifefemme and our nannynounou --
151
421000
3000
moi, ma femme et notre nounou --
07:19
were systematicallysystématiquement and, I would think, subconsciouslyinconsciemment
152
424000
3000
étions systématiquement et, je pense, subconsciemment
07:22
restructuringla restructuration our languagela langue
153
427000
2000
entrain de restructurer notre langage
07:24
to meetrencontrer him at the birthnaissance of a wordmot
154
429000
3000
pour se mettre à son niveau à la naissance du mot
07:27
and bringapporter him gentlydoucement into more complexcomplexe languagela langue.
155
432000
4000
et doucement le faire progresser vers un langage plus complexe.
07:31
And the implicationsimplications of this -- there are manybeaucoup,
156
436000
2000
Une implication de cela -- il y en a de nombreuses,
07:33
but one I just want to pointpoint out,
157
438000
2000
mais une que je veux mettre en avant,
07:35
is that there mustdoit be amazingincroyable feedbackretour d'information loopsboucles.
158
440000
3000
c'est qu'il doit y avoir une incroyable boucle de rétro-action.
07:38
Of coursecours, my sonfils is learningapprentissage
159
443000
2000
Bien entendu, mon fils apprend
07:40
from his linguisticlinguistique environmentenvironnement,
160
445000
2000
à partir de son environnement linguistique,
07:42
but the environmentenvironnement is learningapprentissage from him.
161
447000
3000
mais l'environnement apprend de lui.
07:45
That environmentenvironnement, people, are in these tightserré feedbackretour d'information loopsboucles
162
450000
3000
L'environnement, les gens, sont dans cette boucle de rétro-action
07:48
and creatingcréer a kindgentil of scaffoldingéchafaudage
163
453000
2000
et créent une sorte d’échafaudage
07:50
that has not been noticedremarqué untiljusqu'à now.
164
455000
3000
qui n'avait pas été remarqué jusqu'à présent.
07:54
But that's looking at the speechdiscours contextle contexte.
165
459000
2000
Mais ce n'est que la vision du contexte de parole.
07:56
What about the visualvisuel contextle contexte?
166
461000
2000
Qu'en est-il du contexte visuel ?
07:58
We're not looking at --
167
463000
2000
Nous ne regardons pas --
08:00
think of this as a dollhousemaison de poupée cutawaycutaway of our housemaison.
168
465000
2000
imaginez ça comme une coupe de maison de poupée de notre maison.
08:02
We'veNous avons takenpris those circularcirculaire fish-eyeFish eye lenslentille camerasappareils photo,
169
467000
3000
Nous avons pris ces lentilles de caméra circulaires en œil de poisson
08:05
and we'venous avons doneterminé some opticaloptique correctioncorrection,
170
470000
2000
utilisé un peu de correction optique,
08:07
and then we can bringapporter it into three-dimensionaltridimensionnel life.
171
472000
4000
et nous pouvons ensuite le transformer en modèle tri-dimensionnel.
08:11
So welcomeBienvenue to my home.
172
476000
2000
Bienvenu chez moi.
08:13
This is a momentmoment,
173
478000
2000
Voici un instant,
08:15
one momentmoment capturedcapturé acrossà travers multipleplusieurs camerasappareils photo.
174
480000
3000
un instant capturé à travers plusieurs caméras.
08:18
The reasonraison we did this is to createcréer the ultimateultime memoryMémoire machinemachine,
175
483000
3000
La raison derrière cela est de créer la machine à souvenir ultime,
08:21
where you can go back and interactivelymode interactif flymouche around
176
486000
3000
avec laquelle il est possible de rembobiner et de se mouvoir à volonté dans la pièce
08:24
and then breatherespirer video-lifevidéo-vie into this systemsystème.
177
489000
3000
et d’insuffler une vie digitale à ce système.
08:27
What I'm going to do
178
492000
2000
Ce que je vais faire,
08:29
is give you an acceleratedaccéléré viewvue of 30 minutesminutes,
179
494000
3000
c'est vous donner une vue accélérée de 30 minutes,
08:32
again, of just life in the livingvivant roomchambre.
180
497000
2000
de nouveau, de la vie de tous les jours dans le salon.
08:34
That's me and my sonfils on the floorsol.
181
499000
3000
C'est moi et mon fils par terre.
08:37
And there's videovidéo analyticsanalytique
182
502000
2000
Il y a l'analyse vidéo
08:39
that are trackingsuivi our movementsmouvements.
183
504000
2000
qui suit nos mouvements.
08:41
My sonfils is leavingen quittant redrouge inkencre. I am leavingen quittant greenvert inkencre.
184
506000
3000
Mon fils laisse une traînée rouge, je laisse une traînée verte.
08:44
We're now on the couchcanapé,
185
509000
2000
Nous sommes maintenant sur le canapé,
08:46
looking out throughpar the windowfenêtre at carsdes voitures passingqui passe by.
186
511000
3000
on regarde à travers les vitres les voitures qui passent à l'extérieur.
08:49
And finallyenfin, my sonfils playingen jouant in a walkingen marchant toyjouet by himselflui-même.
187
514000
3000
Enfin, mon fils qui s'amuse tout seul dans un déambulateur.
08:52
Now we freezegel the actionaction, 30 minutesminutes,
188
517000
3000
Maintenant, on arrête le temps, 30 minutes,
08:55
we turntour time into the verticalverticale axisaxe,
189
520000
2000
on met le temps sur l'axe vertical,
08:57
and we openouvrir up for a viewvue
190
522000
2000
et on étend la vue
08:59
of these interactioninteraction tracestraces we'venous avons just left behindderrière.
191
524000
3000
pour afficher les traînées d'interaction que nous avons déposées.
09:02
And we see these amazingincroyable structuresles structures --
192
527000
3000
Et on découvre ces structures incroyables --
09:05
these little knotsnoeuds of two colorscouleurs of threadfil
193
530000
3000
ces petits noeuds de fils bicolores
09:08
we call "socialsocial hotchaud spotsspots."
194
533000
2000
qu'on appelle les points chauds sociaux.
09:10
The spiralspirale threadfil
195
535000
2000
Le fil spiralé
09:12
we call a "solosolo hotchaud spotplace."
196
537000
2000
on l'appelle un point chaud solitaire.
09:14
And we think that these affectaffecter the way languagela langue is learnedappris.
197
539000
3000
On pense que cela affecte la manière dont le langage est appris.
09:17
What we'dmer like to do
198
542000
2000
Ce qu'on souhaite faire
09:19
is startdébut understandingcompréhension
199
544000
2000
c'est essayer de comprendre
09:21
the interactioninteraction betweenentre these patternsmodèles
200
546000
2000
les relations entre ces motifs
09:23
and the languagela langue that my sonfils is exposedexposé to
201
548000
2000
et le langage auquel mon fils est exposé
09:25
to see if we can predictprédire
202
550000
2000
pour voir si on peut prévoir
09:27
how the structurestructure of when wordsmots are heardentendu
203
552000
2000
comment la structure du contexte d'écoute du mot
09:29
affectsaffecte when they're learnedappris --
204
554000
2000
a un effet sur l'apprentissage --
09:31
so in other wordsmots, the relationshiprelation
205
556000
2000
en d'autres mots, la relation
09:33
betweenentre wordsmots and what they're about in the worldmonde.
206
558000
4000
entre les mots et ce qu'ils désignent dans l'environnement.
09:37
So here'svoici how we're approachings’approchant this.
207
562000
2000
Donc voilà notre démarche.
09:39
In this videovidéo,
208
564000
2000
Dans cette vidéo,
09:41
again, my sonfils is beingétant tracedtracé out.
209
566000
2000
de nouveau, mon fils laisse une trace.
09:43
He's leavingen quittant redrouge inkencre behindderrière.
210
568000
2000
Il laisse de l'encre rouge derrière lui.
09:45
And there's our nannynounou by the doorporte.
211
570000
2000
Et il y a notre nounou à la porte.
09:47
(VideoVidéo) NannyNounou: You want watereau? (BabyBébé: AaaaAbdelkader.)
212
572000
3000
(Vidéo) Nounou: Tu veux de l'eau? (Bébé: Aaaaa.)
09:50
NannyNounou: All right. (BabyBébé: AaaaAbdelkader.)
213
575000
3000
Nounou: Très bien. (Bébé: Aaaa.)
09:53
DRDR: She offersdes offres watereau,
214
578000
2000
DR: Elle lui propose de l'eau,
09:55
and off go the two wormsvers
215
580000
2000
et voilà les deux limaces
09:57
over to the kitchencuisine to get watereau.
216
582000
2000
qui vont chercher de l'eau à la cuisine.
09:59
And what we'venous avons doneterminé is use the wordmot "watereau"
217
584000
2000
Ce qu'on a fait, c'est d'utiliser le mot "eau"
10:01
to tagbalise that momentmoment, that bitbit of activityactivité.
218
586000
2000
pour tagguer ce moment, cette activité.
10:03
And now we take the powerPuissance of dataLes données
219
588000
2000
Maintenant on utilise la puissance des données
10:05
and take everychaque time my sonfils
220
590000
3000
et on prend chaque instant où mon fils
10:08
ever heardentendu the wordmot watereau
221
593000
2000
a entendu le mot eau
10:10
and the contextle contexte he saw it in,
222
595000
2000
et le contexte où cela c'est produit.
10:12
and we use it to penetratepénétrer throughpar the videovidéo
223
597000
3000
On l'utilise pour traverser la vidéo
10:15
and find everychaque activityactivité tracetrace
224
600000
3000
et trouver toutes les traces d'activité
10:18
that co-occurredcohabitent with an instanceexemple of watereau.
225
603000
3000
qui correspondent à une occurrence de eau.
10:21
And what this dataLes données leavesfeuilles in its wakeréveiller
226
606000
2000
Ces paroles laissent dans leurs sillages
10:23
is a landscapepaysage.
227
608000
2000
un panorama.
10:25
We call these wordscapeswordscapes.
228
610000
2000
On appelle ces formes des paro-namas.
10:27
This is the wordscapewordscape for the wordmot watereau,
229
612000
2000
Voici le paronama pour le mot eau.
10:29
and you can see mostles plus of the actionaction is in the kitchencuisine.
230
614000
2000
Vous pouvez constater que la majorité de l'action se situe dans la cuisine.
10:31
That's where those biggros peakspics are over to the left.
231
616000
3000
C'est là que sont ces grands pics tout à gauche.
10:34
And just for contrastcontraste, we can do this with any wordmot.
232
619000
3000
Juste pour le contraste, nous pouvons faire ça avec n'importe quel mot.
10:37
We can take the wordmot "byeau revoir"
233
622000
2000
Nous pouvons prendre le mot "bye"
10:39
as in "good byeau revoir."
234
624000
2000
utilisé dans "good bye" (au revoir).
10:41
And we're now zoomedzoomé in over the entranceentrée to the housemaison.
235
626000
2000
On s'est maintenant rapproché de l'entrée de la maison.
10:43
And we look, and we find, as you would expectattendre,
236
628000
3000
On se rend compte, comme on s'y attend,
10:46
a contrastcontraste in the landscapepaysage
237
631000
2000
qu'il y a un contraste dans le panorama
10:48
where the wordmot "byeau revoir" occursse produit much more in a structuredstructuré way.
238
633000
3000
là où le mot "bye" est prononcé de manière plus structurée.
10:51
So we're usingen utilisant these structuresles structures
239
636000
2000
On utilise donc ces structures
10:53
to startdébut predictingprédire
240
638000
2000
pour commencer à prévoir
10:55
the ordercommande of languagela langue acquisitionacquisition,
241
640000
3000
l'ordre d'acquisition du langage.
10:58
and that's ongoingen cours work now.
242
643000
2000
C'est un travail que nous sommes entrain de mener.
11:00
In my lablaboratoire, whichlequel we're peeringpeering into now, at MITMIT --
243
645000
3000
Dans mon labo, où nous nous trouvons maintenant, au MIT --
11:03
this is at the mediamédias lablaboratoire.
244
648000
2000
c'est le labo média.
11:05
This has becomedevenir my favoritepréféré way
245
650000
2000
C'est devenu ma manière favorite
11:07
of videographingfilmer just about any spaceespace.
246
652000
2000
d'enregistrer n’importe quel type d'espace.
11:09
ThreeTrois of the keyclé people in this projectprojet,
247
654000
2000
3 des personnes clés dans ce projet,
11:11
PhilipPhilippe DeCampDeCamp, RonyRony KubatKubat and BrandonBrandon RoyRoy are picturedsur la photo here.
248
656000
3000
Philip DeCamp, Rony Kubat et Brandon Roy sont présent ici.
11:14
PhilipPhilippe has been a closeFermer collaboratorcollaborateur
249
659000
2000
Philip a été un collaborateur précieux
11:16
on all the visualizationsvisualisations you're seeingvoyant.
250
661000
2000
sur toutes les visualisations que vous voyez.
11:18
And MichaelMichael FleischmanFleischman
251
663000
3000
Michael Fleischman
11:21
was anotherun autre PhPH.D. studentétudiant in my lablaboratoire
252
666000
2000
était un autre doctorant de mon labo
11:23
who workedtravaillé with me on this home videovidéo analysisune analyse,
253
668000
3000
qui travaillait avec moi sur l'analyse de cette vidéo domestique.
11:26
and he madefabriqué the followingSuivant observationobservation:
254
671000
3000
Il m'a fait la remarque suivante:
11:29
that "just the way that we're analyzinganalyse
255
674000
2000
"La manière dont on analyse
11:31
how languagela langue connectsse connecte to eventsévénements
256
676000
3000
comment le langage s'articule avec les évènements
11:34
whichlequel providefournir commoncommun groundsol for languagela langue,
257
679000
2000
qui fournissent une fondation à la langue,
11:36
that sameMême ideaidée we can take out of your home, DebDeb,
258
681000
4000
la même idée peut être transposée hors de ta maison, Deb,
11:40
and we can applyappliquer it to the worldmonde of publicpublic mediamédias."
259
685000
3000
et on peut l'appliquer au monde des médias publics."
11:43
And so our efforteffort tooka pris an unexpectedinattendu turntour.
260
688000
3000
Nos efforts ont donc pris un tour inattendu.
11:46
Think of massMasse mediamédias
261
691000
2000
Pensez aux média de masse
11:48
as providingfournir commoncommun groundsol
262
693000
2000
comme donnant une base commune.
11:50
and you have the reciperecette
263
695000
2000
et vous avez la recette
11:52
for takingprise this ideaidée to a wholeentier newNouveau placeendroit.
264
697000
3000
pour exporter cette idée vers un tout nouvel horizon.
11:55
We'veNous avons startedcommencé analyzinganalyse televisiontélévision contentcontenu
265
700000
3000
Nous avons commencé à analyser le contenu de la télévision
11:58
usingen utilisant the sameMême principlesdes principes --
266
703000
2000
en utilisant les mêmes principes --
12:00
analyzinganalyse eventun événement structurestructure of a TVTV signalsignal --
267
705000
3000
analyser la structure des évènements d'un signal TV --
12:03
episodesépisodes of showsmontre,
268
708000
2000
épisodes de séries,
12:05
commercialspublicités,
269
710000
2000
publicités,
12:07
all of the componentsComposants that make up the eventun événement structurestructure.
270
712000
3000
tous les composants de la structure des évènements.
12:10
And we're now, with satelliteSatellite dishesvaisselle, pullingtirant and analyzinganalyse
271
715000
3000
Nous voilà, avec des paraboles satellites, captant et analysant
12:13
a good partpartie of all the TVTV beingétant watchedregardé in the UnitedUnie StatesÉtats.
272
718000
3000
une bonne partie des programmes TV diffusés aux États-Unis.
12:16
And you don't have to now go and instrumentinstrument livingvivant roomspièces with microphonesmicrophones
273
721000
3000
Il n'est plus nécessaire d'aller équiper des salons avec des microphones
12:19
to get people'sles gens conversationsconversations,
274
724000
2000
pour obtenir des conversations,
12:21
you just tunemélodie into publiclyau public availabledisponible socialsocial mediamédias feedsflux.
275
726000
3000
il suffit de se brancher sur les ondes des médias sociaux publics.
12:24
So we're pullingtirant in
276
729000
2000
On extrait donc
12:26
about threeTrois billionmilliard commentscommentaires a monthmois,
277
731000
2000
environ trois milliards de commentaires par mois.
12:28
and then the magicla magie happensarrive.
278
733000
2000
Et la magie se produit.
12:30
You have the eventun événement structurestructure,
279
735000
2000
Voici la structure des évènements,
12:32
the commoncommun groundsol that the wordsmots are about,
280
737000
2000
la base de ce dont parlent les mots,
12:34
comingvenir out of the televisiontélévision feedsflux;
281
739000
3000
extraits de la télévision.
12:37
you've got the conversationsconversations
282
742000
2000
Vous avez les conversations
12:39
that are about those topicsles sujets;
283
744000
2000
qui concernent ces sujets.
12:41
and throughpar semanticsémantique analysisune analyse --
284
746000
3000
Par l'analyse sémantique --
12:44
and this is actuallyréellement realréal dataLes données you're looking at
285
749000
2000
et vous voyez d'ailleurs de vraies données ici,
12:46
from our dataLes données processingEn traitement --
286
751000
2000
traitées par nos soins --
12:48
eachchaque yellowjaune lineligne is showingmontrer a linklien beingétant madefabriqué
287
753000
3000
chaque ligne jaune montre un lien fait
12:51
betweenentre a commentcommentaire in the wildsauvage
288
756000
3000
entre un commentaire sauvage
12:54
and a piecepièce of eventun événement structurestructure comingvenir out of the televisiontélévision signalsignal.
289
759000
3000
et un élément de la structure des évènements issue du signal télévisé.
12:57
And the sameMême ideaidée now
290
762000
2000
La même idée peut maintenant
12:59
can be builtconstruit up.
291
764000
2000
être développée.
13:01
And we get this wordscapewordscape,
292
766000
2000
On obtient ce paronama,
13:03
exceptsauf now wordsmots are not assembledassemblé in my livingvivant roomchambre.
293
768000
3000
sauf qu'ici les mots ne s'assemblent pas dans mon salon.
13:06
InsteadAu lieu de cela, the contextle contexte, the commoncommun groundsol activitiesActivités,
294
771000
4000
À la place, le contexte, l'activité commune à la base,
13:10
are the contentcontenu on televisiontélévision that's drivingau volant the conversationsconversations.
295
775000
3000
c'est le contenu télévisé qui sous-tend les conversations.
13:13
And what we're seeingvoyant here, these skyscrapersgrattes ciels now,
296
778000
3000
Ce que vous voyez là, ces gratte-ciels,
13:16
are commentarycommentaire
297
781000
2000
sont des commentaires
13:18
that are linkedlié to contentcontenu on televisiontélévision.
298
783000
2000
liés à du contenu télévisuel.
13:20
SameMême conceptconcept,
299
785000
2000
Même concept,
13:22
but looking at communicationla communication dynamicsdynamique
300
787000
2000
mais nous regardons la dynamique des communications
13:24
in a very differentdifférent spheresphère.
301
789000
2000
dans une sphère très différente.
13:26
And so fundamentallyfondamentalement, ratherplutôt than, for exampleExemple,
302
791000
2000
Fondamentalement, plutôt que, par exemple,
13:28
measuringmesure contentcontenu basedbasé on how manybeaucoup people are watchingen train de regarder,
303
793000
3000
mesurer le contenu par le nombre de personnes qui le regardent,
13:31
this givesdonne us the basicde base dataLes données
304
796000
2000
on obtient les données de base
13:33
for looking at engagementengagement propertiesPropriétés of contentcontenu.
305
798000
3000
pour regarder la capacité à susciter des commentaires du contenu.
13:36
And just like we can look at feedbackretour d'information cyclesdes cycles
306
801000
3000
De la même manière qu'on a étudié les boucles de retour
13:39
and dynamicsdynamique in a familyfamille,
307
804000
3000
et la dynamique au sein d'une famille,
13:42
we can now openouvrir up the sameMême conceptsconcepts
308
807000
3000
nous pouvons étendre les même concepts
13:45
and look at much largerplus grand groupsgroupes of people.
309
810000
3000
et observer une population bien plus grande.
13:48
This is a subsetsous-ensemble of dataLes données from our databasebase de données --
310
813000
3000
Voici un sous-ensemble des données de notre base de données --
13:51
just 50,000 out of severalnombreuses millionmillion --
311
816000
3000
à peine 50 000 parmi plusieurs millions --
13:54
and the socialsocial graphgraphique that connectsse connecte them
312
819000
2000
et le graphe social qui les connecte
13:56
throughpar publiclyau public availabledisponible sourcessources.
313
821000
3000
à travers des ressources publiques.
13:59
And if you put them on one plainplaine,
314
824000
2000
Si vous les mettez sur une plaine,
14:01
a secondseconde plainplaine is where the contentcontenu livesvies.
315
826000
3000
les contenus vivent sur une seconde plaine.
14:04
So we have the programsprogrammes
316
829000
3000
On a donc les programmes
14:07
and the sportingsportif eventsévénements
317
832000
2000
et les évènements sportifs
14:09
and the commercialspublicités,
318
834000
2000
et les pubs,
14:11
and all of the linklien structuresles structures that tieattacher them togetherensemble
319
836000
2000
et tous les liens qui les relient
14:13
make a contentcontenu graphgraphique.
320
838000
2000
créent le graphe des contenus.
14:15
And then the importantimportant thirdtroisième dimensiondimension.
321
840000
4000
Ensuite, la 3ème dimension.
14:19
EachChaque of the linksdes liens that you're seeingvoyant renderedrendus here
322
844000
2000
Chacun des liens qui sont affichés ici
14:21
is an actualréel connectionconnexion madefabriqué
323
846000
2000
représente une connexion faite
14:23
betweenentre something someoneQuelqu'un said
324
848000
3000
entre ce que quelqu'un a dit
14:26
and a piecepièce of contentcontenu.
325
851000
2000
et un élément de contenu.
14:28
And there are, again, now tensdizaines of millionsdes millions of these linksdes liens
326
853000
3000
De nouveau, il y a des dizaines de millions de liens
14:31
that give us the connectiveconjonctif tissuetissu of socialsocial graphsgraphiques
327
856000
3000
qui forment le tissu de connexions du graphe social
14:34
and how they relaterapporter to contentcontenu.
328
859000
3000
et de leur rapport au contenu.
14:37
And we can now startdébut to probesonde the structurestructure
329
862000
2000
On peut alors commencer à étudier la structure
14:39
in interestingintéressant waysfaçons.
330
864000
2000
de manière intéressante.
14:41
So if we, for exampleExemple, tracetrace the pathchemin
331
866000
3000
Donc, par exemple, si on trace le chemin
14:44
of one piecepièce of contentcontenu
332
869000
2000
d'un élément de contenu
14:46
that drivesdisques someoneQuelqu'un to commentcommentaire on it,
333
871000
2000
que quelqu'un commente,
14:48
and then we followsuivre where that commentcommentaire goesva,
334
873000
3000
et que l'on suit le cheminement du commentaire,
14:51
and then look at the entiretout socialsocial graphgraphique that becomesdevient activatedactivé
335
876000
3000
et que l'on regarde le graphe sociale qui est activé dans sa globalité
14:54
and then tracetrace back to see the relationshiprelation
336
879000
3000
et que l'on revient en arrière pour voir les relations
14:57
betweenentre that socialsocial graphgraphique and contentcontenu,
337
882000
2000
entre ce graphe social et les contenus,
14:59
a very interestingintéressant structurestructure becomesdevient visiblevisible.
338
884000
2000
une structure très intéressante apparaît.
15:01
We call this a co-viewingaffichage de co cliqueclique,
339
886000
2000
Nous l’appelons le groupe de co-visionnage,
15:03
a virtualvirtuel livingvivant roomchambre if you will.
340
888000
3000
une salon virtuel si vous préférez.
15:06
And there are fascinatingfascinant dynamicsdynamique at playjouer.
341
891000
2000
Les dynamiques mises en jeu sont fascinantes.
15:08
It's not one way.
342
893000
2000
Ce n'est pas à sens-unique.
15:10
A piecepièce of contentcontenu, an eventun événement, causescauses someoneQuelqu'un to talk.
343
895000
3000
Un contenu, un évènement, faut que quelqu'un en parle.
15:13
They talk to other people.
344
898000
2000
Ils en parlent à d'autres personnes.
15:15
That drivesdisques tune-intune-in behaviorcomportement back into massMasse mediamédias,
345
900000
3000
Qui entraîne les médias de masse dans un comportement d'écoute
15:18
and you have these cyclesdes cycles
346
903000
2000
et vous avez ces cycles
15:20
that driveconduire the overallglobal behaviorcomportement.
347
905000
2000
qui entraînent ce comportement généralisé.
15:22
AnotherUn autre exampleExemple -- very differentdifférent --
348
907000
2000
Un autre exemple -- très différent --
15:24
anotherun autre actualréel personla personne in our databasebase de données --
349
909000
3000
une autre personne dans notre base de données --
15:27
and we're findingdécouverte at leastmoins hundredsdes centaines, if not thousandsmilliers, of these.
350
912000
3000
et nous en trouvons des centaines, voire des milliers, comme elle.
15:30
We'veNous avons givendonné this personla personne a nameprénom.
351
915000
2000
Nous avons donné un nom à cette personne.
15:32
This is a pro-amateurPro-amateur, or pro-ampro-am mediamédias criticcritique
352
917000
3000
C'est un pro-amateur, ou pro-am, un critique des médias
15:35
who has this highhaute fan-outdistribution ramifiée ratetaux.
353
920000
3000
qui a ce taux de dispersion élevé.
15:38
So a lot of people are followingSuivant this personla personne -- very influentialinfluent --
354
923000
3000
De nombreuses personnes suivent cette personne -- très influente --
15:41
and they have a propensitypropension to talk about what's on TVTV.
355
926000
2000
et elles ont une propension à parler de ce qui se passe à la télé.
15:43
So this personla personne is a keyclé linklien
356
928000
3000
Cette personne est donc un maillon clé
15:46
in connectingde liaison massMasse mediamédias and socialsocial mediamédias togetherensemble.
357
931000
3000
pour connecter les médias de masse et les médias sociaux.
15:49
One last exampleExemple from this dataLes données:
358
934000
3000
Un dernier exemple de ces données:
15:52
SometimesParfois it's actuallyréellement a piecepièce of contentcontenu that is specialspécial.
359
937000
3000
parfois, c'est un contenu qui est spécial.
15:55
So if we go and look at this piecepièce of contentcontenu,
360
940000
4000
Si vous allez regarder ce contenu,
15:59
PresidentPrésident Obama'sDe Obama StateÉtat of the UnionUnion addressadresse
361
944000
3000
le discours sur l'état de l'Union du Président Obama
16:02
from just a fewpeu weekssemaines agodepuis,
362
947000
2000
qui a eu lieu la semaine dernière,
16:04
and look at what we find in this sameMême dataLes données setensemble,
363
949000
3000
et si vous regardez ce que l'on trouve dans le même jeu de données,
16:07
at the sameMême scaleéchelle,
364
952000
3000
à la même échelle,
16:10
the engagementengagement propertiesPropriétés of this piecepièce of contentcontenu
365
955000
2000
la capacité à susciter des commentaires de ce contenu
16:12
are trulyvraiment remarkableremarquable.
366
957000
2000
est véritablement remarquable.
16:14
A nationnation explodingexploser in conversationconversation
367
959000
2000
Un nation entière qui discute
16:16
in realréal time
368
961000
2000
en temps réel
16:18
in responseréponse to what's on the broadcastdiffusion.
369
963000
3000
en réponse à ce qui est diffusé.
16:21
And of coursecours, throughpar all of these lineslignes
370
966000
2000
Bien sûr, toutes ces lignes
16:23
are flowingécoulement unstructurednon structurées languagela langue.
371
968000
2000
sont parcourues par du langage non structuré.
16:25
We can X-rayX-ray
372
970000
2000
Nous pouvons radiographier
16:27
and get a real-timetemps réél pulseimpulsion of a nationnation,
373
972000
2000
et obtenir le pouls de la nation en temps réel,
16:29
real-timetemps réél sensesens
374
974000
2000
une mesure en temps réel
16:31
of the socialsocial reactionsréactions in the differentdifférent circuitsles circuits in the socialsocial graphgraphique
375
976000
3000
des réactions sociales dans les différents circuits du graphe social
16:34
beingétant activatedactivé by contentcontenu.
376
979000
3000
qui sont activés par le contenu.
16:37
So, to summarizerésumer, the ideaidée is this:
377
982000
3000
Donc, pour résumer, l'idée est :
16:40
As our worldmonde becomesdevient increasinglyde plus en plus instrumentedinstrumenté
378
985000
3000
alors que notre monde devient de plus en plus instrumenté
16:43
and we have the capabilitiescapacités
379
988000
2000
et que nous avons la possibilité
16:45
to collectcollecte and connectrelier the dotspoints
380
990000
2000
de récupérer et de connecter les points
16:47
betweenentre what people are sayingen disant
381
992000
2000
entre ce que les gens disent
16:49
and the contextle contexte they're sayingen disant it in,
382
994000
2000
et le contexte dans lequel ils le disent,
16:51
what's emergingémergent is an abilitycapacité
383
996000
2000
ce qui émerge est une capacité
16:53
to see newNouveau socialsocial structuresles structures and dynamicsdynamique
384
998000
3000
à observer des structures sociales et des dynamiques nouvelles
16:56
that have previouslyprécédemment not been seenvu.
385
1001000
2000
que nous n'avions pas vu auparavant.
16:58
It's like buildingbâtiment a microscopemicroscope or telescopetélescope
386
1003000
2000
C'est comme créer un microscope ou un téléscope
17:00
and revealingrévélateur newNouveau structuresles structures
387
1005000
2000
et faire apparaître de nouvelles structures
17:02
about our ownposséder behaviorcomportement around communicationla communication.
388
1007000
3000
décrivant notre propre comportement par rapport à la communication.
17:05
And I think the implicationsimplications here are profoundprofond,
389
1010000
3000
Je pense que les implications sont profondes,
17:08
whetherqu'il s'agisse it's for sciencescience,
390
1013000
2000
que ce soit pour la science,
17:10
for commerceCommerce, for governmentgouvernement,
391
1015000
2000
pour le commerce, pour le gouvernement,
17:12
or perhapspeut être mostles plus of all,
392
1017000
2000
ou peut-être plus encore,
17:14
for us as individualspersonnes.
393
1019000
3000
pour nous en tant qu'individu.
17:17
And so just to returnrevenir to my sonfils,
394
1022000
3000
Donc juste pour revenir à mon fils,
17:20
when I was preparingen train de préparer this talk, he was looking over my shoulderépaule,
395
1025000
3000
quand je préparais cette conférence, il regardait par dessus mon épaule.
17:23
and I showedmontré him the clipsclips I was going to showmontrer to you todayaujourd'hui,
396
1028000
2000
Je lui ai montré les vidéos que j'avais l'intention de vous montrer aujourd'hui.
17:25
and I askeda demandé him for permissionautorisation -- grantedaccordé.
397
1030000
3000
Je lui ai demandé sa permission -- accordée.
17:28
And then I wentest allé on to reflectréfléchir,
398
1033000
2000
Et je me suis remis à réfléchir,
17:30
"Isn't it amazingincroyable,
399
1035000
3000
"N'est-ce pas étonnant,
17:33
this entiretout databasebase de données, all these recordingsenregistrements,
400
1038000
3000
cette base de données, tous ces enregistrements,
17:36
I'm going to handmain off to you and to your sistersœur" --
401
1041000
2000
que je vais vous transmettre à toi et à ta soeur,"
17:38
who arrivedarrivée two yearsannées laterplus tard --
402
1043000
3000
qui est venue au monde deux ans plus tard.
17:41
"and you guys are going to be ablecapable to go back and re-experiencere-découvrir momentsdes moments
403
1046000
3000
"Et vous allez être capables de rembobiner et de re-vivre des moments
17:44
that you could never, with your biologicalbiologique memoryMémoire,
404
1049000
3000
dont vous ne pourriez jamais, avec votre mémoire biologique,
17:47
possiblypeut-être rememberrappelles toi the way you can now?"
405
1052000
2000
vous rappeler comme vous le pouvez aujourd'hui."
17:49
And he was quietsilencieux for a momentmoment.
406
1054000
2000
Il n'a rien dit pendant un moment.
17:51
And I thought, "What am I thinkingen pensant?
407
1056000
2000
Je me suis dit, "A quoi je pense ?
17:53
He's fivecinq yearsannées oldvieux. He's not going to understandcomprendre this."
408
1058000
2000
Il a cinq ans. Il ne peux pas comprendre tout ça."
17:55
And just as I was havingayant that thought, he lookedregardé up at me and said,
409
1060000
3000
Alors même que cette pensée me traversait l'esprit, il a levé la tête et dit,
17:58
"So that when I growcroître up,
410
1063000
2000
"Alors quand je grandirai,
18:00
I can showmontrer this to my kidsdes gamins?"
411
1065000
2000
je pourrai montrer ça à mes enfants?"
18:02
And I thought, "WowWow, this is powerfulpuissant stuffdes trucs."
412
1067000
3000
Je me suis dit, "Wow, c'est un truc puissant."
18:05
So I want to leavelaisser you
413
1070000
2000
Je voudrais vous quitter
18:07
with one last memorablemémorable momentmoment
414
1072000
2000
avec un dernier moment mémorable
18:09
from our familyfamille.
415
1074000
3000
pour notre famille.
18:12
This is the first time our sonfils
416
1077000
2000
Voici la première fois que notre fils
18:14
tooka pris more than two stepspas at onceune fois que --
417
1079000
2000
a fait plus de deux pas à la suite --
18:16
capturedcapturé on filmfilm.
418
1081000
2000
capturé en vidéo.
18:18
And I really want you to focusconcentrer on something
419
1083000
3000
Je veux vraiment que vous vous concentriez sur quelque chose
18:21
as I take you throughpar.
420
1086000
2000
pendant que je vous montre cela.
18:23
It's a clutteredencombré environmentenvironnement; it's naturalNaturel life.
421
1088000
2000
C'est un environnement encombré; c'est la vie à l'état naturel.
18:25
My mother'smère in the kitchencuisine, cookingcuisine,
422
1090000
2000
Ma mère est dans la cuisine, entrain de préparer à manger,
18:27
and, of all placesdes endroits, in the hallwaycouloir,
423
1092000
2000
et, dans le couloir parmi tous les lieux,
18:29
I realizeprendre conscience de he's about to do it, about to take more than two stepspas.
424
1094000
3000
je me rends compte qu'il est sur le point d'y arriver, de faire deux pas d'affilée.
18:32
And so you hearentendre me encouragingencourageant him,
425
1097000
2000
Et donc vous m'entendez, je l'encourage,
18:34
realizingréaliser what's happeningévénement,
426
1099000
2000
je me rends compte de ce qui se passe,
18:36
and then the magicla magie happensarrive.
427
1101000
2000
et ensuite la magie se produit.
18:38
Listen very carefullysoigneusement.
428
1103000
2000
Ecoutez attentivement.
18:40
About threeTrois stepspas in,
429
1105000
2000
Après trois pas,
18:42
he realizesréalise something magicla magie is happeningévénement,
430
1107000
2000
il réalise que quelque chose de magique se produit.
18:44
and the mostles plus amazingincroyable feedbackretour d'information loopboucle of all kickscoups de pied in,
431
1109000
3000
Et la boucle de retour la plus extraordinaire prends le dessus,
18:47
and he takes a breathsouffle in,
432
1112000
2000
il inspire,
18:49
and he whispersmurmures "wowsensationnel"
433
1114000
2000
et il soupire "wow"
18:51
and instinctivelyinstinctivement I echoécho back the sameMême.
434
1116000
4000
et instinctivement je réponds la même chose.
18:56
And so let's flymouche back in time
435
1121000
3000
Remontons donc dans le temps
18:59
to that memorablemémorable momentmoment.
436
1124000
2000
vers ce moment mémorable.
19:05
(VideoVidéo) DRDR: Hey.
437
1130000
2000
(Vidéo) DR: Hey.
19:07
Come here.
438
1132000
2000
Viens là.
19:09
Can you do it?
439
1134000
3000
Tu peux le faire ?
19:13
Oh, boygarçon.
440
1138000
2000
Mon grand.
19:15
Can you do it?
441
1140000
3000
Tu peux le faire ?
19:18
BabyBébé: Yeah.
442
1143000
2000
Bébé: Yeah.
19:20
DRDR: MaMa, he's walkingen marchant.
443
1145000
3000
DR: 'mam, il marche.
19:24
(LaughterRires)
444
1149000
2000
(Rire)
19:26
(ApplauseApplaudissements)
445
1151000
2000
(Applaudissements)
19:28
DRDR: Thank you.
446
1153000
2000
DR: Merci.
19:30
(ApplauseApplaudissements)
447
1155000
15000
(Applaudissements)
Translated by Etienne Denis
Reviewed by Els De Keyser

▲Back to top

ABOUT THE SPEAKER
Deb Roy - Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs.

Why you should listen

Deb Roy directs the Cognitive Machines group at the MIT Media Lab, where he studies how children learn language, and designs machines that learn to communicate in human-like ways. To enable this work, he has pioneered new data-driven methods for analyzing and modeling human linguistic and social behavior. He has authored numerous scientific papers on artificial intelligence, cognitive modeling, human-machine interaction, data mining, and information visualization.

Deb Roy was the co-founder and serves as CEO of Bluefin Labs, a venture-backed technology company. Built upon deep machine learning principles developed in his research over the past 15 years, Bluefin has created a technology platform that analyzes social media commentary to measure real-time audience response to TV ads and shows.

Follow Deb Roy on Twitter>

Roy adds some relevant papers:

Deb Roy. (2009). New Horizons in the Study of Child Language Acquisition. Proceedings of Interspeech 2009. Brighton, England. bit.ly/fSP4Qh

Brandon C. Roy, Michael C. Frank and Deb Roy. (2009). Exploring word learning in a high-density longitudinal corpus. Proceedings of the 31st Annual Meeting of the Cognitive Science Society. Amsterdam, Netherlands. bit.ly/e1qxej

Plenty more papers on our research including technology and methodology can be found here, together with other research from my lab at MIT: bit.ly/h3paSQ

The work that I mentioned on relationships between television content and the social graph is being done at Bluefin Labs (www.bluefinlabs.com). Details of this work have not been published. The social structures we are finding (and that I highlighted in my TED talk) are indeed new. The social media communication channels that are leading to their formation did not even exist a few years ago, and Bluefin's technology platform for discovering these kinds of structures is the first of its kind. We'll certainly have more to say about all this as we continue to dig into this fascinating new kind of data, and as new social structures continue to evolve!

More profile about the speaker
Deb Roy | Speaker | TED.com