ABOUT THE SPEAKER
Deb Roy - Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs.

Why you should listen

Deb Roy directs the Cognitive Machines group at the MIT Media Lab, where he studies how children learn language, and designs machines that learn to communicate in human-like ways. To enable this work, he has pioneered new data-driven methods for analyzing and modeling human linguistic and social behavior. He has authored numerous scientific papers on artificial intelligence, cognitive modeling, human-machine interaction, data mining, and information visualization.

Deb Roy was the co-founder and serves as CEO of Bluefin Labs, a venture-backed technology company. Built upon deep machine learning principles developed in his research over the past 15 years, Bluefin has created a technology platform that analyzes social media commentary to measure real-time audience response to TV ads and shows.

Follow Deb Roy on Twitter>

Roy adds some relevant papers:

Deb Roy. (2009). New Horizons in the Study of Child Language Acquisition. Proceedings of Interspeech 2009. Brighton, England. bit.ly/fSP4Qh

Brandon C. Roy, Michael C. Frank and Deb Roy. (2009). Exploring word learning in a high-density longitudinal corpus. Proceedings of the 31st Annual Meeting of the Cognitive Science Society. Amsterdam, Netherlands. bit.ly/e1qxej

Plenty more papers on our research including technology and methodology can be found here, together with other research from my lab at MIT: bit.ly/h3paSQ

The work that I mentioned on relationships between television content and the social graph is being done at Bluefin Labs (www.bluefinlabs.com). Details of this work have not been published. The social structures we are finding (and that I highlighted in my TED talk) are indeed new. The social media communication channels that are leading to their formation did not even exist a few years ago, and Bluefin's technology platform for discovering these kinds of structures is the first of its kind. We'll certainly have more to say about all this as we continue to dig into this fascinating new kind of data, and as new social structures continue to evolve!

More profile about the speaker
Deb Roy | Speaker | TED.com
TED2011

Deb Roy: The birth of a word

Deb Roy : La naissance d'un mot

Filmed:
2,809,941 views

Deb Roy, chercheur à MIT, désirait comprendre la manière dont son jeune fils acquérait le langage. Il a donc équipé sa maison entière de caméras vidéo qui ont enregistré chaque moment (ou presque) du quotidien de son fils. Il a ensuite analysé 90 000 heures de vidéo domestique, ce qui lui a permis d’observer la transformation progressive de « gaaaa » en « eau ». Une recherche étonnante, dont les abondantes données ont des implications importantes sur notre compréhension de la façon que nous avons d’apprendre.
- Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs. Full bio

Double-click the English transcript below to play the video.

00:15
Imagine if you could record your life --
0
0
4000
Imaginez, si vous pouviez enregistrer votre vie :
00:19
everything you said, everything you did,
1
4000
3000
tout ce que vous dites, tout ce que vous faites,
00:22
available in a perfect memory store at your fingertips,
2
7000
3000
accessible sous forme d'une mémoire parfaite à portée de votre main.
00:25
so you could go back
3
10000
2000
Vous pourriez ainsi retourner dans le passé
00:27
and find memorable moments and relive them,
4
12000
3000
pour y trouver des moments mémorables et les revivre,
00:30
or sift through traces of time
5
15000
3000
ou scruter les traces du temps
00:33
and discover patterns in your own life
6
18000
2000
pour y découvrir les comportements récurrents, les schèmes de votre vie
00:35
that previously had gone undiscovered.
7
20000
3000
demeurés auparavant inconnus.
00:38
Well that's exactly the journey
8
23000
2000
Et bien, c'est exactement l'aventure
00:40
that my family began
9
25000
2000
que ma famille a entreprise
00:42
five and a half years ago.
10
27000
2000
il y a cinq ans.
00:44
This is my wife and collaborator, Rupal.
11
29000
3000
Voici mon épouse et collaboratrice, Rupal.
00:47
And on this day, at this moment,
12
32000
2000
Et ce jour-là, à ce moment-là,
00:49
we walked into the house with our first child,
13
34000
2000
nous franchissions le pas de la porte avec notre premier enfant,
00:51
our beautiful baby boy.
14
36000
2000
notre magnifique fils.
00:53
And we walked into a house
15
38000
3000
Et nous arrivions dans une maison
00:56
with a very special home video recording system.
16
41000
4000
équipée d'un système d'enregistrement vidéo domestique très spécial.
01:07
(Video) Man: Okay.
17
52000
2000
(Vidéo) Homme : D'accord.
01:10
Deb Roy: This moment
18
55000
1000
Deb Roy : Ce moment
01:11
and thousands of other moments special for us
19
56000
3000
et des milliers d'autres moments qui nous sont précieux
01:14
were captured in our home
20
59000
2000
ont été enregistrés alors qu'ils se déroulaient dans notre maison
01:16
because in every room in the house,
21
61000
2000
parce que dans toutes les pièces de la maison,
01:18
if you looked up, you'd see a camera and a microphone,
22
63000
3000
en levant les yeux, on pouvait voir une caméra et un microphone,
01:21
and if you looked down,
23
66000
2000
et de cette perspective,
01:23
you'd get this bird's-eye view of the room.
24
68000
2000
il était possible d'obtenir une vue d'ensemble de la pièce.
01:25
Here's our living room,
25
70000
3000
Voici notre salon,
01:28
the baby bedroom,
26
73000
3000
le chambre à coucher du bébé,
01:31
kitchen, dining room
27
76000
2000
la cuisine, la salle à manger
01:33
and the rest of the house.
28
78000
2000
et le reste de la maison.
01:35
And all of these fed into a disc array
29
80000
3000
Et toute ces pièces étaient reliées à une baie de stockage
01:38
that was designed for a continuous capture.
30
83000
3000
conçue pour la saisie de données en continu.
01:41
So here we are flying through a day in our home
31
86000
3000
Nous voici donc survolant une journée chez nous
01:44
as we move from sunlit morning
32
89000
3000
en commençant par un matin ensoleillé
01:47
through incandescent evening
33
92000
2000
jusqu'à une soirée incandescente
01:49
and, finally, lights out for the day.
34
94000
3000
et, finalement, les lumières éteintes pour la nuit.
01:53
Over the course of three years,
35
98000
3000
Pendant trois ans,
01:56
we recorded eight to 10 hours a day,
36
101000
2000
nous avons enregistré de 8 à 10 heures par jour,
01:58
amassing roughly a quarter-million hours
37
103000
3000
pour recueillir environ un quart de millions d'heures
02:01
of multi-track audio and video.
38
106000
3000
d'enregistrement audio et vidéo multipiste.
02:04
So you're looking at a piece of what is by far
39
109000
2000
Vous regardez donc une portion de ce qui est de loin
02:06
the largest home video collection ever made.
40
111000
2000
la collection la plus importante de vidéo domestique.
02:08
(Laughter)
41
113000
3000
(Rires)
02:11
And what this data represents
42
116000
2000
Et ce que ces données représentent
02:13
for our family at a personal level,
43
118000
4000
pour notre famille sur le plan personnel,
02:17
the impact has already been immense,
44
122000
2000
l'impact s'est déjà avéré majeur,
02:19
and we're still learning its value.
45
124000
3000
et nous en apprenons encore à en découvrir toute la valeur.
02:22
Countless moments
46
127000
2000
D'innombrables moments naturels
02:24
of unsolicited natural moments, not posed moments,
47
129000
3000
non sollicités, non répétés,
02:27
are captured there,
48
132000
2000
sont enregistrés là,
02:29
and we're starting to learn how to discover them and find them.
49
134000
3000
et nous commençons à savoir comment les découvrir et les trouver.
02:32
But there's also a scientific reason that drove this project,
50
137000
3000
Mais il y a aussi une motivation scientifique derrière ce projet,
02:35
which was to use this natural longitudinal data
51
140000
4000
qui consistait à utiliser ces données naturelles longitudinales
02:39
to understand the process
52
144000
2000
afin de mieux comprendre le processus
02:41
of how a child learns language --
53
146000
2000
de l'apprentissage de la langue par un enfant --
02:43
that child being my son.
54
148000
2000
cet enfant étant mon fils.
02:45
And so with many privacy provisions put in place
55
150000
4000
Ainsi, avec la mise en place de nombreuses modalités assurant la vie privée
02:49
to protect everyone who was recorded in the data,
56
154000
3000
visant à protéger tous ceux qui figuraient dans les données enregistrées,
02:52
we made elements of the data available
57
157000
3000
nous avons mis des éléments de données à la disposition
02:55
to my trusted research team at MIT
58
160000
3000
de mon équipe de recherche de confiance à MIT
02:58
so we could start teasing apart patterns
59
163000
3000
afin de commencer à cerner des structures récurrentes, ou schèmes,
03:01
in this massive data set,
60
166000
3000
dans cet ensemble imposant de données.
03:04
trying to understand the influence of social environments
61
169000
3000
Notre but : essayer de comprendre l'influence des milieux sociaux
03:07
on language acquisition.
62
172000
2000
sur l'acquisition du langage.
03:09
So we're looking here
63
174000
2000
Nous voyons ici
03:11
at one of the first things we started to do.
64
176000
2000
l'une des premières choses que nous avons faites dès le début.
03:13
This is my wife and I cooking breakfast in the kitchen,
65
178000
4000
Voilà mon épouse et moi préparant le déjeuner dans la cuisine.
03:17
and as we move through space and through time,
66
182000
3000
Tandis que nous nous déplaçons dans l'espace et dans le temps,
03:20
a very everyday pattern of life in the kitchen.
67
185000
3000
nous pouvons voir le déroulement quotidien de la vie dans la cuisine.
03:23
In order to convert
68
188000
2000
La conversion
03:25
this opaque, 90,000 hours of video
69
190000
3000
de ces 90 000 heures opaques de vidéo
03:28
into something that we could start to see,
70
193000
2000
en quelque chose qu'il nous est possible de visualiser
03:30
we use motion analysis to pull out,
71
195000
2000
se fait grâce à l'analyse du mouvement
03:32
as we move through space and through time,
72
197000
2000
alors que nous nous déplaçons dans l'espace et dans le temps,
03:34
what we call space-time worms.
73
199000
3000
ce que nous appelons des serpentins espace-temps.
03:37
And this has become part of our toolkit
74
202000
3000
Cet outil fait maintenant partie d'un arsenal
03:40
for being able to look and see
75
205000
3000
qui nous permet de constater et d'examiner
03:43
where the activities are in the data,
76
208000
2000
l'emplacement des activités dans les données,
03:45
and with it, trace the pattern of, in particular,
77
210000
3000
et de ce fait de tracer l'évolution, en particulier,
03:48
where my son moved throughout the home,
78
213000
2000
des déplacements de mon fils à travers de la maison.
03:50
so that we could focus our transcription efforts,
79
215000
3000
Dans le but de concentrer nos efforts de transcription,
03:53
all of the speech environment around my son --
80
218000
3000
tous les environnements linguistiques entourant mon fils --
03:56
all of the words that he heard from myself, my wife, our nanny,
81
221000
3000
tous les mots qu'il a entendu venant de moi, de mon épouse, de sa gardienne,
03:59
and over time, the words he began to produce.
82
224000
3000
et avec le temps, les mots qu'il a commencé à prononcer.
04:02
So with that technology and that data
83
227000
3000
C'est ainsi que grâce à cette technologie et ces données
04:05
and the ability to, with machine assistance,
84
230000
2000
et avec l'aide d'une machine qui nous a donné la capacité
04:07
transcribe speech,
85
232000
2000
de transcrire la parole,
04:09
we've now transcribed
86
234000
2000
nous avons jusqu'à présent transcrit
04:11
well over seven million words of our home transcripts.
87
236000
3000
bien au-delà de sept millions de mots issus de nos enregistrements domestiques.
04:14
And with that, let me take you now
88
239000
2000
Permettez-moi maintenant de vous servir de guide
04:16
for a first tour into the data.
89
241000
3000
pour une première incursion dans ces données.
04:19
So you've all, I'm sure,
90
244000
2000
Je suis certain que vous avez tous
04:21
seen time-lapse videos
91
246000
2000
déjà vu des vidéos à intervalles
04:23
where a flower will blossom as you accelerate time.
92
248000
3000
présentant une fleur qui s'épanouie au fil d'un espace temps accéléré.
04:26
I'd like you to now experience
93
251000
2000
J'aimerais maintenant que vous viviez l'expérience
04:28
the blossoming of a speech form.
94
253000
2000
de l'épanouissement d'une forme langagière.
04:30
My son, soon after his first birthday,
95
255000
2000
Mon fils, peu de temps après son premier anniversaire,
04:32
would say "gaga" to mean water.
96
257000
3000
disait « gaga » pour exprimer de l'eau.
04:35
And over the course of the next half-year,
97
260000
3000
Durant les six mois qui ont suivi,
04:38
he slowly learned to approximate
98
263000
2000
il a lentement appris, par approximation, à employer
04:40
the proper adult form, "water."
99
265000
3000
la forme correcte, « eau »
04:43
So we're going to cruise through half a year
100
268000
2000
Nous allons survoler la moitié d'une année
04:45
in about 40 seconds.
101
270000
2000
en 40 secondes environ.
04:47
No video here,
102
272000
2000
Pas de vidéo ici,
04:49
so you can focus on the sound, the acoustics,
103
274000
3000
vous pouvez donc vous concentrez sur le son, l'acoustique
04:52
of a new kind of trajectory:
104
277000
2000
d'une nouvelle espèce de cheminement :
04:54
gaga to water.
105
279000
2000
de « gaga » à « eau ».
04:56
(Audio) Baby: Gagagagagaga
106
281000
12000
(Audio) Bébé : Gagagagagaga
05:08
Gaga gaga gaga
107
293000
4000
Gaga gaga gaga
05:12
guga guga guga
108
297000
5000
guga guga guga
05:17
wada gaga gaga guga gaga
109
302000
5000
wada gaga gaga guga gaga
05:22
wader guga guga
110
307000
4000
wader guga guga
05:26
water water water
111
311000
3000
water water water (eau)
05:29
water water water
112
314000
6000
water water water (eau)
05:35
water water
113
320000
4000
water water (eau)
05:39
water.
114
324000
2000
« eau ».
05:41
DR: He sure nailed it, didn't he.
115
326000
2000
D.R. : Il l'a eu, n'est-ce pas?
05:43
(Applause)
116
328000
7000
(Applaudissements)
05:50
So he didn't just learn water.
117
335000
2000
En fait, il n'a pas seulement appris le mot « eau ».
05:52
Over the course of the 24 months,
118
337000
2000
Au cours de 24 mois,
05:54
the first two years that we really focused on,
119
339000
3000
les 2 premières années de sa vie, sur lesquelles nous nous sommes réellement penchés,
05:57
this is a map of every word he learned in chronological order.
120
342000
4000
nous avons dressé cette carte de tous les mots qu’il a appris en ordre chronologique.
06:01
And because we have full transcripts,
121
346000
3000
Et parce que nous avons avons complètement transcrit les données,
06:04
we've identified each of the 503 words
122
349000
2000
nous avons répertorié chacun des 503 mots
06:06
that he learned to produce by his second birthday.
123
351000
2000
qu'il a appris à prononcer avant son deuxième anniversaire.
06:08
He was an early talker.
124
353000
2000
Il a appris tôt à parler.
06:10
And so we started to analyze why.
125
355000
3000
Nous avons voulu savoir pourquoi.
06:13
Why were certain words born before others?
126
358000
3000
Pourquoi certains mots sont-ils nés avant d'autres?
06:16
This is one of the first results
127
361000
2000
Il s'agit là d'un des premiers résultats
06:18
that came out of our study a little over a year ago
128
363000
2000
issus de notre étude il y a de ça un peu plus d'un an,
06:20
that really surprised us.
129
365000
2000
qui nous a vraiment surpris.
06:22
The way to interpret this apparently simple graph
130
367000
3000
Voici comment interpréter ce graphique apparemment simple :
06:25
is, on the vertical is an indication
131
370000
2000
sur l'axe verticale, on retrouve une indication
06:27
of how complex caregiver utterances are
132
372000
3000
de la complexité des énoncés
06:30
based on the length of utterances.
133
375000
2000
en fonction de leur longueur.
06:32
And the [horizontal] axis is time.
134
377000
3000
Et l'axe vertical représente le temps.
06:35
And all of the data,
135
380000
2000
Et nous avons aligné toutes les données
06:37
we aligned based on the following idea:
136
382000
3000
en nous appuyant sur l'idée suivante :
06:40
Every time my son would learn a word,
137
385000
3000
chaque fois que mon fils apprenait un mot,
06:43
we would trace back and look at all of the language he heard
138
388000
3000
nous réalisions un retour en arrière et examinions les paroles qu'il avait entendues
06:46
that contained that word.
139
391000
2000
et qui contenait ce mot.
06:48
And we would plot the relative length of the utterances.
140
393000
4000
De plus, nous représentions sous forme graphique la longueur relative des énoncés.
06:52
And what we found was this curious phenomena,
141
397000
3000
Et ce que nous avons constaté est ce curieux phénomène,
06:55
that caregiver speech would systematically dip to a minimum,
142
400000
3000
selon lequel le parent ou le gardien adoptait systématiquement un langage simplifié au minimum,
06:58
making language as simple as possible,
143
403000
3000
rendant le langage aussi simple que possible,
07:01
and then slowly ascend back up in complexity.
144
406000
3000
pour en augmenter progressivement la complexité.
07:04
And the amazing thing was
145
409000
2000
Et ce qui est incroyable est
07:06
that bounce, that dip,
146
411000
2000
que ce bond, ce saut brusque,
07:08
lined up almost precisely
147
413000
2000
concordait presque parfaitement
07:10
with when each word was born --
148
415000
2000
avec le moment de la naissance de chaque mot.
07:12
word after word, systematically.
149
417000
2000
Mot après mot, systématiquement.
07:14
So it appears that all three primary caregivers --
150
419000
2000
Ainsi, il semblerait que les trois personnes significatives,
07:16
myself, my wife and our nanny --
151
421000
3000
moi, mon épouse et notre gradienne,
07:19
were systematically and, I would think, subconsciously
152
424000
3000
restructurions systématiquement et, je crois, de façon subconsciente,
07:22
restructuring our language
153
427000
2000
notre langage
07:24
to meet him at the birth of a word
154
429000
3000
pour venir à sa rencontre, à la naissance d'un mot
07:27
and bring him gently into more complex language.
155
432000
4000
pour ensuite le diriger progressivement vers un langage plus complexe.
07:31
And the implications of this -- there are many,
156
436000
2000
Les implications de ce phénomène sont nombreuses,
07:33
but one I just want to point out,
157
438000
2000
j'aimerais cependant en souligner une en particulier,
07:35
is that there must be amazing feedback loops.
158
440000
3000
c'est qu'il doit y avoir des boucles de rétroaction incroyables.
07:38
Of course, my son is learning
159
443000
2000
Bien sûr, mon fils apprend
07:40
from his linguistic environment,
160
445000
2000
de cet environnement linguistique,
07:42
but the environment is learning from him.
161
447000
3000
mais l'environnement apprend aussi à son contact.
07:45
That environment, people, are in these tight feedback loops
162
450000
3000
Cet environnement, les gens, font partie de ces boucles de rétroaction serrées
07:48
and creating a kind of scaffolding
163
453000
2000
et créent une sorte d'échaffaudage
07:50
that has not been noticed until now.
164
455000
3000
n'ayant pas été remarqué jusqu'à maintenant.
07:54
But that's looking at the speech context.
165
459000
2000
Il s'agit là d'un regard porté sur le contexte de la parole.
07:56
What about the visual context?
166
461000
2000
Mais qu'en est-il du contexte visuel?
07:58
We're not looking at --
167
463000
2000
Nous voyons maintenant --
08:00
think of this as a dollhouse cutaway of our house.
168
465000
2000
imaginez que ceci représente notre maison, comme une vue en coupe d'une maison de poupée.
08:02
We've taken those circular fish-eye lens cameras,
169
467000
3000
Nous avons utilisé ces caméras ultra-grands angulaires à lentille circulaire
08:05
and we've done some optical correction,
170
470000
2000
et nous avons apporté des corrections visuelles aux images recueillies,
08:07
and then we can bring it into three-dimensional life.
171
472000
4000
ce qui permet de produire des images en trois dimensions.
08:11
So welcome to my home.
172
476000
2000
Alors bienvenue chez nous.
08:13
This is a moment,
173
478000
2000
Voici un moment,
08:15
one moment captured across multiple cameras.
174
480000
3000
un moment capté par plusieurs caméras.
08:18
The reason we did this is to create the ultimate memory machine,
175
483000
3000
La raison motivant cette démarche est de créer l'ultime machine mémorielle,
08:21
where you can go back and interactively fly around
176
486000
3000
un appareil qui permet de retourner dans le temps et d'y effectuer un survol interactif
08:24
and then breathe video-life into this system.
177
489000
3000
et, par la suite, d'insuffler la vie dans ce système sous forme de vidéo.
08:27
What I'm going to do
178
492000
2000
Ce que je vais faire
08:29
is give you an accelerated view of 30 minutes,
179
494000
3000
c'est de vous présenter une bande accélérée d'une période de 30 minutes.
08:32
again, of just life in the living room.
180
497000
2000
Encore une fois, tout simplement une scène de la vie dans le salon.
08:34
That's me and my son on the floor.
181
499000
3000
C'est mon fils et moi sur le plancher.
08:37
And there's video analytics
182
502000
2000
Et vous pouvez voir l'analyse vidéo
08:39
that are tracking our movements.
183
504000
2000
qui suit nos mouvements.
08:41
My son is leaving red ink. I am leaving green ink.
184
506000
3000
Une ligne rouge suit mon fils alors qu'une ligne verte me suit.
08:44
We're now on the couch,
185
509000
2000
Nous sommes maintenant sur le canapé,
08:46
looking out through the window at cars passing by.
186
511000
3000
en train de regarder par la fenêtre les voitures qui passent.
08:49
And finally, my son playing in a walking toy by himself.
187
514000
3000
Et enfin, mon fils qui joue seul dans un jouet d'aide à la marche.
08:52
Now we freeze the action, 30 minutes,
188
517000
3000
Nous interrompons maintenant l'action, qui a duré 30 minutes,
08:55
we turn time into the vertical axis,
189
520000
2000
nous représentons le temps sur l'axe vertical
08:57
and we open up for a view
190
522000
2000
et nous ouvrons à la verticale pour visualiser
08:59
of these interaction traces we've just left behind.
191
524000
3000
ces traces d'interaction que nous venons tout juste de quitter.
09:02
And we see these amazing structures --
192
527000
3000
Et nous constatons ces structures étonnantes --
09:05
these little knots of two colors of thread
193
530000
3000
ces petits nœuds formés de deux couleurs de fil
09:08
we call "social hot spots."
194
533000
2000
que nous appelons zones intenses d'interactions.
09:10
The spiral thread
195
535000
2000
On appelle le fil décrivant une spirale
09:12
we call a "solo hot spot."
196
537000
2000
une zone solo d'interactions.
09:14
And we think that these affect the way language is learned.
197
539000
3000
Et nous croyons que ces zones ont une influence sur la façon dont s’acquiert le langage.
09:17
What we'd like to do
198
542000
2000
Ce que nous aimerions faire
09:19
is start understanding
199
544000
2000
est de commencer à comprendre
09:21
the interaction between these patterns
200
546000
2000
l'interaction entre ces schèmes
09:23
and the language that my son is exposed to
201
548000
2000
et le langage auquel mon fils est exposé pour
09:25
to see if we can predict
202
550000
2000
voir s'il est possible de prédire
09:27
how the structure of when words are heard
203
552000
2000
comment la structure du moment où les mots sont entendus
09:29
affects when they're learned --
204
554000
2000
influence le moment où a lieu leur apprentissage.
09:31
so in other words, the relationship
205
556000
2000
En d'autres termes, la relation
09:33
between words and what they're about in the world.
206
558000
4000
entre les mots et ce à quoi ils se rapportent dans le monde.
09:37
So here's how we're approaching this.
207
562000
2000
Voici l'approche que nous adoptons pour y arriver.
09:39
In this video,
208
564000
2000
Encore une fois dans cette vidéo,
09:41
again, my son is being traced out.
209
566000
2000
les déplacements de mon fils produisent un tracé.
09:43
He's leaving red ink behind.
210
568000
2000
Une ligne rouge le suit.
09:45
And there's our nanny by the door.
211
570000
2000
Et voilà notre gardienne près de la porte.
09:47
(Video) Nanny: You want water? (Baby: Aaaa.)
212
572000
3000
(Vidéo) Bonne : Veux-tu de l'eau? (Bébé : Aaaa.)
09:50
Nanny: All right. (Baby: Aaaa.)
213
575000
3000
Gardienne : D'accord. (Bébé : Aaaa.)
09:53
DR: She offers water,
214
578000
2000
D.R. : Elle lui offre de l'eau
09:55
and off go the two worms
215
580000
2000
et ainsi s'en vont les deux serpentins
09:57
over to the kitchen to get water.
216
582000
2000
vers la cuisine chercher de l'eau.
09:59
And what we've done is use the word "water"
217
584000
2000
Et ce que nous avons fait est d'utiliser le mot « eau »
10:01
to tag that moment, that bit of activity.
218
586000
2000
pour marquer ce moment, cette parcelle d'activité.
10:03
And now we take the power of data
219
588000
2000
Ensuite, nous avons recours à la puissance des données
10:05
and take every time my son
220
590000
3000
et repérons toutes les occurrences où mon fils
10:08
ever heard the word water
221
593000
2000
a entendu le mot « eau »
10:10
and the context he saw it in,
222
595000
2000
ainsi que le contexte dans lequel il l'a retrouvé.
10:12
and we use it to penetrate through the video
223
597000
3000
Nous utilisons ce mot pour pénétrer la trame de la vidéo
10:15
and find every activity trace
224
600000
3000
afin d'y découvrir chaque trace d'activité
10:18
that co-occurred with an instance of water.
225
603000
3000
ayant eu lieu en même temps que l'occurrence du mot « eau ».
10:21
And what this data leaves in its wake
226
606000
2000
Et ce que ces données révèlent
10:23
is a landscape.
227
608000
2000
est un paysage.
10:25
We call these wordscapes.
228
610000
2000
Nous les appelons des panoramots.
10:27
This is the wordscape for the word water,
229
612000
2000
Voici le panoramot pour le mot « eau »,
10:29
and you can see most of the action is in the kitchen.
230
614000
2000
et vous pouvez voir que le principal de l'action se passe dans la cuisine.
10:31
That's where those big peaks are over to the left.
231
616000
3000
C'est ce que représente ces gros pics vers la gauche.
10:34
And just for contrast, we can do this with any word.
232
619000
3000
Il est possible de faire la même chose avec n'importe quel mot pour faire ressortir un contraste.
10:37
We can take the word "bye"
233
622000
2000
Prenons le mot « bye »
10:39
as in "good bye."
234
624000
2000
comme dans « good bye » (au revoir)
10:41
And we're now zoomed in over the entrance to the house.
235
626000
2000
Voici maintenant une vue en gros plan de l'entrée de la maison.
10:43
And we look, and we find, as you would expect,
236
628000
3000
Puis nous cherchons et trouvons, comme on s'y attendrait,
10:46
a contrast in the landscape
237
631000
2000
un contraste entre les panoramots
10:48
where the word "bye" occurs much more in a structured way.
238
633000
3000
où le mot « bye » apparaît de manière beaucoup plus structurée.
10:51
So we're using these structures
239
636000
2000
Nous utilisons donc ces structures
10:53
to start predicting
240
638000
2000
afin de commencer à prédire
10:55
the order of language acquisition,
241
640000
3000
l'ordre de l'acquisition du langage;
10:58
and that's ongoing work now.
242
643000
2000
voilà ce à quoi nous travaillons à l'heure actuelle.
11:00
In my lab, which we're peering into now, at MIT --
243
645000
3000
Dans mon laboratoire, dans lequel nous entrons maintenant, à MIT --
11:03
this is at the media lab.
244
648000
2000
il s’agit d’un laboratoire médiatique.
11:05
This has become my favorite way
245
650000
2000
Cette méthode est devenue ma façon préférée
11:07
of videographing just about any space.
246
652000
2000
de créer des images vidéographiques de presque n'importe quel espace.
11:09
Three of the key people in this project,
247
654000
2000
Trois des personnes clés participant à ce projet sont photographiées ici :
11:11
Philip DeCamp, Rony Kubat and Brandon Roy are pictured here.
248
656000
3000
Philip DeCamp, Rony Kubat et Brandon Roy.
11:14
Philip has been a close collaborator
249
659000
2000
Philip a été un collaborateur très proche
11:16
on all the visualizations you're seeing.
250
661000
2000
pour tous les supports visuels présentés ici.
11:18
And Michael Fleischman
251
663000
3000
Et Michael Fleischman
11:21
was another Ph.D. student in my lab
252
666000
2000
était un autre doctorant associé à mon laboratoire
11:23
who worked with me on this home video analysis,
253
668000
3000
qui a travaillé avec moi sur l'analyse des vidéos domestiques
11:26
and he made the following observation:
254
671000
3000
et il a fait l'observation suivante :
11:29
that "just the way that we're analyzing
255
674000
2000
« tout comme la manière dont nous analysons
11:31
how language connects to events
256
676000
3000
comment le langage est lié aux événements
11:34
which provide common ground for language,
257
679000
2000
qui offrent une plateforme commune au langage,
11:36
that same idea we can take out of your home, Deb,
258
681000
4000
cette même idée peut être extrapolée hors de la maison, Deb,
11:40
and we can apply it to the world of public media."
259
685000
3000
et nous pouvons l'appliquer au domaine des moyens d'information. »
11:43
And so our effort took an unexpected turn.
260
688000
3000
Notre projet a ainsi emprunté une voie inattendue.
11:46
Think of mass media
261
691000
2000
Pensez aux médias de masse
11:48
as providing common ground
262
693000
2000
comme élément de base commune
11:50
and you have the recipe
263
695000
2000
et vous avez la recette
11:52
for taking this idea to a whole new place.
264
697000
3000
permettant de transposer cette idée dans un tout nouveau contexte.
11:55
We've started analyzing television content
265
700000
3000
Nous avons commencé à analyser le contenu télévisé
11:58
using the same principles --
266
703000
2000
en appliquant les mêmes principes --
12:00
analyzing event structure of a TV signal --
267
705000
3000
par l'analyse de la structure des événements d'un signal de télévision --
12:03
episodes of shows,
268
708000
2000
des épisodes d'émission,
12:05
commercials,
269
710000
2000
des messages publicitaires,
12:07
all of the components that make up the event structure.
270
712000
3000
de tous les éléments qui composent la structure de l'événement.
12:10
And we're now, with satellite dishes, pulling and analyzing
271
715000
3000
Et maintenant, grâce à des antennes paraboliques, nous captons et analysons
12:13
a good part of all the TV being watched in the United States.
272
718000
3000
une bonne part de toutes les émissions télévisées à l'antenne aux États-Unis.
12:16
And you don't have to now go and instrument living rooms with microphones
273
721000
3000
Et nous n'avons pas à équiper les salons de microphones
12:19
to get people's conversations,
274
724000
2000
pour avoir accès aux conversations des gens,
12:21
you just tune into publicly available social media feeds.
275
726000
3000
il suffit de se mettre à l'écoute des fils de syndication grand public de médias sociaux.
12:24
So we're pulling in
276
729000
2000
Nous récupérons ainsi
12:26
about three billion comments a month,
277
731000
2000
environ trois milliards de commentaires par mois.
12:28
and then the magic happens.
278
733000
2000
C'est alors que la magie commence.
12:30
You have the event structure,
279
735000
2000
Il y a d'abord la structure de l'événement,
12:32
the common ground that the words are about,
280
737000
2000
formant la base commune sur laquelle portent les mots,
12:34
coming out of the television feeds;
281
739000
3000
qui est générée par le flux télévisé,
12:37
you've got the conversations
282
742000
2000
puis les conversations
12:39
that are about those topics;
283
744000
2000
qui portent sur ces sujets.
12:41
and through semantic analysis --
284
746000
3000
Au moyen d'une analyse sémantique --
12:44
and this is actually real data you're looking at
285
749000
2000
il s'agit bel et bien de données réelles
12:46
from our data processing --
286
751000
2000
issues de notre traitement des données qui vous sont présentées --
12:48
each yellow line is showing a link being made
287
753000
3000
chaque ligne jaune représente la création d'un lien
12:51
between a comment in the wild
288
756000
3000
entre un commentaire in vivo
12:54
and a piece of event structure coming out of the television signal.
289
759000
3000
et une pièce de la structure d'un événement générée par le signal de télévision.
12:57
And the same idea now
290
762000
2000
Et la même idée peut maintenant
12:59
can be built up.
291
764000
2000
être développée
13:01
And we get this wordscape,
292
766000
2000
pour former le panoramot que voici.
13:03
except now words are not assembled in my living room.
293
768000
3000
Cependant, les mots ne sont maintenant plus recueillis dans mon salon.
13:06
Instead, the context, the common ground activities,
294
771000
4000
Ce sont plutôt le contexte, les activités collectives,
13:10
are the content on television that's driving the conversations.
295
775000
3000
constituant le contenu télévisé qui oriente les conversations.
13:13
And what we're seeing here, these skyscrapers now,
296
778000
3000
Et ce que nous voyons ici, ces gratte-ciel,
13:16
are commentary
297
781000
2000
constituent des commentaires
13:18
that are linked to content on television.
298
783000
2000
qui sont reliés au contenu télévisé.
13:20
Same concept,
299
785000
2000
Même concept,
13:22
but looking at communication dynamics
300
787000
2000
mais du point de vue de la dynamique communicationnelle
13:24
in a very different sphere.
301
789000
2000
dans une sphère très différente.
13:26
And so fundamentally, rather than, for example,
302
791000
2000
Par exemple, fondamentalement, plutôt que de
13:28
measuring content based on how many people are watching,
303
793000
3000
mesurer le contenu en fonction du nombre de téléspectateurs,
13:31
this gives us the basic data
304
796000
2000
cette démarche nous fournit les données de base
13:33
for looking at engagement properties of content.
305
798000
3000
nous permettant d'étudier les propriétés interactives du contenu.
13:36
And just like we can look at feedback cycles
306
801000
3000
Tout comme nous pouvons examiner les cycles et les dynamiques
13:39
and dynamics in a family,
307
804000
3000
de rétroaction au sein d'une famille,
13:42
we can now open up the same concepts
308
807000
3000
il est maintenant possible de généraliser à partir des mêmes concepts
13:45
and look at much larger groups of people.
309
810000
3000
et de les appliquer à des groupes de personnes beaucoup plus larges.
13:48
This is a subset of data from our database --
310
813000
3000
Voici un sous-ensemble de données tirés de notre base de données --
13:51
just 50,000 out of several million --
311
816000
3000
seulement 50 000 parmi plusieurs millions --
13:54
and the social graph that connects them
312
819000
2000
et le graphique social qui les relie
13:56
through publicly available sources.
313
821000
3000
par l'entremise de sources publiques disponibles.
13:59
And if you put them on one plain,
314
824000
2000
Et si vous les représentez sur un plan,
14:01
a second plain is where the content lives.
315
826000
3000
le contenu serait représenté sur un second plan.
14:04
So we have the programs
316
829000
3000
Nous avons ainsi les émissions
14:07
and the sporting events
317
832000
2000
et les événements sportifs
14:09
and the commercials,
318
834000
2000
et les messages publicitaires
14:11
and all of the link structures that tie them together
319
836000
2000
et tous les maillons des structures qui les relient,
14:13
make a content graph.
320
838000
2000
qui forment un graphique du contenu.
14:15
And then the important third dimension.
321
840000
4000
N'oublions pas de mentionner l'importante troisième dimension.
14:19
Each of the links that you're seeing rendered here
322
844000
2000
Chacun des maillons que vous voyez ici
14:21
is an actual connection made
323
846000
2000
représente un lien établi
14:23
between something someone said
324
848000
3000
entre les propos de quelqu'un
14:26
and a piece of content.
325
851000
2000
et une parcelle du contenu.
14:28
And there are, again, now tens of millions of these links
326
853000
3000
Et il y a, encore une fois, des dizaine de millions de ces liens
14:31
that give us the connective tissue of social graphs
327
856000
3000
servant à tisser la toile des graphiques sociaux
14:34
and how they relate to content.
328
859000
3000
et à établir leur relation avec le contenu.
14:37
And we can now start to probe the structure
329
862000
2000
Nous pouvons maintenant commencer à étudier la structure
14:39
in interesting ways.
330
864000
2000
par des moyens fort intéressants.
14:41
So if we, for example, trace the path
331
866000
3000
Par exemple, si nous traçons le trajet
14:44
of one piece of content
332
869000
2000
d'une parcelle de contenu
14:46
that drives someone to comment on it,
333
871000
2000
qui incite quelqu'un à afficher un commentaire,
14:48
and then we follow where that comment goes,
334
873000
3000
que nous suivons la trajectoire de ce commentaire,
14:51
and then look at the entire social graph that becomes activated
335
876000
3000
pour ensuite examiner le graphique social complet qui a été activé
14:54
and then trace back to see the relationship
336
879000
3000
et que nous revenons sur nos pas pour mieux voir la relation
14:57
between that social graph and content,
337
882000
2000
entre le graphique social et le contenu,
14:59
a very interesting structure becomes visible.
338
884000
2000
une structure très intéressante apparaît.
15:01
We call this a co-viewing clique,
339
886000
2000
Nous appelons ce phénomène une clique de coobservation,
15:03
a virtual living room if you will.
340
888000
3000
un salon virtuel en quelque sorte.
15:06
And there are fascinating dynamics at play.
341
891000
2000
Des dynamiques fascinantes entre en jeu ici.
15:08
It's not one way.
342
893000
2000
Ce n'est pas un sens unique.
15:10
A piece of content, an event, causes someone to talk.
343
895000
3000
Une parcelle de contenu, un événement, suscite le commentaire d'un personne.
15:13
They talk to other people.
344
898000
2000
Cette personne parle à d'autres personnes.
15:15
That drives tune-in behavior back into mass media,
345
900000
3000
Ce qui en inscite d'autres à se connecter aux médias de masse.
15:18
and you have these cycles
346
903000
2000
Ce sont ces cycles
15:20
that drive the overall behavior.
347
905000
2000
qui perpétuent le comportement dans son ensemble.
15:22
Another example -- very different --
348
907000
2000
Voici un autre exemple très différent,
15:24
another actual person in our database --
349
909000
3000
une autre vraie personne dans notre base de données,
15:27
and we're finding at least hundreds, if not thousands, of these.
350
912000
3000
et nous trouvons au moins des centaines, sinon des milliers de ces exemples.
15:30
We've given this person a name.
351
915000
2000
Nous avons donné un nom à cette personne.
15:32
This is a pro-amateur, or pro-am media critic
352
917000
3000
C'est une pro-amateur, ou pro-am, un critique médiatique
15:35
who has this high fan-out rate.
353
920000
3000
qui a beaucoup d'influence
15:38
So a lot of people are following this person -- very influential --
354
923000
3000
et qu'un grand nombre de partisans suivent -- très influent --
15:41
and they have a propensity to talk about what's on TV.
355
926000
2000
et ces gens ont tendance à discuter de ce qui est diffusé à la télé.
15:43
So this person is a key link
356
928000
3000
Cette personne constitue donc un lien clé
15:46
in connecting mass media and social media together.
357
931000
3000
entre les médias de masse et les médias sociaux.
15:49
One last example from this data:
358
934000
3000
Un dernier exemple issu de ces données :
15:52
Sometimes it's actually a piece of content that is special.
359
937000
3000
parfois, c'est une parcelle du contenu qui se démarque du reste.
15:55
So if we go and look at this piece of content,
360
940000
4000
Si nous étudions cette parcelle de contenu,
15:59
President Obama's State of the Union address
361
944000
3000
prenons le discours sur l'état de l'Union du président Obama
16:02
from just a few weeks ago,
362
947000
2000
qui a eu lieu il y a à peine quelques semaines,
16:04
and look at what we find in this same data set,
363
949000
3000
et que nous examinons ce que nous avons découvert dans ce même ensemble de données,
16:07
at the same scale,
364
952000
3000
à la même échelle,
16:10
the engagement properties of this piece of content
365
955000
2000
les propriétés de mobilisation que démontre cette parcelle de contenu
16:12
are truly remarkable.
366
957000
2000
sont vraiment remarquables.
16:14
A nation exploding in conversation
367
959000
2000
Une nation éclatant en conversation
16:16
in real time
368
961000
2000
en temps réel
16:18
in response to what's on the broadcast.
369
963000
3000
en réponse à ce qui est diffusé.
16:21
And of course, through all of these lines
370
966000
2000
Et bien sûr, parmi toutes ces lignes
16:23
are flowing unstructured language.
371
968000
2000
circulent des conversations non structurées.
16:25
We can X-ray
372
970000
2000
Nous pouvons scruter le contenu
16:27
and get a real-time pulse of a nation,
373
972000
2000
et obtenir le pouls d'une nation en temps réel,
16:29
real-time sense
374
974000
2000
une perception en temps réel
16:31
of the social reactions in the different circuits in the social graph
375
976000
3000
des réactions sociales dans les différents circuits du graphique social
16:34
being activated by content.
376
979000
3000
qui sont activés par le contenu.
16:37
So, to summarize, the idea is this:
377
982000
3000
En somme, l'idée est la suivante :
16:40
As our world becomes increasingly instrumented
378
985000
3000
à mesure que nous instrumentons progressivement notre milieu
16:43
and we have the capabilities
379
988000
2000
et que nous nous dotons de la capacité
16:45
to collect and connect the dots
380
990000
2000
de collecter des données et d'établir des liens
16:47
between what people are saying
381
992000
2000
entre ce que disent les gens
16:49
and the context they're saying it in,
382
994000
2000
et le contexte de leurs conversations,
16:51
what's emerging is an ability
383
996000
2000
il devient possible
16:53
to see new social structures and dynamics
384
998000
3000
de voir apparaître de nouvelles structures et dynamiques sociales
16:56
that have previously not been seen.
385
1001000
2000
demeurées jusque-là inconnues.
16:58
It's like building a microscope or telescope
386
1003000
2000
C'est un peu comme bâtir un microscope ou un télescope
17:00
and revealing new structures
387
1005000
2000
et de révéler de nouvelles structures
17:02
about our own behavior around communication.
388
1007000
3000
reliées à notre comportement vis-à-vis de la communication.
17:05
And I think the implications here are profound,
389
1010000
3000
Et je crois que les incidences de ce phénomène sont profondes,
17:08
whether it's for science,
390
1013000
2000
que ce soit dans les domaines scientifique,
17:10
for commerce, for government,
391
1015000
2000
commercial, gouvernemental
17:12
or perhaps most of all,
392
1017000
2000
ou peut-être surtout,
17:14
for us as individuals.
393
1019000
3000
pour nous en tant qu'individus.
17:17
And so just to return to my son,
394
1022000
3000
Mais revenons à mon fils.
17:20
when I was preparing this talk, he was looking over my shoulder,
395
1025000
3000
Quand je préparais cette conférence il regardait par-dessus mon épaule,
17:23
and I showed him the clips I was going to show to you today,
396
1028000
2000
et je lui ai montré les clips que j'allais vous montrer aujourd'hui.
17:25
and I asked him for permission -- granted.
397
1030000
3000
Je lui ai demandé sa permission, il me l'a accordée.
17:28
And then I went on to reflect,
398
1033000
2000
Puis je me suis mis à réfléchir :
17:30
"Isn't it amazing,
399
1035000
3000
« N'est-ce pas merveilleux,
17:33
this entire database, all these recordings,
400
1038000
3000
toute cette base de données, tous ces enregistrements,
17:36
I'm going to hand off to you and to your sister" --
401
1041000
2000
que je vais remettre, à toi et à ta soeur? »
17:38
who arrived two years later --
402
1043000
3000
Celle-ci est née deux ans après mon fils.
17:41
"and you guys are going to be able to go back and re-experience moments
403
1046000
3000
« Et vous deux allez pouvoir remonter dans le passé et revivre des moments
17:44
that you could never, with your biological memory,
404
1049000
3000
dont vous ne pourriez jamais, avec votre mémoire biologique,
17:47
possibly remember the way you can now?"
405
1052000
2000
possiblement vous souvenir aussi bien qu’à présent. »
17:49
And he was quiet for a moment.
406
1054000
2000
Et il est demeuré silencieux pendant un moment.
17:51
And I thought, "What am I thinking?
407
1056000
2000
Puis j'ai pensé : « Qu'est-ce que je dis?
17:53
He's five years old. He's not going to understand this."
408
1058000
2000
Il a cinq ans. Il ne comprendra pas de quoi je parle. »
17:55
And just as I was having that thought, he looked up at me and said,
409
1060000
3000
Et comme cette pensée traversait mon esprit, il a levé le regard vers moi et a dit :
17:58
"So that when I grow up,
410
1063000
2000
« Alors quand je vais être grand,
18:00
I can show this to my kids?"
411
1065000
2000
je vais pouvoir le montrer à mes enfants? »
18:02
And I thought, "Wow, this is powerful stuff."
412
1067000
3000
Et j'ai pensé à moi-même : « Remarquable! Ça c'est fort. »
18:05
So I want to leave you
413
1070000
2000
Alors, je veux vous présenter
18:07
with one last memorable moment
414
1072000
2000
un dernier moment mémorable
18:09
from our family.
415
1074000
3000
dans le vie de notre famille.
18:12
This is the first time our son
416
1077000
2000
C'était la première fois que mon fils
18:14
took more than two steps at once --
417
1079000
2000
faisait plus de deux pas de suite et
18:16
captured on film.
418
1081000
2000
nous avons enregistré ce moment sur film.
18:18
And I really want you to focus on something
419
1083000
3000
Et j'aimerais que vous portiez attention à une chose en particulier
18:21
as I take you through.
420
1086000
2000
pendant que je vous guide au fil de ce moment.
18:23
It's a cluttered environment; it's natural life.
421
1088000
2000
C'est un environnement encombré, c'est la vraie vie.
18:25
My mother's in the kitchen, cooking,
422
1090000
2000
Ma mère est dans la cuisine, elle prépare un repas,
18:27
and, of all places, in the hallway,
423
1092000
2000
et je me rends compte, dans le corridor,
18:29
I realize he's about to do it, about to take more than two steps.
424
1094000
3000
que c’est sur le point d’arriver, il va faire plus de deux pas.
18:32
And so you hear me encouraging him,
425
1097000
2000
Vous m'entendez l'encourager,
18:34
realizing what's happening,
426
1099000
2000
sachant ce qui est sur le point de se produire.
18:36
and then the magic happens.
427
1101000
2000
Puis la magie s'installe.
18:38
Listen very carefully.
428
1103000
2000
Écoutez très attentivement.
18:40
About three steps in,
429
1105000
2000
Après environ trois pas,
18:42
he realizes something magic is happening,
430
1107000
2000
il constate que quelque chose de merveilleux est en train d'arriver.
18:44
and the most amazing feedback loop of all kicks in,
431
1109000
3000
Et la boucle de rétroaction la plus étonnante de toutes se manifeste,
18:47
and he takes a breath in,
432
1112000
2000
il prend une inspiration
18:49
and he whispers "wow"
433
1114000
2000
et il dit tout bas « wow »
18:51
and instinctively I echo back the same.
434
1116000
4000
et instinctivement je lui fait écho.
18:56
And so let's fly back in time
435
1121000
3000
Retournons donc dans le temps
18:59
to that memorable moment.
436
1124000
2000
au moment où s'est produit ce moment mémorable.
19:05
(Video) DR: Hey.
437
1130000
2000
(Vidéo) D.R. : Hey.
19:07
Come here.
438
1132000
2000
Viens ici.
19:09
Can you do it?
439
1134000
3000
Es-tu capable?
19:13
Oh, boy.
440
1138000
2000
Oh la la.
19:15
Can you do it?
441
1140000
3000
Es-tu capable?
19:18
Baby: Yeah.
442
1143000
2000
Bébé : Oui.
19:20
DR: Ma, he's walking.
443
1145000
3000
D.R. : Maman, il marche.
19:24
(Laughter)
444
1149000
2000
(Rires)
19:26
(Applause)
445
1151000
2000
(Applaudissements)
19:28
DR: Thank you.
446
1153000
2000
D.R. : Merci.
19:30
(Applause)
447
1155000
15000
(Applaudissements)
Translated by Johanne Benoit
Reviewed by Shadia Ramsahye

▲Back to top

ABOUT THE SPEAKER
Deb Roy - Cognitive scientist
Deb Roy studies how children learn language, and designs machines that learn to communicate in human-like ways. On sabbatical from MIT Media Lab, he's working with the AI company Bluefin Labs.

Why you should listen

Deb Roy directs the Cognitive Machines group at the MIT Media Lab, where he studies how children learn language, and designs machines that learn to communicate in human-like ways. To enable this work, he has pioneered new data-driven methods for analyzing and modeling human linguistic and social behavior. He has authored numerous scientific papers on artificial intelligence, cognitive modeling, human-machine interaction, data mining, and information visualization.

Deb Roy was the co-founder and serves as CEO of Bluefin Labs, a venture-backed technology company. Built upon deep machine learning principles developed in his research over the past 15 years, Bluefin has created a technology platform that analyzes social media commentary to measure real-time audience response to TV ads and shows.

Follow Deb Roy on Twitter>

Roy adds some relevant papers:

Deb Roy. (2009). New Horizons in the Study of Child Language Acquisition. Proceedings of Interspeech 2009. Brighton, England. bit.ly/fSP4Qh

Brandon C. Roy, Michael C. Frank and Deb Roy. (2009). Exploring word learning in a high-density longitudinal corpus. Proceedings of the 31st Annual Meeting of the Cognitive Science Society. Amsterdam, Netherlands. bit.ly/e1qxej

Plenty more papers on our research including technology and methodology can be found here, together with other research from my lab at MIT: bit.ly/h3paSQ

The work that I mentioned on relationships between television content and the social graph is being done at Bluefin Labs (www.bluefinlabs.com). Details of this work have not been published. The social structures we are finding (and that I highlighted in my TED talk) are indeed new. The social media communication channels that are leading to their formation did not even exist a few years ago, and Bluefin's technology platform for discovering these kinds of structures is the first of its kind. We'll certainly have more to say about all this as we continue to dig into this fascinating new kind of data, and as new social structures continue to evolve!

More profile about the speaker
Deb Roy | Speaker | TED.com