ABOUT THE SPEAKER
Nicholas Christakis - Physician, social scientist
Nicholas Christakis explores how the large-scale, face-to-face social networks in which we are embedded affect our lives, and what we can do to take advantage of this fact.

Why you should listen

People aren't merely social animals in the usual sense, for we don't just live in groups. We live in networks -- and we have done so ever since we emerged from the African savannah. Via intricately branching paths tracing out cascading family connections, friendship ties, and work relationships, we are interconnected to hundreds or even thousands of specific people, most of whom we do not know. We affect them and they affect us.

Nicholas Christakis' work examines the biological, psychological, sociological, and mathematical rules that govern how we form these social networks, and the rules that govern how they shape our lives. His work shows how phenomena as diverse as obesity, smoking, emotions, ideas, germs, and altruism can spread through our social ties, and how genes can partially underlie our creation of social ties to begin with. His work also sheds light on how we might take advantage of an understanding of social networks to make the world a better place.

At Yale, Christakis is a Professor of Social and Natural Science, and he directs a diverse research group in the field of biosocial science, primarily investigating social networks. His popular undergraduate course "Health of the Public" is available as a podcast. His book, Connected, co-authored with James H. Fowler, appeared in 2009, and has been translated into 20 languages. In 2009, he was named by Time magazine to its annual list of the 100 most influential people in the world, and also, in 2009 and 2010, by Foreign Policy magazine to its list of 100 top global thinkers

More profile about the speaker
Nicholas Christakis | Speaker | TED.com
TED@Cannes

Nicholas Christakis: How social networks predict epidemics

Nicholas Christakis : Comment les réseaux sociaux peuvent prédire les épidémies

Filmed:
669,862 views

Après avoir mis en perspective les différents réseaux sociaux compliqués de l'homme, Nicholas Christakis et son collègue James Fowler ont commencé à regarder comment cette information pouvait améliorer nos vies. Il révèle ici ses récentes conclusions : ces réseaux peuvent être utilisés pour détecter des épidémies de manière plus précoce que jamais, depuis la diffusion d'idées innovantes aux comportements à risque en passant par les virus (comme le H1N1).
- Physician, social scientist
Nicholas Christakis explores how the large-scale, face-to-face social networks in which we are embedded affect our lives, and what we can do to take advantage of this fact. Full bio

Double-click the English transcript below to play the video.

00:15
For the last 10 years, I've been spending my time trying to figure out
0
0
3000
Pendant les 10 dernières années, j'ai passé mon temps à essayer de comprendre
00:18
how and why human beings
1
3000
2000
comment et pourquoi les êtres humains
00:20
assemble themselves into social networks.
2
5000
3000
se rassemblent dans des réseaux sociaux.
00:23
And the kind of social network I'm talking about
3
8000
2000
Et le type de réseau social dont je parle
00:25
is not the recent online variety,
4
10000
2000
n'est pas la nouvelle variété en ligne,
00:27
but rather, the kind of social networks
5
12000
2000
mais plutôt, le genre de réseaux sociaux
00:29
that human beings have been assembling for hundreds of thousands of years,
6
14000
3000
que les êtres humains ont construit depuis des centaines de milliers d'années,
00:32
ever since we emerged from the African savannah.
7
17000
3000
depuis que nous avons émergé [de] la savane africaine.
00:35
So, I form friendships and co-worker
8
20000
2000
Donc, je construis un réseau d’amis, de collègues,
00:37
and sibling and relative relationships with other people
9
22000
3000
fraternel et familial avec d'autres personnes
00:40
who in turn have similar relationships with other people.
10
25000
2000
qui à leur tour ont des relations similaires avec d'autres personnes.
00:42
And this spreads on out endlessly into a distance.
11
27000
3000
Et cela s'étend à l'infini avec la distance.
00:45
And you get a network that looks like this.
12
30000
2000
Et vous obtenez un réseau qui ressemble à ceci.
00:47
Every dot is a person.
13
32000
2000
Chaque point est une personne.
00:49
Every line between them is a relationship between two people --
14
34000
2000
Chaque ligne entre elles est une relation entre deux personnes --
00:51
different kinds of relationships.
15
36000
2000
différents types de relations.
00:53
And you can get this kind of vast fabric of humanity,
16
38000
3000
Et vous pouvez obtenir ce genre de vaste tissu de l'humanité,
00:56
in which we're all embedded.
17
41000
2000
dans lequel nous sommes tous intégrés.
00:58
And my colleague, James Fowler and I have been studying for quite sometime
18
43000
3000
Et mon collègue, James Fowler, et moi avons étudié pendant quelques temps
01:01
what are the mathematical, social,
19
46000
2000
quelles sont les règles mathématiques, sociales,
01:03
biological and psychological rules
20
48000
3000
biologiques et psychologiques
01:06
that govern how these networks are assembled
21
51000
2000
qui régissent la façon dont ces réseaux sont assemblés
01:08
and what are the similar rules
22
53000
2000
et quelles sont les règles similaires
01:10
that govern how they operate, how they affect our lives.
23
55000
3000
qui régissent la façon dont ils fonctionnent, dont ils affectent nos vies.
01:13
But recently, we've been wondering
24
58000
2000
Et récemment, nous nous sommes demandés
01:15
whether it might be possible to take advantage of this insight,
25
60000
3000
s'il ne serait pas possible de tirer parti de cette idée,
01:18
to actually find ways to improve the world,
26
63000
2000
pour effectivement trouver des moyens d’améliorer le monde,
01:20
to do something better,
27
65000
2000
de faire quelque chose de mieux,
01:22
to actually fix things, not just understand things.
28
67000
3000
pour en réalité réparer les choses, pas seulement les comprendre.
01:25
So one of the first things we thought we would tackle
29
70000
3000
Ainsi, l'une des premières choses que nous pensions aborder
01:28
would be how we go about predicting epidemics.
30
73000
3000
serait de savoir comment nous pouvions prévoir des épidémies.
01:31
And the current state of the art in predicting an epidemic --
31
76000
2000
Et l'état de la situation concernant la prédiction d’une épidémie --
01:33
if you're the CDC or some other national body --
32
78000
3000
si vous êtes le CDC ou un autre organisme national --
01:36
is to sit in the middle where you are
33
81000
2000
est de rester dans le milieu où vous vous trouvez
01:38
and collect data
34
83000
2000
et recueillir des données
01:40
from physicians and laboratories in the field
35
85000
2000
des médecins et des laboratoires sur le terrain
01:42
that report the prevalence or the incidence of certain conditions.
36
87000
3000
qui rapportent la prévalence ou l'incidence de certaines conditions.
01:45
So, so and so patients have been diagnosed with something,
37
90000
3000
Ainsi, tel et tel patients ont été diagnostiqués avec quelque chose [ici],
01:48
or other patients have been diagnosed,
38
93000
2000
ou d'autres patients ont été diagnostiqués [là-bas],
01:50
and all these data are fed into a central repository, with some delay.
39
95000
3000
et toutes ces données sont enregistrées dans un référentiel central, avec un certain retard.
01:53
And if everything goes smoothly,
40
98000
2000
Et si tout se passe bien,
01:55
one to two weeks from now
41
100000
2000
dans une à deux semaines à partir de maintenant,
01:57
you'll know where the epidemic was today.
42
102000
3000
vous saurez où était l'épidémie aujourd'hui.
02:00
And actually, about a year or so ago,
43
105000
2000
Et en fait, environ un an auparavant,
02:02
there was this promulgation
44
107000
2000
il y avait cette promulgation
02:04
of the idea of Google Flu Trends, with respect to the flu,
45
109000
3000
de l'idée de Google Flu Trends, à l'égard de la grippe,
02:07
where by looking at people's searching behavior today,
46
112000
3000
où, en regardant le comportement de recherche des gens aujourd'hui,
02:10
we could know where the flu --
47
115000
2000
on pourrait savoir où la grippe ...
02:12
what the status of the epidemic was today,
48
117000
2000
quel est le statut de l'épidémie aujourd'hui,
02:14
what's the prevalence of the epidemic today.
49
119000
3000
quelle est la prévalence de l'épidémie en ce moment.
02:17
But what I'd like to show you today
50
122000
2000
Mais ce que je voudrais vous montrer aujourd'hui
02:19
is a means by which we might get
51
124000
2000
est un moyen par lequel nous pourrions obtenir
02:21
not just rapid warning about an epidemic,
52
126000
3000
pas seulement une alerte rapide sur une épidémie,
02:24
but also actually
53
129000
2000
mais aussi
02:26
early detection of an epidemic.
54
131000
2000
la détection précoce d'une épidémie.
02:28
And, in fact, this idea can be used
55
133000
2000
Et, en fait, cette idée peut être utilisée
02:30
not just to predict epidemics of germs,
56
135000
3000
non seulement pour prévoir les épidémies de microbes,
02:33
but also to predict epidemics of all sorts of kinds.
57
138000
3000
mais aussi pour prévoir les épidémies en tout genre.
02:37
For example, anything that spreads by a form of social contagion
58
142000
3000
Par exemple, tout ce qui se propage par une forme de contagion sociale
02:40
could be understood in this way,
59
145000
2000
pourrait être interprété de cette façon,
02:42
from abstract ideas on the left
60
147000
2000
des idées abstraites sur la gauche
02:44
like patriotism, or altruism, or religion
61
149000
3000
comme le patriotisme, ou l'altruisme, ou la religion,
02:47
to practices
62
152000
2000
aux pratiques
02:49
like dieting behavior, or book purchasing,
63
154000
2000
comme le comportement alimentaire, ou l'achat de livres,
02:51
or drinking, or bicycle-helmet [and] other safety practices,
64
156000
3000
ou la boisson, ou le port du casque [et] autres pratiques de sécurité,
02:54
or products that people might buy,
65
159000
2000
ou les produits que les gens peuvent acheter,
02:56
purchases of electronic goods,
66
161000
2000
achats de biens électroniques,
02:58
anything in which there's kind of an interpersonal spread.
67
163000
3000
tout ce qui a une sorte de propagation interpersonnelle.
03:01
A kind of a diffusion of innovation
68
166000
2000
Une sorte de diffusion de l'innovation
03:03
could be understood and predicted
69
168000
2000
pourrait être comprise et prédite
03:05
by the mechanism I'm going to show you now.
70
170000
3000
par le mécanisme que je vais vous montrer maintenant.
03:08
So, as all of you probably know,
71
173000
2000
Donc, comme vous le savez probablement,
03:10
the classic way of thinking about this
72
175000
2000
la façon classique de penser à ça
03:12
is the diffusion-of-innovation,
73
177000
2000
est la diffusion de l'innovation,
03:14
or the adoption curve.
74
179000
2000
ou la courbe d'adoption.
03:16
So here on the Y-axis, we have the percent of the people affected,
75
181000
2000
Donc, ici, sur l'axe Y, nous avons le pourcentage de personnes touchées,
03:18
and on the X-axis, we have time.
76
183000
2000
et sur l'axe X, nous avons le temps.
03:20
And at the very beginning, not too many people are affected,
77
185000
3000
Et dès le début, peu de personnes sont touchées,
03:23
and you get this classic sigmoidal,
78
188000
2000
et vous obtenez ce sigmoïde classique,
03:25
or S-shaped, curve.
79
190000
2000
ou courbe en S.
03:27
And the reason for this shape is that at the very beginning,
80
192000
2000
Et la raison de cette forme est qu’au début,
03:29
let's say one or two people
81
194000
2000
disons une ou deux personnes
03:31
are infected, or affected by the thing
82
196000
2000
sont affectés ou infectés, par la chose,
03:33
and then they affect, or infect, two people,
83
198000
2000
puis elles affectent, ou infectent, deux personnes,
03:35
who in turn affect four, eight, 16 and so forth,
84
200000
3000
qui affectent à leur tour quatre, huit, 16 et ainsi de suite,
03:38
and you get the epidemic growth phase of the curve.
85
203000
3000
et vous obtenez la phase de croissance de la courbe de l'épidémie.
03:41
And eventually, you saturate the population.
86
206000
2000
Et finalement, vous saturez la population.
03:43
There are fewer and fewer people
87
208000
2000
Il y a de moins en moins de gens
03:45
who are still available that you might infect,
88
210000
2000
qui sont encore disponibles que vous pourriez infecter,
03:47
and then you get the plateau of the curve,
89
212000
2000
et puis vous obtenez le plateau de la courbe,
03:49
and you get this classic sigmoidal curve.
90
214000
3000
et donc cette courbe sigmoïde classique.
03:52
And this holds for germs, ideas,
91
217000
2000
Et ceci est vrai pour les germes, les idées,
03:54
product adoption, behaviors,
92
219000
2000
l'adoption d’un produit, les comportements,
03:56
and the like.
93
221000
2000
et autres.
03:58
But things don't just diffuse in human populations at random.
94
223000
3000
Mais les choses ne diffusent pas dans les populations humaines au hasard.
04:01
They actually diffuse through networks.
95
226000
2000
En fait, ils diffusent à travers les réseaux.
04:03
Because, as I said, we live our lives in networks,
96
228000
3000
Parce que, comme je l'ai dit, nous vivons notre vie dans les réseaux,
04:06
and these networks have a particular kind of a structure.
97
231000
3000
et ces réseaux ont une architecture particulière.
04:09
Now if you look at a network like this --
98
234000
2000
Maintenant, si vous regardez un réseau comme celui-ci ...
04:11
this is 105 people.
99
236000
2000
C'est 105 personnes.
04:13
And the lines represent -- the dots are the people,
100
238000
2000
Et les lignes représentent ... les points sont les gens,
04:15
and the lines represent friendship relationships.
101
240000
2000
et les lignes représentent les relations d'amitié.
04:17
You might see that people occupy
102
242000
2000
Vous pouvez voir que les gens occupent
04:19
different locations within the network.
103
244000
2000
différents endroits dans le réseau.
04:21
And there are different kinds of relationships between the people.
104
246000
2000
Et il y a différents types de relations entre les personnes.
04:23
You could have friendship relationships, sibling relationships,
105
248000
3000
Vous pourriez avoir des relations d'amitié, des relations fraternelles,
04:26
spousal relationships, co-worker relationships,
106
251000
3000
des relations conjugales, des relations professionnelles,
04:29
neighbor relationships and the like.
107
254000
3000
des relations de voisinage, etc.
04:32
And different sorts of things
108
257000
2000
Et différentes sortes de choses
04:34
spread across different sorts of ties.
109
259000
2000
diffusent suivant différents types de liens.
04:36
For instance, sexually transmitted diseases
110
261000
2000
Par exemple, les maladies sexuellement transmissibles
04:38
will spread across sexual ties.
111
263000
2000
diffuseront sur les liens sexuels.
04:40
Or, for instance, people's smoking behavior
112
265000
2000
Ou, par exemple, le comportement tabagique des gens
04:42
might be influenced by their friends.
113
267000
2000
peut être influencé par leurs amis.
04:44
Or their altruistic or their charitable giving behavior
114
269000
2000
Ou leur comportement altruiste ou leurs dons de charité
04:46
might be influenced by their coworkers,
115
271000
2000
peuvent être influencés par leurs collègues,
04:48
or by their neighbors.
116
273000
2000
ou par leurs voisins.
04:50
But not all positions in the network are the same.
117
275000
3000
Mais tous les nœuds du réseau ne sont pas les mêmes.
04:53
So if you look at this, you might immediately grasp
118
278000
2000
Donc, si vous regardez cela, vous pouvez saisir immédiatement
04:55
that different people have different numbers of connections.
119
280000
3000
que des personnes différentes ont des nombres différents de connexions.
04:58
Some people have one connection, some have two,
120
283000
2000
Certaines personnes ont une connexion, certains en ont deux,
05:00
some have six, some have 10 connections.
121
285000
3000
certains six, certains ont 10 connexions.
05:03
And this is called the "degree" of a node,
122
288000
2000
Et c'est ce qu'on appelle le "degré" d'un nœud,
05:05
or the number of connections that a node has.
123
290000
2000
ou le nombre de connexions que le nœud a.
05:07
But in addition, there's something else.
124
292000
2000
Mais, en plus, il y a autre chose.
05:09
So, if you look at nodes A and B,
125
294000
2000
Donc, si vous regardez les nœuds A et B,
05:11
they both have six connections.
126
296000
2000
ils ont tous deux six connexions.
05:13
But if you can see this image [of the network] from a bird's eye view,
127
298000
3000
Mais si vous pouvez avoir cette image [du réseau] vue de haut,
05:16
you can appreciate that there's something very different
128
301000
2000
vous pouvez le constater qu'il y a quelque chose de très différent
05:18
about nodes A and B.
129
303000
2000
au sujet des nœuds A et B.
05:20
So, let me ask you this -- I can cultivate this intuition by asking a question --
130
305000
3000
Alors, laissez-moi vous poser cette question -- je peux confirmer cette intuition en posant une question --
05:23
who would you rather be
131
308000
2000
qui préféreriez-vous être
05:25
if a deadly germ was spreading through the network, A or B?
132
310000
3000
si un germe mortel se propageait à travers le réseau, A ou B?
05:28
(Audience: B.) Nicholas Christakis: B, it's obvious.
133
313000
2000
(Audience: B.) Nicholas Christakis: B, c'est évident.
05:30
B is located on the edge of the network.
134
315000
2000
B est situé sur la périphérie du réseau.
05:32
Now, who would you rather be
135
317000
2000
Maintenant, qui préféreriez-vous être
05:34
if a juicy piece of gossip were spreading through the network?
136
319000
3000
si un morceau juteux de ragots se propageait à travers le réseau?
05:37
A. And you have an immediate appreciation
137
322000
3000
A. Et vous avez une appréciation immédiate :
05:40
that A is going to be more likely
138
325000
2000
A va être plus susceptible
05:42
to get the thing that's spreading and to get it sooner
139
327000
3000
d’obtenir la chose qui se propage et de l'obtenir plus tôt
05:45
by virtue of their structural location within the network.
140
330000
3000
en vertue de sa situation structurelle au sein du réseau.
05:48
A, in fact, is more central,
141
333000
2000
A, en fait, est plus central,
05:50
and this can be formalized mathematically.
142
335000
3000
et cela peut être une formalisation mathématique.
05:53
So, if we want to track something
143
338000
2000
Donc, si nous voulons suivre quelque chose
05:55
that was spreading through a network,
144
340000
3000
qui se propageait à travers un réseau,
05:58
what we ideally would like to do is to set up sensors
145
343000
2000
ce que nous aimerions idéalement faire est de mettre en place des capteurs
06:00
on the central individuals within the network,
146
345000
2000
sur les individus centraux du réseau,
06:02
including node A,
147
347000
2000
y compris le nœud A,
06:04
monitor those people that are right there in the middle of the network,
148
349000
3000
surveiller les personnes qui sont là au milieu du réseau,
06:07
and somehow get an early detection
149
352000
2000
et en quelque sorte avoir une détection précoce
06:09
of whatever it is that is spreading through the network.
150
354000
3000
de quoi que ce soit qui se répand à travers le réseau.
06:12
So if you saw them contract a germ or a piece of information,
151
357000
3000
Autrement dit, si vous les avez vus contracter une maladie ou un morceau d'information,
06:15
you would know that, soon enough,
152
360000
2000
vous savez que, assez vite,
06:17
everybody was about to contract this germ
153
362000
2000
tout le monde était sur le point de contracter cette maladie
06:19
or this piece of information.
154
364000
2000
ou cette information.
06:21
And this would be much better
155
366000
2000
Et ce serait beaucoup mieux
06:23
than monitoring six randomly chosen people,
156
368000
2000
que de suivre six personnes choisies au hasard,
06:25
without reference to the structure of the population.
157
370000
3000
sans référence à la structure de la population.
06:28
And in fact, if you could do that,
158
373000
2000
Et en fait, si vous pouviez le faire,
06:30
what you would see is something like this.
159
375000
2000
ce que vous voyez est quelque chose comme ça.
06:32
On the left-hand panel, again, we have the S-shaped curve of adoption.
160
377000
3000
Sur le panneau de gauche, encore une fois, nous avons la courbe en S de l'adoption.
06:35
In the dotted red line, we show
161
380000
2000
Dans la ligne pointillée rouge, nous montrons
06:37
what the adoption would be in the random people,
162
382000
2000
ce que l'adoption serait avec des gens choisis au hasard,
06:39
and in the left-hand line, shifted to the left,
163
384000
3000
et dans la ligne de gauche, déplacé vers la gauche,
06:42
we show what the adoption would be
164
387000
2000
nous montrer ce que l'adoption serait
06:44
in the central individuals within the network.
165
389000
2000
avec des individus centraux au sein du réseau.
06:46
On the Y-axis is the cumulative instances of contagion,
166
391000
2000
Sur l'axe des Y on a le nombre cumulé de contagions,
06:48
and on the X-axis is the time.
167
393000
2000
et sur l'axe X, le temps.
06:50
And on the right-hand side, we show the same data,
168
395000
2000
Et sur le côté droit, nous montrons les mêmes données,
06:52
but here with daily incidence.
169
397000
2000
mais ici avec une incidence quotidienne.
06:54
And what we show here is -- like, here --
170
399000
2000
Et ce que nous montrons ici est que -- comme, ici --
06:56
very few people are affected, more and more and more and up to here,
171
401000
2000
très peu de gens sont touchés, puis de plus en plus jusqu'à ici,
06:58
and here's the peak of the epidemic.
172
403000
2000
et voici le pic de l'épidémie.
07:00
But shifted to the left is what's occurring in the central individuals.
173
405000
2000
Mais vers la gauche est ce qui se passe chez les individus centraux.
07:02
And this difference in time between the two
174
407000
3000
Et cette différence de temps entre les deux
07:05
is the early detection, the early warning we can get,
175
410000
3000
est la détection précoce, l'alerte précoce que nous pouvons obtenir,
07:08
about an impending epidemic
176
413000
2000
au sujet d'une épidémie imminente
07:10
in the human population.
177
415000
2000
dans la population humaine.
07:12
The problem, however,
178
417000
2000
Le problème, cependant,
07:14
is that mapping human social networks
179
419000
2000
est que la cartographie des réseaux sociaux humains
07:16
is not always possible.
180
421000
2000
n'est pas toujours possible.
07:18
It can be expensive, not feasible,
181
423000
2000
Ca peut être coûteux, [très difficile],
07:20
unethical,
182
425000
2000
contraire à l'éthique,
07:22
or, frankly, just not possible to do such a thing.
183
427000
3000
ou, franchement, tout simplement impossible de faire une telle chose.
07:25
So, how can we figure out
184
430000
2000
Alors, comment pouvons-nous comprendre
07:27
who the central people are in a network
185
432000
2000
qui sont les personnages centraux sont dans un réseau
07:29
without actually mapping the network?
186
434000
3000
sans faire la cartographie du réseau ?
07:32
What we came up with
187
437000
2000
Ce que nous avons mis en place
07:34
was an idea to exploit an old fact,
188
439000
2000
est d'exploiter un fait ancien,
07:36
or a known fact, about social networks,
189
441000
2000
ou un fait connu, sur les réseaux sociaux,
07:38
which goes like this:
190
443000
2000
qui est la chose suivante :
07:40
Do you know that your friends
191
445000
2000
Savez-vous que vos amis
07:42
have more friends than you do?
192
447000
3000
ont plus d'amis que vous ?
07:45
Your friends have more friends than you do,
193
450000
3000
Vos amis ont plus d'amis que vous.
07:48
and this is known as the friendship paradox.
194
453000
2000
Et c'est ce qu'on appelle le paradoxe de l'amitié.
07:50
Imagine a very popular person in the social network --
195
455000
2000
Imaginez une personne très populaire dans le réseau social --
07:52
like a party host who has hundreds of friends --
196
457000
3000
comme un organisateur de soirées qui a des centaines d'amis --
07:55
and a misanthrope who has just one friend,
197
460000
2000
et un misanthrope qui n'a qu'un seul ami,
07:57
and you pick someone at random from the population;
198
462000
3000
et vous prenez quelqu'un au hasard dans la population ;
08:00
they were much more likely to know the party host.
199
465000
2000
ils sont beaucoup plus susceptibles de connaître l'hôte.
08:02
And if they nominate the party host as their friend,
200
467000
2000
Et s'ils désignent l'hôte comme leur ami,
08:04
that party host has a hundred friends,
201
469000
2000
cette personne a une centaine d'amis,
08:06
therefore, has more friends than they do.
202
471000
3000
par conséquent, a plus d'amis qu’eux.
08:09
And this, in essence, is what's known as the friendship paradox.
203
474000
3000
Et ce, en substance, est ce qu'on appelle le paradoxe de l'amitié.
08:12
The friends of randomly chosen people
204
477000
3000
Les amis de personnes choisies au hasard
08:15
have higher degree, and are more central
205
480000
2000
ont un plus haut degré, et sont plus centraux,
08:17
than the random people themselves.
206
482000
2000
que les gens au hasard eux-mêmes.
08:19
And you can get an intuitive appreciation for this
207
484000
2000
Et vous pouvez vous faire une idée intuitive de cela
08:21
if you imagine just the people at the perimeter of the network.
208
486000
3000
si vous regardez juste les gens de la périphérie du réseau.
08:24
If you pick this person,
209
489000
2000
Si vous choisissez cette personne,
08:26
the only friend they have to nominate is this person,
210
491000
3000
le seul ami qu'ils peuvent nommer est celui-ci,
08:29
who, by construction, must have at least two
211
494000
2000
qui, par construction, doit avoir au moins deux,
08:31
and typically more friends.
212
496000
2000
et donc plus d’amis.
08:33
And that happens at every peripheral node.
213
498000
2000
Et c’est ce qui se passe à chaque nœud périphérique.
08:35
And in fact, it happens throughout the network as you move in,
214
500000
3000
Et en fait, cela arrive dans tout le réseau à mesure que vous vous déplacez,
08:38
everyone you pick, when they nominate a random --
215
503000
2000
quiconque vous choisissez, quand ils nomment au hasard ...
08:40
when a random person nominates a friend of theirs,
216
505000
3000
quand une personne tirée au sort désigne un de ses amis,
08:43
you move closer to the center of the network.
217
508000
3000
vous vous rapprochez du centre du réseau.
08:46
So, we thought we would exploit this idea
218
511000
3000
Donc, nous avons pensé à exploiter cette idée
08:49
in order to study whether we could predict phenomena within networks.
219
514000
3000
afin de voir si nous pouvions prévoir les phénomènes au sein des réseaux.
08:52
Because now, with this idea
220
517000
2000
Parce que maintenant, avec cette idée,
08:54
we can take a random sample of people,
221
519000
2000
nous pouvons prendre un échantillon aléatoire de personnes,
08:56
have them nominate their friends,
222
521000
2000
les inviter à désigner leurs amis,
08:58
those friends would be more central,
223
523000
2000
ceux-ci seraient plus centraux,
09:00
and we could do this without having to map the network.
224
525000
3000
et nous pourrions le faire sans avoir à la carte du réseau.
09:03
And we tested this idea with an outbreak of H1N1 flu
225
528000
3000
Et nous avons testé cette idée avec une épidémie de grippe H1N1
09:06
at Harvard College
226
531000
2000
au Collège Harvard
09:08
in the fall and winter of 2009, just a few months ago.
227
533000
3000
à l'automne et l'hiver 2009, il y a quelques mois.
09:11
We took 1,300 randomly selected undergraduates,
228
536000
3000
Nous avons pris 1 300 étudiants choisis au hasard,
09:14
we had them nominate their friends,
229
539000
2000
ils ont indiqué leurs amis,
09:16
and we followed both the random students and their friends
230
541000
2000
et nous avons suivi à la fois les étudiants tirés au sort et leurs amis
09:18
daily in time
231
543000
2000
tous les jours
09:20
to see whether or not they had the flu epidemic.
232
545000
3000
pour voir si ils avaient ou non contracté la grippe.
09:23
And we did this passively by looking at whether or not they'd gone to university health services.
233
548000
3000
Et nous avons fait cela passivement en regardant si oui ou non ils étaient allés aux services de santé universitaires.
09:26
And also, we had them [actively] email us a couple of times a week.
234
551000
3000
Et aussi, nous leur avions demandé de nous envoyer un email plusieurs fois par semaine.
09:29
Exactly what we predicted happened.
235
554000
3000
Ce que nous avions exactement prédit est arrivé.
09:32
So the random group is in the red line.
236
557000
3000
Le groupe aléatoire est cette ligne rouge.
09:35
The epidemic in the friends group has shifted to the left, over here.
237
560000
3000
L'épidémie dans le groupe d'amis s'est déplacée vers la gauche, par ici.
09:38
And the difference in the two is 16 days.
238
563000
3000
Et la différence entre les deux est de 16 jours.
09:41
By monitoring the friends group,
239
566000
2000
En surveillant le groupe d'amis,
09:43
we could get 16 days advance warning
240
568000
2000
nous avons pu obtenir une alerte 16 jours à l'avance
09:45
of an impending epidemic in this human population.
241
570000
3000
d'une épidémie imminente dans cette population humaine.
09:48
Now, in addition to that,
242
573000
2000
Maintenant, en plus de cela,
09:50
if you were an analyst who was trying to study an epidemic
243
575000
3000
si vous étiez un analyste qui essaie d'étudier une épidémie
09:53
or to predict the adoption of a product, for example,
244
578000
3000
ou de prévoir l'adoption d'un produit, par exemple,
09:56
what you could do is you could pick a random sample of the population,
245
581000
3000
ce que vous pouvez faire est de choisir un échantillon aléatoire de la population,
09:59
also have them nominate their friends and follow the friends
246
584000
3000
leur demander d’indiquer leurs amis et suivre ces amis,
10:02
and follow both the randoms and the friends.
247
587000
3000
et suivre la population aléatoire et les amis.
10:05
Among the friends, the first evidence you saw of a blip above zero
248
590000
3000
Parmi les amis, la première preuve que vous avez vu d'un top au-dessus de zéro
10:08
in adoption of the innovation, for example,
249
593000
3000
dans l'adoption de l'innovation, par exemple,
10:11
would be evidence of an impending epidemic.
250
596000
2000
serait la preuve d'une épidémie imminente.
10:13
Or you could see the first time the two curves diverged,
251
598000
3000
Ou vous pouvez chercher la première fois que les deux courbes divergent,
10:16
as shown on the left.
252
601000
2000
comme indiqué sur la gauche.
10:18
When did the randoms -- when did the friends take off
253
603000
3000
Quand les aléatoires... quand les amis ont-ils décollé
10:21
and leave the randoms,
254
606000
2000
et laissé les "aléatoires",
10:23
and [when did] their curve start shifting?
255
608000
2000
et [quand] la courbe a-t-elle commencé à virer ?
10:25
And that, as indicated by the white line,
256
610000
2000
Et ceci, comme indiqué par la ligne blanche,
10:27
occurred 46 days
257
612000
2000
s’est produit 46 jours
10:29
before the peak of the epidemic.
258
614000
2000
avant le pic de l'épidémie.
10:31
So this would be a technique
259
616000
2000
Ce serait donc une technique
10:33
whereby we could get more than a month-and-a-half warning
260
618000
2000
avec laquelle nous pourrions obtenir une alerte plus d'un mois et demi
10:35
about a flu epidemic in a particular population.
261
620000
3000
avant une épidémie de grippe dans une population donnée.
10:38
I should say that
262
623000
2000
Je dois dire que
10:40
how far advanced a notice one might get about something
263
625000
2000
l’avance avec laquelle on peut obtenir une information sur quelque chose
10:42
depends on a host of factors.
264
627000
2000
dépend d'une multitude de facteurs.
10:44
It could depend on the nature of the pathogen --
265
629000
2000
Cela peut dépendre de la nature de l'agent pathogène -
10:46
different pathogens,
266
631000
2000
différents agents pathogènes,
10:48
using this technique, you'd get different warning --
267
633000
2000
avec cette technique, vous obtiendrez des alertes différentes --
10:50
or other phenomena that are spreading,
268
635000
2000
ou d'autres phénomènes qui se répandent,
10:52
or frankly, on the structure of the human network.
269
637000
3000
ou, franchement, de la structure du réseau humain.
10:55
Now in our case, although it wasn't necessary,
270
640000
3000
Maintenant, dans notre cas, bien que ce n’était pas nécessaire,
10:58
we could also actually map the network of the students.
271
643000
2000
nous pourrions également faire la carte du réseau des étudiants.
11:00
So, this is a map of 714 students
272
645000
2000
Donc, voici la carte des 714 étudiants
11:02
and their friendship ties.
273
647000
2000
et leurs liens d'amitié.
11:04
And in a minute now, I'm going to put this map into motion.
274
649000
2000
Et dans une minute, je vais mettre cette carte en mouvement.
11:06
We're going to take daily cuts through the network
275
651000
2000
Nous allons prendre des photos quotidiennes à travers le réseau
11:08
for 120 days.
276
653000
2000
pendant 120 jours.
11:10
The red dots are going to be cases of the flu,
277
655000
3000
Les points rouges vont être les cas de grippe,
11:13
and the yellow dots are going to be friends of the people with the flu.
278
658000
3000
et les points jaunes, les amis des personnes atteintes de la grippe.
11:16
And the size of the dots is going to be proportional
279
661000
2000
Et la taille des points va être proportionnelle
11:18
to how many of their friends have the flu.
280
663000
2000
au nombre d’amis qui ont la grippe.
11:20
So bigger dots mean more of your friends have the flu.
281
665000
3000
Donc, plus les points sont gros, plus de vos amis ont la grippe.
11:23
And if you look at this image -- here we are now in September the 13th --
282
668000
3000
Et si vous regardez cette image -- nous voici maintenant le 13 Septembre --
11:26
you're going to see a few cases light up.
283
671000
2000
vous allez voir quelques cas se déclarer.
11:28
You're going to see kind of blooming of the flu in the middle.
284
673000
2000
Vous allez voir une sorte d’éclosion de la grippe au milieu.
11:30
Here we are on October the 19th.
285
675000
3000
Ici nous sommes le 19 Octobre.
11:33
The slope of the epidemic curve is approaching now, in November.
286
678000
2000
La pente de la courbe de l'épidémie est proche maintenant, en Novembre.
11:35
Bang, bang, bang, bang, bang -- you're going to see lots of blooming in the middle,
287
680000
3000
Bang, bang, bang, bang, bang, vous allez voir beaucoup d’éclosions au milieu,
11:38
and then you're going to see a sort of leveling off,
288
683000
2000
et puis vous allez voir une sorte de nivellement,
11:40
fewer and fewer cases towards the end of December.
289
685000
3000
de moins en moins de cas vers la fin de Décembre.
11:43
And this type of a visualization
290
688000
2000
Et ce type de visualisation
11:45
can show that epidemics like this take root
291
690000
2000
peut montrer que les épidémies comme celle-ci prennent racine
11:47
and affect central individuals first,
292
692000
2000
et affectent les individus du centre d'abord,
11:49
before they affect others.
293
694000
2000
avant qu'ils n'affectent les autres.
11:51
Now, as I've been suggesting,
294
696000
2000
Maintenant, comme je l'ai laissé entendre,
11:53
this method is not restricted to germs,
295
698000
3000
cette méthode n'est pas limitée aux germes,
11:56
but actually to anything that spreads in populations.
296
701000
2000
mais en fait, à tout ce qui se propage dans les populations.
11:58
Information spreads in populations,
297
703000
2000
L'information se répand dans les populations.
12:00
norms can spread in populations,
298
705000
2000
Des normes peuvent se propager dans les populations.
12:02
behaviors can spread in populations.
299
707000
2000
Des comportements peuvent se propager dans les populations.
12:04
And by behaviors, I can mean things like criminal behavior,
300
709000
3000
Et par des comportements, je veux dire des choses comme un comportement criminel,
12:07
or voting behavior, or health care behavior,
301
712000
3000
ou le comportement de vote, ou le comportement relatif à la santé
12:10
like smoking, or vaccination,
302
715000
2000
comme le tabagisme, ou la vaccination,
12:12
or product adoption, or other kinds of behaviors
303
717000
2000
l'adoption d'un produit ou, ou d'autres types de comportements
12:14
that relate to interpersonal influence.
304
719000
2000
qui ont trait à l'influence interpersonnelle.
12:16
If I'm likely to do something that affects others around me,
305
721000
3000
Si je suis susceptible de faire quelque chose qui affecte les autres autour de moi,
12:19
this technique can get early warning or early detection
306
724000
3000
cette technique peut donner une alerte précoce, ou une détection précoce,
12:22
about the adoption within the population.
307
727000
3000
sur l'adoption au sein de la population.
12:25
The key thing is that for it to work,
308
730000
2000
Le point clé est que, pour que cela fonctionne,
12:27
there has to be interpersonal influence.
309
732000
2000
il doit y avoir de l'influence interpersonnelle.
12:29
It cannot be because of some broadcast mechanism
310
734000
2000
Cela ne marche pas avec un mécanisme de diffusion
12:31
affecting everyone uniformly.
311
736000
3000
qui touche tout le monde de manière uniforme.
12:35
Now the same insights
312
740000
2000
Maintenant, les mêmes idées
12:37
can also be exploited -- with respect to networks --
313
742000
3000
peuvent également être exploitées - à l'égard de réseaux -
12:40
can also be exploited in other ways,
314
745000
3000
peuvent également être exploitées d'autre façons,
12:43
for example, in the use of targeting
315
748000
2000
par exemple, dans l'utilisation du ciblage
12:45
specific people for interventions.
316
750000
2000
de personnes en particulier pour les interventions.
12:47
So, for example, most of you are probably familiar
317
752000
2000
Ainsi, par exemple, la plupart d'entre vous sont probablement familiers
12:49
with the notion of herd immunity.
318
754000
2000
avec la notion d'immunité collective.
12:51
So, if we have a population of a thousand people,
319
756000
3000
Donc, si nous avons une population d'un millier de personnes,
12:54
and we want to make the population immune to a pathogen,
320
759000
3000
et nous voulons en faire une population immunitaire à un agent pathogène,
12:57
we don't have to immunize every single person.
321
762000
2000
nous n'avons pas à immuniser chaque personne.
12:59
If we immunize 960 of them,
322
764000
2000
Si nous immunisons 960 d'entre eux,
13:01
it's as if we had immunized a hundred [percent] of them.
323
766000
3000
c'est comme si nous avions vacciné la population tout entière.
13:04
Because even if one or two of the non-immune people gets infected,
324
769000
3000
Parce que même si un ou deux des personnes non immunisées sont infectées,
13:07
there's no one for them to infect.
325
772000
2000
il n'y a personne d’autre à infecter.
13:09
They are surrounded by immunized people.
326
774000
2000
Ils sont entourés par des gens immunisés.
13:11
So 96 percent is as good as 100 percent.
327
776000
3000
Ainsi, 96 % est aussi bon que 100 %.
13:14
Well, some other scientists have estimated
328
779000
2000
Eh bien, d'autres scientifiques ont estimé
13:16
what would happen if you took a 30 percent random sample
329
781000
2000
ce qui arriverait si vous aviez pris un échantillon aléatoire de 30 %
13:18
of these 1000 people, 300 people and immunized them.
330
783000
3000
de ces 1000 personnes, 300 personnes et les faire vacciner.
13:21
Would you get any population-level immunity?
331
786000
2000
Obtiendrez-vous une immunité au niveau de la population ?
13:23
And the answer is no.
332
788000
3000
Et la réponse est non.
13:26
But if you took this 30 percent, these 300 people
333
791000
2000
Mais si vous avez suivi ces 30%, ces 300 personnes,
13:28
and had them nominate their friends
334
793000
2000
et leur avez fait nommer leurs amis
13:30
and took the same number of vaccine doses
335
795000
3000
puis pris le même nombre de vaccins
13:33
and vaccinated the friends of the 300 --
336
798000
2000
pour vacciner les amis de ces 300,
13:35
the 300 friends --
337
800000
2000
les 300 amis,
13:37
you can get the same level of herd immunity
338
802000
2000
vous pouvez obtenir le même niveau d'immunité de groupe
13:39
as if you had vaccinated 96 percent of the population
339
804000
3000
que si vous aviez vaccinés 96 % de la population
13:42
at a much greater efficiency, with a strict budget constraint.
340
807000
3000
avec une plus grande efficacité, et une contrainte budgétaire stricte.
13:45
And similar ideas can be used, for instance,
341
810000
2000
Et des idées similaires peuvent être utilisés, par exemple,
13:47
to target distribution of things like bed nets
342
812000
2000
pour cibler la distribution de choses comme les moustiquaires
13:49
in the developing world.
343
814000
2000
dans les pays en voie de développement.
13:51
If we could understand the structure of networks in villages,
344
816000
3000
Si nous pouvions comprendre la structure des réseaux dans les villages,
13:54
we could target to whom to give the interventions
345
819000
2000
nous pourrions cibler les interventions
13:56
to foster these kinds of spreads.
346
821000
2000
pour promouvoir ce type de structure.
13:58
Or, frankly, for advertising with all kinds of products.
347
823000
3000
Ou, franchement, pour la publicité de toutes sortes de produits.
14:01
If we could understand how to target,
348
826000
2000
Si nous pouvions comprendre comment cibler,
14:03
it could affect the efficiency
349
828000
2000
cela pourrait influencer l'efficacité
14:05
of what we're trying to achieve.
350
830000
2000
de ce que nous essayons de réaliser.
14:07
And in fact, we can use data
351
832000
2000
Et en fait, nous pouvons utiliser les données
14:09
from all kinds of sources nowadays [to do this].
352
834000
2000
de toutes sortes de sources de nos jours [pour le faire].
14:11
This is a map of eight million phone users
353
836000
2000
Ceci est la carte de huit millions d'utilisateurs de téléphone
14:13
in a European country.
354
838000
2000
dans un pays européen.
14:15
Every dot is a person, and every line represents
355
840000
2000
Chaque point est une personne, et chaque ligne représente
14:17
a volume of calls between the people.
356
842000
2000
un volume d'appels entre les personnes.
14:19
And we can use such data, that's being passively obtained,
357
844000
3000
Et nous pouvons utiliser ces données, qui sont obtenues de manière passive
14:22
to map these whole countries
358
847000
2000
pour cartographier ces pays entiers
14:24
and understand who is located where within the network.
359
849000
3000
et comprendre qui est où dans le réseau.
14:27
Without actually having to query them at all,
360
852000
2000
Sans avoir à les interroger tous,
14:29
we can get this kind of a structural insight.
361
854000
2000
nous pouvons obtenir ce genre d'une vision structurelle.
14:31
And other sources of information, as you're no doubt aware
362
856000
3000
Et d'autres sources d'information, comme vous le savez sans doute,
14:34
are available about such features, from email interactions,
363
859000
3000
sont disponibles sur de telles caractéristiques, à partir des interactions e-mail,
14:37
online interactions,
364
862000
2000
interactions en ligne,
14:39
online social networks and so forth.
365
864000
3000
réseaux sociaux en ligne, et ainsi de suite.
14:42
And in fact, we are in the era of what I would call
366
867000
2000
Et en fait, nous sommes à l'ère de ce que j'appellerais
14:44
"massive-passive" data collection efforts.
367
869000
3000
les efforts de collecte de données "massives et passives".
14:47
They're all kinds of ways we can use massively collected data
368
872000
3000
Il y a toutes sortes de façons d’utiliser les données recueillies massivement
14:50
to create sensor networks
369
875000
3000
de créer des réseaux de capteurs
14:53
to follow the population,
370
878000
2000
pour suivre la population,
14:55
understand what's happening in the population,
371
880000
2000
comprendre ce qui se passe dans la population,
14:57
and intervene in the population for the better.
372
882000
3000
et d'intervenir dans la population pour le bien.
15:00
Because these new technologies tell us
373
885000
2000
Parce que ces nouvelles technologies nous disent
15:02
not just who is talking to whom,
374
887000
2000
non seulement qui parle à qui,
15:04
but where everyone is,
375
889000
2000
mais où chacun se trouve,
15:06
and what they're thinking based on what they're uploading on the Internet,
376
891000
3000
et ce qu'ils pensent sur ce qu'ils téléchargent sur Internet,
15:09
and what they're buying based on their purchases.
377
894000
2000
et ce qu'ils achètent en fonction de leurs achats.
15:11
And all this administrative data can be pulled together
378
896000
3000
Et toutes ces données administratives peuvent être rassemblées
15:14
and processed to understand human behavior
379
899000
2000
et traitées pour comprendre le comportement humain
15:16
in a way we never could before.
380
901000
3000
d'une manière que nous n'avons jamais pu faire auparavant.
15:19
So, for example, we could use truckers' purchases of fuel.
381
904000
3000
Ainsi, par exemple, nous pourrions utiliser les achats de carburant des camionneurs.
15:22
So the truckers are just going about their business,
382
907000
2000
Donc, les camionneurs ne vaquent qu’à leurs occupations,
15:24
and they're buying fuel.
383
909000
2000
et ils achètent du carburant.
15:26
And we see a blip up in the truckers' purchases of fuel,
384
911000
3000
Et nous voyons un soubresaut dans les achats de carburant des camionneurs,
15:29
and we know that a recession is about to end.
385
914000
2000
et nous savons que la récession touche à sa fin.
15:31
Or we can monitor the velocity
386
916000
2000
Ou nous pouvons contrôler la vitesse
15:33
with which people are moving with their phones on a highway,
387
918000
3000
avec laquelle les gens se déplacent avec leurs téléphones sur une route,
15:36
and the phone company can see,
388
921000
2000
et l’opérateur téléphonique peut voir,
15:38
as the velocity is slowing down,
389
923000
2000
lorsque la vitesse décroit,
15:40
that there's a traffic jam.
390
925000
2000
qu'il y a un embouteillage.
15:42
And they can feed that information back to their subscribers,
391
927000
3000
Et ils peuvent transmettre cette information à leurs abonnés,
15:45
but only to their subscribers on the same highway
392
930000
2000
mais seulement à leurs abonnés sur la même route
15:47
located behind the traffic jam!
393
932000
2000
situés derrière les embouteillages !
15:49
Or we can monitor doctors prescribing behaviors, passively,
394
934000
3000
Ou nous pouvons surveiller les habitudes de prescription des médecins, passivement,
15:52
and see how the diffusion of innovation with pharmaceuticals
395
937000
3000
et voir comment la diffusion de l'innovation avec des produits pharmaceutiques
15:55
occurs within [networks of] doctors.
396
940000
2000
se produit dans les [réseaux] de médecins.
15:57
Or again, we can monitor purchasing behavior in people
397
942000
2000
Ou encore, nous pouvons surveiller le comportement d'achat des gens,
15:59
and watch how these types of phenomena
398
944000
2000
et voir comment ces types de phénomènes
16:01
can diffuse within human populations.
399
946000
3000
peuvent se diffuser dans les populations humaines.
16:04
And there are three ways, I think,
400
949000
2000
Et il y a trois façons, je pense,
16:06
that these massive-passive data can be used.
401
951000
2000
d’utiliser ces données massives-passives.
16:08
One is fully passive,
402
953000
2000
L'une est entièrement passive,
16:10
like I just described --
403
955000
2000
comme je viens de le décrire --
16:12
as in, for instance, the trucker example,
404
957000
2000
comme dans l'exemple du camionneur,
16:14
where we don't actually intervene in the population in any way.
405
959000
2000
où nous n'intervenons en aucune façon au sein de la population.
16:16
One is quasi-active,
406
961000
2000
L’une est quasi-active,
16:18
like the flu example I gave,
407
963000
2000
comme dans l'exemple de grippe que j'ai donné,
16:20
where we get some people to nominate their friends
408
965000
3000
où nous demandons à des gens de nommer leurs amis
16:23
and then passively monitor their friends --
409
968000
2000
pour suivre passivement ces amis --
16:25
do they have the flu, or not? -- and then get warning.
410
970000
2000
ont-ils la grippe, ou pas? -- Puis obtenir une alerte.
16:27
Or another example would be,
411
972000
2000
Ou un autre exemple serait,
16:29
if you're a phone company, you figure out who's central in the network
412
974000
3000
si vous êtes chez un opérateur de téléphone, vous déterminez qui est central dans le réseau,
16:32
and you ask those people, "Look, will you just text us your fever every day?
413
977000
3000
et vous demandez à ces gens : "Bon, pouvez-vous nous envoyer un SMS sur votre état de fièvre tous les jours ?
16:35
Just text us your temperature."
414
980000
2000
Envoyez-nous juste votre température."
16:37
And collect vast amounts of information about people's temperature,
415
982000
3000
Et vous recueillez de grandes quantités d'informations sur la température des gens,
16:40
but from centrally located individuals.
416
985000
2000
mais toutes d'individus centraux.
16:42
And be able, on a large scale,
417
987000
2000
Et vous êtes capable, à grande échelle,
16:44
to monitor an impending epidemic
418
989000
2000
de surveiller une épidémie imminente
16:46
with very minimal input from people.
419
991000
2000
avec une participation très minime de personnes.
16:48
Or, finally, it can be more fully active --
420
993000
2000
Ou, enfin, elle peut être complètement active --
16:50
as I know subsequent speakers will also talk about today --
421
995000
2000
Je sais que les orateurs suivants en parleront aussi aujourd'hui --
16:52
where people might globally participate in wikis,
422
997000
2000
où les gens peuvent contribuer à l'échelle mondiale sur des wikis ,
16:54
or photographing, or monitoring elections,
423
999000
3000
ou sur la photographie, le suivi des élections,
16:57
and upload information in a way that allows us to pool
424
1002000
2000
et télécharger des informations d'une manière qui nous permet de mettre en commun
16:59
information in order to understand social processes
425
1004000
2000
l'information afin de comprendre les processus sociaux
17:01
and social phenomena.
426
1006000
2000
et les phénomènes sociaux.
17:03
In fact, the availability of these data, I think,
427
1008000
2000
En fait, la disponibilité de ces données, je crois,
17:05
heralds a kind of new era
428
1010000
2000
annonce une sorte de nouvelle ère
17:07
of what I and others would like to call
429
1012000
2000
de ce que moi et d'autres aimeraient appeler
17:09
"computational social science."
430
1014000
2000
"La science sociale numérique."
17:11
It's sort of like when Galileo invented -- or, didn't invent --
431
1016000
3000
C'est un peu comme lorsque Galilée a inventé – non, n’a pas inventé –
17:14
came to use a telescope
432
1019000
2000
est venu à utiliser un télescope
17:16
and could see the heavens in a new way,
433
1021000
2000
et pu voir le ciel d'une manière nouvelle,
17:18
or Leeuwenhoek became aware of the microscope --
434
1023000
2000
ou Leeuwenhoek a pris connaissance du microscope --
17:20
or actually invented --
435
1025000
2000
ou l’a réellement inventé --
17:22
and could see biology in a new way.
436
1027000
2000
et pu voir la biologie d'une manière nouvelle.
17:24
But now we have access to these kinds of data
437
1029000
2000
Mais maintenant nous avons accès à ces types de données
17:26
that allow us to understand social processes
438
1031000
2000
qui nous permettent de comprendre les processus sociaux
17:28
and social phenomena
439
1033000
2000
et les phénomènes sociaux
17:30
in an entirely new way that was never before possible.
440
1035000
3000
d'une manière entièrement nouvelle qui n'a jamais été possible auparavant.
17:33
And with this science, we can
441
1038000
2000
Et avec cette science, nous pouvons
17:35
understand how exactly
442
1040000
2000
comprendre exactement comment
17:37
the whole comes to be greater
443
1042000
2000
l'ensemble vient à être plus
17:39
than the sum of its parts.
444
1044000
2000
que la somme de ses parties.
17:41
And actually, we can use these insights
445
1046000
2000
Et effectivement, nous pouvons utiliser ces données
17:43
to improve society and improve human well-being.
446
1048000
3000
pour améliorer la société et améliorer le bien-être.
17:46
Thank you.
447
1051000
2000
Je vous remercie.
Translated by Pradeep Cojandé
Reviewed by Fabienne Der Hagopian

▲Back to top

ABOUT THE SPEAKER
Nicholas Christakis - Physician, social scientist
Nicholas Christakis explores how the large-scale, face-to-face social networks in which we are embedded affect our lives, and what we can do to take advantage of this fact.

Why you should listen

People aren't merely social animals in the usual sense, for we don't just live in groups. We live in networks -- and we have done so ever since we emerged from the African savannah. Via intricately branching paths tracing out cascading family connections, friendship ties, and work relationships, we are interconnected to hundreds or even thousands of specific people, most of whom we do not know. We affect them and they affect us.

Nicholas Christakis' work examines the biological, psychological, sociological, and mathematical rules that govern how we form these social networks, and the rules that govern how they shape our lives. His work shows how phenomena as diverse as obesity, smoking, emotions, ideas, germs, and altruism can spread through our social ties, and how genes can partially underlie our creation of social ties to begin with. His work also sheds light on how we might take advantage of an understanding of social networks to make the world a better place.

At Yale, Christakis is a Professor of Social and Natural Science, and he directs a diverse research group in the field of biosocial science, primarily investigating social networks. His popular undergraduate course "Health of the Public" is available as a podcast. His book, Connected, co-authored with James H. Fowler, appeared in 2009, and has been translated into 20 languages. In 2009, he was named by Time magazine to its annual list of the 100 most influential people in the world, and also, in 2009 and 2010, by Foreign Policy magazine to its list of 100 top global thinkers

More profile about the speaker
Nicholas Christakis | Speaker | TED.com