ABOUT THE SPEAKER
Heidi Boisvert - Artist and creative technologist
Heidi Boisvert harnesses the power of popular culture, emerging technology and neuroscience to ignite culture change.

Why you should listen

Heidi Boisvert is an interdisciplinary artist, experience designer, creative technologist and academic researcher who interrogates the neurobiological and socio-cultural effects of media and technology.
 Simply put, she studies the role of the body, the senses and emotion in human perception and social change.

Boisvert is currently mapping the world's first media genome, while taking great care with its far-reaching ethical implications.
 She founded futurePerfect lab, a creative agency and think-tank that works with social justice organizations to design playful emerging media campaigns to transform the public imagination. She also co-founded XTH, a company creating novel modes of expression through biotechnology and the human body. Presently, she is working with David Byrne on Theater of the Mind, a new immersive theater piece to debut in August 2020.

Boisvert, who holds a Ph.D. in Electronic Arts from Rensselaer Polytechnic Institute, is the Director of Emerging Media Technology at City University of New York, where she teaches. She is also a Senior Research Fellow at the Norman Lear Center (based at the University of Southern California’s Annenberg School for Communication), a research affiliate in the Open Documentary Lab at the Massachusetts Institute of Technology and a member of NEW INC, the cultural incubator at The New Museum of Contemporary Art. She serves on the advisory board of American Documentary POV Spark and was selected by ZERO1 and the U.S. Department of State's Bureau of Educational and Cultural Affairs to represent the United States in Turkey.

More profile about the speaker
Heidi Boisvert | Speaker | TED.com
TED Residency

Heidi Boisvert: How I'm using biological data to tell better stories -- and spark social change

Heidi Boisvert: Comment j'utilise des données biologiques pour raconter de meilleures histoires et susciter un changement social

Filmed:
1,238,813 views

Quels genres d'histoires nous incitent à agir ? Pour répondre à cette question, la technologue créative Heidi Boisvert mesure comment le cerveau et le corps des gens répond inconsciemment à différents médias. Elle montre comment elle utilise ces données pour déterminer les ingrédients narratifs qui inspirent de l'empathie, de la justice et suscitent un changement social à grande échelle.
- Artist and creative technologist
Heidi Boisvert harnesses the power of popular culture, emerging technology and neuroscience to ignite culture change. Full bio

Double-click the English transcript below to play the video.

00:13
For the pastpassé 15 yearsannées I've been tryingen essayant
to changechangement your mindesprit.
0
1458
3542
Ces 15 dernières années, j'ai essayé
de vous faire changer d'avis.
00:17
In my work I harnessharnais poppop cultureCulture
and emergingémergent technologyLa technologie
1
5917
3851
Dans mon travail,
j'exploite la culture populaire
et les technologies émergentes
00:21
to shiftdécalage culturalculturel normsnormes.
2
9792
1458
pour changer les normes culturelles.
00:23
I've madefabriqué videovidéo gamesJeux
to promotepromouvoir humanHumain rightsdroits,
3
11833
3685
J'ai créé des jeux vidéo
pour promouvoir les droits humains,
00:27
I've madefabriqué animationsdes animations to raiseélever awarenessconscience
about unfairdéloyale immigrationImmigration lawslois
4
15542
5059
j'ai créé des animations pour sensibiliser
aux lois injustes en matière d'immigration
00:32
and I've even madefabriqué location-basedlocalisation
augmentedaugmenté realityréalité appsapplications
5
20625
4226
et j'ai créé des applis de géolocalisation
en réalité augmentée
00:36
to changechangement perceptionsperceptions around homelessnesssans-abrisme
6
24875
2643
pour changer la perception du sans-abrisme
00:39
well before PokPokémonLun Go.
7
27542
1934
et ce, bien avant Pokémon Go.
00:41
(LaughterRires)
8
29500
1351
(Rires)
00:42
But then I begana commencé to wondermerveille
whetherqu'il s'agisse a gameJeu or an appapplication
9
30875
4018
Mais j'ai ensuite commencé à me demander
si un jeu ou une application
00:46
can really changechangement attitudesattitudes and behaviorscomportements,
10
34917
2476
pouvait vraiment changer
les attitudes et comportements
00:49
and if so, can I measuremesure that changechangement?
11
37417
3017
et, si oui, comment mesurer
ce changement.
00:52
What's the sciencescience behindderrière that processprocessus?
12
40458
2976
Quelle est la science
derrière ce processus ?
00:55
So I shifteddécalé my focusconcentrer
from makingfabrication mediamédias and technologyLa technologie
13
43458
3726
Mon intérêt est passé de la création
de contenus et de technologies
00:59
to measuringmesure theirleur
neurobiologicalneurobiologiques effectseffets.
14
47208
3042
à la mesure de leurs effets
neurobiologiques.
01:03
Here'sVoici what I discovereddécouvert.
15
51458
1851
Voici ce que j'ai découvert.
01:05
The webweb, mobilemobile devicesdispositifs,
virtualvirtuel and augmentedaugmenté realityréalité
16
53333
3893
Internet, les appareils mobiles,
la réalité virtuelle et augmentée
01:09
were rescriptingrescription our nervousnerveux systemssystèmes.
17
57250
2684
réécrivent notre système nerveux.
01:11
And they were literallyLittéralement changingen changeant
the structurestructure of our braincerveau.
18
59958
2959
Ils changent littéralement
la structure de notre cerveau.
01:15
The very technologiesles technologies I had been usingen utilisant
to positivelypositivement influenceinfluence heartscœurs and mindsesprits
19
63875
4976
Les technologies que j'avais utilisées
pour influencer positivement
les cœurs et les esprits
01:20
were actuallyréellement erodingéroder functionsles fonctions
in the braincerveau necessarynécessaire for empathyempathie
20
68875
4393
érodent les fonctions du cerveau
nécessaires à l'empathie
01:25
and decision-makingla prise de décision.
21
73292
1851
et à la prise de décision.
01:27
In factfait, our dependencedépendance
uponsur the webweb and mobilemobile devicesdispositifs
22
75167
4142
Notre dépendance à internet
et aux appareils mobiles
01:31
mightpourrait be takingprise over
our cognitivecognitif and affectiveaffectif facultiesfacultés,
23
79333
4101
pourrait prendre le dessus
sur nos facultés cognitives et affectives,
01:35
renderingle rendu us sociallysocialement
and emotionallyémotionnellement incompetentincompétent,
24
83458
3560
nous rendant socialement
et émotionnellement incompétents
01:39
and I feltse sentait complicitcomplice
in this dehumanizationdéshumanisation.
25
87042
3291
et je me sentais complice
de cette déshumanisation.
01:43
I realizedréalisé that before I could continuecontinuer
makingfabrication mediamédias about socialsocial issuesproblèmes,
26
91292
4642
J'ai réalisé qu'avant de pouvoir continuer
à créer du contenu
sur des problèmes sociaux,
01:47
I needednécessaire to reversesens inverse engineeringénieur
the harmfulnocif effectseffets of technologyLa technologie.
27
95958
4417
je devais étudier par ingénierie inverse
les effets néfastes de la technologie.
01:52
To tackletacle this I askeda demandé myselfmoi même,
28
100917
2767
Pour m'y attaquer, je me suis demandé :
01:55
"How can I translateTraduire
the mechanismsmécanismes of empathyempathie,
29
103708
3393
« Comment puis-je traduire
les mécanismes de l'empathie,
01:59
the cognitivecognitif, affectiveaffectif
and motivationalmotivationnelle aspectsaspects,
30
107125
3643
les aspects cognitifs, affectifs
et motivationnels
02:02
into an enginemoteur that simulatessimule
the narrativerécit ingredientsIngrédients
31
110792
3226
dans un moteur qui simule
les ingrédients narratifs
02:06
that movebouge toi us to actacte?"
32
114042
1291
qui nous incitent à agir ? »
02:08
To answerrépondre this, I had to buildconstruire a machinemachine.
33
116583
3935
Pour répondre à cela,
je devais créer une machine.
02:12
(LaughterRires)
34
120542
1726
(Rires)
02:14
I've been developingdéveloppement
an open-sourceOpen source biometricbiométrique lablaboratoire,
35
122292
2892
J'ai développé un labo
biométrique en open source,
02:17
an AIAI systemsystème whichlequel I call the LimbicLimbique LabLab.
36
125208
3476
un système d'IA
que j'appelle le « Labo limbique ».
02:20
The lablaboratoire not only capturescapture
37
128708
1435
Non seulement le labo enregistre
02:22
the braincerveau and body'sdu corps unconsciousinconscient responseréponse
to mediamédias and technologyLa technologie
38
130167
4226
la réponse inconsciente
du cerveau et du corps
à du contenu et à des technologies,
02:26
but alsoaussi usesles usages machinemachine learningapprentissage
to adaptadapter contentcontenu
39
134417
2976
mais il utilise l'apprentissage
automatique pour adapter le contenu
02:29
basedbasé on these biologicalbiologique responsesréponses.
40
137417
2208
d'après ces réponses biologiques.
02:32
My goalobjectif is to find out what combinationcombinaison
of narrativerécit ingredientsIngrédients
41
140667
3517
Mon objectif est de découvrir quelles
combinaisons d'ingrédients narratifs
02:36
are the mostles plus appealingfaire appel and galvanizinggalvanisation à chaud
42
144208
2143
sont les plus attrayantes et galvanisantes
02:38
to specificspécifique targetcible audiencespublic
43
146375
1809
pour des publics cibles précis
02:40
to enableactiver socialsocial justiceJustice, culturalculturel
and educationaléducatif organizationsorganisations
44
148208
5018
afin de permettre aux organisations
actives dans la justice sociale,
la culture et l'éducation
02:45
to createcréer more effectiveefficace mediamédias.
45
153250
2643
de créer des supports plus efficaces.
02:47
The LimbicLimbique LabLab consistsconsiste of two componentsComposants:
46
155917
2851
Le Labo limbique
est fait de deux composants :
02:50
a narrativerécit enginemoteur and a mediamédias machinemachine.
47
158792
2541
un moteur narratif
et une machine médiatique.
02:54
While a subjectassujettir is viewingvisualisation
or interactinginteragir with mediamédias contentcontenu,
48
162375
4226
Pendant qu'un sujet visionne
ou interagit avec du contenu médiatique,
02:58
the narrativerécit enginemoteur takes in and syncssynchronisations
real-timetemps réél dataLes données from braincerveau wavesvagues,
49
166625
4184
le moteur narratif
recueille et synchronise
des données en temps réel
des ondes cérébrales,
03:02
biophysicalbiophysiques dataLes données like heartcœur ratetaux,
blooddu sang flowcouler, bodycorps temperaturetempérature
50
170833
3560
des données biophysiques
comme la fréquence cardiaque,
le flux sanguin, la température
et la contraction musculaire
03:06
and musclemuscle contractioncontraction,
51
174417
1684
03:08
as well as eye-trackingEye-tracking
and facialsoin du visage expressionsexpressions.
52
176125
2958
ainsi que l'oculométrie
et les expressions faciales.
03:12
DataDonnées is capturedcapturé at keyclé placesdes endroits
where criticalcritique plotterrain pointspoints,
53
180083
3726
Les données sont enregistrées
à des points critiques de l'intrigue,
03:15
characterpersonnage interactioninteraction
or unusualinhabituel cameracaméra anglesangles occurse produire.
54
183833
3417
des interactions des personnages
ou lors d'angles de caméra inhabituels.
03:20
Like the finalfinal scenescène
in "GameJeu of ThronesTrônes, RedRouge WeddingMariage,"
55
188292
2726
Comme la scène finale
des « Noces Pourpres » de Game of Thrones
03:23
when shockinglyIl est choquant,
56
191042
2309
où, étonnamment,
03:25
everybodyTout le monde diesmeurt.
57
193375
1559
tout le monde meurt.
03:26
(LaughterRires)
58
194958
1250
(Rires)
03:29
SurveyEnquête sur les dataLes données on that
person'spersonne politicalpolitique beliefscroyances,
59
197042
3184
Des données de sondage
sur l'idéologie politique
de cette personne
03:32
alongle long de with theirleur psychographicpsychographiques
and demographicdémographique dataLes données,
60
200250
3143
ainsi que ses données
psychographiques et démographiques
03:35
are integratedintégré into the systemsystème
61
203417
1767
sont intégrées au système
03:37
to gainGain a deeperPlus profond understandingcompréhension
of the individualindividuel.
62
205208
2709
pour acquérir une meilleure
compréhension de l'individu.
03:40
Let me give you an exampleExemple.
63
208833
1542
Laissez-moi vous donner un exemple.
03:43
MatchingCorrespondant people'sles gens TVTV preferencespréférences
with theirleur viewsvues on socialsocial justiceJustice issuesproblèmes
64
211708
4851
Associer les préférences
télévisuelles des gens
à leurs opinions sur des problèmes
de justice sociale
03:48
revealsrévèle that AmericansAméricains who rankrang
immigrationImmigration amongparmi theirleur topHaut threeTrois concernspréoccupations
65
216583
4268
révèle que les Américains
qui classent l'immigration
parmi leurs trois plus grandes inquiétudes
03:52
are more likelyprobable to be fansfans
of "The WalkingMarche DeadMorte,"
66
220875
2792
ont plus de chances d'être des fans
de « The Walking Dead »
03:56
and they oftensouvent watch
for the adrenalineadrénaline boostcoup de pouce,
67
224958
2810
et ils regardent la série
pour la montée d'adrénaline,
03:59
whichlequel is measurablemesurables.
68
227792
1291
qui est mesurable.
04:01
A person'spersonne biologicalbiologique signatureSignature
and theirleur surveyenquête responseréponse
69
229792
3934
La signature biologique d'une personne
et leur réponse au sondage
04:05
combinescombine into a databasebase de données
to createcréer theirleur uniqueunique mediamédias imprintimprimer.
70
233750
4851
sont combinées dans une base de données
pour créer leur empreinte
médiatique unique.
04:10
Then our predictiveprédictive modelmaquette
findstrouve patternsmodèles betweenentre mediamédias imprintsempreintes
71
238625
4268
Puis notre modèle prédictif
trouve des tendances
entre des empreintes médiatiques
04:14
and tellsraconte me whichlequel narrativerécit ingredientsIngrédients
72
242917
1976
et me dit quels ingrédients narratifs
04:16
are more likelyprobable to leadconduire
to engagementengagement in altruisticaltruiste behaviorcomportement
73
244917
3767
ont plus de chances de mener
à un comportement altruiste
04:20
ratherplutôt than distressdétresse and apathyapathie.
74
248708
2685
plutôt qu'à de la détresse
ou à de l'apathie.
04:23
The more imprintsempreintes addedajoutée to the databasebase de données
75
251417
2184
Plus il y a d'empreintes
dans la base de données
04:25
acrossà travers mediumsmédiums from episodicépisodique
televisiontélévision to gamesJeux,
76
253625
3226
couvrant des supports allant
de la télévision épisodique aux gens,
04:28
the better the predictiveprédictive modelsdes modèles becomedevenir.
77
256875
2167
meilleurs sont les modèles prédictifs.
04:32
In shortcourt, I am mappingcartographie
the first mediamédias genomegénome.
78
260417
3851
Pour faire court, je cartographie
le premier génome médiatique.
04:36
(ApplauseApplaudissements and cheersa bientôt)
79
264292
3791
(Applaudissements et acclamations)
04:44
WhereasAlors que the humanHumain genomegénome
identifiesidentifie all genesgènes involvedimpliqué
80
272083
3185
Alors que le génome humain
identifie tous les gènes impliqués
04:47
in sequencingséquençage humanHumain DNAADN,
81
275292
1833
dans le séquençage de l'ADN humain,
04:49
the growingcroissance databasebase de données of mediamédias imprintsempreintes
will eventuallyfinalement allowpermettre me
82
277917
3226
la base de données grandissante
de ces empreintes médiatiques
me permettra de déterminer
l'ADN médiatique d'une personne.
04:53
to determinedéterminer the mediamédias DNAADN
for a specificspécifique personla personne.
83
281167
4125
04:58
AlreadyDéjà the LimbicLimbique Lab'sLab narrativerécit enginemoteur
84
286250
2833
Le moteur narratif du Labo limbique
05:02
helpsaide contentcontenu creatorscréateurs
refineJ’affine ma sélection theirleur storytellingnarration,
85
290333
2601
aide déjà les créateurs de contenus
à raffiner leur narration
05:04
so that it resonatesrésonne with theirleur targetcible
audiencespublic on an individualindividuel levelniveau.
86
292958
4000
afin que cela touche leur public cible
à un niveau individuel.
05:11
The LimbicLimbique Lab'sLab other componentcomposant,
87
299042
2184
L'autre composant du Labo limbique,
05:13
the mediamédias machinemachine,
88
301250
1976
la machine médiatique,
05:15
will assessévaluer how mediamédias elicitssuscite
an emotionalémotif and physiologicalphysiologique responseréponse,
89
303250
4476
évaluera comment les médias suscitent
une réponse émotionnelle et physiologique,
05:19
then pullstire scenesscènes from a contentcontenu librarybibliothèque
90
307750
2434
puis sortira des scènes
d'une bibliothèque de contenus
05:22
targetedciblé to person-specificpersonne-spécifique mediamédias DNAADN.
91
310208
2584
ciblant l'ADN médiatique
d'une personne en particulier.
05:26
ApplyingApplication artificialartificiel intelligenceintelligence
to biometricbiométrique dataLes données
92
314042
3892
Appliquer l'intelligence artificielle
aux données biométriques
05:29
createscrée a trulyvraiment personalizedpersonnalisé experienceexpérience.
93
317958
2726
crée une expérience
réellement personnalisée.
05:32
One that adaptsadapte contentcontenu basedbasé
on real-timetemps réél unconsciousinconscient responsesréponses.
94
320708
5084
Elle adapte le contenu d'après
des réponses inconscientes en temps réel.
05:38
ImagineImaginez if nonprofitsorganismes sans but lucratif and mediamédias makersles décideurs
were ablecapable to measuremesure how audiencespublic feel
95
326625
6059
Imaginez si les organisations
à but non lucratif
et les créateurs de médias
pouvaient mesurer
ce que le public ressent
05:44
as they experienceexpérience it
96
332708
1851
lors du visionnage
05:46
and altermodifier contentcontenu on the flymouche.
97
334583
2393
et modifier le contenu à la volée.
05:49
I believe this is the futureavenir of mediamédias.
98
337000
3458
Je crois que c'est l'avenir des médias.
05:53
To daterendez-vous amoureux, mostles plus mediamédias
and social-changechangement social strategiesstratégies
99
341333
2601
La majorité des stratégies médiatiques
et de changement social
05:55
have attemptedtenté to appealcharme
to massMasse audiencespublic,
100
343958
2851
ont tenté de plaire à de larges publics
05:58
but the futureavenir is mediamédias
customizedpersonnalisé for eachchaque personla personne.
101
346833
3500
mais le futur, ce sont des médias
personnalisés pour chacun.
06:03
As real-timetemps réél measurementmesure
of mediamédias consumptionconsommation
102
351458
2685
La mesure en temps réel
de la consommation médiatique
06:06
and automatedautomatique mediamédias productionproduction
becomesdevient the normnorme,
103
354167
2851
et la production médiatique automatisée
deviennent la norme,
06:09
we will soonbientôt be consumingconsommer mediamédias
tailoredsur mesure directlydirectement to our cravingsfringales
104
357042
4059
nous consommerons bientôt des médias
directement adaptés à nos besoins
06:13
usingen utilisant a blendBlend of psychographicspsychographie,
biometricsbiométrie and AIAI.
105
361125
4208
en utilisant un mélange de psychographie,
de biométrie et d'IA.
06:18
It's like personalizedpersonnalisé medicinemédicament
basedbasé on our DNAADN.
106
366250
3559
C'est comme de la médecine personnalisée
se reposant sur notre ADN.
06:21
I call it "biomediabiomédia."
107
369833
2167
J'appelle cela la « biomédiatique ».
06:25
I am currentlyactuellement testingessai
the LimbicLimbique LabLab in a pilotpilote studyétude
108
373042
3267
Je teste actuellement le Labo limbique
dans une étude pilote
06:28
with the NormanNorman LearLear CenterCentre,
109
376333
2018
avec le centre Norman Lear
06:30
whichlequel looksregards at the topHaut 50
episodicépisodique televisiontélévision showsmontre.
110
378375
3726
étudiant le top 50 des séries télévisées.
06:34
But I am grapplingGrappling
with an ethicaléthique dilemmadilemme.
111
382125
3018
Mais je fais face à un dilemme éthique.
06:37
If I designconception a tooloutil
that can be turnedtourné into a weaponarme,
112
385167
3851
Si je conçois un outil
pouvant être transformé en arme,
06:41
should I buildconstruire it?
113
389042
1291
devrais-je le créer ?
06:43
By open-sourcingopen-sourcing the lablaboratoire
to encourageencourager accessaccès and inclusivityinclusivité,
114
391750
3643
En rendant le labo open source
pour encourager
l'accessibilité et l'inclusivité,
06:47
I alsoaussi runcourir the riskrisque
of enablingpermettant powerfulpuissant governmentsGouvernements
115
395417
3434
je prends aussi le risque
de permettre à des gouvernements puissants
06:50
and profit-drivenprofit-conduit companiesentreprises
to appropriateapproprié the platformPlate-forme
116
398875
2934
et des entreprises à but lucratif
de s'approprier la plateforme
06:53
for fakefaux newsnouvelles, marketingcommercialisation
or other formsformes of massMasse persuasionpersuasion.
117
401833
4084
pour de l'infox, du marketing
et d'autres formes de persuasion de masse.
06:59
For me, thereforedonc,
it is criticalcritique to make my researchrecherche
118
407375
3351
Par conséquent, pour moi,
il est crucial de rendre ma recherche
07:02
as transparenttransparent to
layallonger audiencespublic as GMOOGM labelsétiquettes.
119
410750
3583
aussi transparente aux gens ordinaires
que les labels pour les OGM.
07:07
HoweverCependant, this is not enoughassez.
120
415333
2542
Cependant, cela ne suffit pas.
07:11
As creativeCréatif technologiststechnologues,
121
419208
1643
En tant que technologues créatifs,
07:12
we have a responsibilityresponsabilité
122
420875
2226
nous avons la responsabilité
07:15
not only to reflectréfléchir uponsur how presentprésent
technologyLa technologie shapesformes our culturalculturel valuesvaleurs
123
423125
4768
de non seulement réfléchir
à comment les technologies actuelles
façonnent nos valeurs culturelles
et notre comportement social,
07:19
and socialsocial behaviorcomportement,
124
427917
2017
07:21
but alsoaussi to activelyactivement challengedéfi
the trajectorytrajectoire of futureavenir technologyLa technologie.
125
429958
4935
mais aussi d'activement remettre en cause
la trajectoire des technologies futures.
07:26
It is my hopeespérer that we make
an ethicaléthique commitmentengagement
126
434917
4059
J'espère que nous nous engagerons
07:31
to harvestingla récolte the body'sdu corps intelligenceintelligence
127
439000
2351
à exploiter l'intelligence du corps
07:33
for the creationcréation of authenticauthentique
and just storieshistoires
128
441375
3434
pour la création d'histoires
authentiques et justes
07:36
that transformtransformer mediamédias and technologyLa technologie
129
444833
2393
qui font passer les médias
et les technologies
07:39
from harmfulnocif weaponsarmes
into narrativerécit medicinemédicament.
130
447250
3476
d'armes néfastes à un remède narratif.
07:42
Thank you.
131
450750
1268
Merci.
07:44
(ApplauseApplaudissements and cheersa bientôt)
132
452042
2208
(Applaudissements et acclamations)
Translated by Morgane Quilfen
Reviewed by eric vautier

▲Back to top

ABOUT THE SPEAKER
Heidi Boisvert - Artist and creative technologist
Heidi Boisvert harnesses the power of popular culture, emerging technology and neuroscience to ignite culture change.

Why you should listen

Heidi Boisvert is an interdisciplinary artist, experience designer, creative technologist and academic researcher who interrogates the neurobiological and socio-cultural effects of media and technology.
 Simply put, she studies the role of the body, the senses and emotion in human perception and social change.

Boisvert is currently mapping the world's first media genome, while taking great care with its far-reaching ethical implications.
 She founded futurePerfect lab, a creative agency and think-tank that works with social justice organizations to design playful emerging media campaigns to transform the public imagination. She also co-founded XTH, a company creating novel modes of expression through biotechnology and the human body. Presently, she is working with David Byrne on Theater of the Mind, a new immersive theater piece to debut in August 2020.

Boisvert, who holds a Ph.D. in Electronic Arts from Rensselaer Polytechnic Institute, is the Director of Emerging Media Technology at City University of New York, where she teaches. She is also a Senior Research Fellow at the Norman Lear Center (based at the University of Southern California’s Annenberg School for Communication), a research affiliate in the Open Documentary Lab at the Massachusetts Institute of Technology and a member of NEW INC, the cultural incubator at The New Museum of Contemporary Art. She serves on the advisory board of American Documentary POV Spark and was selected by ZERO1 and the U.S. Department of State's Bureau of Educational and Cultural Affairs to represent the United States in Turkey.

More profile about the speaker
Heidi Boisvert | Speaker | TED.com