ABOUT THE SPEAKER
Heidi Boisvert - Artist and creative technologist
Heidi Boisvert harnesses the power of popular culture, emerging technology and neuroscience to ignite culture change.

Why you should listen

Heidi Boisvert is an interdisciplinary artist, experience designer, creative technologist and academic researcher who interrogates the neurobiological and socio-cultural effects of media and technology.
 Simply put, she studies the role of the body, the senses and emotion in human perception and social change.

Boisvert is currently mapping the world's first media genome, while taking great care with its far-reaching ethical implications.
 She founded futurePerfect lab, a creative agency and think-tank that works with social justice organizations to design playful emerging media campaigns to transform the public imagination. She also co-founded XTH, a company creating novel modes of expression through biotechnology and the human body. Presently, she is working with David Byrne on Theater of the Mind, a new immersive theater piece to debut in August 2020.

Boisvert, who holds a Ph.D. in Electronic Arts from Rensselaer Polytechnic Institute, is the Director of Emerging Media Technology at City University of New York, where she teaches. She is also a Senior Research Fellow at the Norman Lear Center (based at the University of Southern California’s Annenberg School for Communication), a research affiliate in the Open Documentary Lab at the Massachusetts Institute of Technology and a member of NEW INC, the cultural incubator at The New Museum of Contemporary Art. She serves on the advisory board of American Documentary POV Spark and was selected by ZERO1 and the U.S. Department of State's Bureau of Educational and Cultural Affairs to represent the United States in Turkey.

More profile about the speaker
Heidi Boisvert | Speaker | TED.com
TED Residency

Heidi Boisvert: How I'm using biological data to tell better stories -- and spark social change

Heidi Boisvert: ပိုကောင်းမွန်တဲ့ ဇာတ်လမ်းတွေ ပြောပြဖို့နဲ့ လူမှု အပြောင်းအလဲကို အစပျိုးပေးဖို့ ဇီဝဆိုင်ရာ အချက်အလက်များကို ကျွန်မ အသုံးပြုနေပုံ။

Filmed:
1,238,813 views

လုပ်ကိုင်ဆောင်ရွက်စေဖို့ ကျွန်ုပ်တို့ကို ရွေ့ရှားစေတာက ဘယ်လိုဇာတ်လမ်းမျိုးတွေလဲ။ ဒီမေးခွန်းကို ဖြေဆိုဖို့ တီထွင်ဖန်တီးတတ်တဲ့ နည်းပညာရှင် Heidi Boisvert ကနေပြီး လူတွေရဲ့ ဦးနှောက်တွေနဲ့ ကိုယ်ခန္ဓာတွေက အမျိုးမျိုးသော မီဒီယာတွေကို မသိစိတ်နဲ့ တုံ့ပြန်ပုံကို တိုင်းတာနေတာပါ။ မျှဝေခံစားမှုနဲ့ တရားမျှတမှုကို စေ့ဆော်ပြီး ကျယ်ပြန့်တဲ့ လူမှု အပြောင်းအလဲကို အစပျိုးပေးတဲ့ သီးခြား ဇာတ်လမ်း ပါဝင်တဲ့ အရာတွေကို စိစစ်တွက်ချက်ဖို့ ဒီအချက်အလက်ကို သူ အသုံးပြနေပုံကို ပြသထားတာပါ။
- Artist and creative technologist
Heidi Boisvert harnesses the power of popular culture, emerging technology and neuroscience to ignite culture change. Full bio

Double-click the English transcript below to play the video.

00:13
For the past 15 years I've been trying
to change your mind.
0
1458
3542
လွန်ခဲ့တဲ့ ၁၅ နှစ်လုံးလုံး သင်တို့စိတ်ကို
ပြောင်းလဲဖို့ ကြိုးစားနေခဲ့တယ်။
00:17
In my work I harness pop culture
and emerging technology
1
5917
3851
ကျွန်မရဲ့အလုပ်မှာ ယဉ်ကျေးမှု စံတွေကို
ပြောင်းဖို့ ခေတ်ပါ် ယဉ်ကျေးမှုနဲ့
00:21
to shift cultural norms.
2
9792
1458
ပေါ်လာနေတဲ့ နည်းပညာကိုသုံးတယ်။
00:23
I've made video games
to promote human rights,
3
11833
3685
လူ့အခွင့်အရေးတွေကို အားပေးဖို့
ဗီဒီယိုဂီမ်းတွေကို ဖန်တီးထားတယ်။
00:27
I've made animations to raise awareness
about unfair immigration laws
4
15542
5059
မညီမျှတဲ့ လူဝင်မှုဥပဒေတွေကို အသိရှိမှုတိုး
မြှင့်ဖို့ လှုပ်ရှားရုပ်ပုံတွေဖန်တီးကာ
00:32
and I've even made location-based
augmented reality apps
5
20625
4226
အိမ်ယာမဲ့မှုဝန်းကျင်မှာ အမြင်တွေ ပြောင်း
လဲဖို့ တည်နေရာ အခြေပြုတဲ့ ဆပွားထားတဲ့
00:36
to change perceptions around homelessness
6
24875
2643
သဘာဝကျတဲ့ အက်ပ်တွေကို
Pokémon Go မတိုင်မီ
00:39
well before Pokémon Go.
7
27542
1934
အတော်ကြာက ဖန်တီးထားတယ်။
00:41
(Laughter)
8
29500
1351
(ရယ်သံများ)
00:42
But then I began to wonder
whether a game or an app
9
30875
4018
ဒါပေမဲ့ ဒီနောက်မှာ ဂိမ်းတစ်ခု(သို့)
အက်ပ်တစ်ခုဟာ သဘောထားတွေနဲ့
00:46
can really change attitudes and behaviors,
10
34917
2476
အပြုအမူတွေကို တကယ် ပြောင်းလဲ
နိုင်လားလို့ စတွေးမိတယ်။
00:49
and if so, can I measure that change?
11
37417
3017
ပြောင်းနိုင်တယ်ဆို၊ ဒီပြောင်းလဲမှုကို
တိုင်းတာနိုင်လား။
00:52
What's the science behind that process?
12
40458
2976
ဒီလုပ်ငန်းစဉ်ရဲ့နောက်ကွယ်က
သိပ္ပံပညာက ဘာလဲ။
00:55
So I shifted my focus
from making media and technology
13
43458
3726
ဒါနဲ့ ကျွန်မရဲ့ အာရုံစိုက်မှုကို
မီဒီယာနဲ့ နည်းပညာဖန်တီးခြင်းကနေ
00:59
to measuring their
neurobiological effects.
14
47208
3042
အာရုံကြော ဇီဝဗေဒ သက်ရောက်မှုတွေကို
တိုင်းတာတာဆီ ပြောင်းတယ်။
01:03
Here's what I discovered.
15
51458
1851
ဟောဒီမှာ ကျွန်မ ရှာဖွေတွေ့ရှိတာပါ။
01:05
The web, mobile devices,
virtual and augmented reality
16
53333
3893
ဝက်ဘ်၊ မိုဘိုင်း ကိရိယာတွေနဲ့
အစစ်နီးနီး၊ ဆပွားထားတဲ့ သဘာဝကျမှုတွေဟာ
01:09
were rescripting our nervous systems.
17
57250
2684
ကျွန်မတို့ရဲ့ နာဗ်ကြော စနစ်တွေကို
ပြန်ရေးသားနေတယ်။
01:11
And they were literally changing
the structure of our brain.
18
59958
2959
ကျွန်မတို့ရဲ့ ဦးနှောက်ကို တာ်ဆောက်မှုကို
တကယ်ကို ပြောင်းနေတယ်။
01:15
The very technologies I had been using
to positively influence hearts and minds
19
63875
4976
နှလုံးတွေ၊ စိတ်တွေကို အပြုသဘော ဩဇာသက်ရောက်
စေဖို့ကျွန်မ အသုံးပြုနေခဲ့တဲ့ နည်းပညာတွေဟာ
01:20
were actually eroding functions
in the brain necessary for empathy
20
68875
4393
တကယ်ကျတော့ မျှဝေခံစားမှုနဲ့ ဆုံးဖြတ်ချက်
ချမှုအတွက် လိုအပ်တဲ့ ဦးနှောက်ထဲက
01:25
and decision-making.
21
73292
1851
လုပ်ဆောင်မှုတွေကို
တိုက်စားနေခဲ့တာပါ။
01:27
In fact, our dependence
upon the web and mobile devices
22
75167
4142
တကယ်က ဝက်ဘ်နဲ့ မိုဘိုင်း
ကိရိယာတွေအပေါ် ကျွန်မတို့ရဲ့ မှီခိုမှုက
01:31
might be taking over
our cognitive and affective faculties,
23
79333
4101
ကျွန်မတို့ရဲ့ သိမြင်၊ လှုပ်ရှားတတ်တဲ့
စွမ်းရည်တွေကို လွှမ်းမိုးနေလောက်တယ်။
01:35
rendering us socially
and emotionally incompetent,
24
83458
3560
ကျွန်မတို့ကို လူမှုရေးနဲ့ ခံစားမှုပိုင်းအရ
ညံ့ဖျင်းအောင်လုပ်ပြီး
01:39
and I felt complicit
in this dehumanization.
25
87042
3291
ဒီလူ့ဂုဏ်သိက္ခာကင်းမဲ့မှုမှာ ကြံရာပါလို့
ခံစားမိတယ်။
01:43
I realized that before I could continue
making media about social issues,
26
91292
4642
ဒါကို သိခဲ့တာက လူမှုရေး ပြဿနာတွေအကြောင်း
မီဒီယာတွေ ဆက်လက် မဖန်တီးနိုင်ခင်ကပါ။
01:47
I needed to reverse engineer
the harmful effects of technology.
27
95958
4417
နည်းပညာရဲ့ ဘေးဖြစ်စေတဲ့ သက်ရောက်မှုတွေကို
ပြောင်းပြန် စီမံဖို့ လိုအပ်ခဲ့တယ်။
01:52
To tackle this I asked myself,
28
100917
2767
ဒါကို ကိုင်တွယ်ဖို့
ကိုယ့်ကိုယ်ကိုယ် မေးခဲ့တာက
01:55
"How can I translate
the mechanisms of empathy,
29
103708
3393
မျှဝေခံစားမှုယန္တရားတွေ သိမြင်၊
လှုပ်ရှား တွန်းအားပေးတဲ့ ရှုထောင့်တွေ
01:59
the cognitive, affective
and motivational aspects,
30
107125
3643
လုပ်ဆောင်ဖို့ ကျွန်မတို့ကို လှုပ်ရှားစေတဲ့
ဇာတ်ကြောင်းပြော ပါဝင်တဲ့အရာတွေကို
02:02
into an engine that simulates
the narrative ingredients
31
110792
3226
နှိုးဆွပေးတဲ့ စက်တစ်ခုဖြစ် ငါ ဘယ်လို
02:06
that move us to act?"
32
114042
1291
အကောင်အတည်ဖော်နိုင်လဲ။"
02:08
To answer this, I had to build a machine.
33
116583
3935
ဒါကို ဖြေဆိုဖို့ စက်တစ်ခု တည်ဆောက်ဖို့
လိုခဲ့တော့တာပေါ့။
02:12
(Laughter)
34
120542
1726
(ရယ်သံများ)
02:14
I've been developing
an open-source biometric lab,
35
122292
2892
အခမဲ့ ဇီဝအချက်အလက် အသုံးပြုမှု
လက်တွေ့ခန်းတစ်ခု ဆောက်နတယ်၊
02:17
an AI system which I call the Limbic Lab.
36
125208
3476
Limbic Lab လို့ ခေါ်တဲ့ AI စနစ်တစ်ခုပါ။
02:20
The lab not only captures
37
128708
1435
ဒီလက်တွေ့ခန်းက မီဒီယာတွေနဲ့
02:22
the brain and body's unconscious response
to media and technology
38
130167
4226
နည်းပညာကို ဦးနှောက်နဲ့ ခန္ဓာကိုယ်ရဲ့
သတိမမူမိတဲ့ တုံ့ပြန်မှုကို ရိုက်ယူတာတင်မက
02:26
but also uses machine learning
to adapt content
39
134417
2976
ဒီဇီဝ တုံ့ပြန်မှုတွေကို အခြေခံတဲ့
အကြောင်းအရာကိုပြပြင်ဖို့
02:29
based on these biological responses.
40
137417
2208
စက်သင်ကြားမှုကိုပါ အသုံးပြုတယ်။
02:32
My goal is to find out what combination
of narrative ingredients
41
140667
3517
ကျွန်မရဲ့ ပန်းတိုင်က လူမှု
တရားမျှတမှု၊ ယဉ်ကျေးမှုနဲ့
02:36
are the most appealing and galvanizing
42
144208
2143
ပညာရေးဆိုင်ရာ အဖွဲအစည်းတွေ ဖြစ်မြောက်ဖို့၊
02:38
to specific target audiences
43
146375
1809
ပိုထိရောက်တဲ့ မီဒီယာတွေ ဖန်တီးဖို့
02:40
to enable social justice, cultural
and educational organizations
44
148208
5018
ဘယ် ဇာတ်ကြောင်းပြ ပါဝင်တဲ့ အရာတွေရဲ့
ပေါင်းစပ်မှုက သီးခြား ပစ်မှတ် ပရိသတ်တွေကို
02:45
to create more effective media.
45
153250
2643
အဆွဲဆောင်ဆုံးနဲ့ လှုံဆော်မှုအပေးဆုံးဆိုတာ
ရှာဖွေဖို့ပါ။
02:47
The Limbic Lab consists of two components:
46
155917
2851
Limbic Lab မှာ အစိတ်အပိုင်းနှစ်ခုပါဝင်တယ်။
02:50
a narrative engine and a media machine.
47
158792
2541
ဇာတ်ကြောင်းပြ အင်ဂျင်နဲ့ မီဒီယာ စက်ပါ။
02:54
While a subject is viewing
or interacting with media content,
48
162375
4226
စမ်းသပ်ခံသူတစ်ဦးက မီဒီယာ အကြောင်းအရာကို
ကြည့်နေ(သို့) တုံ့ပြန်ဆက်သွယ်နေစဉ်
02:58
the narrative engine takes in and syncs
real-time data from brain waves,
49
166625
4184
ဇာတ်ကြောင်းပြော အင်ဂျင်က ဝင်ကြည့်ပြီး
ဦးနှောက်လှိုင်းတွေ၊ နှလုံးခုန်နှုန်းလို
03:02
biophysical data like heart rate,
blood flow, body temperature
50
170833
3560
ဇီဝရုပ်ပိုင်း ဒေတာ၊ သွေးစီးဆင်းမှု၊
ကိုယ်အပူချိန်၊ ကြွက်သား ကျုံ့ခြင်းမှ
03:06
and muscle contraction,
51
174417
1684
အချိန်ကိုက် ဒေတာကို
ချိန်ပေးတယ်။
03:08
as well as eye-tracking
and facial expressions.
52
176125
2958
မျက်လုံးလှုပ်ရှားမှုနဲ့ မျက်နှာ
အမူအယာတွေ အပါအဝင်ပါ။
03:12
Data is captured at key places
where critical plot points,
53
180083
3726
အရေးပါတဲ့ ဇာတ်ကွက် အမှတ်တွေရှိရာ
အဓိက နေရာတွေမှာ ဒေတာကို ဖမ်းယူတယ်၊
03:15
character interaction
or unusual camera angles occur.
54
183833
3417
ဇာတ်ကောင် တုံ့ပြန်မှု(သို့) ထူးခြားတဲ့
ကင်မရာ ရှုထောင့်တွေ ဖြစ်ပေါ်တယ်။
03:20
Like the final scene
in "Game of Thrones, Red Wedding,"
55
188292
2726
"Game of Thrones
Red Wedding" ထဲက နောက်ဆုံး အခန်းလို
03:23
when shockingly,
56
191042
2309
အလန့်တကြားနဲ့
03:25
everybody dies.
57
193375
1559
လူတိုင်း သေသွားတဲ့အခါပါ။
03:26
(Laughter)
58
194958
1250
(ရယ်သံများ)
03:29
Survey data on that
person's political beliefs,
59
197042
3184
စိတ်အမျိုးအစားခွဲခြားမှုနဲ့
လူဦးရေ စိစစ်မှု အချက်အလက်တွေနဲ့အတူ
03:32
along with their psychographic
and demographic data,
60
200250
3143
ဒီလူရဲ့ နိုင်ငံရေး ယုံကြည်မှုတွေအပေါ်
လေ့လာမှု အချက်အလက်တွေကို
03:35
are integrated into the system
61
203417
1767
တစ်ဦးချင်းစီရဲ့ ပိုနက်နဲတဲ့
03:37
to gain a deeper understanding
of the individual.
62
205208
2709
သိနားလည်မှုတစ်ခု ရရှိဖို့
စနစ်ထဲမှာ ပေါင်းစပ်ထားတယ်။
03:40
Let me give you an example.
63
208833
1542
နမူနာတစ်ခု ပေးပါရစေ။
03:43
Matching people's TV preferences
with their views on social justice issues
64
211708
4851
လူမှုတရားမျှတမှု ပြဿနာတွေအပေါ် အမြင်တွေနဲ့
အတူ အကြိုက်ဆုံးရုပ်သံတွေကို တွဲကြည့်တာက
03:48
reveals that Americans who rank
immigration among their top three concerns
65
216583
4268
ထိပ်တန်းစိုးရိမ်မှု သုံးခုအနက် လူဝင်မှုကို
သတ်မှတ်တဲ့ အမေရိကန်တွေဟာ
03:52
are more likely to be fans
of "The Walking Dead,"
66
220875
2792
"The Walking Dead" ရဲ့
ပရိသတ်တွေဖြစ်ဖို့ ပိုများပြီး
03:56
and they often watch
for the adrenaline boost,
67
224958
2810
တိုင်းတာလို့ရတဲ့
အဒရီနလင် တိုးမြှင့်မှုအတွက်
03:59
which is measurable.
68
227792
1291
မကြာခဏ ကြည့်တယ်လို့ပြသတယ်။
04:01
A person's biological signature
and their survey response
69
229792
3934
လူတစ်ဦးရဲ့ ဇီဝဆိုင်ရာ ကိုယ်ပိုင် လက္ခဏာနဲ့
သူ့တို့ စစ်တမ်း တုံ့ပြန်မှုကို
04:05
combines into a database
to create their unique media imprint.
70
233750
4851
သူတို့ရဲ့ ထူးခြားတဲ့ မီဒီယာ အမှတ်အသား
ဖန်တီးဖို့ ဒေတာဘေ့စ်အဖြစ် ပေါင်းစပ်တယ်။
04:10
Then our predictive model
finds patterns between media imprints
71
238625
4268
ဒီနောက် နိမိတ်ပြတဲ့ ပုံစံငယ်က မီဒီယာ
အမှတ်အသားနှစ်ခုကြားက ပုံစံတွေကို ရှာပြီး
04:14
and tells me which narrative ingredients
72
242917
1976
ဘယ်ဇာတ်ကြောင်းပြ ပါဝင်တဲ့ အရာတွေက
04:16
are more likely to lead
to engagement in altruistic behavior
73
244917
3767
သောကနဲ့ စိတ်မပါမှုထက်
ကိုယ်ကျိုးမငဲ့တဲ့ အပြအမူမှာ ပတ်သက်ဖို့
04:20
rather than distress and apathy.
74
248708
2685
ပိုဖြစ်နိုင်ခြေရှိတာ ကျွန်မကို ပြောပြတယ်။
04:23
The more imprints added to the database
75
251417
2184
ဖြစ်စဉ်ပြ ရုပ်သံကနေ ဂိမ်းတွေအထိ
04:25
across mediums from episodic
television to games,
76
253625
3226
ကြားခံ အသီးသီးမှာရှိတဲ့ ဒေတာဘေ့စ်ကို
အမှတ်အသားတွေ ပိုထည့်လေလေ၊
04:28
the better the predictive models become.
77
256875
2167
ပိုကောင်းတဲ့ နိမိတ်ပြ ပုံစံငယ်တွေ
ဖြစ်လာလေပါ။
04:32
In short, I am mapping
the first media genome.
78
260417
3851
အတိုချုပ်ရရင် ကျွန်မဟာ ပထမဆုံး
မီဒီယာ ဗီဇအစုကို ပုံထုတ်နေတာပါ။
04:36
(Applause and cheers)
79
264292
3791
(လက်ခုပ်သံနှင့် ဩဘာသံများ)
04:44
Whereas the human genome
identifies all genes involved
80
272083
3185
လူသား ဇီဝမျိုးစုကတော့ အစဉ်လိုက်ရှိနေတဲ့
လူသား DNA ထဲကဗီဇ ပါဝင်တာ
04:47
in sequencing human DNA,
81
275292
1833
အားလုံးကို ဖော်ထုတ်ပေမဲ့
04:49
the growing database of media imprints
will eventually allow me
82
277917
3226
မီဒီယာ အမှတ်အသားတွေရဲ့ တိုးလာနေတဲ့
ဒေတာဘေ့စ်က ကျွန်မကို နောက်ဆုံး
04:53
to determine the media DNA
for a specific person.
83
281167
4125
သီးခြား လူတစ်ယောက်အတွက် မီဒီယာ
DNA ကို ဆုံးဖြတ်ခွင့် ပေးလိမ့်မယ်။
04:58
Already the Limbic Lab's narrative engine
84
286250
2833
ရှိပြီးသား Limbic Lab ရဲ့
ဇာတ်ကြောင်းပြော အင်ဂျင်က
05:02
helps content creators
refine their storytelling,
85
290333
2601
အကြောင်းအရာ ဖန်တီးသူတွေ ပုံပြောခြင်းကို
ကူညီမွမ်းမံတယ်။
05:04
so that it resonates with their target
audiences on an individual level.
86
292958
4000
တစ်ဦးချင်း အဆင့်တစ်ဆင့်မှာ ဦးတည်တဲ့
ပရိသတ်တွေနဲ့ ပဲ့တင်ထပ်အောင်ပါ။
05:11
The Limbic Lab's other component,
87
299042
2184
Limbic Lab ရဲ့ အခြား အစိတ်အပိုင်း၊
05:13
the media machine,
88
301250
1976
မီဒီယာ စက်က
05:15
will assess how media elicits
an emotional and physiological response,
89
303250
4476
မီဒီယာက ခဲစားမှုနဲ့ ဇီဝကမ္မ တုံ့ပြန်မှု
တစ်ခုကို အစ်ထုတ်ပုံကို အကဲဖြတ်ပြီး
05:19
then pulls scenes from a content library
90
307750
2434
တစ်ဦးချင်း သီးသန့် မီဒီယာ DNA ကို
ပစ်မှတ်ထားတဲ့
05:22
targeted to person-specific media DNA.
91
310208
2584
အကြောင်းအရာ စာကြည့်တိုက်ကနေ
မြင်ကွင်းတွေကို ဆွဲထုတ်မယ်။
05:26
Applying artificial intelligence
to biometric data
92
314042
3892
ဉာဏ်ရည်တုကို ဇီဝအချက်အလက်
လုပ်ဆောင်မှု ဒေတာမှာ အသုံးချခြင်းက
05:29
creates a truly personalized experience.
93
317958
2726
စစ်မှန်တဲ့ ကိုယ်ပိုင်ပြုထားတဲ့
အတွေ့အကြုံ ဖန်တီးပေးတယ်။
05:32
One that adapts content based
on real-time unconscious responses.
94
320708
5084
အချိန်နဲ့တစ်ပြေးညီ မသိစိတ်တုံ့ပြန်မှုကို
အခြေခံတဲ့ အကြောင်းအရာကို ပြုပြင်တာတစ်ခုပါ။
05:38
Imagine if nonprofits and media makers
were able to measure how audiences feel
95
326625
6059
အကျိုးမဖက်အဖွဲ့တွေနဲ့ ဒီယာ ဖန်တီးသူတွေဟာ
ပရိသတ်တွေ တွေ့ကြုံတဲ့အတိုင်း ခံစားရပုံကို
05:44
as they experience it
96
332708
1851
တိုင်းတာနိုင်တယ်လို့ စိတကူးကြည့်ပြီး
05:46
and alter content on the fly.
97
334583
2393
လွှင့်တဲ့ အကြောင်းအရာကို ပြောင်းလိုက်ပါ။
05:49
I believe this is the future of media.
98
337000
3458
ဒါဟာ မီဒီယာတွေရဲ့ အနာဂတ်လို့
ကျွန်မ ယုံကြည်တယ်။
05:53
To date, most media
and social-change strategies
99
341333
2601
သက်တမ်းမှတ်ရင် မီဒီယာနဲ့
လူမှုအပြောင်းအလဲဗျူဟာ အများစုက
05:55
have attempted to appeal
to mass audiences,
100
343958
2851
လူထု ပရိသတ်တွေကို ဆွဲဆောင်ဖို့
ကြိုပမ်းခဲ့ကြပေမဲ့
05:58
but the future is media
customized for each person.
101
346833
3500
အနာဂတ်ကတော့ မီဒီယာတွေကို
တစ်ဦးချင်းအတွက် စိတ်ကြိုက်လုပ်ပေးထားတာပါ။
06:03
As real-time measurement
of media consumption
102
351458
2685
မီဒီယာ စားသုံးမှုအချိန်နဲ့
စက်သုံး မီဒီယာ ထုတ်လုပ်မှုရဲ့
06:06
and automated media production
becomes the norm,
103
354167
2851
တစ်ပြေးညီ တိုင်းတာမှုက
စံဖြစ်လာတာကြောင့်
06:09
we will soon be consuming media
tailored directly to our cravings
104
357042
4059
စိတ်အမျိုးအစားခွဲခြားမှု၊ ဇီဝအချက်အလက်
အသုံးပြုမှုနဲ့ AI အရောတစ်ခုကို သုံးရင်း
06:13
using a blend of psychographics,
biometrics and AI.
105
361125
4208
ကိုယ့်မက်မောမှုတွေအတွက် တိုက်ရိုက် ခွင်ကျ
စီမံထားတဲ့မီဒီယာကို မကြာခင်သုံးစွဲနေမှာပါ။
06:18
It's like personalized medicine
based on our DNA.
106
366250
3559
ဒါက DNAကို အခြေခံထားတဲ့ ကိုယ်ပိုင်
အမှတ်သညာပြုထားတဲ့ ဆေးဝါးလိုပါ။
06:21
I call it "biomedia."
107
369833
2167
ဒါကို "biomedia" ကျွန်မ ခေါ်တယ်။
06:25
I am currently testing
the Limbic Lab in a pilot study
108
373042
3267
လောလောဆယ် ရှေ့ပြေး လေ့လာမှုတစ်ခုမှာ
Limbic Lab ကို Norman Lear Center
06:28
with the Norman Lear Center,
109
376333
2018
နဲ့အတူ စမ်းသပ်နေတယ်။
06:30
which looks at the top 50
episodic television shows.
110
378375
3726
၎င်းက ထပ်တန်း ဖြစ်စဉ် ၅၀ ရှိတဲ့
ရုပ်သံ ပြပွဲတွေကို ကြည့်ပါတယ်။
06:34
But I am grappling
with an ethical dilemma.
111
382125
3018
ဒါပေမဲ့ ကျွန်မ ကျင့်ဝတ်ဆိုင်ရာ
အကျပ်ရိုက်မှုနဲ့ နပန်းလုံးနေတယ်။
06:37
If I design a tool
that can be turned into a weapon,
112
385167
3851
လက်နက်အဖြစ် ပြောင်းသွားနိုင်တဲ့
ကိရိယာတစ်ခုကို ကျွန်မ ပုံစံထုတ်ရင်
06:41
should I build it?
113
389042
1291
ဒါကို ကျွန်မ ဆောင်သင့်လား။
06:43
By open-sourcing the lab
to encourage access and inclusivity,
114
391750
3643
ဝင်ခွင့်ရှိမှုနဲ့ ပါဝင်မှုကို အားပေးဖို့
လက်တွေ့ခန်းကို အခမဲ့ ပေးသုံးရင်း
06:47
I also run the risk
of enabling powerful governments
115
395417
3434
သတင်းတုတွေ၊ စျေးကွက်ဖော်တာ (သို့)
အလုံးအရင်း ဆွဲဆောင်မှုတွေအတွက်
06:50
and profit-driven companies
to appropriate the platform
116
398875
2934
ပလက်ဖောင်း ကို အပိုင်စီးဖို့
သြဇာရှိတဲ့ အစိုးရတွေနဲ့
06:53
for fake news, marketing
or other forms of mass persuasion.
117
401833
4084
အမြတ်အစွန်းစေ့ဆော်တဲ့ ကုမ္ပဏီတွေကို
ထောက်ကူရေးမှာလည်း စွန့်စားပါတယ်။
06:59
For me, therefore,
it is critical to make my research
118
407375
3351
ဒါကြောင့် ကျွန်မအတွက်တော့
ကျွန်မရဲ့ သုတေသနကို သာမန် ပရိသတ်တွေအတွက်
07:02
as transparent to
lay audiences as GMO labels.
119
410750
3583
GMO တံဆိပ်တွေလို့ ပွင့်လင်းမြင်သာအောင်
ဖန်တီးဖို့က အရေးကြီးပါတယ်။
07:07
However, this is not enough.
120
415333
2542
သို့ပေမည့် ဒါက မလုံလောက်ပါဘူး။
07:11
As creative technologists,
121
419208
1643
ဖန်တီးတတ်တဲ့ နည်းပညာရှင်တွေအနေနဲ့
07:12
we have a responsibility
122
420875
2226
လက်ရှိ နည်းပညာဟာ ကျွန်မတို့ရဲ့ ယဉ်ကျေးမှု
07:15
not only to reflect upon how present
technology shapes our cultural values
123
423125
4768
တန်ဖိုးတွေနဲ့ လူမှုရေး အပြုအမူကို
ပုံဖော်ပုံကို ဆင်ခြင်ဖို့သာမက
07:19
and social behavior,
124
427917
2017
အနာဂတ် နည်းပညာရဲ့ လမ်းကြောင်းကိုပါ
07:21
but also to actively challenge
the trajectory of future technology.
125
429958
4935
တက်ကြွစွာ စိန်ခေါ်ဖို့ ကျွန်မတို့မှာ
တာဝန်တစ်ရပ်ရှိပါတယ်။
07:26
It is my hope that we make
an ethical commitment
126
434917
4059
ဘေးဖြစ်စေတဲ့ လက်နက်တွေကနေ
ဇာတ်ကြောင်းပြောတဲ့ ဆေးအဖြစ်
07:31
to harvesting the body's intelligence
127
439000
2351
မီဒီယာနဲ့ နည်းပညာကို ပြောင်းလဲပေးတဲ့
07:33
for the creation of authentic
and just stories
128
441375
3434
စစ်မှန်ပြီး တရားမျှတတဲ့ ဇာတ်လမ်းတွေ
ဖန်တီးမှုအတွက်
07:36
that transform media and technology
129
444833
2393
ခန္ဓာကိုယ်ရဲ့ အသိဉာဏ်ကို ဆွတ်ခူးခြင်းမှာ
07:39
from harmful weapons
into narrative medicine.
130
447250
3476
ကျွန်မတို့ ကျင့်ဝတ်ညီတဲ့ နှစ်မြှုပ်မှု
လုပ်တာက ကျွန်မရဲ့ မျှော်လင့်ချက်ပါ။
07:42
Thank you.
131
450750
1268
ကျေးဇူးတင်ပါတယ်။
07:44
(Applause and cheers)
132
452042
2208
(လက်ခုပ်သံနှင့် သြဘာသံများ)
Translated by sann tint
Reviewed by Myo Aung

▲Back to top

ABOUT THE SPEAKER
Heidi Boisvert - Artist and creative technologist
Heidi Boisvert harnesses the power of popular culture, emerging technology and neuroscience to ignite culture change.

Why you should listen

Heidi Boisvert is an interdisciplinary artist, experience designer, creative technologist and academic researcher who interrogates the neurobiological and socio-cultural effects of media and technology.
 Simply put, she studies the role of the body, the senses and emotion in human perception and social change.

Boisvert is currently mapping the world's first media genome, while taking great care with its far-reaching ethical implications.
 She founded futurePerfect lab, a creative agency and think-tank that works with social justice organizations to design playful emerging media campaigns to transform the public imagination. She also co-founded XTH, a company creating novel modes of expression through biotechnology and the human body. Presently, she is working with David Byrne on Theater of the Mind, a new immersive theater piece to debut in August 2020.

Boisvert, who holds a Ph.D. in Electronic Arts from Rensselaer Polytechnic Institute, is the Director of Emerging Media Technology at City University of New York, where she teaches. She is also a Senior Research Fellow at the Norman Lear Center (based at the University of Southern California’s Annenberg School for Communication), a research affiliate in the Open Documentary Lab at the Massachusetts Institute of Technology and a member of NEW INC, the cultural incubator at The New Museum of Contemporary Art. She serves on the advisory board of American Documentary POV Spark and was selected by ZERO1 and the U.S. Department of State's Bureau of Educational and Cultural Affairs to represent the United States in Turkey.

More profile about the speaker
Heidi Boisvert | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee