ABOUT THE SPEAKER
Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com
TED2018

Supasorn Suwajanakorn: Fake videos of real people -- and how to spot them

Supasorn Suwajanakorn: လူအစစ်တွေရဲ့ ဗီဒီယိုအတုများနှင့် ၎င်းတို့ကို ရိပ်စားမိနိုင်ပုံ။

Filmed:
1,453,308 views

သူတို့ရဲ့ဘဝမှာ တစ်ခါမှမပြောခဲ့ဖူးတဲ့ အရာတွေကို နာမည်ကျော်ပုဂ္ဂိုလ်တွေပြောကြတဲ့ ဗီဒီယိုအတုတွေကို ဖေါ်ထုတ်ရာမှာ သင်တော်တယ်လို့ထင်ပါသလား။ ဒီအံ့သြဖွယ် ဟောပြောချက်နဲ့ နည်းပညာ သရုပ်ပြကွက်မှာ ၎င်းတို့ကို ဖန်တီးထားပုံကို ကြည့်ရှုလိုက်ပါ။ ကျွန်ပြူတာ သိပ္ပံပညာရှင် Supasorn Suwajanakorn ကနေပြီး ဘွဲရကျောင်းသားတစ်ဦးအဖြစ် ဓာတ်ပုံတွေကနေထုတ်ယူသုံးစွဲထားတဲ့ အသံနဲ့အချိန်ကိုက်လုပ်ထားတဲ့ လူတွေရဲ့ ဗီဒီယိုအတုတွေ ဖန်တီးဖို့ သူအသုံးပြုခဲ့တဲ့ AI နဲ့ 3D ပုံစံငယ်ပြုလုပ်နည်းအတတ်က ဘယ်လိုဆိုတာကို ပြသထားပါတယ်။ ကျင့်ဝတ်ဆိုင်ရာ ဂယက်ရိုက်မှုတွေနဲ့ ဒီနည်းပညာရဲ့ ဖန်းတီးနိုင်တဲ့ ဖြစ်နိုင်ခြေတွေ နှစ်ခုစလုံးနှင့် ၎င်းရဲ့ အလွဲသုံစားလုပ်မှုကို ဆန့်ကျင်တဲ့ တိုက်ပွဲဆင်ဖို့ ခြေလှမ်းတွေကို ပိုမိုလေ့လာလိုက်ပါဦး။
- Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos. Full bio

Double-click the English transcript below to play the video.

00:12
Look at these images.
0
876
1151
ဒီရုပ်ပုံတွေကို ကြည့်ပါ။
00:14
Now, tell me which Obama here is real.
1
2051
2635
အခု ဘယ် Obama က အစစ်ဆိုတာ
ကျွန်တော့ကို ပြောပြပါ။
00:16
(Video) Barack Obama: To help families
refinance their homes,
2
4710
2861
(ဗီဒီယို) Barack Obama: မိသားစုတွေ
အိမ်တွေကို ငွေကြေးမတည်ဖို့
00:19
to invest in things
like high-tech manufacturing,
3
7595
2647
နည်းပညာမြင့် ထုတ်လုပ်မှုတွေ၊
သန့်ရှင်းတဲ့ စွမ်းအင်နဲ့
00:22
clean energy
4
10266
1159
အလုပ်သစ်တွေဖန်တီးပေးတဲ့
00:23
and the infrastructure
that creates good new jobs.
5
11449
2779
အခြေခံအဆောက်အအုံလို အရာတွေ
ရင်းနှီးမြှုပ်နှံရာမှာ ကူညီဖို့
00:26
Supasorn Suwajanakorn: Anyone?
6
14647
1484
Supasorn Suwajanakorn: သိကြလား၊
00:28
The answer is none of them.
7
16155
1874
အဖြေက တစ်ယောက်မှ မဟုတ်ပါဘူး။
00:30
(Laughter)
8
18053
1114
(ရယ်သံများ)
00:31
None of these is actually real.
9
19191
1786
ဒါတွေတစ်ခုမှ တကယ့်အစစ်မဟုတ်ပါဘူး။
00:33
So let me tell you how we got here.
10
21001
1840
ဒီတော့ ဖြစ်ပျက်ပုံတွေကို ပြောပါရစေ။
00:35
My inspiration for this work
11
23940
1578
ဒီအလုပ်အတွက် ကျွန်တော့စေ့ဆော်မှုက
00:37
was a project meant to preserve our last
chance for learning about the Holocaust
12
25542
5411
ရှင်ကျန်သူတွေဆီကနေ Holocaust အကြောင်း
သင်ယူဖို့ နောက်ဆုံးအခွင့်အရေးကို
00:42
from the survivors.
13
30977
1768
စောင့်ရှောက်ရန်ရည်ရွယ်တဲ့ ပရောဂျက်ပါ။
00:44
It's called New Dimensions in Testimony,
14
32769
2627
ဒါကို New Dimensions in
Testimony လို့ခေါ်ပြီး
00:47
and it allows you to have
interactive conversations
15
35420
3126
တကယ့် Holocaust ရှင်ကျန်သူ
တယောက်ရဲ့ သုံးဖက်မြင်ဓာတ်ပုံနဲ့
00:50
with a hologram
of a real Holocaust survivor.
16
38570
2556
အပြန်အလှန် စကားပြောတာတွေ ရရှိစေဖို့ပါ။
00:53
(Video) Man: How did you
survive the Holocaust?
17
41793
1966
(ဗီဒီယို) Holocaust က ဘယ်လိုရှင်ကျန်ခဲ့လဲ
00:55
(Video) Hologram: How did I survive?
18
43783
1668
(ဗီဒီယို) ကျုပ် ဘယ်လိုရှင်ကျန်ခဲ့လဲ
00:57
I survived,
19
45912
1807
ကျုပ်ရှင်ကျန်ခဲ့တယ်၊
01:00
I believe,
20
48419
1527
ကျုပ်ယုံကြည်တယ်၊
01:01
because providence watched over me.
21
49970
3023
အကြောင်းက ဘုရားသခင်က
ကျုပ်ကို စောင့်ရှောက်ခဲ့လို့ပါ။
01:05
SS: Turns out these answers
were prerecorded in a studio.
22
53573
3454
SS: ဖြစ်သွားတာက ဒီအဖြေတွေကို စတူဒီယိုမှာ
ကြိုတင်အသံသွင်းခဲ့တာပါ။
01:09
Yet the effect is astounding.
23
57051
2452
ဒါပေမဲ့ ရလဒ်ကတော့ အံ့မခန်းပဲ။
01:11
You feel so connected to his story
and to him as a person.
24
59527
3619
သူ့ဇာတ်လမ်းနဲ့ သူ့ကို လူကိုယ်တိုင်လို
ဆက်သွယ်မှုရရှိတာ သင်ခံစားရတယ်။
01:16
I think there's something special
about human interaction
25
64011
3301
စာအုပ်တွေ၊ ပို့ချချက်တွေ(သို့)
ရုပ်ရှင်တွေက သင်ကြားပေးတာထက်
01:19
that makes it much more profound
26
67336
2757
အများကြီး ပိုနက်ရှိုင်းကာ လူကိုယ်တိုင်
01:22
and personal
27
70117
2198
ဖြစ်အောင်လုပ်ပေးတဲ့
01:24
than what books or lectures
or movies could ever teach us.
28
72339
3485
လူသားချင်းတုံ့ပြန်ဆက်သွယ်မှုမှာ
ထူးခြားတာတစ်ခုရှိတယ်လို့ ထင်တယ်။
01:28
So I saw this and began to wonder,
29
76267
2425
ဒါနဲ့ ဒါကိုတွေ့ပြီး စတွေးမိတာက
01:30
can we create a model
like this for anyone?
30
78716
2810
လူတိုင်းအတွက် ဒီပုံစံမျိုး
ဖန်တီးနိုင်သလားပေါ့။
01:33
A model that looks, talks
and acts just like them?
31
81550
2975
၎င်းတို့လို ကြည့်တယ်၊ ပြောတယ်၊
သရုပ်ဆောင်တဲ့ ပုံစံတစ်ခုပေါ့။
01:37
So I set out to see if this could be done
32
85573
2007
ဒါကိုလုပ်နိုင်လားသိဖို့ ရည်မှန်းချက်ထားကာ
01:39
and eventually came up with a new solution
33
87604
2310
နောက်ဆုံးမှာ လူတစ်ယောက်ရဲ့
ရှိနေဆဲ ဓာတ်ပုံတွေနဲ့
01:41
that can build a model of a person
using nothing but these:
34
89938
3220
ဗီဒီယိုတွေကိုပဲသုံးပြီး
လူတစ်ယောက်ရဲ့ပုံစံကို တည်ဆောက်နိုင်တဲ့
01:45
existing photos and videos of a person.
35
93747
2214
အဖြေတစ်ခုရခဲ့တယ်။
01:48
If you can leverage
this kind of passive information,
36
96701
2617
ဒီမလှုပ်မယှက် သတင်းအချက်အလက်မျိုးကို
ဒီဓာတ်ပုံတွေ၊
01:51
just photos and video that are out there,
37
99342
2007
ဗီဒီယိုတွေနဲ့ ကြွလာအောင်လုပ်ပေးနိုင်ရင်
01:53
that's the key to scaling to anyone.
38
101373
2056
ဒါလူတိုင်းကို စကေးကိုက်လုပ်တာရဲ့
သော့ချက်ပါ။
01:56
By the way, here's Richard Feynman,
39
104119
1777
စကားမစပ် ဒါက Richard Feynman ပါ၊
01:57
who in addition to being
a Nobel Prize winner in physics
40
105920
3413
ရူပဗေဒမှာ နိုဘယ်လ်ဆုရသူဖြစ်တဲ့အပြင်
02:01
was also known as a legendary teacher.
41
109357
2453
အထင်ကရ ကျောင်းဆရာလို့လည်း
သိကြသူပါ။
02:05
Wouldn't it be great
if we could bring him back
42
113080
2198
ပို့ချချက်ပေးဖို့နဲ့ သန်းချီတဲ့ကလေးတွေကို
02:07
to give his lectures
and inspire millions of kids,
43
115302
3265
စေ့ဆော်ပေးဖို့ သူ့ကို ပြန်ခေါ်လို့များရရင်
ကြီးကျယ်မသွားပေဘူးလား​။
02:10
perhaps not just in English
but in any language?
44
118591
2992
ဖြစ်နိုင်တာက အင်္ဂလိပ်ဘာသာနဲ့တင်မဟုတ်ပဲ
အခြားဘာသာတစ်ခုခုနဲ့လေ။
02:14
Or if you could ask our grandparents
for advice and hear those comforting words
45
122441
4602
(သိူ့) ဘိုးဘွားတွေကို ကျွန်တော်တို့နဲ့
အတူမရှိတာတောင် အကြံဉာဏ်တောင်းပြီး
02:19
even if they're no longer with us?
46
127067
1770
သူတို့နှစ်သိမ့်စကားတွေ
ကြားနိုင်ရင်ရော
02:21
Or maybe using this tool,
book authors, alive or not,
47
129683
3396
(သို့)ဖြစ်နိုင်တာက ဒီကိရိယာသုံးပြီး
စာရေးဆရာတွေက အသက်ရှိတာ၊မရှိတာထက်
02:25
could read aloud all of their books
for anyone interested.
48
133103
2937
စာအုပ်တွေကို စိတ်ဝင်စားသူတွေ
အတွက်အသံထွက်ဖတ်ပြနိုင်ရင်ရော
02:29
The creative possibilities
here are endless,
49
137199
2437
ဒီ ဖန်တီးနိုင်တဲ့ဖြစ်နိုင်ခြေတွေဟာ
အဆုံးမဲ့ဖြစ်ပြီး
02:31
and to me, that's very exciting.
50
139660
1713
ကျွန်တော့အတွက်
စိတ်လှုပ်ရှားစရာပါ။
02:34
And here's how it's working so far.
51
142595
2002
ဒါကတော့ လက်ရှိအထိ အလုပ်လုပ်ပုံပါ။
02:36
First, we introduce a new technique
52
144621
1667
ပထမ ပုံတိုင်းက 3D မျက်နှာပုံစံကို
02:38
that can reconstruct a high-detailed
3D face model from any image
53
146312
4572
လူကို 3D စကင်မရိုက်ပဲ
အနုစိတ်ပြန်ဆက်စပ်ပေးတဲ့
02:42
without ever 3D-scanning the person.
54
150908
2119
နည်းညာသစ်တစ်ခုကို မိတ်ဆက်တယ်။
02:45
And here's the same output model
from different views.
55
153890
2642
ဒီမှာတော့ မတူတဲ့အမြင်တွေကနေ
ပုံစံတူထုတ်ထားတဲ့ဟာပါ။
02:49
This also works on videos,
56
157969
1502
ဒါက ဗီဒီယိုမှာလည်း အလုပ်ဖြစ်တယ်
02:51
by running the same algorithm
on each video frame
57
159495
2852
ဗီဒီယိုဘောင်းတစ်ဘက်စီမှာ အလားတူ
အယ်လ်ဂိုရစ်သမ်သုံးကာ
02:54
and generating a moving 3D model.
58
162371
2222
3D ပုံစံကိုထုတ်ရင်းကနေပါ။
02:57
And here's the same
output model from different angles.
59
165538
2772
ဟောဒီမှာ မတူညီတဲ့ထောင့်တွေကနေ
ပုံစံတူထုတ်ထားတာပါ။
03:01
It turns out this problem
is very challenging,
60
169933
2534
ဒီပြဿနာက အတော်စိန်ခေါ်စရာ
ဖြစ်သွားပေမဲ့
03:04
but the key trick
is that we are going to analyze
61
172491
2525
အဓိက အချက်က လူတစ်ဦးရဲ့
ဓာတ်ပုံအစုကြီးတစ်ခုကို
03:07
a large photo collection
of the person beforehand.
62
175040
2966
ကြိုတင်ပြီး သရုပ်ခွဲတော့မှာပါ။
03:10
For George W. Bush,
we can just search on Google,
63
178650
2539
George W. Bush အတွက်
ဂူဂဲလ်မှာ ရှာကြည့်နိုင်ပြီး
03:14
and from that, we are able
to build an average model,
64
182309
2499
ဒါကနေ သာမန်ပုံစံတစ်ခုတည်ဆောက်ဖို့
တတ်နိုင်ပါတယ်။
03:16
an iterative, refined model
to recover the expression
65
184832
3111
ပါးရေနားရေတွန့်ကြောင်းတွေလို
အနုစိတ် မျက်နှာအမူအရာကို ပြန်ထေမိဖို့
03:19
in fine details,
like creases and wrinkles.
66
187967
2336
အထပ်ထပ်လုပ်ထားတဲ့
ခန့်ညားတဲ့ပုံစံတစ်ခုပါ။
03:23
What's fascinating about this
67
191326
1403
ဒါနဲ့ပတ်သက်ပြီးစိတ်ဝင်စားစရာက
03:24
is that the photo collection
can come from your typical photos.
68
192753
3423
ဓာတ်ပုံအစုဟာ သင့်ရဲ့ရိုးရိုးဓာတ်ပုံတွေကနေ
ရနိုင်တာပါ။
03:28
It doesn't really matter
what expression you're making
69
196200
2603
ဘယ်မျက်နှာအမူအရာ သင်လုပ်နေတာ
(သို့)ဘယ်လို ရိုက်ထားတာက
03:30
or where you took those photos.
70
198827
1885
တကယ် အရေးမကြီးပါဘူး။
03:32
What matters is
that there are a lot of them.
71
200736
2400
အရေးကြီးတာက
ဒါတွေအများကြီးရှိတာပါ။
03:35
And we are still missing color here,
72
203160
1736
ဒီမှာ အရောင်လိုနေတုန်းပဲနော်။
03:36
so next, we develop
a new blending technique
73
204920
2348
နောက်တော့ သာမန်ပုံစံတစ်ခုတည်းကို
မွမ်းမံပေးပြီး
03:39
that improves upon
a single averaging method
74
207292
2836
ပြတ်သားတဲ့ မျက်နှာအနေအထားနဲ့ အရောင်ကို
03:42
and produces sharp
facial textures and colors.
75
210152
2818
ထုတ်ပေးတဲ့ အရောင်စပ်
နည်းပညာတစ်ခုထွင်ပါတယ်။
03:45
And this can be done for any expression.
76
213779
2771
ဒါကို ဘယ်မျက်နှာအနေထား
အတွက်မဆို လုပ်နိုင်ပါတယ်။
03:49
Now we have a control
of a model of a person,
77
217485
2499
လူပုံစံတစ်ခုရဲ့ အထိန်းခလုတ်တစ်ခု
ရှိပါတယ်၊
03:52
and the way it's controlled now
is by a sequence of static photos.
78
220008
3795
ထိန်းချုပ်ပုံကတော့ ရုပ်ငြိမ်ဓာတ်ပုံတွေရဲ့
အစဉ်တစ်ခုနဲ့ပါ။
03:55
Notice how the wrinkles come and go,
depending on the expression.
79
223827
3126
မျက်နှာအမူအရာလိုက်ကာ အရေးအကြောင်းတွေ
​ပေါ်ပုံပျောက်ပုံကို သတိပြုပါ
04:00
We can also use a video
to drive the model.
80
228109
2746
ဒီပုံစံကိုမောင်းဖို့ ဗီဒီယိုတစ်ခုကိုလည်း
သုံးနိုင်ပါတယ်။
04:02
(Video) Daniel Craig: Right, but somehow,
81
230879
2593
(ဗီဒီယို) Daniel Craig:
ဒါပေမဲ့ တစ်နည်းနည်းနဲ့တော့
04:05
we've managed to attract
some more amazing people.
82
233496
3771
ပုံများတဲ့ အံ့ဖွယ်လူတစ်ချို့ကို
ကျွန်တော်တို့ ဆွဲဆောင်နိုင်ပါပြီ။
04:10
SS: And here's another fun demo.
83
238021
1642
SS:ဒီမှာ နောက် ရယ်စရာသရုပ်ပြကွက်ပါ
04:11
So what you see here
are controllable models
84
239687
2246
မြင်ကြရတာတွေက
သူတို့ရဲ့အင်တာနက်ဓာတ်ပုံတွေကနေ
04:13
of people I built
from their internet photos.
85
241957
2444
ဆောက်ထားတဲ့ လူတွေရဲ့
ထိန်းချုပ်လို့ရတဲ့ ပုံစံတွေပါ။
04:16
Now, if you transfer
the motion from the input video,
86
244425
2904
ကဲ၊ သွင်းထာတဲ့ဗီဒီယိုကနေ
လှုပ်ရှားမှုကို ကူးပြောင်းလိုက်ရင်
04:19
we can actually drive the entire party.
87
247353
2152
အဖွဲ့တစ်ခုလုံးကို တကယ် မောင်းနိုင်ပါတယ်။
04:21
George W. Bush:
It's a difficult bill to pass,
88
249529
2172
George W. Bush: အတည်ပြုဖို့
ခက်တဲ့ဥပဒေကြမ်းပါ
04:23
because there's a lot of moving parts,
89
251725
2303
လှုပ်ရှားနေတဲ့အပိုင်းတွေ အများကြီးရှိပြီး
04:26
and the legislative processes can be ugly.
90
254052
5231
ဥပဒေပြု လုပ်ငန်းစဉ်က
ရုပ်ဆိုးသွားနိုင်လို့ပါ။
04:31
(Applause)
91
259307
1630
(လက်ခုပ်သံများ)
04:32
SS: So coming back a little bit,
92
260961
1837
SS: ဒီတော့ နည်းနည်းလေးနောက်ပြန်မယ်၊
04:34
our ultimate goal, rather,
is to capture their mannerisms
93
262822
3191
နောက်ဆုံးပန်းတိုင်က အတိအကျဆိုရရင်
သူတို့ရဲ့ဟန်အမူမရာတွေ (သို့)
04:38
or the unique way each
of these people talks and smiles.
94
266037
3045
ဒီလူတစ်ဦးစီရဲ့ ​ေပြာပုံ၊
ပြုံးပုံတွေရဲ့ ထူးခြားမှုကိုဖမ်းယူဖို့ပါ
04:41
So to do that, can we
actually teach the computer
95
269106
2313
ဒီတော့ ဒါလုပ်ဖို့ ကွန်ပြူတာကို
04:43
to imitate the way someone talks
96
271443
2222
ဒီလူရဲ့ ဗီဒီယိုရုပ်ရှင်ကို ပြသခြင်းနဲ့ကို
04:45
by only showing it
video footage of the person?
97
273689
2420
တစ်ဦးဦး ဟောပြောပုံကို တုပဖို့
တကယ်သင်ပေးနိုင်လား။
04:48
And what I did exactly was,
I let a computer watch
98
276898
2577
ကျွန်တော်အတိအကျလုပ်ခဲ့တာက
Barack Obama စစ်စစ်
04:51
14 hours of pure Barack Obama
giving addresses.
99
279499
3277
မိန့်ခွန်းပြောနေတာကို
၁၄ နာရီ ကျွန်ပြူတာကိုပေးကြည့်လိုက်တယ်။
04:55
And here's what we can produce
given only his audio.
100
283443
3516
ဟောဒါက သူ့ရဲ့အသံကို ပေးရုံနဲ့
ကျွန်တော်တို့ ထုတ်လုပ်နိုင်တာပါ။
04:58
(Video) BO: The results are clear.
101
286983
1777
(ဗီဒီယို)BO: ရလဒ်တွေက ရှင်းပါတယ်။
05:00
America's businesses have created
14.5 million new jobs
102
288784
4349
အမေရိကရဲ့ လုပ်ငန်းတွေက ဆက်တိုက်
၇၅ လ ကျော်မှာအလုပ်အကိုင်သစ်
05:05
over 75 straight months.
103
293157
2774
၁၄,၅ သန်းကို ဖန်တီးပေးပြီးပြီ။
05:07
SS: So what's being synthesized here
is only the mouth region,
104
295955
2905
SS: ဒီတော့ ဒီမှာ ဖန်တီးနေတာက
ပါးစပ်ဝန်းကျင်မှာပါပဲ၊
05:10
and here's how we do it.
105
298884
1540
ဟောဒီမှာ လုပ်တဲ့ပုံပါ။
05:12
Our pipeline uses a neural network
106
300764
1826
ကျွန်တော်တို့ အလုပ်စဉ်က အသံပြောင်းဖို့
05:14
to convert and input audio
into these mouth points.
107
302614
2936
ပါးစပ်နေရာတွေထဲ
ထည့်ဖို့ အာရုံကြောကွန်ရက်ကိုသုံးတယ်
05:18
(Video) BO: We get it through our job
or through Medicare or Medicaid.
108
306547
4225
(ဗီဒီယို)BO: ဒါကို ကွန်တော်တို့ အလုပ်ကနေ
(သို့) Medicare (ဝါ) Medicaid ကနေ ရပါတယ်။
05:22
SS: Then we synthesize the texture,
enhance details and teeth,
109
310796
3420
SS: ဒီနောက် အသားကို ဖန်တီးတယ်၊
အနုစိတ်နဲ့ သွားကို ပိုကောင်းအောင်လုပ်ပြီး
05:26
and blend it into the head
and background from a source video.
110
314240
3074
ဦးခေါင်းနဲ့ မူရင်းဗီဒီယိုက နောက်ခံမှာ
ရောစပ်လိုက်ပါတယ်။
05:29
(Video) BO: Women can get free checkups,
111
317338
1905
ဗီဒီယို)BO: အမျိုးသမီးတေွဟာ အခမဲ့
05:31
and you can't get charged more
just for being a woman.
112
319267
2968
ဆေးစစ်နိုင်ကာ အမျိုးသမီဖြေစ်လို့ပဲ
ပိုအတောင်းမခံရနိုင်ပါဘူး။
05:34
Young people can stay
on a parent's plan until they turn 26.
113
322973
3306
လူငယ်တွေဟာ ၂၆ နှစ်ပြည့်တဲ့အထိ
မိဘရဲ့ အစီအစဉ်မှာ နေနိုင်ပါတယ်။
05:39
SS: I think these results
seem very realistic and intriguing,
114
327267
2952
SS: ဒီရလဒ်တွေဟာ လက်တွေ့ကျပြီး
စိတ်ဝင်စားစရာထင်ရပေမဲ့
05:42
but at the same time
frightening, even to me.
115
330243
3173
တစ်ချိန်တည်းမှာကျွန်တော့အတွက်တောင်
ကြောက်ရာကောင်းတယ်လို့ ထင်ပါတယ်။
05:45
Our goal was to build an accurate model
of a person, not to misrepresent them.
116
333440
4015
ပန်းတိုင်က တိကျတဲ့ လူတစ်ဦးရဲ့ပုံစံကို
တည်ဆောက်ဖို့၊ မှားယွင်းဖော်ပြဖို့မဟုတ်ဘူး။
05:49
But one thing that concerns me
is its potential for misuse.
117
337956
3111
ဒါပေမဲ့ ပူပန်မတာက ၎င်းရဲ့
အလွဲသုံးစားလုပ်မှု ဖြစ်လာနိုင်ခြေပါ။
05:53
People have been thinking
about this problem for a long time,
118
341958
2971
ဒီပြဿနာအကြောင်း တွေးနေကြတာ
အတော်ကြာပါပြီ၊
05:56
since the days when Photoshop
first hit the market.
119
344953
2381
Photoshop စျေးကွက်ထဲကို
ဦးဆုံးဝင်လာကတည်းကပါ။
05:59
As a researcher, I'm also working
on countermeasure technology,
120
347862
3801
သုတေသီအဖြစ်နဲ့ တန်ပြန်ရေး အစီအမံ
နည်းပညာမှာလည်း လုပ်နေပြီး
06:03
and I'm part of an ongoing
effort at AI Foundation,
121
351687
2942
AI Foundation မှာ ကြိုပမ်းဆဲတစ်ခုရဲ့
အစိတ်အပိုင်းပါ၊
06:06
which uses a combination
of machine learning and human moderators
122
354653
3397
ဒါက ရုပ်ပုံနဲ ဗီဒီယိုအတုတွေကို
ရှာဖွေသိရှိဖို့ စက်သင်ကြားရေးနဲ့
06:10
to detect fake images and videos,
123
358074
2144
လူသားစိစစ်သူရဲ့ပူးပေါင်းမှုကို
အသုံးပြုတယ်။
06:12
fighting against my own work.
124
360242
1514
ကိုယ့်အလုပ်ကို တိုက်ခိုက်ရင်းပါ
06:14
And one of the tools we plan to release
is called Reality Defender,
125
362675
3190
ဖြန့်ချီဖို့ စီစဉ်တဲ့ ကိရိယာတစ်ခုက
Reality Defender လို့ခေါ်ပါတယ်။
06:17
which is a web-browser plug-in
that can flag potentially fake content
126
365889
4039
ရှာဖွေရေးကိရိယာထဲမှာအလိုအလျောက်
တွဲထားတဲ့ အကြောင်းအရာအတုကို သိအောင်
06:21
automatically, right in the browser.
127
369952
2533
လုပ်ပေးနိုင်ခြေရှိတဲ့
ဝက်ဘ်ရှာဖွေရေးကိရိယာပါ။
06:24
(Applause)
128
372509
4228
(လက်ခုပ်သံများ)
06:28
Despite all this, though,
129
376761
1453
ဒါတွေရှိတယ်ဆိုပေမဲ့လည်း
06:30
fake videos could do a lot of damage,
130
378238
1840
ဗီဒီယိုအတုတွေက အများကြီးထိခိုက်ပါတယ်
06:32
even before anyone has a chance to verify,
131
380102
3294
တစ်ဦးဦးကစစ်ဆေးအတည်ပြုခွင့်
မရခင်မှာတောင်
06:35
so it's very important
that we make everyone aware
132
383420
2722
အလွန်အရေးကြီးတာက လက်ရှိဖြစ်နိုင်ခြေကို
06:38
of what's currently possible
133
386166
2007
လူတိုင်း သတိပြုမိစေအောင်လုပ်ဖို့
06:40
so we can have the right assumption
and be critical about what we see.
134
388197
3369
မှန်ကန်တဲ့ယူဆချက်ရှိပြီး မြင်တာနဲ့
ပတ်သက်ပြီးနှိုင်းချိန်စေတတ်ဖို့ပါ။
06:44
There's still a long way to go before
we can fully model individual people
135
392423
5007
လူတစ်ဦးချင်းစီကို အပြည့်အဝ ပုံစံ
မထုတ်နိုင်ခင်၊ ဒီနည်းပညာရဲ့ စိတ်ချရမှုကို
06:49
and before we can ensure
the safety of this technology.
136
397454
2786
သေချာအောင်မလုပ်နိုင်ခင်
အဝေးကြီးလိုပါသေးတယ်။
06:53
But I'm excited and hopeful,
137
401097
1587
ဒါပေမဲ့ စိတ်လှုပ်ရှား၊ပြီး
06:54
because if we use it right and carefully,
138
402708
3539
မျှော်လင့်တာက ဒါကို
မှန်ကန်စွာ ဂရုတစိုက် သုံးရင်
06:58
this tool can allow any individual's
positive impact on the world
139
406271
4309
ဒီကိရိယာက ကမ္ဘာပေါ်မှာ လူတစ်ဦးချင်းရဲ့
အပြုသဘော သက်ရောက်မှုကို
07:02
to be massively scaled
140
410604
2190
ထူးခြားစွာ အချိုးကိုက်ပြီး
07:04
and really help shape our future
the way we want it to be.
141
412818
2742
ကျနော်တို့ဖြစ်ချင်တဲ့အနာဂတ်ကို
ကူညီပုံဖော်ခွင့်ပေးလို့ပါ။
07:07
Thank you.
142
415584
1151
ကျေးဇူးတင်ပါတယ်။
07:08
(Applause)
143
416759
5090
(လက်ခုပ်သံများ)
Translated by sann tint
Reviewed by Myo Aung

▲Back to top

ABOUT THE SPEAKER
Supasorn Suwajanakorn - Computer scientist
Supasorn Suwajanakorn works on ways to reconstruct, preserve and reanimate anyone -- just from their existing photos and videos.

Why you should listen

Can we create a digital avatar that looks, acts and talks just like our sweet grandma? This question has inspired Supasorn Suwajanakorn, a recent PhD graduate from the University of Washington, to spend years developing new tools to make it a reality. He has developed a set of algorithms that can build a moving 3D face model of anyone from just photos, which was awarded the Innovation of the Year in 2016. He then introduced the first system that can replicate a person's speech and produce a realistic CG-animation by only analyzing their existing video footage -- all without ever bringing in the person to a Hollywood capture studio.

Suwajanakorn is working in the field of machine learning and computer vision. His goal is to bring vision algorithms out of the lab and make them work in the wild.

More profile about the speaker
Supasorn Suwajanakorn | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee