ABOUT THE SPEAKER
Janelle Shane - AI researcher
While moonlighting as a research scientist, Janelle Shane found fame documenting the often hilarious antics of AI algorithms.

Why you should listen

Janelle Shane's humor blog, AIweirdness.com, looks at, as she tells it, "the strange side of artificial intelligence." Her upcoming book, You Look Like a Thing and I Love You: How AI Works and Why It's Making the World a Weirder Place, uses cartoons and humorous pop-culture experiments to look inside the minds of the algorithms that run our world, making artificial intelligence and machine learning both accessible and entertaining.

According to Shane, she has only made a neural network-written recipe once -- and discovered that horseradish brownies are about as terrible as you might imagine.

More profile about the speaker
Janelle Shane | Speaker | TED.com
TED2019

Janelle Shane: The danger of AI is weirder than you think

Janelle Shane: ဉာဏ်ရည်တုရဲ့အန္တရာယ်က ကျွန်မတို့ထင်ထားတာထက် ကြောင်တောင်တောင်နိုင်ပါတယ်

Filmed:
376,501 views

ဉာဏ်ရည်တုရဲ့အန္တရာယ်က ကျွန်မတို့ကိုပုန်ကန်ခြင်းမဟုတ်ပါဘူး ဒါပေမဲ့ သုတေသီ Janelle Shaneပြောတာအရဆိုရင် အဲ့တာကကျွန်မတို့ပြောတဲ့အတိုင်းတိတိကျကျလုပ်ဆောင်ခြင်းဖြစ်တယ်။ ကြောင်တောင်နိုင်တာတွေကိုဝေမျှရမယ်ဆိုရင် တခါတရံလူသားတွေရဲ့ပြဿနာကိုဖြေရှင်းပေးဖို့အတွက် ဉာဏ်ရည်တုဖန်တီးထားတဲ့ကိုးရို့ကားရားနိုးစက်အသံတွေ ရေခဲမုန့်အသစ်အရသာမျိူးတွေ ဒါမှမဟုတ် လမ်းပေါ်ကကားတွေကိုမှတ်သားခြင်းတွေဖြစ်တယ်။ Shane ကတော့ဉာဏ်ရည်တုကဘာကြောင့်တကယ့်ဦးနှောက်နဲ့တိုင်းတာလို့မရသေးဘူးလဲဆိုတာကို ပြသထားပါတယ်။
- AI researcher
While moonlighting as a research scientist, Janelle Shane found fame documenting the often hilarious antics of AI algorithms. Full bio

Double-click the English transcript below to play the video.

00:13
So, artificial intelligence
0
1765
3000
ပြောရမယ်ဆိုရင် မှတ်ဉာဏ်တုက
00:16
is known for disrupting
all kinds of industries.
1
4789
3529
စက်မှုလုပ်ငန်းတွေကိုတုန်လှုပ်
စေတဲ့နေရာမှာလူသိများတယ်။
00:20
What about ice cream?
2
8961
2043
ရေခဲမုန့် အကြောင်းဆိုရင်ကော။
00:23
What kind of mind-blowing
new flavors could we generate
3
11879
3639
ကျွန်မတို့စိတ်ထဲမှာတွေးထားတဲ့
အရသာအသစ်တွေကို
00:27
with the power of an advanced
artificial intelligence?
4
15542
2976
အဆင့်မြင့်တဲ့ညဏ်ရည်တု
တွေသုံးပြီးထုတ်လုပ်နိုင်မှာလား။
00:31
So I teamed up with a group of coders
from Kealing Middle School
5
19011
4161
ဒါကြောင့် Kealing အထက်တန်းကျောင်းမှာ
ကုတ်ရေးသားသူအုပ်စုတစ်စုနဲ့ အသင်းဖွဲ့ပြီး
00:35
to find out the answer to this question.
6
23196
2241
ဒီမေးခွန်းရဲ့အဖြေကို ရှာဖွေခဲ့တယ်။
00:37
They collected over 1,600
existing ice cream flavors,
7
25461
5081
သူတို့တွေက အခုလက်ရှိမှာရှိသမျှသောရေခဲ
မုန့်အရသာ ၁၆၀၀ကျော်လောက် စုဆောင်းခဲ့တယ်။
00:42
and together, we fed them to an algorithm
to see what it would generate.
8
30566
5522
ပြီးတော့ ရှိရလာတဲ့ဟာတွေကို ကွန်ပျူတာထဲ
အကုန်ထည့်ပြီး ဘာထုတ်လုပ်နိုင်မလဲ ကြည့်တယ်။
00:48
And here are some of the flavors
that the AI came up with.
9
36112
3753
ဉာဏ်ရည်တုဆီကနေ အရသာအသစ်အချို့ တွေကတော့
00:52
[Pumpkin Trash Break]
10
40444
1471
ဖရုံသီးအမှိုက်အရသာ
00:53
(Laughter)
11
41939
1402
(ရယ်သံ)
00:55
[Peanut Butter Slime]
12
43365
2469
မြေပဲထောပတ်ရေညှိအရသာ
00:58
[Strawberry Cream Disease]
13
46822
1343
စတော်ဘယ်ရီခရင်ရောဂါအရသာ
01:00
(Laughter)
14
48189
2126
(ရယ်သံ)
01:02
These flavors are not delicious,
as we might have hoped they would be.
15
50339
4597
ဒီအရသာတွေက ကျွန်မတို့
မျှော်လင့်ထားတဲ့ အရသာတွေမဟုတ်ဘူး။
01:06
So the question is: What happened?
16
54960
1864
ဒါဆို မေးခွန်းက ဘာတွေဖြစ်သွားလဲ။
01:08
What went wrong?
17
56848
1394
ဘာတွေမှားသွားတာလဲ။
01:10
Is the AI trying to kill us?
18
58266
1959
ဉာဏ်ရည်တုက လူတွေကိုပြန်သတ်နေတာလား။
01:13
Or is it trying to do what we asked,
and there was a problem?
19
61027
4310
ဒါမဟုတ် ကျွန်မတို့ပြောတဲ့အတိုင်း လုပ်ဖို့
ကြိုးစားနေတာလား ပြီးတော့ ပြဿနာရှိနေတာလား။
01:18
In movies, when something
goes wrong with AI,
20
66567
2464
ရုပ်ရှင်ထဲကလို ဉာဏ်ရည်တုက
တစ်ခုခုချိူ့ယွင်းနေတဲ့အခါ
01:21
it's usually because the AI has decided
21
69055
2712
အမြဲလိုလို ဉာဏ်ရည်တုက ဆုံးဖြတ်တာတွေက
01:23
that it doesn't want to obey
the humans anymore,
22
71791
2272
လူသားတွေကို လိုက်မနာချင်တော့တာပါ။
01:26
and it's got its own goals,
thank you very much.
23
74087
2623
သူမှာရည်ရွယ်ချက်တွေရှိလာတယ်၊
ကျေးဇူးအများကြီးတင်ပါတယ်။
01:29
In real life, though,
the AI that we actually have
24
77266
3216
တကယ်ဘ၀မှာတော့ ကျွန်မတို့မှာ
ရှိနေတဲ့ ဉာဏ်ရည်တုတွေက
01:32
is not nearly smart enough for that.
25
80506
1863
အဲ့လောက်ထိကို မစွမ်းဆောင်နိုင်သေးပါဘူး
01:34
It has the approximate computing power
26
82781
2982
ဉာဏ်ရည်တုမှာ အနီးစပ်ဆုံးတွက်ချက်
နိုင်တဲ့စွမ်းဆောင်ရည်ကတော့
01:37
of an earthworm,
27
85787
1276
တီကောင် တစ်ကောင်
01:39
or maybe at most a single honeybee,
28
87087
3403
ဒါမှမဟုတ် အများဆုံး ပျားတစ်ကောင် လောက်
01:42
and actually, probably maybe less.
29
90514
2215
တကယ်ကတော့ အဲ့ထက်လည်း
နည်းကောင်းနည်းနိုင်ပါတယ်။
01:44
Like, we're constantly learning
new things about brains
30
92753
2594
ဘာလဲဆိုတော့ ကျွန်မတို့
ဦးနှောက်အကြောင်းကိုပိုသိလာရင်
01:47
that make it clear how much our AIs
don't measure up to real brains.
31
95371
4360
ဉာဏ်ရည်တုတွေက ဦးနှောက်အစစ်တွေကို
မယှဉ်နိုင်တာကို ရှင်းလင်းစွာသိနိုင်တယ်
01:51
So today's AI can do a task
like identify a pedestrian in a picture,
32
99755
5663
ဒါကြောင့် ယနေ့ခေတ်ဉာဏ်ရည်တုက စေ့ဆော်မှု
သိပ်မရှိတာတွေပဲလုပ်နိုင်တာတွေ့ရမယ်
01:57
but it doesn't have a concept
of what the pedestrian is
33
105442
2983
သို့သော်လည်း စေ့ဆော်မှုမရှိတဲ့
သဘောတရားဆိုတာက
02:00
beyond that it's a collection
of lines and textures and things.
34
108449
4824
စာကြောင်းတွေ စာသားတွေ နဲ့အရာ၀တ္ထု
ပစ္စည်းတွေ စုဆောင်းထားတာထက်မပိုပါဘူး
02:05
It doesn't know what a human actually is.
35
113792
2521
ဉာဏ်ရည်တုက လူသားက
ဘယ်လိုလဲမျိူးလဲဆိုတာမသိနိုင်ပါဘူး
02:08
So will today's AI
do what we ask it to do?
36
116822
3282
ဒါဆိုရင် ယနေ့ခေတ်မှာရှိတဲ့ ဉာဏ်ရည်တု
တွေက ဘာတွေလုပ်ဆောင်နိုင်သလဲ
02:12
It will if it can,
37
120128
1594
တတ်နိုင်ရင် လုပ်ဆောင်ပါလိမ့်မယ်
02:13
but it might not do what we actually want.
38
121746
2726
ကျွန်မတို့ လိုချင်တာကို
လုပ်ဆောင်ပေးနိုင်မှာမဟုတ်ပါဘူး
02:16
So let's say that you
were trying to get an AI
39
124496
2415
ဒါကြောင့် ပြောရမယ်ဆိုရင် သင်က ဉာဏ်ရည်တုကို
02:18
to take this collection of robot parts
40
126935
2619
စုစည်းထားတဲ့ စက်ရုပ်အစိတ်အပိုင်း
တွေ ယူလာခိုင်းမယ်
02:21
and assemble them into some kind of robot
to get from Point A to Point B.
41
129578
4197
ပြီးရင် အပိုင်းတွေကို စက်ရုပ်ဖြစ်အောင်
ဆက်ခိုင်းပြီး အမှတ် A ကနေBကိုသွားခိုင်းမယ်
02:25
Now, if you were going to try
and solve this problem
42
133799
2481
သင်သာ အခုပြဿနာကို ကြိုးစား
ပြီးဖြေရှင်းတော့မယ်ဆိုရင်
02:28
by writing a traditional-style
computer program,
43
136304
2351
ရေးနေကျဖြစ်တဲ့ ပရိုဂရမ်ရေး
ပြီးဖြေရှင်းပါလိမ့်မယ်
02:30
you would give the program
step-by-step instructions
44
138679
3417
တစ်ဆင့်ပြီးတဆင့် ညွှန်ကြားချက်တွေပေးမယ်
02:34
on how to take these parts,
45
142120
1329
အပိုင်းတွေကို ဘယ်လိုသယ်ရမယ်
02:35
how to assemble them
into a robot with legs
46
143473
2407
ခြေထောက်ပါ အောင်ဘယ်လို တပ်ဆင်ရမယ်
02:37
and then how to use those legs
to walk to Point B.
47
145904
2942
အမှတ်B ရောက်အောင်ဘယ်လို လမ်းလျှောက်ရမယ်
02:41
But when you're using AI
to solve the problem,
48
149441
2340
ဉာဏ်ရည်တုကိုသုံးပြီး ဖြေရှင်းတော့တဲ့အခါ
02:43
it goes differently.
49
151805
1174
ခြားနားပါလိမ့်မယ်
02:45
You don't tell it
how to solve the problem,
50
153003
2382
သင်က ပြဿနာကိုဘယ်လိုဖြေရှင်းရမယ်ဆိုတာ
02:47
you just give it the goal,
51
155409
1479
ပန်းတိုင်သတ်မှတ်ရန်မပြောပြပါက
02:48
and it has to figure out for itself
via trial and error
52
156912
3262
စမ်းသပ်လိုက် မှားလိုက်နဲ့ အဖြေကိုရှာဖွေမယ်
02:52
how to reach that goal.
53
160198
1484
ပန်းတိုင်ကိုဘယ်လိုရောက်ရှိအောင်
02:54
And it turns out that the way AI tends
to solve this particular problem
54
162254
4102
ပြီးတော့ ဉာဏ်ရည်တုက သီးခြားပြဿနာ
တွေကို ဖြေရှင်းလာနိုင်လိမ့်မယ်
02:58
is by doing this:
55
166380
1484
ဒီလိုလုပ်ဆောင်ခြင်းအားဖြင့်ပေါ့
02:59
it assembles itself into a tower
and then falls over
56
167888
3367
သူ့ဘာသာ တာဝါတိုင်ထောင်မယ် ပြီးတော့ လဲကျမယ်
03:03
and lands at Point B.
57
171279
1827
အမှတ် B မှာကျမယ်
03:05
And technically, this solves the problem.
58
173130
2829
နည်းပညာဆန်စွာ ပြဿနာကိုဖြေရှင်းနိုင်မယ်
03:07
Technically, it got to Point B.
59
175983
1639
အမှတ် B ကိုရောက်အောင်လုပ်မယ်
03:09
The danger of AI is not that
it's going to rebel against us,
60
177646
4265
ဉာဏ်ရည်တုတွေရဲ့ အန္တရာယ်က
ကျွန်မတို့ကို ပုန်ကန်မှာမဟုတ်ဘူး
03:13
it's that it's going to do
exactly what we ask it to do.
61
181935
4274
ကျွန်မတို့တောင်းဆိုတဲ့ အတိုင်းတိတိ
ကျကျလုပ်ဆောင်ပေးခြင်းဖြစ်တယ်
03:18
So then the trick
of working with AI becomes:
62
186876
2498
ဉာဏ်ရည်တုကိုသုံးပြီး အလုပ်
လုပ်ရတော့ရင် နည်းလမ်းက
03:21
How do we set up the problem
so that it actually does what we want?
63
189398
3828
ကျွန်မတို့လိုချင်တာကိုလုပ်ဆောင်ပေးနိုင်
ဖို့ ပြဿနာတစ်ရပ်ကို ဘယ်လိုတည်ဆောက်ရမှာလဲ
03:26
So this little robot here
is being controlled by an AI.
64
194726
3306
ဒီမှာရှိတဲ့ စက်ရုပ်သေးသေးလေးကို
ဉာဏ်ရည်တုထိန်းချူပ်နေတယ်
03:30
The AI came up with a design
for the robot legs
65
198056
2814
ဉာဏ်ရည်တုက စက်ရုပ်ခြေထောက်တွေရဲ့
ဒီဇိုင်းကို စဉ်းစားခဲ့တယ်
03:32
and then figured out how to use them
to get past all these obstacles.
66
200894
4078
ပြီးတော့ အတားအဆီးတွေကိုကျော်လွန်ဖို့
ဒါတွေဘယ်လိုအသုံးပြုရမလဲဆိုတာ အဖြေရှာဖွေတယ်
03:36
But when David Ha set up this experiment,
67
204996
2741
ဒါပေမဲ့ David Ha က ဒီလက်တွေ့
စမ်းသပ်ချက်ကိုလုပ်ဆောင်တဲ့အခါ
03:39
he had to set it up
with very, very strict limits
68
207761
2856
သူအရမ်းအရမ်းကိုတင်းကျပ်တဲ့
ကန့်သတ်ချက်တွေနဲ့ တပ်ဆင်ခဲ့ရတယ်
03:42
on how big the AI
was allowed to make the legs,
69
210641
3292
ဉာဏ်ရည်တုက ခြေထောက်ဘယ်လောက်
ကြီးကြီး ခွင့်ပြုထားတဲ့အပေါ်မူတည်ပြီး
03:45
because otherwise ...
70
213957
1550
ဘာလို့လဲဆိုတော့ အဲ့လိုမှမဟုတ်ရင်
03:55
(Laughter)
71
223058
3931
(ရယ်သံ)
04:00
And technically, it got
to the end of that obstacle course.
72
228563
3745
ပြီးတော့ နည်းပညာဆန်ဆန် အတားအဆီး
ကျော်ဖြတ်တဲ့သင်ခန်းစာကို ပြီးဆုံးခဲ့တယ်
04:04
So you see how hard it is to get AI
to do something as simple as just walk.
73
232332
4942
ဉာဏ်ရည်တုနဲ့ လမ်းလျှောက်ဖို့အတွက်တောင်
ဘယ်လောက်ခက်ခက်လုပ်ရလဲဆိုတာ တွေ့နိုင်တယ်
04:09
So seeing the AI do this,
you may say, OK, no fair,
74
237298
3820
သင်က ဉာဏ်ရည်တုဒီလိုလုပ်တာကို မြင်ရင်
အဆင်ပြေပါတယ် မမျှတဘူးလို့ပြောနိုင်ပါတယ်
04:13
you can't just be
a tall tower and fall over,
75
241142
2580
သင်က တာဝါအရှည်လည်းမဟုတ်ဘူး
လဲကျမှာလည်းမဟုတ်ဘူး
04:15
you have to actually, like,
use legs to walk.
76
243746
3435
သင်တကယ်လုပ်ရဖို့လိုတာက
ခြေထောက်အသုံးပြုပြီးလမ်းလျှောက်ရုံပါပဲ
04:19
And it turns out,
that doesn't always work, either.
77
247205
2759
ပြီးတော့ လှည့်ပြီးထွက်သွားဖို့
ဆိုတာကလည်းမဖြစ်နိုင်ပါဘူး
04:21
This AI's job was to move fast.
78
249988
2759
ဒီဉာဏ်ရည်တုရဲ့အလုပ်က
မြန်မြန်ဆန်ဆန်သွားဖို့ပါပဲ
04:25
They didn't tell it that it had
to run facing forward
79
253115
3593
မျက်နှာမူရာရှေ့ဘက်ကိုပြေးဖို့
04:28
or that it couldn't use its arms.
80
256732
2258
ဒါမှမဟုတ် လက်ကိုသုံးပြီးပြေး
ဖို့မပြောထားဘူး
04:31
So this is what you get
when you train AI to move fast,
81
259487
4618
ဒါကသင် ဉာဏ်ရည်တုကိုမြန်မြန်ပြေးဖို့
သင်ပေးတဲ့အခါမှာ ကြုံတွေ့ရမှာတွေက
04:36
you get things like somersaulting
and silly walks.
82
264129
3534
အေးရိုးဗစ်ကစားတဲ့အခါပြေးတဲ့ပုံမျိူးနဲ့
ရူးကြောင်ကြောင်လမ်းလျှောက်လိမ့်မယ်
04:39
It's really common.
83
267687
1400
ဒါကတကယ်တော့ ပုံမှန်ပါပဲ
04:41
So is twitching along the floor in a heap.
84
269667
3179
အမှိုက်ပုံထဲရောက်ပြီး ကြမ်းပြင်ပေါ်မှာ
တုန်တုန်နဲ့သွားနေတာတွေ
04:44
(Laughter)
85
272870
1150
(ရယ်သံ)
04:47
So in my opinion, you know what
should have been a whole lot weirder
86
275241
3254
ဒါဆို ဒီကိစ္စတစ်ခုလုံးရူးကြောင်နိုင်
နေခဲ့တာတွေပဲ သိထားတယ်
04:50
is the "Terminator" robots.
87
278519
1396
ဒုက္ခပေးတဲ့ စက်ရုပ်တွေလား
04:52
Hacking "The Matrix" is another thing
that AI will do if you give it a chance.
88
280256
3755
အခွင့်အရေးထပ်ပေးရင်နောက်ထပ်လုပ်နိုင်
တာ "The Matrix" ကိုဖောက်ထွင်းခြင်းဖြစ်တယ်
04:56
So if you train an AI in a simulation,
89
284035
2517
ကွန်ပျူတာနဲ့ဖန်တီးထားတဲ့
ပတ်ဝန်းကျင်မှာသင်ကြားပေးရင်
04:58
it will learn how to do things like
hack into the simulation's math errors
90
286576
4113
သင်္ချာအမှားတွေကို ဖောက်ထွင်း
ခြင်းကဲ့သို့သောအရာတွေ
05:02
and harvest them for energy.
91
290713
2207
စွမ်းအင်အတွက်အမှားတွေပယ်ခြင်းကို
သင်ယူလိမ့်မယ်
05:04
Or it will figure out how to move faster
by glitching repeatedly into the floor.
92
292944
5475
ဒါမှမဟုတ် မလှုပ်ရှားတော့ဘဲ ဘယ်လို
အမြန်သွားလို့ရမလဲ အထပ်ထပ် အဖြေရှာလိမ့်မယ်
05:10
When you're working with AI,
93
298443
1585
ဉာဏ်ရည်တုနဲ့အလုပ်လုပ်တဲ့အခါ
05:12
it's less like working with another human
94
300052
2389
တခြားလူသားတစ်ယောက်နဲ့
တွဲလုပ်နေတာနဲ့မတူပါဘူး
05:14
and a lot more like working
with some kind of weird force of nature.
95
302465
3629
သဘာ၀အတိုင်းပုံမှန်မဟုတ်တဲ့ဟာမျိူးနဲ့
အလုပ်လုပ်နေရတာနဲ့တူပါတယ်
05:18
And it's really easy to accidentally
give AI the wrong problem to solve,
96
306562
4623
မှားယွင်းတဲ့ပြဿနာကိုဖြေရှင်းဖို့
မတော်မဆလွယ်ကူစွာပေးနိုင်တယ်
05:23
and often we don't realize that
until something has actually gone wrong.
97
311209
4538
မကြာခဏဆိုသလို ကျွန်မတို့မမှားဘူးလို့
ထင်ထားတာတွေကို မယုံကြည်တော့တာမျိူးတွေ
05:28
So here's an experiment I did,
98
316242
2080
အခုဟာ ကျွန်မလက်တွေ့စမ်းသပ်ထားခဲ့တာတွေပါ
05:30
where I wanted the AI
to copy paint colors,
99
318346
3182
အဲဒီနေရာမှာ ဆေးရောင်တွေကို
ကူးယူဖို့အတွက် ဉာဏ်ရည်တုကိုသုံးထားခဲ့တယ်
05:33
to invent new paint colors,
100
321552
1746
အသစ်တွေကို ဖန်တီးဖို့အတွက်ပေါ့
05:35
given the list like the ones
here on the left.
101
323322
2987
ပေးထားတဲ့အရောင်တွေကအခုဘယ်ဘက်မှာပါ
05:38
And here's what the AI
actually came up with.
102
326798
3004
ဒါကတော့ဉာဏ်ရည်တုအမှန်
တကယ် စဉ်းစားထားတဲ့ဟာတွေပါ
05:41
[Sindis Poop, Turdly, Suffer, Gray Pubic]
103
329826
3143
ကုန်းပတ်ကနေရောင်၊ နေရောင်၊
ခံစားရသောအရောင်၊ ဆီးခုံအရောင်
05:44
(Laughter)
104
332993
4230
(ရယ်သံ)
05:51
So technically,
105
339177
1886
နည်းပညာဆန်စွာပဲ
05:53
it did what I asked it to.
106
341087
1864
ကျွန်မတောင်းဆိုထားသလို လုပ်ထားခဲ့တယ်
05:54
I thought I was asking it for,
like, nice paint color names,
107
342975
3308
ကျွန်မထင်တာကတော့ ကျွန်မတောင်းဆို
ထားတဲ့ အရောင်ကောင်းကောင်းတွေပေါ့
05:58
but what I was actually asking it to do
108
346307
2307
ဒါပေမဲ့ ကျွန်မအမှန်တကယ်
တောင်းဆိုခဲ့တာကတော့
06:00
was just imitate the kinds
of letter combinations
109
348638
3086
အက္ခရာတွေစုစည်းထားတာကို တုပထားတာပဲဖြစ်တယ်
06:03
that it had seen in the original.
110
351748
1905
မူလကတွေ့ထားတဲ့ဟာတွေကိုပေါ့
06:05
And I didn't tell it anything
about what words mean,
111
353677
3098
ပြီးတော့ ကျွန်မကစာလုံးတွေရဲ့
အဓိပ္ပာယ်ကိုလုံး၀ကိုမပြောပြထားဘူး
06:08
or that there are maybe some words
112
356799
2560
ဒါမှမဟုတ် ဒီအရောင်တွေ
အသုံးပြုတာကိုရှောင်ရှားဖို့အတွက်
06:11
that it should avoid using
in these paint colors.
113
359383
2889
စာလုံးတချို့ရှိကောင်းရှိနေနိုင်တယ်
06:15
So its entire world
is the data that I gave it.
114
363141
3494
ဒါကြောင့်သူသိထားတာအားလုံးက
ကျွန်မပေးထားတဲ့ အချက်အလက်တွေပဲဖြစ်တယ်
06:18
Like with the ice cream flavors,
it doesn't know about anything else.
115
366659
4028
ရေခဲမုန့်အရသာတုန်းကလိုပေါ့
အဲ့ဒါကဘာမှသိတာမဟုတ်ဘူး
06:24
So it is through the data
116
372491
1638
သူက အချက်အလက်တွေကိုပဲသိတာ
06:26
that we often accidentally tell AI
to do the wrong thing.
117
374153
4044
ဒါကြောင့် ကျွန်မတို့က ဉာဏ်ရည်တုကို
မတော်မဆမှားယွင်းတာတွေကို ခိုင်းနိုင်မိတယ်
06:30
This is a fish called a tench.
118
378694
3032
ဒီငါးကို ကကတစ်ငါးလို့ခေါ်ပါတယ်
06:33
And there was a group of researchers
119
381750
1815
သုတေသနပြုလုပ်တဲ့အုပ်စုတစ်စုရှိခဲ့တယ်
06:35
who trained an AI to identify
this tench in pictures.
120
383589
3874
ဒီပုံထဲကကကတစ်ငါးကိုခွဲခြားသတ်
မှတ်ဖို့အတွက်ဉာဏ်ရည်တုကို သင်ကြားပေးခဲ့တယ်
06:39
But then when they asked it
121
387487
1296
ဒါပေမဲ့ ပြီးတဲ့အခါ
06:40
what part of the picture it was actually
using to identify the fish,
122
388807
3426
ရုပ်ပုံရဲ့ဘယ်အပိုင်းကို အမှန်တကယ်
ငါးဖြစ်ပါတယ်ဆိုတာ မေးမြန်းသောအခါ
06:44
here's what it highlighted.
123
392257
1358
ထင်ရှားစွာဖော်ပြထားတယ်
06:47
Yes, those are human fingers.
124
395203
2189
ဟုတ်ပါတယ် အဲ့ဒါတွေကလူသားလက်ချောင်းတွေပါ
06:49
Why would it be looking for human fingers
125
397416
2059
ဘာကြောင့်အဲ့တာကလူလက်
ချောင်းတွေကိုရှာနေရတာလဲ
06:51
if it's trying to identify a fish?
126
399499
1921
တကယ်လို့ ငါးတွေကိုသာ ရှာနေတယ်ဆိုရင်ပေါ့
06:54
Well, it turns out that the tench
is a trophy fish,
127
402126
3164
ကောင်းပီ သူကရှာဖွေရမယ့်
ကကတစ်ငါးဘက်ကိုလှည့်လာပါပီ
06:57
and so in a lot of pictures
that the AI had seen of this fish
128
405314
3811
သင်ကြားနေစဉ်အတောအတွင်းမှာ
ဉာဏ်ရည်တုက ကကတစ်ငါးပုံ
07:01
during training,
129
409149
1151
အများကြီး မြင်ဖူးပြီပြီ
07:02
the fish looked like this.
130
410324
1490
ငါးတွေကတော့ ဒီလိုပုံတွေပါ
07:03
(Laughter)
131
411838
1635
(ရယ်သံ)
07:05
And it didn't know that the fingers
aren't part of the fish.
132
413497
3330
အဲဒါက လက်ချောင်းတွေက
ငါးမဟုတ်ဘူးဆိုတာကို သိပုံမပေါ်ဘူး
07:10
So you see why it is so hard
to design an AI
133
418808
4120
ဉာဏ်ရည်တုက သူကြည့်နေတာကို
နားလည်အောင် ပုံဖော်ဖို့ဆိုတာကိုပဲ
07:14
that actually can understand
what it's looking at.
134
422952
3319
အရမ်းခက်ခဲမှန်း သိပြီထင်ပါတယ်
07:18
And this is why designing
the image recognition
135
426295
2862
အလိုအလျောက်မောင်းနှင်တဲ့
ကားတွေမှာပုံတွေကိုမှတ်မိအောင်
07:21
in self-driving cars is so hard,
136
429181
2067
ဒီဇိုင်းလုပ်နေရတာက အရမ်းခက်ခဲပါတယ်
07:23
and why so many self-driving car failures
137
431272
2205
ပြီးတော့အလိုအလျောက်မောင်း
တဲ့ကားတွေပျက်စီးရတာ
07:25
are because the AI got confused.
138
433501
2885
ဉာဏ်ရည်တုတွေ ရှုပ်ထွေးမှု
တွေဖြစ်တဲ့အတွက်ကြောင့်ဖြစ်တယ်
07:28
I want to talk about an example from 2016.
139
436410
4008
၂၁၀၆ခုနစ်တုန်းက နမူနာ
တစ်ခုကိုပြောပြချင်ပါတယ်
07:32
There was a fatal accident when somebody
was using Tesla's autopilot AI,
140
440442
4455
Tesla ရဲ့ ဉာဏ်ရည်တုကိုသုံးပြီးအလိုအလျောက်
မောင်းအသုံးပြုစဉ် မတော်တဆမှုဖြစ်ခဲ့ဖူးတယ်
07:36
but instead of using it on the highway
like it was designed for,
141
444921
3414
အမြန်လမ်းမှာမောင်းဖို့ဒီဇိုင်း
လုပ်ထားတာကိုအမြန်လမ်းမှာမောင်းမယ့်အစား
07:40
they used it on city streets.
142
448359
2205
မြို့ထဲကလမ်းပေါ်မှာမောင်းနှင်ခဲ့တယ်
07:43
And what happened was,
143
451239
1175
ဘာဖြစ်ခဲ့လဲဆိုတော့
07:44
a truck drove out in front of the car
and the car failed to brake.
144
452438
3396
ထရပ်ကားရှေ့ကိုရောက်သွားပြီး
ဘရိတ်မအုပ်နိုင်ခဲ့တာဖြစ်တယ်
07:48
Now, the AI definitely was trained
to recognize trucks in pictures.
145
456507
4762
အခုဆိုရင် ဉာဏ်ရည်တုကိုထရပ်ကားတွေရဲ့ပုံတွေ
မှတ်မိဖို့လုံး၀ကိုသင်ကြားပြီးပါပြီ
07:53
But what it looks like happened is
146
461293
2145
ဒါပေမဲ့ ဖြစ်ပျက်ခဲ့တာကဘာနဲ့တူတာလဲဆိုတော့
07:55
the AI was trained to recognize
trucks on highway driving,
147
463462
2931
အမြန်လမ်းပေါ်မှာရှိတဲ့
ထရပ်ကားတွေကိုမှတ်မိအောင်သင်ပေးခဲ့တယ်
07:58
where you would expect
to see trucks from behind.
148
466417
2899
အမြန်လမ်းပေါ်မှာထရပ်ကားတွေ
ကအနောက်မှာပဲရှိမှာပဲ
08:01
Trucks on the side is not supposed
to happen on a highway,
149
469340
3420
အမြန်လမ်းပေါ်မှာဆိုရင် ထရပ်ကားက
ဘေးဘက်မှာရှိမယ်မယူဆထားပါဘူး
08:04
and so when the AI saw this truck,
150
472784
3455
ဒါကြောင့် ဉာဏ်ရည်တုက
ထရပ်ကားကိုမြင်လိုက်တဲ့အခါ
08:08
it looks like the AI recognized it
as most likely to be a road sign
151
476263
4827
လမ်းအမှတ်အသားလို့ယူဆလိုက်ပုံရတယ်
08:13
and therefore, safe to drive underneath.
152
481114
2273
အန္တရာယ်ကင်းတယ်ထင်ပြီး
အောင်ဘက်ကိုဝင်သွားတယ်
08:16
Here's an AI misstep
from a different field.
153
484114
2580
ကွဲပြားတဲ့နယ်ပယ်မှာ
မှားလှမ်းမိတဲ့ခြေလှမ်းပေါ့
08:18
Amazon recently had to give up
on a résumé-sorting algorithm
154
486718
3460
အမေဇုန်ကတော့မကြာခင်ကအလုပ်လျှောက်လွှာ
တွေကို စိစစ်တာအလုပ်လုပ်ဆောင်နိုင်သော
08:22
that they were working on
155
490202
1220
ပရိုဂရမ်ကိုစွန့်ခဲ့တယ်
08:23
when they discovered that the algorithm
had learned to discriminate against women.
156
491446
3908
အဲဒီပရိုဂရမ်မှာအမျိူးသမီးတွေကိုခွဲခြား
ဆက်ဆံတတ်အောင်သင်ပေးတာကိုရှာတွေ့တဲ့အခါပေါ့
08:27
What happened is they had trained it
on example résumés
157
495378
2716
အရင်ကလုပ်ခဲ့တဲ့လူတွေရဲ့
နမူနာလျှောက်လွှာတွေနဲ့
08:30
of people who they had hired in the past.
158
498118
2242
သင်ကြားပေးခဲ့လို့ဖြစ်တယ်
08:32
And from these examples, the AI learned
to avoid the résumés of people
159
500384
4023
ပြီးတော့အဲ့နမူနာဆီကနေ ဉာဏ်ရည်တုက
08:36
who had gone to women's colleges
160
504431
2026
အမျိူးသမီးတက္ကသိုလ်တတ်ရောက်ဖူးတဲ့သူတွေ
08:38
or who had the word "women"
somewhere in their resume,
161
506481
2806
လျှောက်လွှာတစ်နေရာရာမှာ
အမျိူးသမီးဆိုတဲ့စာလုံးပါလာခဲ့လျှင်
08:41
as in, "women's soccer team"
or "Society of Women Engineers."
162
509311
4576
အမျိူးသမီးဘောလုံးအသင်း ဒါမှမဟုတ်အင်ဂျင်နီ
ယာအသင်း စတာတွေပါလာခဲ့လျှင် မရွေးချယ်ပါဘူး
08:45
The AI didn't know that it wasn't supposed
to copy this particular thing
163
513911
3974
ဉာဏ်ရည်တုက ဒီလိုလူသားတွေသာ
လုပ်နိုင်တဲ့သီးခြားအလုပ်တွေကို
08:49
that it had seen the humans do.
164
517909
1978
ကူးယူရမယ်ဆိုတာ သိရှိခဲ့ပါဘူး
08:51
And technically, it did
what they asked it to do.
165
519911
3177
နည်းပညာဆန်စွာပြောရရင် တောင်းဆိုထား
တာကိုလုပ်ဆောင်ခဲ့ခြင်းဖြစ်ပါတယ်
08:55
They just accidentally asked it
to do the wrong thing.
166
523112
2797
မှားယွင်းတဲ့အရာတွေကိုမတော်
တဆတောင်းဆိုမိခြင်းပဲဖြစ်တယ်
08:58
And this happens all the time with AI.
167
526653
2895
ဒါတွေက ဉာဏ်ရည်တုမှာတစ်ချိန်လုံးဖြစ်နေတာပါ
09:02
AI can be really destructive
and not know it.
168
530120
3591
ဉာဏ်ရည်တုက ဖျက်ဆီးနိုင်စွမ်းရှိတယ်
ပြီးတော့ အဲ့တာကမသိဘူး
09:05
So the AIs that recommend
new content in Facebook, in YouTube,
169
533735
5078
ဉာဏ်ရည်တုက facebookတို့ youtube တို့မှာရှိ
တဲ့အကြောင်းအရာတွေကို ညွှန်းဆိုနိုင်ပါတယ်
09:10
they're optimized to increase
the number of clicks and views.
170
538837
3539
ကလင့်နှိပ်ပြီးကြည့်ရှုနှုန်းတိုးများလာ
အောင်လည်း အသုံးပြုနိုင်ပါတယ်
09:14
And unfortunately, one way
that they have found of doing this
171
542400
3436
ကံမကောင်းစွာပဲ ဒီလိုလုပ်လိုက်တဲ့အတွက်
တွေ့ရှိလာတဲ့နည်းလမ်းတစ်ခုက
09:17
is to recommend the content
of conspiracy theories or bigotry.
172
545860
4503
မကောင်းမှုကျူးလွန်တာ ဒါမှမဟုတ် ဝါဒဖြန့်တာ
တွေကျူးလွန်လာနိုင်တယ်လို့ အကြုံပြုထားပါတယ်
09:22
The AIs themselves don't have any concept
of what this content actually is,
173
550902
5302
ဉာဏ်ရည်တုကတော့ တကယ်ဘာအကြောင်းအရာတွေပါ
ဝင်လာတာလဲဆိုတာ သိနိုင်တဲ့သဘောတရားမရှိပါဘူး
09:28
and they don't have any concept
of what the consequences might be
174
556228
3395
ပြီးတော့ အကြံပြုထားတဲ့အကြောင်း
အရာတွေရဲ့အကျိူးဆက်က
09:31
of recommending this content.
175
559647
2109
ဘာဖြစ်မလဲဆိုတာကို
သိနိုင်သဘောတရားမရှိပါဘူး
09:34
So, when we're working with AI,
176
562296
2011
ဒါကြောင့် ဉာဏ်ရည်တု
တွေနဲ့အလုပ်လုပ်တဲ့အခါ
09:36
it's up to us to avoid problems.
177
564331
4182
ပြဿနာတွေကိုရှောင်ဖို့ဆိုတာ
ကျွန်မတို့အပေါ်မူတည်ပါတယ်
09:40
And avoiding things going wrong,
178
568537
2323
ရှောင်တဲ့အရာတွေက မှားယွင်းသွားက
09:42
that may come down to
the age-old problem of communication,
179
570884
4526
အရင်ခေတ်က ဆက်သွယ်ရေးပြဿနာတွေ
ဖြစ်တဲ့လူသားတွေက ဉာဏ်ရည်တုကို
09:47
where we as humans have to learn
how to communicate with AI.
180
575434
3745
ဘယ်လိုဆက်သွယ်ရမလဲ အခြေအနေကိုကြုံရလိမ့်မယ်
09:51
We have to learn what AI
is capable of doing and what it's not,
181
579203
4039
ကျွန်မတို့ကဉာဏ်ရည်တုသည်ဘာတွေစွမ်းဆောင်
တယ်ဘာတွေမစွမ်းဆောင်ဘူးဆိုတာကိုသင်ယူရမယ်
09:55
and to understand that,
with its tiny little worm brain,
182
583266
3086
တီကောင်လောက်သေးငယ်တဲ့
ဦးနှောက်ကိုနားလည်ရမယ်
09:58
AI doesn't really understand
what we're trying to ask it to do.
183
586376
4013
ဉာဏ်ရည်တုက ကျွန်မတို့တောင်းဆိုတာ
ကိုတကယ်နားလည်မှာမဟုတ်ဘူး
10:03
So in other words, we have
to be prepared to work with AI
184
591148
3321
နောက်ပြောရရင် ကျွန်မတို့ကဉာဏ်ရည်တု
နဲ့အလုပ်လုပ်ဖို့ပြင်ဆင်ထားရမယ်
10:06
that's not the super-competent,
all-knowing AI of science fiction.
185
594493
5258
ဉာဏ်ရည်တုနဲ့ပတ်သက်တဲ့သိပ္ပံကားတွေအားလုံး
သိထားခြင်းက လုံး၀လုံလောက်နေတာမဟုတ်ပါဘူး
10:11
We have to prepared to work with an AI
186
599775
2862
ဉာဏ်ရည်တုနဲ့အလုပ်လုပ်
ဖို့ကိုပြင်ကိုပြင်ဆင်ထားခြင်းက
10:14
that's the one that we actually have
in the present day.
187
602661
2938
ကျွန်မတို့အမှန်တကယ်ရှိနေတဲ့ ပစ္စုပ္ပန်ကာလ
ကိုရောက်နေတာဖြစ်တယ်
10:17
And present-day AI is plenty weird enough.
188
605623
4205
အခုလက်ရှိမှာရှိတဲ့ ဉာဏ်ရည်တုကတော့
ကြောင်တောင်တောင်ဖြစ်နေတုန်းပါပဲ
10:21
Thank you.
189
609852
1190
ကျေးဇူးတင်ပါတယ်
10:23
(Applause)
190
611066
5225
(လက်ခုပ်သံ)
Translated by Pyae Sone
Reviewed by sann tint

▲Back to top

ABOUT THE SPEAKER
Janelle Shane - AI researcher
While moonlighting as a research scientist, Janelle Shane found fame documenting the often hilarious antics of AI algorithms.

Why you should listen

Janelle Shane's humor blog, AIweirdness.com, looks at, as she tells it, "the strange side of artificial intelligence." Her upcoming book, You Look Like a Thing and I Love You: How AI Works and Why It's Making the World a Weirder Place, uses cartoons and humorous pop-culture experiments to look inside the minds of the algorithms that run our world, making artificial intelligence and machine learning both accessible and entertaining.

According to Shane, she has only made a neural network-written recipe once -- and discovered that horseradish brownies are about as terrible as you might imagine.

More profile about the speaker
Janelle Shane | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee