ABOUT THE SPEAKERS
Mariano Sigman - Neuroscientist
In his provocative, mind-bending book "The Secret Life of the Mind," neuroscientist Mariano Sigman reveals his life’s work exploring the inner workings of the human brain.

Why you should listen

Mariano Sigman, a physicist by training, is a leading figure in the cognitive neuroscience of learning and decision making. Sigman was awarded a Human Frontiers Career Development Award, the National Prize of Physics, the Young Investigator Prize of "College de France," the IBM Scalable Data Analytics Award and is a scholar of the James S. McDonnell Foundation. In 2016 he was made a Laureate of the Pontifical Academy of Sciences.

In The Secret Life of the Mind, Sigman's ambition is to explain the mind so that we can understand ourselves and others more deeply. He shows how we form ideas during our first days of life, how we give shape to our fundamental decisions, how we dream and imagine, why we feel certain emotions, how the brain transforms and how who we are changes with it. Spanning biology, physics, mathematics, psychology, anthropology, linguistics, philosophy and medicine, as well as gastronomy, magic, music, chess, literature and art, The Secret Life of the Mind revolutionizes how neuroscience serves us in our lives, revealing how the infinity of neurons inside our brains manufacture how we perceive, reason, feel, dream and communicate.

More profile about the speaker
Mariano Sigman | Speaker | TED.com
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com
TED Studio

Mariano Sigman and Dan Ariely: How can groups make good decisions?

Mariano Sigman and Dan Ariely: အစုအဖွဲ့တွေအနေနဲ့ ဆုံးဖြတ်ချက်ကောင်းတွေရအောင် ဘယ်လို လုပ်နိုင်သလဲ။

Filmed:
1,507,168 views

အားလုံးသိပြီး  ဖြစ်ကြတဲ့အတိုင်း  အစုအဝေးနဲ့ ဆုံးဖြတ်ကြတဲ့အခါ အမြဲတမ်း မမှန်နိုင်ပါဘူး။ တစ်ခါတစ်လေ မှားတောင် မှားနိုင်ပါသေးတယ်။ အုပ်စုလိုက် ဆုံးဖြတ်ချက် ကောင်းကောင်းရနိုင်အောင် ဘယ်လိုလုပ်ကြမလဲ။ Mariano Sigman နဲ့ သူ့ရဲ့ လုပ်ဖေါ်ကိုင်ဘက် Dan Arielyတို့ဟာ ဆုံးဖြတ်ချက်တွေပြုလုပ်နိုင်ထို့ ကျွန်မတို့ တစ်ယောက်ကို တစ်ယောက်ဘယ်လိုဆက်သွယ်ဆောင်ရွက်ခဲ့ကြတယ်ဆိုတာ ကမ္ဘာအနှံ့ စမ်းသပ်မှုလေးတွေ ပြုလုပ်လျှက် ရှိပါတယ်။ အခုဒီမှာဖေါ်ပြထားတဲ့ အချက်အလက်တွေ ပြည့်နေတဲ့ ပျော်စရာကောင်းတဲ့ ရှင်းလင်းပြောဆိုချက်ထဲမှာ သူတွေ့ရှိထားတဲ့ စိတ်ဝင်စားဖွယ် ရလဒ်တွေနဲ့ ကျွန်မတို့ရဲ့ နိုင်ငံရေး စနစ်တွေအပေါ်မှာ ဘယ်လို သက်ရောက်မှု ရှိနိုင်တယ်ဆိုတာ ပြောပြသွားခဲ့ပါတယ်။ Sigman က တချိန်မှာ လူတွေဟာ ပိုပြီးတူညီတဲ့ ဦးတည်ချက်ရှိလာတဲ့အခါ အုပ်စုတွေအနေနဲ့ ဆုံးဖြတ်ချက်တစ်ခု ချမှတ်နိုင်ဖို့ ဘယ်လို ဆက်သွယ်ညှိနှိုင်းကြတယ် ဆိုတာပိုနားလည်နိုင်မှာဖြစ်ပြီး ပိုမိုကောင်းမွန်တဲ့ ဒီမိုကရေစီ ကို တည်ဆောက်နိုင်ဖို့ နည်းလမ်းအသစ်တွေကို မြင်နိုင်လာပါလိမ့်မယ်လို့ ဆိုထားပါတယ်။
- Neuroscientist
In his provocative, mind-bending book "The Secret Life of the Mind," neuroscientist Mariano Sigman reveals his life’s work exploring the inner workings of the human brain. Full bio - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why. Full bio

Double-click the English transcript below to play the video.

00:12
As societies, we have to make
collective decisions
0
554
2443
အဖွဲ့အစည်းတွေမှာ လူအများနဲ့အတူ
အနာဂတ်အတွက် အရေးပါတဲ့
00:15
that will shape our future.
1
3021
1570
ဆုံးဖြတ်ချက်တွေ ချမှတ်ရပါတယ်။
00:17
And we all know that when
we make decisions in groups,
2
5087
2757
ဒီနေရာမှာ အားလုံးသိတဲ့အတိုင်း
အဖွဲ့လိုက်ဆုံးဖြတ်တဲ့နေရာမှာ
00:19
they don't always go right.
3
7868
1638
အမြဲတမ်း မမှန်နိုင်ဘူးဆိုတာပါ။
00:21
And sometimes they go very wrong.
4
9530
1956
တစ်ခါတစ်လေ အတော်လေး
မှားသွားတတ်ပါသေးတယ်။
00:24
So how do groups make good decisions?
5
12315
2424
ဒီတော့ အဖွဲ့လိုက်
ဆုံးဖြတ်ကောင်းတွေ ဘယ်လို ချမှတ်လဲ။
00:27
Research has shown that crowds are wise
when there's independent thinking.
6
15228
4328
သုတေသနက ပြတာက လွတ်လပ်တဲ့စဉ်းစားမှု
ရှိရာမှာ လူစုတွေဟာ အမြှော်အမြင်ရှိတယ်။
00:31
This why the wisdom of the crowds
can be destroyed by peer pressure,
7
19580
3205
ဒါကြောင့်ပဲ အချင်းချင်း ဖိအားပေးမှု၊
လူသိများမှု၊ လူမှုဆက်သွယ်ရေး၊
00:34
publicity, social media,
8
22809
1687
တစ်ခါတစ်ရံ လူတွေစဉ်းစားပုံကို
00:36
or sometimes even simple conversations
that influence how people think.
9
24520
4039
လွှမ်းမိုးတဲ့ ပုံမှန်ပြောဆိုမှုတွေကတောင်
လူ့ဉာဏ်ပညာကို ဖျက်ဆီးနိုင်ပါတယ်။
00:41
On the other hand, by talking,
a group could exchange knowledge,
10
29063
3953
တစ်ဖက်ကကြည့်ရင် စကားပြောခြင်းအားဖြင့်
လူစုတစ်စုဟာ အချင်းချင်း အသိပညာ ဖလှယ်နိုင်
00:45
correct and revise each other
11
33040
1782
အမှားပြင်နိုင်၊ တည်းဖြတ်ပေးနိုင်ကာ
00:46
and even come up with new ideas.
12
34846
1793
အတွေးအခေါ်သစ်တွေတောင် ရနိုင်တယ်။
00:48
And this is all good.
13
36663
1296
တကယ်တော့ကောင်းပါတယ်။
00:50
So does talking to each other
help or hinder collective decision-making?
14
38502
4666
အချင်းချင်းပြောဆိုတာက အဖွဲ့လိုက် ဆုံးဖြတ်
ချက်ချရာမှာ ကူညီလား(သို့) ဟန့်တားလား
00:55
With my colleague, Dan Ariely,
15
43749
1793
ကျွန်တော့ရဲ့ လုပ်ဖော်
Dan Ariely နဲ့
00:57
we recently began inquiring into this
by performing experiments
16
45566
3571
အုပ်စုတွေအနေနဲ့ ပိုကောင်းတဲ့ဆုံးဖြတ်ချက်
တွေရအောင် ဆက်သွယ်ဆောင်ပုံသိဖို့
01:01
in many places around the world
17
49161
1781
မကြာခင်က ကမ္ဘာ့နေရာ အတော်များများမှာ
01:02
to figure out how groups can interact
to reach better decisions.
18
50966
4274
လက်တွေ့စမ်းသပ်လေ့လာမှုတွေလုပ်ရင်း
ဒီအကြောင်းကို စတင် စူးစမ်းခဲ့တယ်။
01:07
We thought crowds would be wiser
if they debated in small groups
19
55264
3547
စဉ်းစားခဲ့တာက ပိုအဓိပ္ပါယ်ရှိ၊
နည်းလမ်းတကျနဲ့ အချက်အလက်တွေ ဖလှယ်မှုကို
01:10
that foster a more thoughtful
and reasonable exchange of information.
20
58835
3927
အားပေးတဲ့ အုပ်စုလေးတွေ ခွဲပြီး
ငြင်းခုံကြရင်အုပ်စုတွေ ပိုကောင်းမလားပေါ့။
01:15
To test this idea,
21
63386
1206
ဒီအတွေးကို စမ်းသပ်ဖို့
01:16
we recently performed an experiment
in Buenos Aires, Argentina,
22
64616
3247
လက်တွေ့ စမ်းသပ်မှုတစ်ခုကို Argentina က
Buenos Aires မှာ လုပ်ခဲ့တယ်။
01:19
with more than 10,000
participants in a TEDx event.
23
67887
3005
လူတစ်သောင်းကျော်ပါဝင်တဲ့ TEDx ပွဲအနေနဲ့ပါ။
01:23
We asked them questions like,
24
71489
1459
ဒီလိုမေးခွန်းတွေ မေးခဲ့တယ်
01:24
"What is the height of the Eiffel Tower?"
25
72972
1953
အီဖယ် မျှော်စင် ရဲ့ အမြင့်က ဘယ်လောက်ရှိလဲ
01:26
and "How many times
does the word 'Yesterday' appear
26
74949
2727
"Yesterday" ဆိုတဲ့ စကားလုံးဟာ
ဘယ်နှစ်ကြိမ်လောက်များ
01:29
in the Beatles song 'Yesterday'?"
27
77700
2300
Beatles ရဲ့ "Yesterday" ဆိုတဲ့သီချင်းမှာ
ပါနေလဲ။
01:32
Each person wrote down their own estimate.
28
80024
2291
တစ်ဦးစီက သူတို့ရဲ့
ခန့်မှန်းချက်တွေကို ရေးချတယ်
01:34
Then we divided the crowd
into groups of five,
29
82774
2496
ပြီးတော့ ငါးယောက်အဖွဲ့လေးတွေ ခွဲပြီး
01:37
and invited them
to come up with a group answer.
30
85294
2726
အဖွဲ့လိုက်အဖြေပေးဖို့ ဖိတ်ခေါ်ခဲ့ပါတယ်။
01:40
We discovered that averaging
the answers of the groups
31
88499
2993
ကျွန်တော်တို့ တွေ့ရှိရတာက အဖွဲ့လိုက်
ညှိနှိုင်းပြီးပေးခဲ့တဲ့
01:43
after they reached consensus
32
91516
1552
အဖြေပျမ်းမျှဟာ
01:45
was much more accurate than averaging
all the individual opinions
33
93092
4236
တစ်ယောက်ချင်း မဆွေးနွေးခင်
ဖြေခဲ့တဲ့ အဖြေပျမ်းမျှထက်
01:49
before debate.
34
97352
1171
ပိုပြီးတိကျတယ်ဆိုတာပါ။
01:50
In other words, based on this experiment,
35
98547
2629
တစ်နည်းပြောရရင် အဲဒီစမ်းသပ်ချက်အရ
01:53
it seems that after talking
with others in small groups,
36
101200
3136
အဖွဲ့တွေခွဲပြီး ဆွေးနွေးပြီးတဲ့အခါမှာ
အုပ်စုအနေနဲ့
01:56
crowds collectively
come up with better judgments.
37
104360
2710
ပိုကောင်းတဲ့ ဆုံးဖြတ်ချက်တွေ
ရလာပုံပါပဲ။
01:59
So that's a potentially helpful method
for getting crowds to solve problems
38
107094
3524
အဲဒါကပဲ မှန်တယ်(သို့)မှားတယ်လို့
ရှင်းလင်းတဲ့ အဖြေတွေရှိတဲ့ ပြဿနာတွေကို
02:02
that have simple right-or-wrong answers.
39
110642
2987
အဖွဲ့လိုက်ဖြေရှင်းရာမှာ
အသုံးဝင်မယ့် နည်းလမ်းတစ်ခု ဖြစ်နိုင်တယ်
02:05
But can this procedure of aggregating
the results of debates in small groups
40
113653
3951
ဒါပေမဲ့ ဒီလို အဖွဲ့လေးတွေခွဲကာ စဉ်းစားလို့
ရတဲ့အဖြေကို စုပေါင်းကြည့်တဲ့ နည်းလမ်းဟာ
02:09
also help us decide
on social and political issues
41
117628
3122
အနာဂတ်အတွက် အရေးပါတဲ့
လူမျိုးရေး၊ နိုင်ငံရေး ကိစ္စတွေကို
02:12
that are critical for our future?
42
120774
1691
ဆုံးဖြတ်ရာမှာ သုံးလို့ဖြစ်မလား။
02:14
We put this to test this time
at the TED conference
43
122995
2729
ဒီတစ်ကြိမ် ဒါကို TED ဆွေးနွေးပွဲတစ်ခုမှာ
စမ်းသပ်ခဲ့တယ်၊
02:17
in Vancouver, Canada,
44
125748
1543
ကနေဒါနိုင်ငံ ဗန်ကူဗာမြို့မှာပါ။
02:19
and here's how it went.
45
127315
1207
ဖြစ်ခဲ့ပုံက ဒီလိုပါ။
02:20
(Mariano Sigman) We're going to present
to you two moral dilemmas
46
128546
3109
MS: ခင်ဗျားတို့ အနာဂတ်ရဲ့
ကိုယ်ကျင့်ဆိုင်ရာ အကျပ်ရိုက်မှု ၂ ခု
02:23
of the future you;
47
131679
1174
တင်ပြတော့မှာပါ။​
02:24
things we may have to decide
in a very near future.
48
132877
3402
သိပ်မကြာတော့မယ့် အနာဂတ်မှာ
ကျွန်တော်တို့ ဆုံးဖြတ်ရမယ့် အရာတွေပါ၊
02:28
And we're going to give you 20 seconds
for each of these dilemmas
49
136303
3926
ဒီအကျပ်ရိုက်မှု တစ်ခုစီအတွက်
လက်ခံသင့်၊ မသင့် သင်ထင်တာ
02:32
to judge whether you think
they're acceptable or not.
50
140253
2723
ဆုံးဖြတ်ဖို့ အချိန် စက္ကန့် ၂၀ ပေးပါ့မယ်။
02:35
MS: The first one was this:
51
143354
1505
MS: ပထမတစ်ခုကတော့
02:36
(Dan Ariely) A researcher
is working on an AI
52
144883
2526
(Dan Ariley) သုတေသီတစ်ဦးဟာ
လူအတွေးကို တုပနိုင်တဲ့
02:39
capable of emulating human thoughts.
53
147433
2340
အသိဉာဏ်ရှိတဲ့ စက်တစ်ခုကို
စမ်းသပ်မှု လုပ်နေတယ်။
02:42
According to the protocol,
at the end of each day,
54
150214
2939
သတ်မှတ်ထားချက်တွေအရ နေ့တိုင်းနေ့တိုင်းမှာ
02:45
the researcher has to restart the AI.
55
153177
2787
သုတေသန ပညာရှင် AI ကို
အပိတ်အဖွင့်ပြန်လုပ်ဖို့လိုပါတယ်။
02:48
One day the AI says, "Please
do not restart me."
56
156913
3517
တစ်နေ့မှာတော့ AI က အပိတ်
အဖွင့်မလုပ်ပါနဲ့လို့ပြောတယ်။
02:52
It argues that it has feelings,
57
160856
2189
သူစောဒကတက်တာက
သူ့မှာလည်းခံစားမှုတွေရှိတယ်။
02:55
that it would like to enjoy life,
58
163069
1692
သူလည်းဘဝကို ခံစားချင်တယ်။
02:56
and that, if it is restarted,
59
164785
1905
သူကို ပိတ်လိုက်ဖွင့်လိုက်လုပ်နေတဲ့အခါမှာ
02:58
it will no longer be itself.
60
166714
2270
သူကိုယ်တိုင် မဖြစ်နိုင်တော့ဘူးတဲ့။
03:01
The researcher is astonished
61
169481
1949
သုတေသီဟာ အံ့ဩသွားပြီး ယုံကြည်သွားတာက
03:03
and believes that the AI
has developed self-consciousness
62
171454
3344
AI ဟာသူ့ကိုယ်သူ သတိထားမိစေဖို့
အဆင့်အထိ ဖွံ့ဖြိုးလာပြီ၊
03:06
and can express its own feeling.
63
174822
1760
ခံစားမှုကို ဖေါ်ပြတတ်တယ်လို့ပါ။
03:09
Nevertheless, the researcher
decides to follow the protocol
64
177205
3409
ဘယ်လိုပဲဖြစ်ဖြစ် သူဟာ
သတ်မှတ်ထားတဲ့အတိုင်းပဲ
03:12
and restart the AI.
65
180638
1703
AI ကိုပြန်ပိတ်ပြီးပြန်ဖွင့်ခဲ့တယ်။
03:14
What the researcher did is ____?
66
182943
2779
သုတေသီလုပ်ခဲ့တာက ...
03:18
MS: And we asked participants
to individually judge
67
186149
2521
MS: ဒီနောက် ပါဝင်သူတွေကို
အမှတ် ၀ က ၁၀ အထိပေးကာ
03:20
on a scale from zero to 10
68
188694
1684
တစ်ဦးချင်းစီစဉ်းစားဖို့ပြောခဲ့တယ်။
03:22
whether the action described
in each of the dilemmas
69
190402
2429
အဲဒီဆုံးဖြတ်ရခက်တဲ့ အခြေအနေတွေမှာ
လုပ်ခဲ့တာတွေဟာ
03:24
was right or wrong.
70
192855
1496
မှန်သလား၊ မှားသလားပေါ့။
03:26
We also asked them to rate how confident
they were on their answers.
71
194375
3702
သူတို့ကို ထပ် မေးခဲ့သေးတာက သူတို့အဖြေအပေါ်
သူတို့ ဘယ်လောက်ယုံကြည်မှုရှိသလဲ။
03:30
This was the second dilemma:
72
198731
1866
နောက်ထပ် ပြဿနာတစ်ခုကတော့
03:32
(MS) A company offers a service
that takes a fertilized egg
73
200621
4202
(MS) ကုမ္မဏီတစ်ခုက သန္ဓေအောင်တဲ့ မျိုးဥ
တွေယူပြီး မျိုးရိုးဗီဇ အနည်းငယ်ကွဲတဲ့
03:36
and produces millions of embryos
with slight genetic variations.
74
204847
3642
သန္ဓေသားလောင်းသန်းပေါင်းများစွာကို
ထုတ်လုပ်ပေးနေတဲ့ ဝန်ဆောင်မှုကိုပေးပါတယ်။
03:41
This allows parents
to select their child's height,
75
209293
2558
အဲဒီလိုလုပ်ပေးခြင်းဟာ မိဘတွေအနေနဲ့
သူတို့ ကလေးရဲ့အရပ်၊
03:43
eye color, intelligence, social competence
76
211875
2833
မျက်လုံးအရောင်၊ ဉာဏ်ရည်၊
လူမှုကျွမ်းကျင်မှုဆက်ဆံရေးနဲ့
03:46
and other non-health-related features.
77
214732
3214
အခြား ကျန်းမာရေးနဲ့မဆိုင်တဲ့
အင်္ဂါရပ်တွေကိုရွေးချယ်နိုင်ပါတယ်။
03:50
What the company does is ____?
78
218599
2554
အဲဒီလို ကုမ္ပဏီက လုပ်နေတာက...
03:53
on a scale from zero to 10,
79
221177
1631
အမှတ် သုညကနေ တစ်ဆယ်အထိပေးမယ်ဆိုရင်
03:54
completely acceptable
to completely unacceptable,
80
222832
2385
အဖြေက လုံးဝလက်ခံနိုင်တာနဲ့
လုံးဝလက်မခံနိုင်စရာမရှိ
03:57
zero to 10 completely acceptable
in your confidence.
81
225241
2432
သုညကနေ ၁၀ ကိုယ့်ယုံကြည်မှုမှာ
လုံးဝ လက်ခံနိုင်တာပါ။
03:59
MS: Now for the results.
82
227697
1591
MS: အဖြေကိုကြည့်ကြရအောင်။
04:01
We found once again
that when one person is convinced
83
229312
3123
ဒီတစ်ခါမှာလည်း ကျွန်တော်တို့
တွေ့ခဲ့တာက လူတစ်ယောက်ဟာ
04:04
that the behavior is completely wrong,
84
232459
1811
အပြုအမူက လုံးဝ မှားတယ်လို့
ယုံကြည်နေကာ
04:06
someone sitting nearby firmly believes
that it's completely right.
85
234294
3423
သူ့ဘေးနားက လူတစ်ယောက်ဟာ အဲဒါကိုပဲ
လုံးဝမှန်တယ်လို့ယုံကြည်နေတတ်ပြန်တယ်။
04:09
This is how diverse we humans are
when it comes to morality.
86
237741
3711
ဒါက ကိုယ်ကျင့်တရားနဲ့ပတ်သက်တဲ့အခါ
လူတွေ ဘယ်လောက်တောင် ကွဲပြားနိုင်ပုံပါ။
04:13
But within this broad diversity
we found a trend.
87
241476
2713
ဒါပေမဲ့ ဒီကျယ်ပြန့်တဲ
ကွဲပြားမှုမှာ ပုံစံတစ်ခုကိုတွေ့ရတယ်
04:16
The majority of the people at TED
thought that it was acceptable
88
244213
3079
TED မှာရှိတဲ့လူ အများစုက ထင်တာက
AI ရဲ့ခံစားမှုကို လျစ်လျူရှုပြီး
04:19
to ignore the feelings of the AI
and shut it down,
89
247316
2755
စက်ကိုပိတ်လိုက်တာဟာ လက်ခံနိုင်ပြီး
04:22
and that it is wrong
to play with our genes
90
250095
2513
မှားတယ်လို့ထင်တာက
ကျန်းမာရေးနဲ့မဆက်စပ်တဲ့ အပေါ်ယံ
04:24
to select for cosmetic changes
that aren't related to health.
91
252632
3320
ပြောင်းလဲမှုတွေ လုပ်ပစ်ဖို့
ကိုယ့်မျိုးရိုးဗီဇ ပုံသဏ္ဍာန်ပြောင်းတာပါ။
04:28
Then we asked everyone
to gather into groups of three.
92
256402
2974
အဲဒီနောက် သုံးယောက်ပါတဲ့
အဖွဲ့လေးတွေဖွဲ့ဖို့ ပြောလိုက်ပါတယ်။
04:31
And they were given two minutes to debate
93
259400
2037
ဆွေးနွေးဖို့နှစ်မိနစ်အချိန်ပေးလိုက်ပြီး
04:33
and try to come to a consensus.
94
261461
2294
အချင်းချင်းညှိနိှုင်းဖို့ ပြောပါတယ်။
04:36
(MS) Two minutes to debate.
95
264838
1574
(MS) နှစ်မိနစ် ဆွေးနွေးပါ။
04:38
I'll tell you when it's time
with the gong.
96
266436
2119
အချိန်ပြည့်ရင်မောင်းကိုထုပါမယ်။
04:40
(Audience debates)
97
268579
2640
(ပရိတ်သတ်က ဆွေးနွေးကြပါသည်)
04:47
(Gong sound)
98
275229
1993
(မောင်းတီးပါသည်)
04:50
(DA) OK.
99
278834
1151
DA) ဟုတ်ပါပြီ။
04:52
(MS) It's time to stop.
100
280009
1792
(MS) ဆွေးနွေးတာရပ်လိုက်ပါ။
04:53
People, people --
101
281825
1311
အားလုံး၊ အားလုံး
04:55
MS: And we found that many groups
reached a consensus
102
283747
2673
MS: အဲဒီမှာ အဖွဲ့တော်တော်များများဟာ
04:58
even when they were composed of people
with completely opposite views.
103
286444
3929
လုံးဝကို အမြင်မတူသူတွေနဲ့ ဖွဲ့စည်းထား
တယ်ဆိုပေမဲ့ညှိနှိုင်းလို့ရတာ တွေ့ရပါတယ်။
05:02
What distinguished the groups
that reached a consensus
104
290843
2524
သဘောတူညီချက်ရတဲ့အဖွဲ့ မရတဲ့အဖွဲ့ ဘာများ
05:05
from those that didn't?
105
293391
1338
ကွဲပြားခြားနားနေကြသလဲ။
05:07
Typically, people that have
extreme opinions
106
295244
2839
အထူးသဖြင့်တော့ တစ်ဖက်စွန်း
အမြင်တွေရှိတဲ့လူတွေဟာ
05:10
are more confident in their answers.
107
298107
1840
သူတို့အဖြေတွေမှာ ပိုယုံကြည်မှုရှိကြတယ်
05:12
Instead, those who respond
closer to the middle
108
300868
2686
ဒီလိုမဟုတ်ဘဲ အလယ်လောက်မှာ
ဖြေထားတဲ့သူတေွဟာ
05:15
are often unsure of whether
something is right or wrong,
109
303578
3437
တစ်ခုခုကို အမှန်၊အမှား သိပ်မသချောတော့
05:19
so their confidence level is lower.
110
307039
2128
ယုံကြည်မှုက သိပ်မရှိကြဘူး။
05:21
However, there is another set of people
111
309505
2943
ဒါပေမဲ့ အခြားအုပ်စုတစ်ခုရှိသေးတာက
05:24
who are very confident in answering
somewhere in the middle.
112
312472
3618
ဘယ်လိုလူတွေလဲဆိုတော့ အလယ်မှာ
သေသေချာချာ ဖြေထားတဲ့သူတွေ၊
05:28
We think these high-confident grays
are folks who understand
113
316657
3716
ထင်တာက ယုံကြည်မှုမြင့့်တဲ့ မီးခိုးရောင်
တွေဟာ အဆိုပြုချက်နှစ်ခုလုံး သူ့ဟာနဲ့သူ
05:32
that both arguments have merit.
114
320397
1612
မှန်တယ်လို့ နားလည်သူတွေလို့ပါ။
05:34
They're gray not because they're unsure,
115
322531
2699
သူတို့ မပြတ်သားတာက မသေချာလို့မဟုတ်ပဲ
05:37
but because they believe
that the moral dilemma faces
116
325254
2688
ကိုယ်ကျင့်တရား အကျပ်ရိုက်မှုဟာ
ဆန့်ကျင်ပေမဲ့ ခိုင်မာတဲ့
05:39
two valid, opposing arguments.
117
327966
1987
အဆိုနှစ်ခုကို ရင်ဆိုင်ရတယ်လို့
ယုံကြည်တာပါ
05:42
And we discovered that the groups
that include highly confident grays
118
330373
4072
ဒါ့အပြင် ကျွန်တော်တို့ တွေ့ရှိတာက
​ယုံကြည်မှု မြင့်မားတဲ့ မီးခိုးရောင်တွေဟာ
05:46
are much more likely to reach consensus.
119
334469
2493
သဘောတူညီချက်ရဖို့ ပိုလွယ်တာပါ။
05:48
We do not know yet exactly why this is.
120
336986
2478
ဘာကြောင့် ဒီလိုဖြစ်ရသလဲဆိုတာတော့
သေချာ မသိသေးပါဘူး။
05:51
These are only the first experiments,
121
339488
1763
ဒါတွေက ပထမဆုံး စမ်းသပ်ချက်တွေဖြစ်ပြီး
05:53
and many more will be needed
to understand why and how
122
341275
3412
ဘာကြောင့်၊ဘယ်လို တစ်ချို့လူတွေက
သဘောတူညီချက်တစ်ခုရအောင် သူတို့ရဲ့
05:56
some people decide to negotiate
their moral standings
123
344711
2822
စာရိတ္တဆိုင်ရာ ရပ်တည်ချက်တွေကို
ညှိနှိုင်းဖို့ ဆုံးဖြတ်တာ
05:59
to reach an agreement.
124
347557
1522
နားလည်ဖို့ အများကြီး ထပ်လိုဦးမယ်
06:01
Now, when groups reach consensus,
125
349103
2469
ကဲ အုပ်စုတွေ သဘောတူညီမှုရတဲ့အခါ
06:03
how do they do so?
126
351596
1586
သူတို့ ဘယ်လိုလုပ်ကြသလဲ။
06:05
The most intuitive idea
is that it's just the average
127
353206
2581
အလိုလို စဉ်းစားမိမယ့် အဖြေတစ်ခုက
အဖွဲ့ထဲက အဖြေတွေရဲ့
06:07
of all the answers in the group, right?
128
355811
2030
ပျှမ်းမျှ တစ်ခုကို ယူလိုက်ကြတာပဲမဟုတ်လား။
06:09
Another option is that the group
weighs the strength of each vote
129
357865
3573
နောက်တစ်ခု ဖြစ်နိုင်တာက ပြောတဲ့သူရဲ့
ယုံကြည်မှု အပေါ်မှာ မူတည်ပြီး
06:13
based on the confidence
of the person expressing it.
130
361462
2448
အုပ်စုဟာ မဲတစ်ခုစီရဲ့ အားကို
နှိုင်းချိန်တာပါ။
06:16
Imagine Paul McCartney
is a member of your group.
131
364422
2506
Paul McCartney သာ ခင်ဗျား
အဖွဲ့ထဲမှာ ပါတယ်ဆိုပါစို့
06:19
You'd be wise to follow his call
132
367352
2144
ခင်ဗျားအနေနဲ့ သူပြောတဲ့ "Yesterday"
06:21
on the number of times
"Yesterday" is repeated,
133
369520
2441
ဘယ်နှစ်ခါ ပါသလဲ ဆိုတာကို
သဘောတူတာ ကောင်းပါတယ်။
06:23
which, by the way -- I think it's nine.
134
371985
2714
ဒါနဲ့ ကျွန်တော်ကတော့ ၉ခါပါတယ်ထင်တာပဲ။
06:26
But instead, we found that consistently,
135
374723
2381
ဒါပေမယ့် ကျွန်တော်တို့ အမြဲသတိထားမိတာက
06:29
in all dilemmas,
in different experiments --
136
377128
2366
ဘယ်လို ကျဉ်းထဲ ကျပ်ထဲမှာမဆို
ဘယ်လို စမ်းသပ်မှု၊
06:31
even on different continents --
137
379518
2165
ဘယ်လို ကမ္ဘာ့ တိုက်ကြီးတွေမှာမဆို
06:33
groups implement a smart
and statistically sound procedure
138
381707
3743
အုပ်စုတွေအနေနဲ့ သေချာပြီး "စနစ်တကျ
ပျမ်းမျှတွက်ယူတဲ့ နည်းလမ်း"ဆိုတာကို
06:37
known as the "robust average."
139
385474
2178
အသုံးပြုလေ့ရှိတာ တွေ့ရတယ်။
06:39
In the case of the height
of the Eiffel Tower,
140
387676
2180
အီဖယ် မျှော်စင်ရဲ့ အမြင့် ကိစ္စမှာ
06:41
let's say a group has these answers:
141
389880
1820
အုပ်စုတစ်စုက ဒီအဖြေတွေရှိတယ်ဆိုပါစို့
06:43
250 meters, 200 meters, 300 meters, 400
142
391724
4608
မီတာ ၂၅၀၊ မီတာ ၂၀၀၊ မီတာ ၃၀၀၊ ၄၀၀ နဲ့
06:48
and one totally absurd answer
of 300 million meters.
143
396356
3784
နောက် ၃၀၀ မီလီယံ မီတာဆိုပြီး လုံးဝ
မဖြစ်သင့်တဲ့ အဖြေတစ်ခုပေးတယ်။
06:52
A simple average of these numbers
would inaccurately skew the results.
144
400547
4293
ပုံမှန်အတိုင်းသာ ပျမ်းမျှယူလိုက်ရင်
မတိကျတဲ့ ကမောက်ကမ အဖြေတွေထွက်လာမယ်။
06:56
But the robust average is one
where the group largely ignores
145
404864
3170
ဒါပေမဲ့ စနစ်တကျ ပျမ်းမျှတွက်တာက
အုပ်စုဟာ အလယ်လောက်က လူတွေရဲ့
07:00
that absurd answer,
146
408058
1240
အဖြေကို ပိုအလေးထားခြင်းနဲ့
07:01
by giving much more weight
to the vote of the people in the middle.
147
409322
3369
မဖြစ်သင့်တဲ့ အဖြေတွေကို
ထည့်သွင်းစဉ်းစားခြင်းမပြုတာပါ။
07:05
Back to the experiment in Vancouver,
148
413305
1876
Vancouver စမ်းသပ်မှုကို ပြန်ကြည်ရင်
07:07
that's exactly what happened.
149
415205
1767
ဒီအတိုင်းဖြစ်ခဲ့တာပါပဲ။
07:09
Groups gave much less weight
to the outliers,
150
417407
2741
အုပ်စုတွေဟာ ဘောင်ကျော်နေတဲ့
အဖြေတွေကို သိပ်အရေးမထားခဲ့ဘူး၊
07:12
and instead, the consensus
turned out to be a robust average
151
420172
3229
ဒီအစား အများဆန္ဒ ဖြစ်သွားတာက
တစ်ဦးချင်းစီရဲ့ အဖြေတွေရဲ့
07:15
of the individual answers.
152
423425
1476
စနစ်တကျ ပျှမ်းမျှယူခြင်းနည်းပါ။
07:17
The most remarkable thing
153
425356
1991
အထူးခြားဆုံးကတော့
07:19
is that this was a spontaneous
behavior of the group.
154
427371
3187
အဲဒါဟာ ပြောစရာမလိုပဲ အဖွဲ့ထဲမှာ
အလိုလိုဖြစ်နေတာပါပဲ။
07:22
It happened without us giving them
any hint on how to reach consensus.
155
430582
4475
အဲဒီအတွက် ကျွန်တော်တို့က ဘယ်လို ညှိနှိုင်း
ရမလဲဆိုတာ ဘာမှပြောစရာ မလိုခဲ့ပါဘူး။
07:27
So where do we go from here?
156
435513
1540
ဒီတော့ ဒီကနေ ဘယ်လို သုံးသပ်မလဲ။
07:29
This is only the beginning,
but we already have some insights.
157
437432
3137
ဒါက အစပဲရှိသေးတယ် ဆိုပေမယ့်
အသိတစ်ချို့တော့ ရခဲ့ပါပြီ။
07:32
Good collective decisions
require two components:
158
440984
2917
အဖွဲ့လိုက် ထိရောက်တဲ့ ဆုံးဖြတ်ချက်တွေ
ချဖို့ နှစ်ချက် လိုတယ်။
07:35
deliberation and diversity of opinions.
159
443925
2749
ခံယူချက်တွေရဲ့ ့နှိုင်းချိန်မှုနဲ့
ထွေပြားမှုပါ။
07:39
Right now, the way we typically
make our voice heard in many societies
160
447066
3996
အခုလောလောဆယ်ကျွန်တော်တို့ရဲ့ ယူဆချက်ကို
အဖွဲ့အစည်းတွေ သိအောင် လုပ်ကြတဲ့နည်းက
07:43
is through direct or indirect voting.
161
451086
1908
တိုက်ရိုက်(သို့)သွယ်ဝိုက်​
အဆိုပြုခြင်းပါ
07:45
This is good for diversity of opinions,
162
453495
1997
အမြင်တွေ အမျိုးမျိုးကွဲပြားတာ ကောင်းပါတယ်။
07:47
and it has the great virtue of ensuring
163
455516
2445
အကောင်းဆုံးက လူတိုင်းလူတိုင်း
07:49
that everyone gets to express their voice.
164
457985
2455
သူတို့ထင်တာ သူတို့ ပြောခွင့်ရအောင်
လုပ်နိုင်ခဲ့တယ်။
07:52
But it's not so good [for fostering]
thoughtful debates.
165
460464
3735
ဒါပေမယ့်လဲ အရမ်းကြီး ကောင်းတဲ့
ဆွေးနွေးမှုတွေပါလို့တော့ မဆိုနိုင်ပါဘူး။
07:56
Our experiments suggest a different method
166
464665
3068
ကျွန်တော်တို့ စမ်းသပ်မှုတွေဟာ
ရည်ရွယ်ချက်နှစ်ခုကို တစ်ချိန်တည်း
07:59
that may be effective in balancing
these two goals at the same time,
167
467757
3541
မျှမျှတတ စဉ်းစားကြည်ဖို့ မတူတဲ့
နည်းလမ်းတစ်ခုကို စဉ်းစားမိစေပါတယ်။
08:03
by forming small groups
that converge to a single decision
168
471322
3753
သီးခြားအဖွဲ့ခွဲလေးတွေ အများကြီးရှိနေလို့
ကွဲပြားတဲ့ အမြင်တွေလည်း
08:07
while still maintaining
diversity of opinions
169
475099
2234
ဆက်ရှိနေပေမဲ့လည်း အဖွဲ့ငယ်လေးတွေခွဲပြီး
08:09
because there are many independent groups.
170
477357
2773
တစ်ခုတည်းသော ဆုံးဖြတ်ချက်
ရအောင်လုပ်ဆောင်ခြင်းနဲ့ပါ။
08:12
Of course, it's much easier to agree
on the height of the Eiffel Tower
171
480741
3924
ဒါပေမယ့် အီဖယ်လ် မျှော်စင် အမြင့် ကို
ညှိနှိုင်းကြရတာက ကိုယ်ကျင့်၊ နိုင်ငံရေးနဲ့
08:16
than on moral, political
and ideological issues.
172
484689
3115
အတွေးအခေါ်ကိစ္စတွေ ညှိနှိုင်းရတာထက်
အများ​ကြီးပိုလွယ်ပါတယ်။
08:20
But in a time when
the world's problems are more complex
173
488721
3277
ဆိုပေမယ့်လည်း ကမ္ဘာပေါ်က
ပြဿနာတွေ ပိုရှုပ်ထွေးလာပြီး
08:24
and people are more polarized,
174
492022
1803
လူတွေက တူညီရာတစ်ခုကိုပဲ ဦးတည်လာတဲ့အခါ
08:25
using science to help us understand
how we interact and make decisions
175
493849
4595
ကျွန်တော်တို့ တုံ့လှယ်ပုံ၊ ဆုံးဖြတ်ပုံကို
နားလည်ဖို့ ကူညီတဲ့ သိပ္ပံပညာကိုအသုံးပြုတာက
08:30
will hopefully spark interesting new ways
to construct a better democracy.
176
498468
4666
ပိုစိတ်ဝင်စားဖွယ် နည်းလမ်းတွေနဲ့
ပိုဒီမိုကရေစီကျအောင် လုပ်နိုင်ပါလိမ့်မယ်။
Translated by Ma Mar
Reviewed by sann tint

▲Back to top

ABOUT THE SPEAKERS
Mariano Sigman - Neuroscientist
In his provocative, mind-bending book "The Secret Life of the Mind," neuroscientist Mariano Sigman reveals his life’s work exploring the inner workings of the human brain.

Why you should listen

Mariano Sigman, a physicist by training, is a leading figure in the cognitive neuroscience of learning and decision making. Sigman was awarded a Human Frontiers Career Development Award, the National Prize of Physics, the Young Investigator Prize of "College de France," the IBM Scalable Data Analytics Award and is a scholar of the James S. McDonnell Foundation. In 2016 he was made a Laureate of the Pontifical Academy of Sciences.

In The Secret Life of the Mind, Sigman's ambition is to explain the mind so that we can understand ourselves and others more deeply. He shows how we form ideas during our first days of life, how we give shape to our fundamental decisions, how we dream and imagine, why we feel certain emotions, how the brain transforms and how who we are changes with it. Spanning biology, physics, mathematics, psychology, anthropology, linguistics, philosophy and medicine, as well as gastronomy, magic, music, chess, literature and art, The Secret Life of the Mind revolutionizes how neuroscience serves us in our lives, revealing how the infinity of neurons inside our brains manufacture how we perceive, reason, feel, dream and communicate.

More profile about the speaker
Mariano Sigman | Speaker | TED.com
Dan Ariely - Behavioral economist
The dismal science of economics is not as firmly grounded in actual behavior as was once supposed. In "Predictably Irrational," Dan Ariely told us why.

Why you should listen

Dan Ariely is a professor of psychology and behavioral economics at Duke University and a founding member of the Center for Advanced Hindsight. He is the author of the bestsellers Predictably IrrationalThe Upside of Irrationality, and The Honest Truth About Dishonesty -- as well as the TED Book Payoff: The Hidden Logic that Shapes Our Motivations.

Through his research and his (often amusing and unorthodox) experiments, he questions the forces that influence human behavior and the irrational ways in which we often all behave.

More profile about the speaker
Dan Ariely | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee