ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com
TEDxCambridge

Sebastian Wernicke: How to use data to make a hit TV show

سباستین وِرنیک: چگونه از اطلاعات برای ساختن برنامه‌های تلویزونی موفق استفاده کنیم

Filmed:
1,628,704 views

آیا جمع کردن اطلاعات به تصمیم‌گیری بهتر منجر می‌شود؟ شرکت های رقابت‌جو و خوره اطلاعات مثل گوگل، نتفلیکس و آمازون فهمیده‌اند که صرفاً تحلیل اطلاعات همیشه به بهترین نتیجه ختم نمی‌شود. در این سخنرانی، سباستین وِرنیک که دانشمند داده‌هاست، این قضیه را واشکافی می‌کند که چرا تصمیم‌گیری صِرف بر اساس اطلاعات ممکن است به مسیر اشتباه برود(والبته یه راه مغزمدارتر هم پیشنهاد می‌کند).
- Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects. Full bio

Double-click the English transcript below to play the video.

00:12
Royروی Priceقیمت is a man that mostاکثر of you
have probablyشاید never heardشنیدم about,
0
820
4276
احتمالا بیشتر ما اسم "روی پرایس"
رو نشنیدیم،
00:17
even thoughگرچه he mayممکن است have been responsibleمسئول
1
5120
2496
با اینکه مسئول
00:19
for 22 somewhatتاحدی mediocreمتوسط
minutesدقایق of your life on Aprilآوریل 19, 2013.
2
7640
6896
۲۲ دقیقه از اوقات نه چندان خوبه شما
در ۱۹ آوریل سال ۲۰۱۳ بوده.
00:26
He mayممکن است have alsoهمچنین been responsibleمسئول
for 22 very entertainingسرگرم کننده minutesدقایق,
3
14560
3176
از طرفی هم شاید مسئول ۲۲ دقیقه بسیار
سرگرم کننده از اوقات شما بوده،
00:29
but not very manyبسیاری of you.
4
17760
2256
البته نه برای خیلی‌هاتون.
00:32
And all of that goesمی رود back to a decisionتصمیم گیری
5
20040
1896
همه اینها به تصمیمی برمیگرده
00:33
that Royروی had to make
about threeسه yearsسالها agoپیش.
6
21960
2000
که "رُوی" سه سال پیش باید میگرفت.
00:35
So you see, Royروی Priceقیمت
is a seniorارشد executiveاجرایی with Amazonآمازون Studiosاستودیوها.
7
23984
4832
میدونید، "روی پرایس" یکی از مدیران اجرایی
بالا رتبه در آمازون استودیوز هست.
00:40
That's the TVتلویزیون productionتولید
companyشرکت of Amazonآمازون.
8
28840
3016
شرکت تولیدکننده محصولات
رسانه‌ای متعلق به آمازون.
00:43
He's 47 yearsسالها oldقدیمی, slimباریک, spikyحشری hairمو,
9
31880
3256
اون ۲۷ سال داره، لاغره، موهاش تیغ تیغیه،
00:47
describesتوصیف himselfخودت on Twitterتوییتر
as "moviesفیلم ها, TVتلویزیون, technologyتکنولوژی, tacostacos."
10
35160
4816
خودش توی "توئیتر" میگه اهل سینما، تلویزیون،
تکنولوژی و پیراشکی مکزیکیه.
00:52
And Royروی Priceقیمت has a very responsibleمسئول jobکار,
because it's his responsibilityمسئوليت
11
40000
5176
خوب "روی پرایس" کار حساسی داره
چون مسئولیتش اینه که
00:57
to pickانتخاب کنید the showsنشان می دهد, the originalاصلی contentمحتوا
that Amazonآمازون is going to make.
12
45200
4056
برنامه‌هایی رو انتخاب کنه که
آمازون قراره اونا رو بسازه.
01:01
And of courseدوره that's
a highlyبه شدت competitiveرقابتی spaceفضا.
13
49280
2336
و بدون شک در فضای رقابتی
شدیدی فعالیت میکنه.
01:03
I mean, there are so manyبسیاری
TVتلویزیون showsنشان می دهد alreadyقبلا out there,
14
51640
2736
چون برنامه‌های تلویزیونی
خیلی زیادی وجود دارن،
01:06
that Royروی can't just chooseانتخاب کنید any showنشان بده.
15
54400
2176
"روی" هر برنامه‌ای هم
نمیتونه انتخاب کنه.
01:08
He has to find showsنشان می دهد
that are really, really great.
16
56600
4096
اون باید برنامه‌های رو انتخاب کنه
که واقعاً عالی هستن.
01:12
So in other wordsکلمات, he has to find showsنشان می دهد
17
60720
2816
یعنی باید دنبال برنامه‌هایی باشه که
01:15
that are on the very right endپایان
of this curveمنحنی here.
18
63560
2376
در انتهای سمت راست این منحنی بشینن،
01:17
So this curveمنحنی here
is the ratingرتبه بندی distributionتوزیع
19
65960
2656
این منحنی نشون دهنده
توزیع رتبه بندیِ
01:20
of about 2,500 TVتلویزیون showsنشان می دهد
on the websiteسایت اینترنتی IMDBIMDB,
20
68640
4376
حدوداً ۲,۵۰۰ برنامه تلویزیونی
در تارنمایه IMDB هست،
01:25
and the ratingرتبه بندی goesمی رود from one to 10,
21
73040
2896
و این رتبه بندی از یک تا ده هست.
01:27
and the heightارتفاع here showsنشان می دهد you
how manyبسیاری showsنشان می دهد get that ratingرتبه بندی.
22
75960
2976
و محور عمودی نشون میده چه تعداد
برنامه اون رتبه رو دارن،
01:30
So if your showنشان بده getsمی شود a ratingرتبه بندی
of nineنه pointsنکته ها or higherبالاتر, that's a winnerبرنده.
23
78960
4696
خوب اگر برنامه شما رتبه ۹ یا بالاتر
رو داشته باشه، برنده شده.
01:35
Then you have a topبالا two percentدرصد showنشان بده.
24
83680
1816
یعنی رتبه برنامتون
خیلی بالاست.
01:37
That's showsنشان می دهد like "Breakingشکستن Badبد,"
"Gameبازی of Thronesپادشاهان," "The Wireسیم,"
25
85520
3896
سریالهایی مثل "Breaking Bad"
، "Game of Thrones" و "The Wire".
01:41
so all of these showsنشان می دهد that are addictiveاعتیاد آور,
26
89440
2296
همه این سریالها اعتیاد آورن.
01:43
whereafterبعدا you've watchedتماشا کردم a seasonفصل,
your brainمغز is basicallyاساسا like,
27
91760
3056
بعد از اینکه فصل اول رو ببینید
انگار مغزتون میگه،
01:46
"Where can I get more of these episodesقسمت ها?"
28
94840
2176
«کجا میتونم قسمت های
بعدی رو پیدا کنم؟»
01:49
That kindنوع of showنشان بده.
29
97040
1200
منظورم این برنامه‌هاست.
01:50
On the left sideسمت, just for clarityوضوح,
here on that endپایان,
30
98920
2496
برای اینکه روشنتون کنم سمت چپ
یعنی در این انتها،
01:53
you have a showنشان بده calledبه نام
"Toddlersکودک نوپا and TiarasTiaras" --
31
101440
3176
برنامه هایی مثله "Toddlers and Tiaras"
وجود دارنــ
01:56
(Laughterخنده)
32
104640
2656
(خنده)
01:59
-- whichکه should tell you enoughکافی
33
107320
1536
ــکه به اندازه کافی بهتون میگه
02:00
about what's going on
on that endپایان of the curveمنحنی.
34
108880
2191
انتهای این منحنی چی میگذره.
02:03
Now, Royروی Priceقیمت is not worriedنگران about
gettingگرفتن on the left endپایان of the curveمنحنی,
35
111095
4161
"روی پرایس" نگران این نیست که
به انتهای چپ این منحنی برسه،
02:07
because I think you would have to have
some seriousجدی brainpowerنیروی ذهنی
36
115280
2936
چون من فکر کنم آدم باید واقعاً
قدرت ذهنی بالایی داشته باشه که
02:10
to undercutبریدن "Toddlersکودک نوپا and TiarasTiaras."
37
118240
1696
Toddlers and Tiarasرو
زیرقیمت بفروشه.
02:11
So what he's worriedنگران about
is this middleوسط bulgeبجای here,
38
119960
3936
نگرانیه اصلی اون چیزیه که
وسط این منحنی میگذره،
02:15
the bulgeبجای of averageمیانگین TVتلویزیون,
39
123920
1816
یعنی برنامه‌های متوسط،
02:17
you know, those showsنشان می دهد
that aren'tنه really good or really badبد,
40
125760
2856
منظورم برنامه‌هایی که
نه خیلی خوبن نه خیلی بد،
02:20
they don't really get you excitedبرانگیخته.
41
128639
1656
برنامه‌هایی که شما رو به وجد نمیارن.
02:22
So he needsنیاز دارد to make sure
that he's really on the right endپایان of this.
42
130320
4856
اون میخواست مطمئن شه که واقعاً در
انتهای درست این ماجرا قرار بگیره.
02:27
So the pressureفشار is on,
43
135200
1576
پس همچنان فشار ادامه داره،
02:28
and of courseدوره it's alsoهمچنین the first time
44
136800
2176
و البته اولین باریه که
02:31
that Amazonآمازون is even
doing something like this,
45
139000
2176
آمازون داره چنین کاری انجام میده
02:33
so Royروی Priceقیمت does not want
to take any chancesشانس.
46
141200
3336
پس "روی پرایس" نمیخواد
پای شانس رو بکشه وسط.
02:36
He wants to engineerمهندس successموفقیت.
47
144560
2456
بلکه میخواست موفقیت رو مهندسی کنه.
02:39
He needsنیاز دارد a guaranteedتضمین successموفقیت,
48
147040
1776
اون باید موفقیت رو ضمانت کنه،
02:40
and so what he does is,
he holdsدارای a competitionرقابت.
49
148840
2576
پس برای انجام این کار
یه مسابقه برگزار کرد.
02:43
So he takes a bunchدسته ای of ideasایده ها for TVتلویزیون showsنشان می دهد,
50
151440
3136
برای این کار تعدادی ایده برای ساخت
برنامه‌های تلویزیونی جمع کرد،
02:46
and from those ideasایده ها,
throughاز طریق an evaluationارزیابی,
51
154600
2296
و با ارزیابی اون ایده‌ها،
02:48
they selectانتخاب کنید eightهشت candidatesنامزدهای for TVتلویزیون showsنشان می دهد,
52
156920
4096
هشت کاندیدا برای برنامه‌های
تلویزیونی انتخاب کردند،
02:53
and then he just makesباعث می شود the first episodeقسمت
of eachهر یک one of these showsنشان می دهد
53
161040
3216
و قسمت اول هر کدوم از این
برنامه‌ها رو تهیه کرد
02:56
and putsقرار می دهد them onlineآنلاین for freeرایگان
for everyoneهر کس to watch.
54
164280
3136
و اون برنامه‌ها را به صورت رایگان
روی اینترنت گذاشت تا همه ببینن.
02:59
And so when Amazonآمازون
is givingدادن out freeرایگان stuffچیز,
55
167440
2256
خوب وقتی آمازون چیزی رو
رایگان میذاره،
03:01
you're going to take it, right?
56
169720
1536
شما هم تماشایش میکنید، نه؟
03:03
So millionsمیلیون ها نفر of viewersبینندگان
are watchingتماشا کردن those episodesقسمت ها.
57
171280
5136
خوب الان میلیونها نفر دارن
این برنامه‌ها رو میبینن.
03:08
What they don't realizeتحقق بخشیدن is that,
while they're watchingتماشا کردن theirخودشان showsنشان می دهد,
58
176440
3216
اما نمیدونن که
درحالی که دارن برنامشون رو میبینن،
03:11
actuallyدر واقع, they are beingبودن watchedتماشا کردم.
59
179680
2296
در واقع تحت نظرند.
03:14
They are beingبودن watchedتماشا کردم
by Royروی Priceقیمت and his teamتیم,
60
182000
2336
"روی پرایس" و تیمش در حال تماشا
کردن اونا هستن،
03:16
who recordرکورد everything.
61
184360
1376
و همه چیز رو ثبت میکنن.
03:17
They recordرکورد when somebodyکسی pressesپرس می کند playبازی,
when somebodyکسی pressesپرس می کند pauseمکث,
62
185760
3376
اونها ثبت میکن فرد چند بار
پخش یا مکث رو فشار میده،
03:21
what partsقطعات they skipجست و خیز,
what partsقطعات they watch again.
63
189160
2536
یا اینکه بخشی رو رد میکنه،
یا دوباره میبینه.
03:23
So they collectجمع کن millionsمیلیون ها نفر of dataداده ها pointsنکته ها,
64
191720
2256
اونا میلیونها نقطه اطلاعاتی جمع میکنن،
03:26
because they want
to have those dataداده ها pointsنکته ها
65
194000
2096
چون به این نقاط اطلاعاتی
نیاز دارن تا
03:28
to then decideتصميم گرفتن
whichکه showنشان بده they should make.
66
196120
2696
بتونن تصمیم بگیرن چه
نوع برنامه‌ای باید ساخت.
03:30
And sure enoughکافی,
so they collectجمع کن all the dataداده ها,
67
198840
2176
و برای اطمینان
تمامی اطلاعات رو جمع می‌کنن،
03:33
they do all the dataداده ها crunchingخراب کردن,
and an answerپاسخ emergesظاهر می شود,
68
201040
2576
تمام اطلاعات را پردازش می‌کنن
تا به یک جواب برسن،
03:35
and the answerپاسخ is,
69
203640
1216
و اون جواب اینه که
03:36
"Amazonآمازون should do a sitcomsitcom
about fourچهار Republicanجمهوری خواه US Senatorsسناتورها."
70
204880
5536
آمازون باید یه طنز بسازه
درباره چهار سناتور جمهوریخواه آمریکایی.
03:42
They did that showنشان بده.
71
210440
1216
اونا این برنامه رو ساختن.
03:43
So does anyoneهر کسی know the nameنام of the showنشان بده?
72
211680
2160
کسی اسم اون برنامه رو میدونه؟
03:46
(Audienceحضار: "Alphaآلفا Houseخانه.")
73
214720
1296
(حضار: Alpha House)
03:48
Yes, "Alphaآلفا Houseخانه,"
74
216040
1456
درسته، «Alpha House»
03:49
but it seemsبه نظر می رسد like not too manyبسیاری of you here
rememberیاد آوردن that showنشان بده, actuallyدر واقع,
75
217520
4096
انگار خیلی‌هاتون اون برنامه رو
به خاطر نمیارید،
03:53
because it didn't turnدور زدن out that great.
76
221640
1856
چون چیز جالبی از کار در نیومد.
03:55
It's actuallyدر واقع just an averageمیانگین showنشان بده,
77
223520
1856
واقعیتش یه برنامه متوسط بود،
03:57
actuallyدر واقع -- literallyعینا, in factواقعیت, because
the averageمیانگین of this curveمنحنی here is at 7.4,
78
225400
4576
دقیقاً همینطوره، چون در این منحنی
حد متوسط در نقطه ۷/۴ هست،
04:02
and "Alphaآلفا Houseخانه" landsزمین ها at 7.5,
79
230000
2416
و برنامه آلفا هاوس
در نقطه ۷/۵ قرار داره،
04:04
so a slightlyکمی aboveدر بالا averageمیانگین showنشان بده,
80
232440
2016
در واقع یه کمی بالای حد متوسط،
04:06
but certainlyقطعا not what Royروی Priceقیمت
and his teamتیم were aimingهدف for.
81
234480
2920
و صد البته این چیزی نیست که
"روی پرایس" و تیمش میخواستن.
04:10
Meanwhileدر همین حال, howeverبا این حال,
at about the sameیکسان time,
82
238320
2856
اما همون موقع،
04:13
at anotherیکی دیگر companyشرکت,
83
241200
1576
در یک شرکت دیگه،
04:14
anotherیکی دیگر executiveاجرایی did manageمدیریت کردن
to landزمین a topبالا showنشان بده usingاستفاده كردن dataداده ها analysisتحلیل و بررسی,
84
242800
4216
یک مدیر اجرایی دیگه تونست با تجزیه و
تحیل اطلاعات یک برنامه عالی بسازه،
04:19
and his nameنام is Tedتد,
85
247040
1576
و اسم اون فرد «تد» هست،
04:20
Tedتد Sarandosساراندوز, who is
the Chiefرئیس Contentمحتوا Officerافسر of NetflixNetflix,
86
248640
3416
«تد ساراندوز»، مدیر ارشد محتوی
در شرکت نتفلیکس،
04:24
and just like Royروی,
he's on a constantثابت missionماموریت
87
252080
2136
اون هم دقیقاً مثله "روی"
کمر همت رو بسته بود
04:26
to find that great TVتلویزیون showنشان بده,
88
254240
1496
تا یه برنامه عالی پیدا کنه،
04:27
and he usesاستفاده می کند dataداده ها as well to do that,
89
255760
2016
او هم از اطلاعات برای این کار استفاده کرد،
04:29
exceptبجز he does it
a little bitبیت differentlyمتفاوت است.
90
257800
2015
بجز اینکه یه فرق کوچیک
این وسط وجود داشت،
04:31
So insteadبجای of holdingبرگزاری a competitionرقابت,
what he did -- and his teamتیم of courseدوره --
91
259839
3737
یعنی به جای برگزاری مسابقه، کاری که اون و
و البته تیمش کردن این بود که
04:35
was they lookedنگاه کرد at all the dataداده ها
they alreadyقبلا had about NetflixNetflix viewersبینندگان,
92
263600
3536
با دقت همه اطلاعاتی که درباره مخاطبین
نتفلیکس داشتن رو بررسی کردن،
04:39
you know, the ratingsرتبه بندی
they give theirخودشان showsنشان می دهد,
93
267160
2096
مثل امتیازی که افراد
به برنامه‌ها داده بودن،
04:41
the viewingمشاهده historiesتاریخچه,
what showsنشان می دهد people like, and so on.
94
269280
2696
سابقه تماشای برنامه، اینکه مردم چی
دوست دارن و غیره.
04:44
And then they use that dataداده ها to discoverكشف كردن
95
272000
1896
اونها ازاین اطلاعات
بهره بردن تا
04:45
all of these little bitsبیت and piecesقطعات
about the audienceحضار:
96
273920
2616
زیر و بم مخاطبین رو بشناسن:
04:48
what kindsانواع of showsنشان می دهد they like,
97
276560
1456
مثلا چه برنامه‌هایی
دوست دارن،
04:50
what kindنوع of producersتهیه کنندگان,
what kindنوع of actorsبازیگران.
98
278040
2096
یا کدوم تهیه کننده و کدوم بازگر رو میخوان،
04:52
And onceیک بار they had
all of these piecesقطعات togetherبا یکدیگر,
99
280160
2576
وقتی که همه این اطلاعات رو کنار هم گذاشتن،
04:54
they tookگرفت a leapجهش of faithایمان,
100
282760
1656
دل رو به دریا زدن،
04:56
and they decidedقرار بر این شد to licenseمجوز
101
284440
2096
و تصمیم گرقتن تا اون برنامه رو بسازن،
04:58
not a sitcomsitcom about fourچهار Senatorsسناتورها
102
286560
2456
اون هم نه یه کمدی درباره چهار سناتور،
05:01
but a dramaدرام seriesسلسله about a singleتنها Senatorسناتور.
103
289040
2880
بلکه یه سریال درام درباره
یک و فقط یه سناتور ساختن.
05:04
You guys know the showنشان بده?
104
292760
1656
فکر کنم بدونین اسمش چی بود؟
05:06
(Laughterخنده)
105
294440
1296
(خنده)
05:07
Yes, "Houseخانه of Cardsکارت ها," and NetflixNetflix
of courseدوره, nailedمیخ شده it with that showنشان بده,
106
295760
3736
آره،درسته، سریال «خانه پوشالی»
و البته شرکت نتفلیکس زدن به هدف،
05:11
at leastکمترین for the first two seasonsفصل ها.
107
299520
2136
حداقلش برای دو فصل اول که اینجور بود.
05:13
(Laughterخنده) (Applauseتشویق و تمجید)
108
301680
3976
(خنده) (تشویق)
05:17
"Houseخانه of Cardsکارت ها" getsمی شود
a 9.1 ratingرتبه بندی on this curveمنحنی,
109
305680
3176
سریال «خانه پوشالی» در نمودار ما
در امتیاز ۹/۱ نشست،
05:20
so it's exactlyدقیقا
where they wanted it to be.
110
308880
3176
یعنی دقیقاً همونجایی که
سازندهاش میخواستن باشه.
05:24
Now, the questionسوال of courseدوره is,
what happenedاتفاق افتاد here?
111
312080
2416
خوب سؤالی که پیش میاد اینه که
«چی شد که این شد؟»
05:26
So you have two very competitiveرقابتی,
data-savvyداده های شناخته شده companiesشرکت ها.
112
314520
2656
خوب ما اینجا دوتا شرکت خیلی رقیب و
خوره اطلاعات داریم.
05:29
They connectاتصال all of these
millionsمیلیون ها نفر of dataداده ها pointsنکته ها,
113
317200
2856
اونها این میلیونها نقطه اطلاعاتی رو
با هم ربط دادن
05:32
and then it worksآثار
beautifullyزیبایی for one of them,
114
320080
2376
و این کار برای
یه برنامه جواب داد،
05:34
and it doesn't work for the other one.
115
322480
1856
ولی برای بقیه جواب نداد.
05:36
So why?
116
324360
1216
اما چرا؟
05:37
Because logicمنطق kindنوع of tellsمی گوید you
that this should be workingکار کردن all the time.
117
325600
3456
چون منطقیش اینه که این کار باید برای
همه برنامه‌ها جواب بده.
05:41
I mean, if you're collectingجمع آوری
millionsمیلیون ها نفر of dataداده ها pointsنکته ها
118
329080
2456
یعنی وقتی شما میلیونها نقطه
اطلاعاتی جمع میکنید
05:43
on a decisionتصمیم گیری you're going to make,
119
331560
1736
برای تصمیمی که قرار بگیرید،
05:45
then you should be ableتوانایی
to make a prettyبسیار good decisionتصمیم گیری.
120
333320
2616
پس قاعدتاً باید تصمیم خوبی
بتونید بگیرید.
05:47
You have 200 yearsسالها
of statisticsآمار to relyتکیه on.
121
335960
2216
اندازه ۲۰۰ سال عدد و
رقم دارید که روش حساب کنید.
05:50
You're amplifyingتقویت it
with very powerfulقدرتمند computersکامپیوترها.
122
338200
3016
و با کامپیوترهای خیلی قوی
اونا رو تعبیر و تفسیر میکنید.
05:53
The leastکمترین you could expectانتظار
is good TVتلویزیون, right?
123
341240
3280
حداقل چیزی که باید انتظارشو داشت
برنامه‌های تلویزیونی خوبه.
05:57
And if dataداده ها analysisتحلیل و بررسی
does not work that way,
124
345880
2720
اگر تجزیه و تحلیل داده‌ها خوب کار نکنه،
06:01
then it actuallyدر واقع getsمی شود a little scaryترسناک,
125
349520
2056
یه جورایی قضیه ترسناک میشه،
06:03
because we liveزنده in a time
where we're turningچرخش to dataداده ها more and more
126
351600
3816
چون داریم تو دوره‌ای زندگی میکنیم
که خیلی بیشتر از قبل به اطلاعات نیاز داریم
06:07
to make very seriousجدی decisionsتصمیمات
that go farدور beyondفراتر TVتلویزیون.
127
355440
4480
برای گرفتن تصمیمهایی که خیلی
فراتر از برنامه های تلویزونیه.
06:12
Does anyoneهر کسی here know the companyشرکت
Multi-Healthچندین سلامت Systemsسیستم های?
128
360760
3240
کسی اینجا شرکت "Multi-Health Systems"
رو میشناسه؟
06:17
No one. OK, that's good actuallyدر واقع.
129
365080
1656
هیچ کس. خوب این واقعاً خوبه
06:18
OK, so Multi-Healthچندین سلامت Systemsسیستم های
is a softwareنرم افزار companyشرکت,
130
366760
3216
"Multi-Health Systems" یه شرکت نرم افزاریه
06:22
and I hopeامید that nobodyهيچ كس here in this roomاتاق
131
370000
2816
و امیدوارم هیچ کسی اینجا
06:24
ever comesمی آید into contactتماس
with that softwareنرم افزار,
132
372840
3176
تا حالا به اون برنامشون
بر نخورده باشه،
06:28
because if you do,
it meansبه معنای you're in prisonزندان.
133
376040
2096
چون انجام این کار
مساوی با زندانی شدنتون هست.
06:30
(Laughterخنده)
134
378160
1176
(خنده)
06:31
If someoneکسی here in the US is in prisonزندان,
and they applyدرخواست for paroleرمز عبور,
135
379360
3536
اگر اینجا، در آمریکا کسی در زندان باشه
و درخواست آزادی مشروط کنه،
06:34
then it's very likelyاحتمال دارد that
dataداده ها analysisتحلیل و بررسی softwareنرم افزار from that companyشرکت
136
382920
4296
به احتمال خیلی زیاد نرم افزار تحلیل
اطلاعات این شرکت
06:39
will be used in determiningتعیین کردن
whetherچه to grantاعطا کردن that paroleرمز عبور.
137
387240
3616
بکار میره تا تعین کنند این آزادی
به فرد تعلق میگیره یا نه.
06:42
So it's the sameیکسان principleاصل
as Amazonآمازون and NetflixNetflix,
138
390880
2576
یعنی اصولش مثل آمازون و نتفلیکس میمونه،
06:45
but now insteadبجای of decidingتصمیم گیری whetherچه
a TVتلویزیون showنشان بده is going to be good or badبد,
139
393480
4616
اما به جای اینکه تصمیم بگیرن که یه برنامه
تلویزیونی خوبه یا بد،
06:50
you're decidingتصمیم گیری whetherچه a personفرد
is going to be good or badبد.
140
398120
2896
اونها تصمیم میگیرن که آیا
یک نفر خوبه یا بد.
06:53
And mediocreمتوسط TVتلویزیون, 22 minutesدقایق,
that can be prettyبسیار badبد,
141
401040
5496
و اگه فرد هم مثل سریالهای متوسط
۲۲ دقیقه‌ای تلویزیون خیلی بد باشه،
06:58
but more yearsسالها in prisonزندان,
I guessحدس بزن, even worseبدتر.
142
406560
2640
خوب سالهای بیشتری باید در
زندان باشه شایدم بدتر از این.
07:02
And unfortunatelyمتاسفانه, there is actuallyدر واقع
some evidenceشواهد that this dataداده ها analysisتحلیل و بررسی,
143
410360
4136
متأسفانه شواهدی هست که
نشون میده این تحلیل اطلاعات
07:06
despiteبا وجود havingداشتن lots of dataداده ها,
does not always produceتولید کردن optimumبهینه resultsنتایج.
144
414520
4216
با اینکه حجم زیادی داده داره
همیشخ بهترین نتیجه رو نداره.
07:10
And that's not because a companyشرکت
like Multi-Healthچندین سلامت Systemsسیستم های
145
418760
2722
نه به این خاطر که شر کتی مثل
"Multi-Health Systems"
07:13
doesn't know what to do with dataداده ها.
146
421506
1627
نمیدونه با این اطلاعات چه کار کنه.
07:15
Even the mostاکثر data-savvyداده های شناخته شده
companiesشرکت ها get it wrongاشتباه.
147
423158
2298
حتی بیشتر شرکتهای خوره اطلاعات
هم اشتباه میکنن.
07:17
Yes, even Googleگوگل getsمی شود it wrongاشتباه sometimesگاه گاهی.
148
425480
2400
بله حتی گاهی گوگل هم اشتباه میکنه.
07:20
In 2009, Googleگوگل announcedاعلام کرد
that they were ableتوانایی, with dataداده ها analysisتحلیل و بررسی,
149
428680
4496
سال ۲۰۰۹، گوگل اعلام کرد که اونها با تحلیل
داده‌ها تونستن،
07:25
to predictپیش بینی outbreaksشیوع بیماری of influenzaآنفلوآنزا,
the nastyتند و زننده kindنوع of fluآنفلوآنزا,
150
433200
4136
شیوع آنفولانزا رو پیش بینی کنن،
اون هم از اون نوع خیلی بدش،
07:29
by doing dataداده ها analysisتحلیل و بررسی
on theirخودشان Googleگوگل searchesجستجوها.
151
437360
3776
با کمک تحلیل اطلاعات بدست اومده
از جستجوهای گوگلی.
07:33
And it workedکار کرد beautifullyزیبایی,
and it madeساخته شده a bigبزرگ splashچلپ چلوپ in the newsاخبار,
152
441160
3856
خوب این مسئله خیلی عالی کار کرد
و مثله بمب تو خبرها ترکید،
07:37
includingشامل the pinnacleاوج
of scientificعلمی successموفقیت:
153
445040
2136
و در زمره بهترینهای علمی قرار گرفت.
07:39
a publicationانتشار in the journalمجله "Natureطبیعت."
154
447200
2456
یعنی انتشار این کار در مجله "Nature".
07:41
It workedکار کرد beautifullyزیبایی
for yearسال after yearسال after yearسال,
155
449680
3616
این روش برای سالهای متمادی
خیلی خوب جواب داد،
07:45
untilتا زمان one yearسال it failedناموفق.
156
453320
1656
تا اینکه یک سال شکست خورد.
07:47
And nobodyهيچ كس could even tell exactlyدقیقا why.
157
455000
2256
هیچ کسم نمیتونست بگه دقیقاً به چه علت.
07:49
It just didn't work that yearسال,
158
457280
1696
فقط اون سال جواب نداد، همین
07:51
and of courseدوره that again madeساخته شده bigبزرگ newsاخبار,
159
459000
1936
خوب معلومه که
این مسئله هم خبرساز شد،
07:52
includingشامل now a retractionعقب نشینی
160
460960
1616
از جمله اعلام اشتباه
07:54
of a publicationانتشار
from the journalمجله "Natureطبیعت."
161
462600
2840
در یکی از شماره های مجله نیچر.
07:58
So even the mostاکثر data-savvyداده های شناخته شده companiesشرکت ها,
Amazonآمازون and Googleگوگل,
162
466480
3336
ببینید، بزرگترین شرکت های خوره اطلاعات
مثله آمازون و گوگل،
08:01
they sometimesگاه گاهی get it wrongاشتباه.
163
469840
2136
هم اشتباه می کنن.
08:04
And despiteبا وجود all those failuresخرابی,
164
472000
2936
و علی رغم تمام این اشتباهات،
08:06
dataداده ها is movingدر حال حرکت rapidlyبه سرعت در حال
into real-lifeزندگی واقعی decision-makingتصمیم سازی --
165
474960
3856
اطلاعات به سرعت وارد
تصمیم گیری درزندگی روزمرمون میشن--
08:10
into the workplaceمحل کار,
166
478840
1816
مثلا
سر کارمون،
08:12
lawقانون enforcementاجرای,
167
480680
1816
اجرای قانون،
08:14
medicineدارو.
168
482520
1200
دارو.
08:16
So we should better make sure
that dataداده ها is helpingکمک.
169
484400
3336
با این تفاصیل بهتره مطمئن بشیم که
اطلاعات دارن به ما کمک می کنن.
08:19
Now, personallyشخصا I've seenمشاهده گردید
a lot of this struggleتقلا with dataداده ها myselfخودم,
170
487760
3136
من خودم شخصاً با اطلاعات
درگیری‌های زیادی داشتم،
08:22
because I work in computationalمحاسباتی geneticsژنتیک,
171
490920
1976
چون در زمینه ژنتیک محاسباتی کارمی‌کنم،
08:24
whichکه is alsoهمچنین a fieldرشته
where lots of very smartهوشمندانه people
172
492920
2496
در این زمینه انسانهای بسیار با هوشی
08:27
are usingاستفاده كردن unimaginableغیر قابل تصور است amountsمقادیر of dataداده ها
to make prettyبسیار seriousجدی decisionsتصمیمات
173
495440
3656
حجمی باور نکردنی از اطلاعات رو برای
گرفتن تصمیمات جدی بکار میبرن
08:31
like decidingتصمیم گیری on a cancerسرطان therapyدرمان
or developingدر حال توسعه a drugدارو.
174
499120
3560
مثل تصمیمات مربوط به درمان سرطان
یا ساختن یک دارو.
08:35
And over the yearsسالها,
I've noticedمتوجه شدم a sortمرتب سازی of patternالگو
175
503520
2376
در مدت چند سال
من متوجه نوعی الگو
08:37
or kindنوع of ruleقانون, if you will,
about the differenceتفاوت
176
505920
2456
یا قانون درباره تفاوت بین
08:40
betweenبین successfulموفق شدن
decision-makingتصمیم سازی with dataداده ها
177
508400
2696
تصمیم‌گیریهای موفق با استفاده از اطلاعات
08:43
and unsuccessfulناموفق decision-makingتصمیم سازی,
178
511120
1616
و تصمیم‌گیریهای ناموفق شدم،
08:44
and I find this a patternالگو worthارزش sharingبه اشتراک گذاری,
and it goesمی رود something like this.
179
512760
3880
و الگویی پیدا کردم که ارزش به
اشتراک گذاشتن داره.
08:50
So wheneverهر زمان که you're
solvingحل کردن a complexپیچیده problemمسئله,
180
518520
2135
وقتی شما دارید یه
مسئله پیچیده رو حل میکنید،
08:52
you're doing essentiallyاساسا two things.
181
520679
1737
الزاماً دو کار رو انجام می‌دهید.
08:54
The first one is, you take that problemمسئله
apartجدا از هم into its bitsبیت and piecesقطعات
182
522440
3296
اول اینکه اون مسئله رو به اجزاء
کوچکتر می‌شکنید
08:57
so that you can deeplyعمیقا analyzeتجزیه و تحلیل
those bitsبیت and piecesقطعات,
183
525760
2496
تا بتونید اون اجزاء رو تجزیه وتحلیل کنید.
09:00
and then of courseدوره
you do the secondدومین partبخشی.
184
528280
2016
خوب بعدشم مرحله دوم را انجام میدین.
09:02
You put all of these bitsبیت and piecesقطعات
back togetherبا یکدیگر again
185
530320
2656
یعنی دوباره این اجزا رو به هم می‌چسبونید
09:05
to come to your conclusionنتیجه.
186
533000
1336
تا به نتیجه برسید.
09:06
And sometimesگاه گاهی you
have to do it over again,
187
534360
2336
گاهی هم باید این کار رو
چندین بار انجام بدین،
09:08
but it's always those two things:
188
536720
1656
اما همیشه همین دوتا مرحله هست:
09:10
takingگرفتن apartجدا از هم and puttingقرار دادن
back togetherبا یکدیگر again.
189
538400
2320
جدا کردن و به هم چسبوندن.
09:14
And now the crucialحیاتی thing is
190
542280
1616
اما چیزی که مسئله میسازه اینه که
09:15
that dataداده ها and dataداده ها analysisتحلیل و بررسی
191
543920
2896
اطلاعات و تجزیه و تحلیل
09:18
is only good for the first partبخشی.
192
546840
2496
فقط برای بخش اول خوبه.
09:21
Dataداده ها and dataداده ها analysisتحلیل و بررسی,
no matterموضوع how powerfulقدرتمند,
193
549360
2216
اطلاعات و تجزیه و تحلیل،
هر قدر قدرتمند باشه،
09:23
can only help you takingگرفتن a problemمسئله apartجدا از هم
and understandingدرك كردن its piecesقطعات.
194
551600
4456
فقط به شما کمک میکنه مسئله رو بشکنید و
اجزاء اون رو درک کنید.
09:28
It's not suitedمناسب to put those piecesقطعات
back togetherبا یکدیگر again
195
556080
3496
اما اصلا برای به هم چسبوندشون مناسب نیست
09:31
and then to come to a conclusionنتیجه.
196
559600
1896
تا بشه به یک نتیجه رسید.
09:33
There's anotherیکی دیگر toolابزار that can do that,
and we all have it,
197
561520
2736
ابزار دیگری وجود داره که میتونه این
کار رو انجام بده،
09:36
and that toolابزار is the brainمغز.
198
564280
1296
اون ابزارهم مغزماست.
09:37
If there's one thing a brainمغز is good at,
199
565600
1936
اگر مغز فقط تو یه کار
خوب باشه،
09:39
it's takingگرفتن bitsبیت and piecesقطعات
back togetherبا یکدیگر again,
200
567560
2256
اینه که اجزاء رو دوباره به هم بچسبونه،
09:41
even when you have incompleteناقص است informationاطلاعات,
201
569840
2016
حتی وقتی اطلاعاتتون کامل نباشه،
09:43
and comingآینده to a good conclusionنتیجه,
202
571880
1576
تا به یک نتیجه خوب رسید،
09:45
especiallyبه خصوص if it's the brainمغز of an expertکارشناس.
203
573480
2936
بخصوص اگه مغز یک متخصص باشه.
09:48
And that's why I believe
that NetflixNetflix was so successfulموفق شدن,
204
576440
2656
برای همینه که من فکر میکنم
نتفلیکس خیلی موفق بود،
09:51
because they used dataداده ها and brainsمغز
where they belongتعلق داشتن in the processروند.
205
579120
3576
چون اونها از اطلاعات و مغز در جای
مناسبشون استفاده کردن.
09:54
They use dataداده ها to first understandفهمیدن
lots of piecesقطعات about theirخودشان audienceحضار
206
582720
3536
اول از اطلاعات استفاده کردن تا
اجزاء زیادی رو درباره مخاطبینشون بفهمن
09:58
that they otherwiseدر غیر این صورت wouldn'tنمی خواهم have
been ableتوانایی to understandفهمیدن at that depthعمق,
207
586280
3416
غیر از این نمیتونستن اینقدر
عمیق متوجه بشن،
10:01
but then the decisionتصمیم گیری
to take all these bitsبیت and piecesقطعات
208
589720
2616
اما بعدش، موقع تصمیم درباره
بهم چسبودن اطلاعات
10:04
and put them back togetherبا یکدیگر again
and make a showنشان بده like "Houseخانه of Cardsکارت ها,"
209
592360
3336
و ساختن سریال خانه پوشالی
10:07
that was nowhereهیچ جایی in the dataداده ها.
210
595720
1416
از اطلاعات استفاده نکردن.
10:09
Tedتد Sarandosساراندوز and his teamتیم
madeساخته شده that decisionتصمیم گیری to licenseمجوز that showنشان بده,
211
597160
3976
تد ساراندوز و تیمش بودن که
تصمیم گرفتن اون برنامه رو بسازن،
10:13
whichکه alsoهمچنین meantبه معنای, by the way,
that they were takingگرفتن
212
601160
2381
که معنیش اینه که اونها
10:15
a prettyبسیار bigبزرگ personalشخصی riskخطر
with that decisionتصمیم گیری.
213
603565
2851
با گرفتن اون تصمیم
ریسک خیلی بزرگی کردن.
10:18
And Amazonآمازون, on the other handدست,
they did it the wrongاشتباه way around.
214
606440
3016
اما آمازون بی راهه رفت.
10:21
They used dataداده ها all the way
to driveراندن theirخودشان decision-makingتصمیم سازی,
215
609480
2736
اونها از اطلاعات برای تصمیم گیری
استفاده کردن،
10:24
first when they heldبرگزار شد
theirخودشان competitionرقابت of TVتلویزیون ideasایده ها,
216
612240
2416
اول جایی که مسابقه ایده‌های
تلویزیونی راه افتاد،
10:26
then when they selectedانتخاب شد "Alphaآلفا Houseخانه"
to make as a showنشان بده.
217
614680
3696
بعدشم انتخاب« خانه آلفا»به عنوان
برنامه تلویزونیشون.
10:30
Whichکدام of courseدوره was
a very safeبی خطر decisionتصمیم گیری for them,
218
618400
2496
البته این تصمیم برای اونها
کاملا مطمئن بود،
10:32
because they could always
pointنقطه at the dataداده ها, sayingگفت:,
219
620920
2456
چون همیشه میتونستن به اطلاعاتشون
اشاره کنن و بگن،
10:35
"This is what the dataداده ها tellsمی گوید us."
220
623400
1696
«این چیزیه که اطلاعات به ما میگه.»
10:37
But it didn't leadسرب to the exceptionalاستثنایی
resultsنتایج that they were hopingامید for.
221
625120
4240
اما این کار به نتیجه فوق العاده‌ای
که دنبالش بودن ختم نشد.
10:42
So dataداده ها is of courseدوره a massivelyبه شدت
usefulمفید است toolابزار to make better decisionsتصمیمات,
222
630120
4976
خوب اطلاعات بدون شک ابزاری بسیار
کاربردی برای تصمیم گیریه،
10:47
but I believe that things go wrongاشتباه
223
635120
2376
اما فکر میکنم اون موارد
موقعی اشتباه از کار در اومد
10:49
when dataداده ها is startingراه افتادن
to driveراندن those decisionsتصمیمات.
224
637520
2576
که خود همون اطلاعات تصمیم گیرنده بود.
10:52
No matterموضوع how powerfulقدرتمند,
dataداده ها is just a toolابزار,
225
640120
3776
اطلاعات هرقدرم قوی باشه
چیزی جز یک ابزار نیست،
10:55
and to keep that in mindذهن,
I find this deviceدستگاه here quiteکاملا usefulمفید است.
226
643920
3336
برای اینکه این مسئله رو به ذهن بسپاریم
این وسیله خیلی کمکمون میکنه.
10:59
Manyبسیاری of you will ...
227
647280
1216
خیلیهاتون میدونید--
11:00
(Laughterخنده)
228
648520
1216
(خنده)
11:01
Before there was dataداده ها,
229
649760
1216
قبل از اطلاعات،
11:03
this was the decision-makingتصمیم سازی
deviceدستگاه to use.
230
651000
2856
از این برایه تصمیم گیری استفاده میکردن.
11:05
(Laughterخنده)
231
653880
1256
(خنده)
11:07
Manyبسیاری of you will know this.
232
655160
1336
خیلیهاتون باهاش آشنایید.
11:08
This toyاسباب بازی here is calledبه نام the Magicشعبده بازي 8 Ballتوپ,
233
656520
1953
به این ماسماسک میگن «توپ ۸ جادویی»،
11:10
and it's really amazingحیرت آور,
234
658497
1199
و واقعاً چیزِ جالبیه،
11:11
because if you have a decisionتصمیم گیری to make,
a yes or no questionسوال,
235
659720
2896
چون وقتی میخواید تصمیمی بگیرید
و موندید بله بگید یا نه،
11:14
all you have to do is you shakeلرزش the ballتوپ,
and then you get an answerپاسخ --
236
662640
3736
کافیه که توپ رو تکون بدید و
بعدش جواب رو بفهمید--
11:18
"Mostاکثر Likelyاحتمال دارد" -- right here
in this windowپنجره in realواقعی time.
237
666400
2816
جوابم اینه،«به احتمال خیلی زیاد»
دقیقا اینجا در دنیای واقعی.
11:21
I'll have it out laterبعد for techتکنولوژی demosدموی.
238
669240
2096
بعداً برای دموهای تکنولوژی
میندازمش کنار.
11:23
(Laughterخنده)
239
671360
1216
(خنده)
11:24
Now, the thing is, of courseدوره --
so I've madeساخته شده some decisionsتصمیمات in my life
240
672600
3576
خوب مسئله اینه که
منم هم تصمیماتی در زندگیم گرفتم
11:28
where, in hindsightادراک,
I should have just listenedگوش داد to the ballتوپ.
241
676200
2896
جایی که با نگاهی به گذشته
به حرفای این توپ گوش دادم.
11:31
But, you know, of courseدوره,
if you have the dataداده ها availableدر دسترس است,
242
679120
3336
اما اگه اطلاعاتی در دست دارید،
11:34
you want to replaceجایگزین کردن this with something
much more sophisticatedپیچیده,
243
682480
3056
بهتره توپ را با چیزی
ماهرانه‌تر جایگزین کنید،
11:37
like dataداده ها analysisتحلیل و بررسی
to come to a better decisionتصمیم گیری.
244
685560
3616
مثلا تجزیه و تحلیل اطلاعات
برای تصمیم‌گیری.
11:41
But that does not changeتغییر دادن the basicپایه ای setupبرپایی.
245
689200
2616
اما اصل قضیه فرقی نمیکنه.
11:43
So the ballتوپ mayممکن است get smarterهوشمندانه
and smarterهوشمندانه and smarterهوشمندانه,
246
691840
3176
این توپ همچنان باهوشتر و با هوشتر میشه،
11:47
but I believe it's still on us
to make the decisionsتصمیمات
247
695040
2816
من همچنان فکر میکنم ما خودمون
باید تصمیم بگیریم
11:49
if we want to achieveرسیدن
something extraordinaryخارق العاده,
248
697880
3016
اگز بخواهیم به چیز فوق العاده ای برسیم،
11:52
on the right endپایان of the curveمنحنی.
249
700920
1936
یعنی سمت راست این منحنی.
11:54
And I find that a very encouragingتشویق
messageپیام, in factواقعیت,
250
702880
4496
پیام الهام بخشی که من در
این قضیه متوجه شدم،
11:59
that even in the faceصورت
of hugeبزرگ amountsمقادیر of dataداده ها,
251
707400
3976
اینه که حتی با داشتن
حجم زیادی از اطلاعات،
12:03
it still paysمی پردازد off to make decisionsتصمیمات,
252
711400
4096
هنوز هم می ارزه که تصمیم بگیرید،
12:07
to be an expertکارشناس in what you're doing
253
715520
2656
تا بتونید در کارتون خبره بشین
12:10
and take risksخطرات.
254
718200
2096
و خطر کنید.
12:12
Because in the endپایان, it's not dataداده ها,
255
720320
2776
چن در آخر، این اطلاعات نیست
که شما رو
12:15
it's risksخطرات that will landزمین you
on the right endپایان of the curveمنحنی.
256
723120
3960
به سمت راست منحنی میبره،
بلکه ریسکه.
12:19
Thank you.
257
727840
1216
متشکرم.
12:21
(Applauseتشویق و تمجید)
258
729080
3680
(تشویق)
Translated by Reza Saberi
Reviewed by Leila Ataei

▲Back to top

ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com