ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com
TEDxCambridge

Sebastian Wernicke: How to use data to make a hit TV show

סבסטיאן וורניק: איך להתשמש במידע כדי ליצור תוכניות טלויזיה מוצלחות

Filmed:
1,628,704 views

האם איסוף יותר מידע משמעו קבלת החלטות טובות יותר? חברות תחרותיות, תאבות מידע כמו אמזון, גוגל ונטפליקס למדו שניתוח מידע לבדו לא תמיד מייצר תוצאות אופטימליות. בהרצאה זו, מדען המידע סבסטיאן וורניק מסביר מה משתבש כשאנחנו עושים החלטות בהתבסס על מידע בלבד -- ומציע דרך חכמה יותר להשתמש בו.
- Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects. Full bio

Double-click the English transcript below to play the video.

00:12
Royרוי Priceמחיר is a man that mostרוב of you
have probablyכנראה never heardשמע about,
0
820
4276
רוי פרייס הוא אדם שסביר להניח
שרובכם כנראה לא שמעתם עליו מעולם,
00:17
even thoughאם כי he mayמאי have been responsibleאחראי
1
5120
2496
למרות שייתכן והוא היה אחראי
00:19
for 22 somewhatבמידה מסוימת mediocreבֵּינוֹנִי
minutesדקות of your life on Aprilאַפּרִיל 19, 2013.
2
7640
6896
לבערך 22 דקות בינוניות
של חייכם ב19 לאפריל 2013.
00:26
He mayמאי have alsoגַם been responsibleאחראי
for 22 very entertainingמְשַׁעַשֵׁעַ minutesדקות,
3
14560
3176
יכול להיות שהוא היה גם אחראי
ל22 דקות מאוד משעשעות,
00:29
but not very manyרב of you.
4
17760
2256
אבל לא רבים מכם.
00:32
And all of that goesהולך back to a decisionהַחְלָטָה
5
20040
1896
וכל זה חוזר להחלטה
00:33
that Royרוי had to make
about threeשְׁלוֹשָׁה yearsשנים agoלִפנֵי.
6
21960
2000
שרוי היא צריך לקבל
לפני 3 שנים.
00:35
So you see, Royרוי Priceמחיר
is a seniorבָּכִיר executiveמְנַהֵל with Amazonאֲמָזוֹנָה Studiosאולפני.
7
23984
4832
אז אתם מבינים, רוי פרייס
הוא מנהל בכיר באולפני אמזון.
00:40
That's the TVטֵלֶוִיזִיָה productionהפקה
companyחֶברָה of Amazonאֲמָזוֹנָה.
8
28840
3016
זאת חברת הפקות הטלוויזיה
של אמזון.
00:43
He's 47 yearsשנים oldישן, slimרָזֶה, spikyדוֹקְרָנִי hairשיער,
9
31880
3256
הוא בן 47, רזה, שיער עם קוצים,
00:47
describesמתאר himselfעַצמוֹ on Twitterטוויטר
as "moviesסרטים, TVטֵלֶוִיזִיָה, technologyטֶכנוֹלוֹגִיָה, tacosטאקו."
10
35160
4816
הוא מתאר עצמו בטוויטר
כ "סרטים, טלוויזיה, טכנולוגיה, טאקו."
00:52
And Royרוי Priceמחיר has a very responsibleאחראי jobעבודה,
because it's his responsibilityאַחֲרָיוּת
11
40000
5176
ולרוי פרייס יש יש אחריות רבה בעבודה
כי האחריות שלו היא
00:57
to pickלִבחוֹר the showsמופעים, the originalמְקוֹרִי contentתוֹכֶן
that Amazonאֲמָזוֹנָה is going to make.
12
45200
4056
לבחור את התוכניות, את התוכן המקורי
שאמזון תיצור.
01:01
And of courseקוּרס that's
a highlyמְאוֹד competitiveתַחֲרוּתִי spaceמֶרחָב.
13
49280
2336
וכמובן שזה תחום תחרותי מאוד.
01:03
I mean, there are so manyרב
TVטֵלֶוִיזִיָה showsמופעים alreadyכְּבָר out there,
14
51640
2736
אני מתכוון, יש כל כך הרבה
תוכניות טלוויזיה שכבר קיימות,
01:06
that Royרוי can't just chooseבחר any showלְהַצִיג.
15
54400
2176
ורוי לא פשוט יכול לבחור כל אחת.
01:08
He has to find showsמופעים
that are really, really great.
16
56600
4096
הוא חייב למצוא תוכניות
ממש ממש טובות.
01:12
So in other wordsמילים, he has to find showsמופעים
17
60720
2816
אז במילים אחרות, הוא חייב למצוא תוכניות
01:15
that are on the very right endסוֹף
of this curveעֲקוּמָה here.
18
63560
2376
שנמצאות ממש על הקצה הימני
בעקומה הזאת.
01:17
So this curveעֲקוּמָה here
is the ratingדֵרוּג distributionהפצה
19
65960
2656
העקומה הזאת מציגה את חלוקת הרייטינג
01:20
of about 2,500 TVטֵלֶוִיזִיָה showsמופעים
on the websiteאתר אינטרנט IMDBIMDB,
20
68640
4376
של בערך 2500 תוכניות טלוויזיה
באתר IMDB,
01:25
and the ratingדֵרוּג goesהולך from one to 10,
21
73040
2896
והרייטינג נע בין 1 ל10,
01:27
and the heightגוֹבַה here showsמופעים you
how manyרב showsמופעים get that ratingדֵרוּג.
22
75960
2976
והגובה כאן, מראה לכם
כמה תוכניות קבלו את הרייטינג הזה.
01:30
So if your showלְהַצִיג getsמקבל a ratingדֵרוּג
of nineתֵשַׁע pointsנקודות or higherגבוה יותר, that's a winnerזוֹכֵה.
23
78960
4696
אז אם התוכנית שלכם מקבלת רייטינג
של 9 נקודות ומעלה, זאת הצלחה.
01:35
Then you have a topחלק עליון two percentאָחוּז showלְהַצִיג.
24
83680
1816
ואז יש לכם את התוכניות
שנמצאות ב2 אחוז העליונים.
01:37
That's showsמופעים like "Breakingשְׁבִירָה Badרַע,"
"Gameמִשְׂחָק of Thronesכסאות," "The Wireחוּט,"
25
85520
3896
תוכניות כמו "שובר שורות",
"משחקי הכס", "הסמויה",
01:41
so all of these showsמופעים that are addictiveממכר,
26
89440
2296
אז כל התוכניות האלה שממכרות,
01:43
whereafterלאחר מכן you've watchedצפה a seasonעונה,
your brainמוֹחַ is basicallyבעיקרון like,
27
91760
3056
כשאחרי שאתם רואים עונה,
המוח שלכם בעצם כמו,
01:46
"Where can I get more of these episodesפרקים?"
28
94840
2176
"איפה אני יכול למצוא עוד מהפרקים האלה?"
01:49
That kindסוג of showלְהַצִיג.
29
97040
1200
סוג כזה של תוכניות.
01:50
On the left sideצַד, just for clarityבְּהִירוּת,
here on that endסוֹף,
30
98920
2496
בצד השמאלי, רק לשם הבהרה,
כאן בקצה הזה,
01:53
you have a showלְהַצִיג calledשקוראים לו
"Toddlersפעוטות and TiarasTiaras" --
31
101440
3176
נמצאת תוכניות שנקראת "פעוטות וכתרים"--
01:56
(Laughterצחוק)
32
104640
2656
(צחוק)
01:59
-- whichאיזה should tell you enoughמספיק
33
107320
1536
--וזה אמור להגיד לכם מספיק
02:00
about what's going on
on that endסוֹף of the curveעֲקוּמָה.
34
108880
2191
בנוגע למה שקורה בקצה הזה
של העקומה.
02:03
Now, Royרוי Priceמחיר is not worriedמוּדְאָג about
gettingמקבל on the left endסוֹף of the curveעֲקוּמָה,
35
111095
4161
עכשיו, רוי פרייס לא מודאג
מלהגיע לקצה השמאלי של העקומה,
02:07
because I think you would have to have
some seriousרְצִינִי brainpowerכוח המוח
36
115280
2936
בגלל שאני חושב שצריך יכולת חשיבה רצינית
02:10
to undercutלְעַרְעֵר "Toddlersפעוטות and TiarasTiaras."
37
118240
1696
בשביל לגבור על "פעוטות וכתרים".
02:11
So what he's worriedמוּדְאָג about
is this middleאֶמצַע bulgeבְּלִיטָה here,
38
119960
3936
אז מה שהוא מודאג ממנו
הוא הבליטה האמצעית שנמצאת כאן,
02:15
the bulgeבְּלִיטָה of averageמְמוּצָע TVטֵלֶוִיזִיָה,
39
123920
1816
הבליטה של טלוויזיה ממוצעת,
02:17
you know, those showsמופעים
that aren'tלא really good or really badרַע,
40
125760
2856
אתם יודעים, התוכניות האלה
שלא כל כך טובות ולא כל כך רעות,
02:20
they don't really get you excitedנִרגָשׁ.
41
128639
1656
לא באמת גורמות לך להתרגש.
02:22
So he needsצרכי to make sure
that he's really on the right endסוֹף of this.
42
130320
4856
אז הוא צריך לוודא
שהוא נמצא ממש בקצה הימני של זה.
02:27
So the pressureלַחַץ is on,
43
135200
1576
אז יש לחץ,
02:28
and of courseקוּרס it's alsoגַם the first time
44
136800
2176
וכמובן, זאת גם הפעם הראשונה
02:31
that Amazonאֲמָזוֹנָה is even
doing something like this,
45
139000
2176
שאמזון עושה משהו כזה,
02:33
so Royרוי Priceמחיר does not want
to take any chancesהסיכויים.
46
141200
3336
אז רוי פרייס לא רוצה לקחת סיכונים.
02:36
He wants to engineerמהנדס successהַצלָחָה.
47
144560
2456
הוא רוצה להנדס את ההצלחה.
02:39
He needsצרכי a guaranteedמוּבטָח successהַצלָחָה,
48
147040
1776
הוא צריך הצלחה מובטחת,
02:40
and so what he does is,
he holdsמחזיק a competitionתַחֲרוּת.
49
148840
2576
אז מה שהוא עושה,
הוא עורך תחרות.
02:43
So he takes a bunchצְרוֹר of ideasרעיונות for TVטֵלֶוִיזִיָה showsמופעים,
50
151440
3136
אז הוא לוקח מספר רעיונות
לתוכניות טלוויזיה,
02:46
and from those ideasרעיונות,
throughדרך an evaluationהַעֲרָכָה,
51
154600
2296
ומהרעיונות האלה,
באמצעות הערכה,
02:48
they selectבחר eightשמונה candidatesמועמדים for TVטֵלֶוִיזִיָה showsמופעים,
52
156920
4096
הם בוחרים 8 מועמדים לתוכניות טלוויזיה,
02:53
and then he just makesעושה the first episodeפרק
of eachכל אחד one of these showsמופעים
53
161040
3216
ואז הוא פשוט יוצר את הפרק הראשון
בכל אחת מהתוכניות האלה
02:56
and putsמעמיד them onlineבאינטרנט for freeחופשי
for everyoneכל אחד to watch.
54
164280
3136
ומעלה אותם לרשת בחינם
שכל אחד יכול לצפות.
02:59
And so when Amazonאֲמָזוֹנָה
is givingמַתָן out freeחופשי stuffדברים,
55
167440
2256
אז כשאמזון מחלקת דברים בחינם,
03:01
you're going to take it, right?
56
169720
1536
אתם תקחו אותם, נכון?
03:03
So millionsמיליונים of viewersצופים
are watchingצופה those episodesפרקים.
57
171280
5136
אז מיליוני צופים
רואים את הפרקים האלה.
03:08
What they don't realizeלִהַבִין is that,
while they're watchingצופה theirשֶׁלָהֶם showsמופעים,
58
176440
3216
מה שהם לא מבינים,
בזמן שהם צופים בתוכניות שלהם,
03:11
actuallyלמעשה, they are beingלהיות watchedצפה.
59
179680
2296
בעצם, עוקבים אחריהם.
03:14
They are beingלהיות watchedצפה
by Royרוי Priceמחיר and his teamקְבוּצָה,
60
182000
2336
הם נצפים על ידי רוי פרייס והצוות שלו,
03:16
who recordתקליט everything.
61
184360
1376
שמתעדים הכל.
03:17
They recordתקליט when somebodyמִישֶׁהוּ pressesלחיצות playלְשַׂחֵק,
when somebodyמִישֶׁהוּ pressesלחיצות pauseהַפסָקָה,
62
185760
3376
הם מתעדים כשמישהו לוחץ נגן,
וכשמישהו לוחץ השהה,
03:21
what partsחלקים they skipלדלג,
what partsחלקים they watch again.
63
189160
2536
על איזה חלקים הצופים מדלגים,
ואיזה חלקים הם רואים שוב.
03:23
So they collectלאסוף millionsמיליונים of dataנתונים pointsנקודות,
64
191720
2256
אז הם אוספים מיליוני נקודות מידע,
03:26
because they want
to have those dataנתונים pointsנקודות
65
194000
2096
בגלל שהם רוצים להשתמש בנתונים האלה
03:28
to then decideלְהַחלִיט
whichאיזה showלְהַצִיג they should make.
66
196120
2696
כדי להחליט
איזה תוכנית הם ייצרו.
03:30
And sure enoughמספיק,
so they collectלאסוף all the dataנתונים,
67
198840
2176
וכמובן, כך הם אוספים את כל המידע,
03:33
they do all the dataנתונים crunchingכְּסִיסָה,
and an answerתשובה emergesמתגלה,
68
201040
2576
הם עושים את כל עיבוד המידע, ותשובה עולה,
03:35
and the answerתשובה is,
69
203640
1216
והתשובה היא,
03:36
"Amazonאֲמָזוֹנָה should do a sitcomקומדיית מצבים
about fourארבעה Republicanרֶפּוּבּלִיקָנִי US Senatorsסנטורים."
70
204880
5536
"אמזון צריכה ליצור סיטקום
על ארבעה סנטורים רפובליקאים."
03:42
They did that showלְהַצִיג.
71
210440
1216
הם עשו את התוכנית ההיא.
03:43
So does anyoneכֹּל אֶחָד know the nameשֵׁם of the showלְהַצִיג?
72
211680
2160
אז האם כולם מכירים את השם של התוכנית?
03:46
(Audienceקהל: "Alphaאלפא Houseבַּיִת.")
73
214720
1296
(קהל: "בית אלפא.")
03:48
Yes, "Alphaאלפא Houseבַּיִת,"
74
216040
1456
כן, "בית אלפא."
03:49
but it seemsנראה like not too manyרב of you here
rememberלִזכּוֹר that showלְהַצִיג, actuallyלמעשה,
75
217520
4096
אבל נראה כאילו לא הרבה מכם פה
זוכרים את הסדרה ההיא, למעשה,
03:53
because it didn't turnלפנות out that great.
76
221640
1856
מפני שהיא לא יצאה כזה טוב.
03:55
It's actuallyלמעשה just an averageמְמוּצָע showלְהַצִיג,
77
223520
1856
היא למעשה רק תוכנית ממוצעת,
03:57
actuallyלמעשה -- literallyפשוטו כמשמעו, in factעוּבדָה, because
the averageמְמוּצָע of this curveעֲקוּמָה here is at 7.4,
78
225400
4576
למעשה -- מילולית, למעשה,
בגלל שהממוצע של העקומה פה הוא 7.4,
04:02
and "Alphaאלפא Houseבַּיִת" landsאדמות at 7.5,
79
230000
2416
ו"בית אלפא" קיבלה 7.5,
04:04
so a slightlyמְעַט aboveמֵעַל averageמְמוּצָע showלְהַצִיג,
80
232440
2016
אז מעט מעל התוכנית הממוצעת,
04:06
but certainlyבְּהֶחלֵט not what Royרוי Priceמחיר
and his teamקְבוּצָה were aimingמכוון for.
81
234480
2920
אבל בהחלט לא מה שרוי פרייס
והצוות שלנו כיוונו אליו.
04:10
Meanwhileבינתיים, howeverלמרות זאת,
at about the sameאותו time,
82
238320
2856
בינתיים, עם זאת, בערך באותו הזמן,
04:13
at anotherאַחֵר companyחֶברָה,
83
241200
1576
בחברה אחרת,
04:14
anotherאַחֵר executiveמְנַהֵל did manageלנהל
to landארץ a topחלק עליון showלְהַצִיג usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני dataנתונים analysisאָנָלִיזָה,
84
242800
4216
מנהל אחר הצליח לפתח תוכנית מוצלחת
בשימוש בניתוח מידע,
04:19
and his nameשֵׁם is Tedטד,
85
247040
1576
והשם שלו הוא טד,
04:20
Tedטד Sarandosסרנדוס, who is
the Chiefרֹאשׁ Contentתוֹכֶן Officerקָצִין of Netflixנטפליקס,
86
248640
3416
טד סרנדוס, שהוא מנהל התוכן הראשי
של נטפליקס,
04:24
and just like Royרוי,
he's on a constantקָבוּעַ missionמשימה
87
252080
2136
וממש כמו רוי, הוא במשימה קבועה
04:26
to find that great TVטֵלֶוִיזִיָה showלְהַצִיג,
88
254240
1496
למצוא תוכנית טלוויזיה מעולה,
04:27
and he usesשימו dataנתונים as well to do that,
89
255760
2016
והוא גם השתמש במידע כדי לעשות זאת,
04:29
exceptמלבד he does it
a little bitbit differentlyבאופן שונה.
90
257800
2015
אבל הוא עושה זאת מעט אחרת.
04:31
So insteadבמקום זאת of holdingהַחזָקָה a competitionתַחֲרוּת,
what he did -- and his teamקְבוּצָה of courseקוּרס --
91
259839
3737
אז במקום לערוך תחרות,
מה שהוא עשה -- והצוות שלו כמובן --
04:35
was they lookedהביט at all the dataנתונים
they alreadyכְּבָר had about Netflixנטפליקס viewersצופים,
92
263600
3536
היה שהם הביטו בכל המידע
שכבר היה להם על צופי נטפליקס,
04:39
you know, the ratingsדירוגים
they give theirשֶׁלָהֶם showsמופעים,
93
267160
2096
אתם יודעים, הרייטינג שהם נותנים לתוכניות,
04:41
the viewingצופה historiesהיסטוריה,
what showsמופעים people like, and so on.
94
269280
2696
הסטוריות הצפיה, איזה תוכניות
אנשים אוהבים, וכך הלאה.
04:44
And then they use that dataנתונים to discoverלְגַלוֹת
95
272000
1896
ואז הם משתמשים במידע הזה כדי לגלות
04:45
all of these little bitsסיביות and piecesחתיכות
about the audienceקהל:
96
273920
2616
את כל פיסות המידע הקטנות האלו בנוגע לקהל:
04:48
what kindsמיני of showsמופעים they like,
97
276560
1456
איזה סוגים של תוכניות הם אוהבים,
04:50
what kindסוג of producersיצרנים,
what kindסוג of actorsשחקנים.
98
278040
2096
איזה סוג של מפיקים, איזה סוג של שחקנים.
04:52
And onceפַּעַם they had
all of these piecesחתיכות togetherיַחַד,
99
280160
2576
וברגע שהיה להם את כל פיסות המידע ביחד,
04:54
they tookלקח a leapלִקְפּוֹץ of faithאֱמוּנָה,
100
282760
1656
הם עשו קפיצה של אמונה,
04:56
and they decidedהחליט to licenseרישיון
101
284440
2096
והם החליטו לאשר
04:58
not a sitcomקומדיית מצבים about fourארבעה Senatorsסנטורים
102
286560
2456
לא סיטקום על ארבעה סנטורים
05:01
but a dramaדְרָמָה seriesסִדרָה about a singleיחיד Senatorסֵנָטוֹר.
103
289040
2880
אלא סדרת דרמה על סנטור בודד.
05:04
You guys know the showלְהַצִיג?
104
292760
1656
אתם מכירים את התוכנית?
05:06
(Laughterצחוק)
105
294440
1296
(צחוק)
05:07
Yes, "Houseבַּיִת of Cardsכרטיסים," and Netflixנטפליקס
of courseקוּרס, nailedמְמוּסמָר it with that showלְהַצִיג,
106
295760
3736
כן, "בית הקלפים," ונטפליקס כמובן,
הצליחו עם התוכנית הזו,
05:11
at leastהכי פחות for the first two seasonsעונות.
107
299520
2136
לפחות בשתי העונות הראשונות.
05:13
(Laughterצחוק) (Applauseתְשׁוּאוֹת)
108
301680
3976
(צחוק) (מחיאות כפיים)
05:17
"Houseבַּיִת of Cardsכרטיסים" getsמקבל
a 9.1 ratingדֵרוּג on this curveעֲקוּמָה,
109
305680
3176
"בית הקלפים" מקבל דרוג של 9.1 מהעקומה הזו,
05:20
so it's exactlyבְּדִיוּק
where they wanted it to be.
110
308880
3176
אז זה בדיוק במקום בו הם רצו שזה יהיה.
05:24
Now, the questionשְׁאֵלָה of courseקוּרס is,
what happenedקרה here?
111
312080
2416
עכשיו, השאלה היא כמובן, מה קרה פה?
05:26
So you have two very competitiveתַחֲרוּתִי,
data-savvyנתונים מתמצא companiesחברות.
112
314520
2656
אז יש לכם שתי חברות תחרותיות ותאבות מידע.
05:29
They connectלְחַבֵּר all of these
millionsמיליונים of dataנתונים pointsנקודות,
113
317200
2856
הן חיברו את כל מליוני נקודות המידע האלו,
05:32
and then it worksעובד
beautifullyיָפֶה for one of them,
114
320080
2376
ואז זה עבד באופן יפיפה לאחת מהן,
05:34
and it doesn't work for the other one.
115
322480
1856
וזה לא עובד לאחרת.
05:36
So why?
116
324360
1216
אז למה?
05:37
Because logicהִגָיוֹן kindסוג of tellsאומר you
that this should be workingעובד all the time.
117
325600
3456
מפני שהלוגיקה סוג של מספרת לכם
שזה צריך לעבוד כל הזמן.
05:41
I mean, if you're collectingאיסוף
millionsמיליונים of dataנתונים pointsנקודות
118
329080
2456
אני מתכוון, אם אתם אוספים
מליוני נקודות מידע
05:43
on a decisionהַחְלָטָה you're going to make,
119
331560
1736
על החלטה שאתם עומדים לעשות,
05:45
then you should be ableיכול
to make a prettyיפה good decisionהַחְלָטָה.
120
333320
2616
אז אתם צריכים להיות מסוגלים
לעשות החלטות די טובות.
05:47
You have 200 yearsשנים
of statisticsסטָטִיסטִיקָה to relyלִסְמוֹך on.
121
335960
2216
יש לכם 200 שנה של סטטיסטיקות להסתמך עליהן.
05:50
You're amplifyingמַגְבִּיר it
with very powerfulחָזָק computersמחשבים.
122
338200
3016
אתם מגבירים אותן עם מחשבים ממש חזקים.
05:53
The leastהכי פחות you could expectלְצַפּוֹת
is good TVטֵלֶוִיזִיָה, right?
123
341240
3280
הכי מעט שאתם יכולים לצפות לו
זה טלויזיה טובה, נכון?
05:57
And if dataנתונים analysisאָנָלִיזָה
does not work that way,
124
345880
2720
ואם ניתוח מידע לא עובד כך,
06:01
then it actuallyלמעשה getsמקבל a little scaryמַפְחִיד,
125
349520
2056
אז זה למעשה נעשה מעט מפחיד,
06:03
because we liveלחיות in a time
where we're turningחֲרִיטָה to dataנתונים more and more
126
351600
3816
מפני שאנחנו חיים בזמן
בו אנחנו פונים למידע יותר ויותר
06:07
to make very seriousרְצִינִי decisionsהחלטות
that go farרָחוֹק beyondמעבר TVטֵלֶוִיזִיָה.
127
355440
4480
כדי לעשות החלטות ממש חשובות
שעוברות מעבר לטלויזיה.
06:12
Does anyoneכֹּל אֶחָד here know the companyחֶברָה
Multi-Healthבריאות רב Systemsמערכות?
128
360760
3240
האם מישהו פה מכיר את החברה
"מערכות מולטי-הלט'"?
06:17
No one. OK, that's good actuallyלמעשה.
129
365080
1656
אף אחד. אוקיי, זה טוב למעשה.
06:18
OK, so Multi-Healthבריאות רב Systemsמערכות
is a softwareתוֹכנָה companyחֶברָה,
130
366760
3216
אוקיי, אז "מערכות מולטי-הלט'"
היא חברת תוכנה,
06:22
and I hopeלְקַווֹת that nobodyאף אחד here in this roomחֶדֶר
131
370000
2816
ואני מקווה שאף אחד פה בחדר
06:24
ever comesבא into contactאיש קשר
with that softwareתוֹכנָה,
132
372840
3176
לעולם לא יגיע למגע עם התוכנה שלהם,
06:28
because if you do,
it meansאומר you're in prisonבית כלא.
133
376040
2096
מפני שאם כן, זה אומר שאתם בכלא.
06:30
(Laughterצחוק)
134
378160
1176
(צחוק)
06:31
If someoneמִישֶׁהוּ here in the US is in prisonבית כלא,
and they applyלהגיש מועמדות for paroleשוחרר,
135
379360
3536
אם מישהו פה בארצות הברית בכלא,
ואז הם מגישים בקשה לחנינה,
06:34
then it's very likelyסָבִיר that
dataנתונים analysisאָנָלִיזָה softwareתוֹכנָה from that companyחֶברָה
136
382920
4296
אז זה מאוד סביר שתוכנת ניתוח המידע
מהחברה ההיא
06:39
will be used in determiningקביעת
whetherהאם to grantמענק that paroleשוחרר.
137
387240
3616
תהיה בשימוש בלקבוע אם להעניק את החנינה.
06:42
So it's the sameאותו principleעִקָרוֹן
as Amazonאֲמָזוֹנָה and Netflixנטפליקס,
138
390880
2576
אז זה אותו עיקרון כמו אמזון ונטפליקס,
06:45
but now insteadבמקום זאת of decidingמחליט whetherהאם
a TVטֵלֶוִיזִיָה showלְהַצִיג is going to be good or badרַע,
139
393480
4616
אבל עכשיו במקום להחליט
אם תוכנית טלוויזיה תהיה טובה או גרועה,
06:50
you're decidingמחליט whetherהאם a personאדם
is going to be good or badרַע.
140
398120
2896
אתם מחליטים אם אדם עומד להיות טוב או רע.
06:53
And mediocreבֵּינוֹנִי TVטֵלֶוִיזִיָה, 22 minutesדקות,
that can be prettyיפה badרַע,
141
401040
5496
וטלויזיה בינונית, 22 דקות,
שיכולה להיות די גרועה,
06:58
but more yearsשנים in prisonבית כלא,
I guessלְנַחֵשׁ, even worseרע יותר.
142
406560
2640
אבל יותר שנים בכלא,
אני מתאר, אפילו גרועה יותר.
07:02
And unfortunatelyלצערי, there is actuallyלמעשה
some evidenceעֵדוּת that this dataנתונים analysisאָנָלִיזָה,
143
410360
4136
ולמרבה הצער, יש למעשה
כמה עדויות שניתוח המידע הזה,
07:06
despiteלמרות havingשיש lots of dataנתונים,
does not always produceליצר optimumמֵיטָב resultsתוצאות.
144
414520
4216
למרות שיש לנו הרבה מידע,
לא תמיד מייצר תוצאות אופטימליות.
07:10
And that's not because a companyחֶברָה
like Multi-Healthבריאות רב Systemsמערכות
145
418760
2722
וזה לא בגלל שחברה כמו "מערכות מולטי-הלט'"
07:13
doesn't know what to do with dataנתונים.
146
421506
1627
לא יודעת מה לעשות עם המידע.
07:15
Even the mostרוב data-savvyנתונים מתמצא
companiesחברות get it wrongלא בסדר.
147
423158
2298
אפילו החברות הכי תאבות מידע טועות.
07:17
Yes, even GoogleGoogle getsמקבל it wrongלא בסדר sometimesלִפְעָמִים.
148
425480
2400
כן, אפילו גוגל טועה לפעמים.
07:20
In 2009, GoogleGoogle announcedהודיעה
that they were ableיכול, with dataנתונים analysisאָנָלִיזָה,
149
428680
4496
ב 2009, גוגל הודיעה שהם מסוגלים,
עם ניתוח מידע,
07:25
to predictלַחֲזוֹת outbreaksהתפרצויות of influenzaשַׁפַעַת,
the nastyמַגְעִיל kindסוג of fluשַׁפַעַת,
150
433200
4136
לחזות התפרצויות של שפעת,
הסוג הנבזי של שפעת,
07:29
by doing dataנתונים analysisאָנָלִיזָה
on theirשֶׁלָהֶם GoogleGoogle searchesחיפוש.
151
437360
3776
על ידי ניתוח של חיפושי גוגל.
07:33
And it workedעבד beautifullyיָפֶה,
and it madeעָשׂוּי a bigגָדוֹל splashסֶנסַצִיָה in the newsחֲדָשׁוֹת,
152
441160
3856
וזה עבד יפהפה, וזה עשה גל גדול בחדשות,
07:37
includingלְרַבּוֹת the pinnacleשִׂיא
of scientificמַדָעִי successהַצלָחָה:
153
445040
2136
כולל הפסגה של ההצלחה המדעית:
07:39
a publicationפרסום in the journalכתב עת "Natureטֶבַע."
154
447200
2456
פרסום בירחון "נייצ'ר."
07:41
It workedעבד beautifullyיָפֶה
for yearשָׁנָה after yearשָׁנָה after yearשָׁנָה,
155
449680
3616
זה עבד מושלם במשך שנה אחרי שנה אחרי שנה,
07:45
untilעד one yearשָׁנָה it failedנִכשָׁל.
156
453320
1656
עד ששנה אחת זה נכשל.
07:47
And nobodyאף אחד could even tell exactlyבְּדִיוּק why.
157
455000
2256
ואף אחד לא היה יכול אפילו
להסביר למה בדיוק.
07:49
It just didn't work that yearשָׁנָה,
158
457280
1696
זה פשוט לא עבד באותה שנה,
07:51
and of courseקוּרס that again madeעָשׂוּי bigגָדוֹל newsחֲדָשׁוֹת,
159
459000
1936
וכמובן שזה היה שוב חדשות גדולות,
07:52
includingלְרַבּוֹת now a retractionהִתכַּחֲשׁוּת
160
460960
1616
כולל ביטול עכשיו
07:54
of a publicationפרסום
from the journalכתב עת "Natureטֶבַע."
161
462600
2840
של הפרסום במגזין "נייצ'ר."
07:58
So even the mostרוב data-savvyנתונים מתמצא companiesחברות,
Amazonאֲמָזוֹנָה and GoogleGoogle,
162
466480
3336
אז אפילו החברות שהכי תאבות מידע,
אמזון וגוגל,
08:01
they sometimesלִפְעָמִים get it wrongלא בסדר.
163
469840
2136
לפעמים טועות.
08:04
And despiteלמרות all those failuresכשלים,
164
472000
2936
ולמרות הכשלונות האלו,
08:06
dataנתונים is movingמעבר דירה rapidlyמַהֵר
into real-lifeהחיים האמיתיים decision-makingקבלת החלטות --
165
474960
3856
מידע נע במהירות להחלטות בחיים האמיתיים --
08:10
into the workplaceבמקום העבודה,
166
478840
1816
לתוך מקום העבודה,
08:12
lawחוֹק enforcementאַכִיפָה,
167
480680
1816
לאכיפת החוק,
08:14
medicineתרופה.
168
482520
1200
לרפואה.
08:16
So we should better make sure
that dataנתונים is helpingמָנָה.
169
484400
3336
אז אנחנו צריכים לדאוג יותר שהמידע עוזר.
08:19
Now, personallyאישית I've seenלראות
a lot of this struggleמַאֲבָק with dataנתונים myselfעצמי,
170
487760
3136
עכשיו, אישית, אני ראיתי הרבה
מהמאבק הזה במידע בעצמי,
08:22
because I work in computationalחישובית geneticsגנטיקה,
171
490920
1976
מפני שאני עובד בגנטיקה חישובית,
08:24
whichאיזה is alsoגַם a fieldשדה
where lots of very smartלִכאוֹב people
172
492920
2496
שהיא גם תחום בו הרבה אנשים מאוד חכמים
08:27
are usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני unimaginableבלתי נתפס amountsסכומים of dataנתונים
to make prettyיפה seriousרְצִינִי decisionsהחלטות
173
495440
3656
משתמשים בכמויות שלא ניתן לתאר
של מידע כדי לעשות החלטות די רציניות
08:31
like decidingמחליט on a cancerמחלת הסרטן therapyתֶרַפּיָה
or developingמתפתח a drugתְרוּפָה.
174
499120
3560
כמו להחליט על טיפול בסרטן או פיתוח תרופה.
08:35
And over the yearsשנים,
I've noticedשם לב a sortסוג of patternתַבְנִית
175
503520
2376
ובמהלך השנים, הבחנתי בסוג של תבנית
08:37
or kindסוג of ruleכְּלָל, if you will,
about the differenceהֶבדֵל
176
505920
2456
או סוג של חוק, אם תרצו, בנוגע להבדל
08:40
betweenבֵּין successfulמוּצלָח
decision-makingקבלת החלטות with dataנתונים
177
508400
2696
בין קבלת החלטות מוצלחת עם מידע
08:43
and unsuccessfulנכשל decision-makingקבלת החלטות,
178
511120
1616
וקבלת החלטות לא מוצלחת.
08:44
and I find this a patternתַבְנִית worthשִׁוּוּי sharingשיתוף,
and it goesהולך something like this.
179
512760
3880
ואני מוצא שזו תבנית ששווה לחלוק,
והיא הולכת משהו כזה.
08:50
So wheneverבְּכָל פַּעַם you're
solvingפְּתִירָה a complexמורכב problemבְּעָיָה,
180
518520
2135
אז כל פעם שאתם פותרים בעיה סבוכה,
08:52
you're doing essentiallyלמעשה two things.
181
520679
1737
אתם עושים בעיקרון שני דברים.
08:54
The first one is, you take that problemבְּעָיָה
apartמלבד into its bitsסיביות and piecesחתיכות
182
522440
3296
הראשון הוא, אתם מפרקים
את הבעיה לחלקים הקטנים שלה
08:57
so that you can deeplyבאופן מעמיק analyzeלְנַתֵחַ
those bitsסיביות and piecesחתיכות,
183
525760
2496
כך שתוכלו לנתח את החלקים האלה,
09:00
and then of courseקוּרס
you do the secondשְׁנִיָה partחֵלֶק.
184
528280
2016
ואז כמובן אתם עושים את החלק השני.
09:02
You put all of these bitsסיביות and piecesחתיכות
back togetherיַחַד again
185
530320
2656
אתם מחברים חזרה את כל החלקים
09:05
to come to your conclusionסיכום.
186
533000
1336
כדי להגיע למסקנה שלכם.
09:06
And sometimesלִפְעָמִים you
have to do it over again,
187
534360
2336
ולפעמים אתם צריכים לעשות את זה שוב,
09:08
but it's always those two things:
188
536720
1656
אבל זה תמיד שני הדברים האלה:
09:10
takingלְקִיחָה apartמלבד and puttingלשים
back togetherיַחַד again.
189
538400
2320
לפרק ולהרכיב בחזרה.
09:14
And now the crucialמַכרִיעַ thing is
190
542280
1616
ועכשיו הדבר הקריטי הוא
09:15
that dataנתונים and dataנתונים analysisאָנָלִיזָה
191
543920
2896
שהמידע וניתוח המידע
09:18
is only good for the first partחֵלֶק.
192
546840
2496
הוא טוב רק לחלק הראשון.
09:21
Dataנתונים and dataנתונים analysisאָנָלִיזָה,
no matterחוֹמֶר how powerfulחָזָק,
193
549360
2216
מידע וניתוח מידע, לא משנה כמה חזקים,
09:23
can only help you takingלְקִיחָה a problemבְּעָיָה apartמלבד
and understandingהֲבָנָה its piecesחתיכות.
194
551600
4456
יכולם רק לעזור לכם לפרק
את הבעיה ולהבין את הפיסות.
09:28
It's not suitedמתאים to put those piecesחתיכות
back togetherיַחַד again
195
556080
3496
זה לא מתאים לחיבור הפיסות האלו חזרה יחד
09:31
and then to come to a conclusionסיכום.
196
559600
1896
ואז להגיע למסקנה.
09:33
There's anotherאַחֵר toolכְּלִי that can do that,
and we all have it,
197
561520
2736
יש כלי נוסף שיכול לעשות את זה,
ולכולנו יש אותו,
09:36
and that toolכְּלִי is the brainמוֹחַ.
198
564280
1296
והכלי הזה הוא המוח שלנו.
09:37
If there's one thing a brainמוֹחַ is good at,
199
565600
1936
אם יש משהו אחד שהמוח טוב בו,
09:39
it's takingלְקִיחָה bitsסיביות and piecesחתיכות
back togetherיַחַד again,
200
567560
2256
זה לקחת פיסות מידע ולחבר אותן יחד,
09:41
even when you have incompleteלא שלם informationמֵידָע,
201
569840
2016
אפילו כשיש לכם פיסות מידע לא שלמות,
09:43
and comingמגיע to a good conclusionסיכום,
202
571880
1576
ולהגיע למסקנה,
09:45
especiallyבמיוחד if it's the brainמוֹחַ of an expertמוּמחֶה.
203
573480
2936
בעיקר אם זה המוח של מומחה.
09:48
And that's why I believe
that Netflixנטפליקס was so successfulמוּצלָח,
204
576440
2656
ולכן אני מאמין שנטפליקס היו כל כך מצליחים,
09:51
because they used dataנתונים and brainsמוֹחַ
where they belongשייך in the processתהליך.
205
579120
3576
בגלל שהם השתמשו במידע ובמוח
במקום בו הם היו שייכים לתהליך.
09:54
They use dataנתונים to first understandמבין
lots of piecesחתיכות about theirשֶׁלָהֶם audienceקהל
206
582720
3536
הם השתמשו במידע ראשית
כדי להבין הרבה חלקים בנוגע לקהל שלהם
09:58
that they otherwiseאחרת wouldn'tלא have
been ableיכול to understandמבין at that depthעוֹמֶק,
207
586280
3416
שאחרת הם לא היו מסוגלים להבין בעומק הזה,
10:01
but then the decisionהַחְלָטָה
to take all these bitsסיביות and piecesחתיכות
208
589720
2616
אבל אז ההחלטה לקחת את כל הפיסות האלו
10:04
and put them back togetherיַחַד again
and make a showלְהַצִיג like "Houseבַּיִת of Cardsכרטיסים,"
209
592360
3336
ולחבר אותן יחד שוב ולעשות
תוכנית כמו "בית הקלפים,"
10:07
that was nowhereלְשׁוּם מָקוֹם in the dataנתונים.
210
595720
1416
זה לא היה בשום מקום במידע.
10:09
Tedטד Sarandosסרנדוס and his teamקְבוּצָה
madeעָשׂוּי that decisionהַחְלָטָה to licenseרישיון that showלְהַצִיג,
211
597160
3976
טד סרנדוס והצוות שלו עשו
את ההחלטה הזו כדי לפתח את התוכנית,
10:13
whichאיזה alsoגַם meantהתכוון, by the way,
that they were takingלְקִיחָה
212
601160
2381
מה שגם אמר, דרך אגב, שהם לקחו
10:15
a prettyיפה bigגָדוֹל personalאישי riskלְהִסְתָכֵּן
with that decisionהַחְלָטָה.
213
603565
2851
סיכון אישי די גדול עם ההחלטה הזו.
10:18
And Amazonאֲמָזוֹנָה, on the other handיד,
they did it the wrongלא בסדר way around.
214
606440
3016
ואמזון, מצד שני, הם עשו את זה בדרך ההפוכה.
10:21
They used dataנתונים all the way
to driveנהיגה theirשֶׁלָהֶם decision-makingקבלת החלטות,
215
609480
2736
הם השתמשו במידע כל הדרך
כדי להניע את תהליך ההלחטות שלהם,
10:24
first when they heldמוּחזָק
theirשֶׁלָהֶם competitionתַחֲרוּת of TVטֵלֶוִיזִיָה ideasרעיונות,
216
612240
2416
ראשית הם עשו את התחרות שלהם
של רעיונות לתוכניות,
10:26
then when they selectedנבחר "Alphaאלפא Houseבַּיִת"
to make as a showלְהַצִיג.
217
614680
3696
אז כשהם בחרו את "בית אלפא"
כדי ליצור כתוכנית.
10:30
Whichאיזה of courseקוּרס was
a very safeבטוח decisionהַחְלָטָה for them,
218
618400
2496
שכמובן היתה החלטה מאוד בטוחה בשבילם,
10:32
because they could always
pointנְקוּדָה at the dataנתונים, sayingפִּתגָם,
219
620920
2456
מפני שהם תמיד יכלו
להצביע על המידע, ולהגיד.
10:35
"This is what the dataנתונים tellsאומר us."
220
623400
1696
"זה מה שהמידע אומר לנו."
10:37
But it didn't leadעוֹפֶרֶת to the exceptionalיוֹצֵא דוֹפֶן
resultsתוצאות that they were hopingמקווה for.
221
625120
4240
אבל זה לא הוביל
לתוצאה יוצאת דופן שהם קיוו לה.
10:42
So dataנתונים is of courseקוּרס a massivelyבאופן מאסיבי
usefulמוֹעִיל toolכְּלִי to make better decisionsהחלטות,
222
630120
4976
אז מידע הוא כמובן כלי מאוד מועיל
לעשות החלטות טובות יותר,
10:47
but I believe that things go wrongלא בסדר
223
635120
2376
אבל אני מאמין שדברים משתבשים
10:49
when dataנתונים is startingהחל
to driveנהיגה those decisionsהחלטות.
224
637520
2576
כשמידע מתחיל להניע את ההחלטות האלו.
10:52
No matterחוֹמֶר how powerfulחָזָק,
dataנתונים is just a toolכְּלִי,
225
640120
3776
לא משנה כמה חזק, מידע הוא רק כלי,
10:55
and to keep that in mindאכפת,
I find this deviceהתקן here quiteדַי usefulמוֹעִיל.
226
643920
3336
וכדי לזכור את זה, אני מוצא
את המכשיר הזה פה ממש מועיל.
10:59
Manyרב of you will ...
227
647280
1216
רבים מכם...
11:00
(Laughterצחוק)
228
648520
1216
(צחוק)
11:01
Before there was dataנתונים,
229
649760
1216
לפני שהיה מידע,
11:03
this was the decision-makingקבלת החלטות
deviceהתקן to use.
230
651000
2856
זה היה מכשיר קבלת ההחלטות בו השתמשו.
11:05
(Laughterצחוק)
231
653880
1256
(צחוק)
11:07
Manyרב of you will know this.
232
655160
1336
הרבה מכם ידעו את זה.
11:08
This toyצַעֲצוּעַ here is calledשקוראים לו the Magicקֶסֶם 8 Ballכַּדוּר,
233
656520
1953
המכשיר הזה נקרא כדור 8 קסום,
11:10
and it's really amazingמדהים,
234
658497
1199
והוא באמת מדהים,
11:11
because if you have a decisionהַחְלָטָה to make,
a yes or no questionשְׁאֵלָה,
235
659720
2896
מפני שאם יש לכם החלטה לעשות,
שאלה של כן ולא,
11:14
all you have to do is you shakeלְנַעֵר the ballכַּדוּר,
and then you get an answerתשובה --
236
662640
3736
כל מה שאתם צריכים לעשות זה לנער את הכדור,
ואז אתם מקבלים תשובה --
11:18
"Mostרוב Likelyסָבִיר" -- right here
in this windowחַלוֹן in realאמיתי time.
237
666400
2816
"הסיכויים גדולים" --
ממש פה בחלון הזה בזמן אמת.
11:21
I'll have it out laterיותר מאוחר for techטק demosהדגמות.
238
669240
2096
אני אוציא אותו אחר כך להדגמות.
11:23
(Laughterצחוק)
239
671360
1216
(צחוק)
11:24
Now, the thing is, of courseקוּרס --
so I've madeעָשׂוּי some decisionsהחלטות in my life
240
672600
3576
עכשיו, העניין הוא, כמובן --
אז עשיתי כמה החלטות בחיי
11:28
where, in hindsightחָכמָה לְאַחַר מַעֲשֶׂה,
I should have just listenedהקשבתי to the ballכַּדוּר.
241
676200
2896
בהן, במחשבה אחורה,
הייתי צריך פשוט להקשיב לכדור.
11:31
But, you know, of courseקוּרס,
if you have the dataנתונים availableזמין,
242
679120
3336
אבל, אתם יודעים, כמובן,
אם יש לכם את המידע זמין,
11:34
you want to replaceהחלף this with something
much more sophisticatedמתוחכם,
243
682480
3056
אתם רוצים להחליף את זה
עם משהו הרבה יותר מתוחכם,
11:37
like dataנתונים analysisאָנָלִיזָה
to come to a better decisionהַחְלָטָה.
244
685560
3616
כמו ניתוח מידע להגיע להחלטה טובה יותר.
11:41
But that does not changeשינוי the basicבסיסי setupלהכין.
245
689200
2616
אבל זה לא משנה את החלק הבסיסי.
11:43
So the ballכַּדוּר mayמאי get smarterחכם יותר
and smarterחכם יותר and smarterחכם יותר,
246
691840
3176
אז הכדור אולי יהיה חכם יותר ויותר ויותר,
11:47
but I believe it's still on us
to make the decisionsהחלטות
247
695040
2816
אבל אני מאמין שזה עדיין תלוי בנו
לעשות את ההחלטות
11:49
if we want to achieveלְהַשִׂיג
something extraordinaryיוצא דופן,
248
697880
3016
אם אנחנו רוצים להשיג משהו יוצא דופן,
11:52
on the right endסוֹף of the curveעֲקוּמָה.
249
700920
1936
בצד הנכון של העקומה.
11:54
And I find that a very encouragingמְעוֹדֵד
messageהוֹדָעָה, in factעוּבדָה,
250
702880
4496
ואני רואה את זה מאוד מעודד, למעשה,
11:59
that even in the faceפָּנִים
of hugeעָצוּם amountsסכומים of dataנתונים,
251
707400
3976
שאפילו מול כמויות עצומות של מידע,
12:03
it still paysמשלם off to make decisionsהחלטות,
252
711400
4096
זה עדיין משתלם לעשות החלטות,
12:07
to be an expertמוּמחֶה in what you're doing
253
715520
2656
להיות מומחים במה שאתם עושים
12:10
and take risksסיכונים.
254
718200
2096
ולקחת סיכונים.
12:12
Because in the endסוֹף, it's not dataנתונים,
255
720320
2776
מפני שבסופו של דבר, זה לא מידע,
12:15
it's risksסיכונים that will landארץ you
on the right endסוֹף of the curveעֲקוּמָה.
256
723120
3960
זה סיכונים שיביאו אתכם
לצד הנכון של העקומה.
12:19
Thank you.
257
727840
1216
תודה לכם.
12:21
(Applauseתְשׁוּאוֹת)
258
729080
3680
(מחיאות כפיים)
Translated by Ido Dekkers
Reviewed by zeeva Livshitz

▲Back to top

ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com