ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com
TEDxCambridge

Sebastian Wernicke: How to use data to make a hit TV show

Sebastian Wernicke: Popüler bir dizi yapmak için verileri nasıl kullanmalıyız?

Filmed:
1,628,704 views

Daha fazla veri toplamak daha iyi kararlar vermeyi mi sağlıyor? Amazon, Google, Netflix gibi veri depolayan rekabetçi firmalar sadece veri analizinin en iyi sonuçlara götürmediğini öğrendi. Bu konuşmada Sebastian Wernicke yalnızca veriler baz alınarak alınan kararlarda yanlış giden şeyi bozuyor ve daha mantıklı şekilde kullanmak için öneride bulunuyor.
- Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects. Full bio

Double-click the English transcript below to play the video.

00:12
RoyRoy PriceFiyat is a man that mostçoğu of you
have probablymuhtemelen never heardduymuş about,
0
820
4276
Roy Price, 19 Nisan 2013 tarihinde
geçirdiğiniz 22 sıradan dakikanın
00:17
even thoughgerçi he mayMayıs ayı have been responsiblesorumluluk sahibi
1
5120
2496
sorumlusu olsa da, büyük olasılıkla
00:19
for 22 somewhatbiraz mediocrevasat
minutesdakika of your life on AprilNisan 19, 2013.
2
7640
6896
çoğunuzun duymadığı bir isim.
00:26
He mayMayıs ayı have alsoAyrıca been responsiblesorumluluk sahibi
for 22 very entertainingeğlenceli minutesdakika,
3
14560
3176
O, aynı zamanda en eğlenceli 22 dakikanın
da sorumlusu,
00:29
but not very manyçok of you.
4
17760
2256
tabii hepiniz için değil.
00:32
And all of that goesgider back to a decisionkarar
5
20040
1896
Bunlar bizi Roy'un üç sene önce
00:33
that RoyRoy had to make
about threeüç yearsyıl agoönce.
6
21960
2000
almak zorunda olduğu bir karara götürüyor.
00:35
So you see, RoyRoy PriceFiyat
is a seniorkıdemli executiveyönetici with AmazonAmazon StudiosStudios.
7
23984
4832
Roy Price, Amazon Stüdyoları'nda
bir üst düzey yönetici.
00:40
That's the TVTV productionüretim
companyşirket of AmazonAmazon.
8
28840
3016
Bu, Amazon'un TV yapım şirketi.
00:43
He's 47 yearsyıl oldeski, slimince, spikydikenli hairsaç,
9
31880
3256
47 yaşında, zayıf ve dik saçlı
biri olan Roy, kendini Twitter'da
00:47
describesaçıklar himselfkendisi on TwitterTwitter
as "moviesfilmler, TVTV, technologyteknoloji, tacosTacos."
10
35160
4816
"filmler, televizyon, teknoloji ve tako"
anahtar kelimelerini ile tanıtıyor.
00:52
And RoyRoy PriceFiyat has a very responsiblesorumluluk sahibi job,
because it's his responsibilitysorumluluk
11
40000
5176
Roy Price sorumluluğu ağır bir işi
yürütüyor, çünkü onun işi
00:57
to pickalmak the showsgösterileri, the originalorijinal contentiçerik
that AmazonAmazon is going to make.
12
45200
4056
Amazon'un yapacağı özgün içerikli
programları seçmek.
01:01
And of coursekurs that's
a highlybüyük ölçüde competitiverekabetçi spaceuzay.
13
49280
2336
Ve bu alanda rekabet oldukça yüksek.
01:03
I mean, there are so manyçok
TVTV showsgösterileri alreadyzaten out there,
14
51640
2736
Demek istediğim, şu anda o kadar çok
dizi var ki,
01:06
that RoyRoy can't just chooseseçmek any showgöstermek.
15
54400
2176
Roy'un herhangi bir dizi
seçmesi mümkün değil.
01:08
He has to find showsgösterileri
that are really, really great.
16
56600
4096
Onun, çok ama çok iyi dizileri
bulması gerekiyor.
01:12
So in other wordskelimeler, he has to find showsgösterileri
17
60720
2816
Başka bir deyişle, onun, bu eğrinin
en sağında yer alacak
01:15
that are on the very right endson
of this curveeğri here.
18
63560
2376
bir dizi bulması gerekiyor.
01:17
So this curveeğri here
is the ratingderecelendirme distributiondağıtım
19
65960
2656
Bu eğri IMDB sitesinde bulunan 2500
dizinin,
01:20
of about 2,500 TVTV showsgösterileri
on the websiteWeb sitesi IMDBIMDB,
20
68640
4376
1-10 puan arasındaki puan dağılımının
eğrisi
01:25
and the ratingderecelendirme goesgider from one to 10,
21
73040
2896
ve yükseklik, kaç dizinin
01:27
and the heightyükseklik here showsgösterileri you
how manyçok showsgösterileri get that ratingderecelendirme.
22
75960
2976
bu reytinge ulaştığını
gösteriyor.
01:30
So if your showgöstermek getsalır a ratingderecelendirme
of ninedokuz pointsmakas or higherdaha yüksek, that's a winnerkazanan.
23
78960
4696
Yani eğer dizi 9'un üstünde bir reyting
puanı alırsa bu bir zafer demektir.
01:35
Then you have a topüst two percentyüzde showgöstermek.
24
83680
1816
Bir de en iyi %2'lik kesim var.
01:37
That's showsgösterileri like "BreakingKırma BadKötü,"
"GameOyunu of ThronesTahtlar," "The WireTel,"
25
85520
3896
Breaking Bad, Game of Thrones, The Wire
gibi diziler mesela.
01:41
so all of these showsgösterileri that are addictivebağımlılık yapan,
26
89440
2296
Bu dizilerin hepsi, bir sezon izledikten
sonra
01:43
whereafterwhereafter you've watchedizledi a seasonsezon,
your brainbeyin is basicallytemel olarak like,
27
91760
3056
beyninize "Diğer bölümleri nasıl bulurum?"
sorusunu
01:46
"Where can I get more of these episodesBölüm?"
28
94840
2176
sorduracak kadar bağımlılık yapar.
01:49
That kindtür of showgöstermek.
29
97040
1200
Bu tür diziler.
01:50
On the left sideyan, just for clarityberraklık,
here on that endson,
30
98920
2496
Sol tarafta, biraz daha açık olmak
gerekirse en sonda,
01:53
you have a showgöstermek calleddenilen
"ToddlersKüçük çocuklar and TiarasTaçlar" --
31
101440
3176
"Toddlers and Tiaras" adında
01:56
(LaughterKahkaha)
32
104640
2656
(Kahkahalar)
01:59
-- whichhangi should tell you enoughyeterli
33
107320
1536
eğrinin sonunda neler olduğunu
02:00
about what's going on
on that endson of the curveeğri.
34
108880
2191
yeterince iyi açıklayan bir dizi var.
02:03
Now, RoyRoy PriceFiyat is not worriedendişeli about
gettingalma on the left endson of the curveeğri,
35
111095
4161
Şu an Roy Price'ın eğrinin en solunda
kalmak gibi bir endişesi yok
02:07
because I think you would have to have
some seriousciddi brainpowerbeyin
36
115280
2936
çünkü bence Toddlers and Tiaras'ın
gerisine düşmek için ciddi
02:10
to undercutkesme vuruşu "ToddlersKüçük çocuklar and TiarasTaçlar."
37
118240
1696
bir beyin gücünüzün olması lazım.
02:11
So what he's worriedendişeli about
is this middleorta bulgeçıkıntı here,
38
119960
3936
Onun endişelendiği nokta ortadaki çıkıntı
bölüm,
02:15
the bulgeçıkıntı of averageortalama TVTV,
39
123920
1816
yani ortalama bir dizi,
02:17
you know, those showsgösterileri
that aren'tdeğil really good or really badkötü,
40
125760
2856
bildiğiniz gibi çok iyi veya çok kötü
olmayan diziler
02:20
they don't really get you excitedheyecanlı.
41
128639
1656
bizi pek heyecanlandırmaz.
02:22
So he needsihtiyaçlar to make sure
that he's really on the right endson of this.
42
130320
4856
O yüzden onun hep eğrinin sağında
kaldığından emin olması lazım.
02:27
So the pressurebasınç is on,
43
135200
1576
Üzerinde hissettiği baskı bu şekilde
02:28
and of coursekurs it's alsoAyrıca the first time
44
136800
2176
ve Amazon ilk defa böyle şeyler
02:31
that AmazonAmazon is even
doing something like this,
45
139000
2176
yapmaya başladığında Roy Price,
02:33
so RoyRoy PriceFiyat does not want
to take any chancesşansı.
46
141200
3336
işini şansa bırakmak istemedi.
02:36
He wants to engineermühendis successbaşarı.
47
144560
2456
Başarıyı elde etmek istedi.
02:39
He needsihtiyaçlar a guaranteedgarantili successbaşarı,
48
147040
1776
Başarıyı garantilemeye ihtiyacı vardı
02:40
and so what he does is,
he holdstutar a competitionyarışma.
49
148840
2576
ve şuan yaptığı şey ise
bir yarışı sürdürmek.
02:43
So he takes a bunchDemet of ideasfikirler for TVTV showsgösterileri,
50
151440
3136
Bu yüzden diziler için bir dizi fikir
topluyor ve
02:46
and from those ideasfikirler,
throughvasitasiyla an evaluationdeğerlendirme,
51
154600
2296
bu fikirleri değerlendirip
02:48
they selectseçmek eightsekiz candidatesadaylar for TVTV showsgösterileri,
52
156920
4096
aralarından sekiz aday seçiyor ve
02:53
and then he just makesmarkaları the first episodeBölüm
of eachher one of these showsgösterileri
53
161040
3216
her birinin ilk bölümünü çekiyor.
02:56
and putskoyar them onlineinternet üzerinden for freeücretsiz
for everyoneherkes to watch.
54
164280
3136
Bu bölümleri ücretsiz olarak
bir websitesinden yayınlıyor.
02:59
And so when AmazonAmazon
is givingvererek out freeücretsiz stuffşey,
55
167440
2256
Amazon ücretsiz olarak bir şey verirse
03:01
you're going to take it, right?
56
169720
1536
bu şeyi alırsınız değil mi?
03:03
So millionsmilyonlarca of viewersizleyiciler
are watchingseyretme those episodesBölüm.
57
171280
5136
Dolayısıyla milyonlarca kişi bu bölümleri
izliyor.
03:08
What they don't realizegerçekleştirmek is that,
while they're watchingseyretme theironların showsgösterileri,
58
176440
3216
Onlarında farketmedikeri şey şu ki
onlar bu bölümleri izlerken
03:11
actuallyaslında, they are beingolmak watchedizledi.
59
179680
2296
asıl izlenen onlar.
03:14
They are beingolmak watchedizledi
by RoyRoy PriceFiyat and his teamtakım,
60
182000
2336
Her şeyi kaydeden Roy Price
ve takımı
03:16
who recordkayıt everything.
61
184360
1376
tarafından izleniyorlar.
03:17
They recordkayıt when somebodybirisi pressesPresler playoyun,
when somebodybirisi pressesPresler pauseDuraklat,
62
185760
3376
İzleyicinin oynat tuşuna basmasını,
durdurmasını,
03:21
what partsparçalar they skipatlamak,
what partsparçalar they watch again.
63
189160
2536
atladığı yerleri ve tekrar izlediği
yerleri kaydediyorlar.
03:23
So they collecttoplamak millionsmilyonlarca of dataveri pointsmakas,
64
191720
2256
Böylece milyonlarca
veri parçacığı topluyorlar,
03:26
because they want
to have those dataveri pointsmakas
65
194000
2096
çünkü hangi diziyi yapmak istediklerine
03:28
to then decidekarar ver
whichhangi showgöstermek they should make.
66
196120
2696
karar verirken bu verilere sahip olmak
istiyorlar.
03:30
And sure enoughyeterli,
so they collecttoplamak all the dataveri,
67
198840
2176
Pek tabii olarak bu verileri topluyorlar,
03:33
they do all the dataveri crunchingçatırdayan,
and an answerCevap emergesortaya,
68
201040
2576
hepsini işledikten sonra
cevap ortaya çıkıyor.
03:35
and the answerCevap is,
69
203640
1216
Cevap şu ki:
03:36
"AmazonAmazon should do a sitcomdurum komedisi
about fourdört RepublicanCumhuriyetçi US SenatorsSenatörler."
70
204880
5536
"Amazon Dört Cumhuriyetçi ABD senatörü
hakkında bir sit-com yapmalı."
03:42
They did that showgöstermek.
71
210440
1216
Diziyi yaptılar.
03:43
So does anyonekimse know the nameisim of the showgöstermek?
72
211680
2160
Bu dizinin ismini hatırlayan var mı?
03:46
(AudienceSeyirci: "AlphaAlfa HouseEv.")
73
214720
1296
(Seyirci: "Alpha House.")
03:48
Yes, "AlphaAlfa HouseEv,"
74
216040
1456
Evet, "Alpha House."
03:49
but it seemsgörünüyor like not too manyçok of you here
rememberhatırlamak that showgöstermek, actuallyaslında,
75
217520
4096
aslında bir çoğunuz bu diziyi hatırlamıyor
gibi gözüküyor,
03:53
because it didn't turndönüş out that great.
76
221640
1856
çünkü çok büyük bir patlama yapmadı.
03:55
It's actuallyaslında just an averageortalama showgöstermek,
77
223520
1856
Yalnızca ortalama bir diziydi,
03:57
actuallyaslında -- literallyharfi harfine, in factgerçek, because
the averageortalama of this curveeğri here is at 7.4,
78
225400
4576
çünkü aslında bu eğrinin ortalaması
tam olarak 7.4 ve
04:02
and "AlphaAlfa HouseEv" landstoprakları at 7.5,
79
230000
2416
"Alpha House" 7.5 puanda.
04:04
so a slightlyhafifçe aboveyukarıdaki averageortalama showgöstermek,
80
232440
2016
Yani ortalamanın biraz üstünde ama
04:06
but certainlykesinlikle not what RoyRoy PriceFiyat
and his teamtakım were aimingnişan for.
81
234480
2920
bu Roy Price ve takımının amaçladığı şey
kesinlikle bu değil.
04:10
MeanwhileBu arada, howeverancak,
at about the sameaynı time,
82
238320
2856
Bu arada, her nasılsa, aynı zamanda
04:13
at anotherbir diğeri companyşirket,
83
241200
1576
başka bir şirkette,
04:14
anotherbir diğeri executiveyönetici did manageyönetmek
to landarazi a topüst showgöstermek usingkullanma dataveri analysisanaliz,
84
242800
4216
Netflix'te İçerik Yönetim Şefi olan Ted,
Ted Sarandos, veri analizini kullanarak
04:19
and his nameisim is TedTed,
85
247040
1576
en üst reytinge yerleşen bir dizi
04:20
TedTed SarandosSarandos, who is
the ChiefŞef Contentİçerik OfficerMemur of NetflixNetflix,
86
248640
3416
yapmayı başardı.
04:24
and just like RoyRoy,
he's on a constantsabit missionmisyon
87
252080
2136
Onun da işi, aynı Roy'unki gibi
04:26
to find that great TVTV showgöstermek,
88
254240
1496
sürekli olarak çok iyi diziler bulmak.
04:27
and he useskullanımları dataveri as well to do that,
89
255760
2016
O da bunu yapmak için verileri kullanıyor
04:29
exceptdışında he does it
a little bitbit differentlyfarklı olarak.
90
257800
2015
ama biraz daha farklı yapıyor.
04:31
So insteadyerine of holdingtutma a competitionyarışma,
what he did -- and his teamtakım of coursekurs --
91
259839
3737
O ve takımı bir yarışma düzenlemek yerine
04:35
was they lookedbaktı at all the dataveri
they alreadyzaten had about NetflixNetflix viewersizleyiciler,
92
263600
3536
halihazırda Netflix izleyicileri ile ilgili
toplanmış, dizilere verilen
04:39
you know, the ratingsderecelendirme
they give theironların showsgösterileri,
93
267160
2096
puanlar, izlenme geçmişleri,
sevilen diziler
04:41
the viewinggörüntüleme historiesgeçmişleri,
what showsgösterileri people like, and so on.
94
269280
2696
ve bunun gibi verilere bakıyorlar.
04:44
And then they use that dataveri to discoverkeşfetmek
95
272000
1896
Bu verileri kullanarak,
04:45
all of these little bitsbit and piecesparçalar
about the audienceseyirci:
96
273920
2616
seyirciler hakkında hangi tür dizileri,
04:48
what kindsçeşit of showsgösterileri they like,
97
276560
1456
hangi tür yapımcıları,
04:50
what kindtür of producersüreticileri,
what kindtür of actorsaktörler.
98
278040
2096
hangi tür aktörleri sevdikleri gibi
veri kırıntılarına ulaşıyorlar.
04:52
And oncebir Zamanlar they had
all of these piecesparçalar togetherbirlikte,
99
280160
2576
Bu kırıntıları bir araya getiriyorlar,
04:54
they tookaldı a leapsıçrama of faithinanç,
100
282760
1656
bu verilerle bir sıçrama yapıyorlar
04:56
and they decidedkarar to licenselisans
101
284440
2096
ve 4 senatör hakkında bir sitcom
yapmaktansa
04:58
not a sitcomdurum komedisi about fourdört SenatorsSenatörler
102
286560
2456
yalnızca bir senatör hakkında
05:01
but a dramadram seriesdizi about a singletek SenatorSenatör.
103
289040
2880
drama dizisi yapmaya karar veriyorlar.
05:04
You guys know the showgöstermek?
104
292760
1656
Bu dizinin adını biliyor musunuz?
05:06
(LaughterKahkaha)
105
294440
1296
(Kahkaha)
05:07
Yes, "HouseEv of CardsKartları," and NetflixNetflix
of coursekurs, nailedçivilenmiş it with that showgöstermek,
106
295760
3736
Evet, "House of Cards" ve Netflix elbette
bu diziyle kasıp kavurdu,
05:11
at leasten az for the first two seasonsmevsim.
107
299520
2136
en azından ilk iki sezon.
05:13
(LaughterKahkaha) (ApplauseAlkış)
108
301680
3976
(Kahkahalar)(Alkışlar)
05:17
"HouseEv of CardsKartları" getsalır
a 9.1 ratingderecelendirme on this curveeğri,
109
305680
3176
"House of Cards" bu eğride
9.1 puanda,
05:20
so it's exactlykesinlikle
where they wanted it to be.
110
308880
3176
yani tam olarak istedikleri yerde.
05:24
Now, the questionsoru of coursekurs is,
what happenedolmuş here?
111
312080
2416
Şimdi soru şu,
bu iki durumda ne oldu?
05:26
So you have two very competitiverekabetçi,
data-savvyveri düşkünü companiesşirketler.
112
314520
2656
Şimdi, veri depolayan,
rekabet içinde olan iki şirket var.
05:29
They connectbağlamak all of these
millionsmilyonlarca of dataveri pointsmakas,
113
317200
2856
Milyonlarca veri parçalarını
birleştiriyorlar
05:32
and then it worksEserleri
beautifullygüzel for one of them,
114
320080
2376
ve bu veriler biri için
çok işe yarıyor ama
05:34
and it doesn't work for the other one.
115
322480
1856
diğeri için iyi bir sonuç
vermiyor?
05:36
So why?
116
324360
1216
Peki neden?
05:37
Because logicmantık kindtür of tellsanlatır you
that this should be workingçalışma all the time.
117
325600
3456
Çünkü mantığınız size bunun her zaman
işe yaraması gerektiğini söylüyor.
05:41
I mean, if you're collectingtoplama
millionsmilyonlarca of dataveri pointsmakas
118
329080
2456
Demem o ki, milyonlarca
veri parçası topluyorsanız,
05:43
on a decisionkarar you're going to make,
119
331560
1736
bir karar vereceğiniz zaman
05:45
then you should be ableyapabilmek
to make a prettygüzel good decisionkarar.
120
333320
2616
iyi bir karar vermiş olmanız lazım.
05:47
You have 200 yearsyıl
of statisticsistatistik to relygüvenmek on.
121
335960
2216
Güvenebileceğiniz 200 yıllık
istatistikler var.
05:50
You're amplifyingyükseltecek it
with very powerfulgüçlü computersbilgisayarlar.
122
338200
3016
Bu verileri güçlü bilgisayarlarla
büyütüyorsunuz.
05:53
The leasten az you could expectbeklemek
is good TVTV, right?
123
341240
3280
En azından iyi bir dizi bekliyorsunuz,
değil mi?
05:57
And if dataveri analysisanaliz
does not work that way,
124
345880
2720
Eğer veri analizi bu şekilde
çalışmıyorsa,
06:01
then it actuallyaslında getsalır a little scarykorkutucu,
125
349520
2056
durum biraz daha korkutucu
bir hâl alıyor.
06:03
because we livecanlı in a time
where we're turningdöndürme to dataveri more and more
126
351600
3816
Çünkü günümüzde televizyonun da ötesinde
daha ciddi kararlar almak için
06:07
to make very seriousciddi decisionskararlar
that go faruzak beyondötesinde TVTV.
127
355440
4480
verilere başvuruyoruz.
06:12
Does anyonekimse here know the companyşirket
Multi-HealthÇok sağlık SystemsSistemleri?
128
360760
3240
Aranızda Multi-Health Systems adlı
şirketi bilen var mı?
06:17
No one. OK, that's good actuallyaslında.
129
365080
1656
Hiç kimse. Tamam, çok iyi.
06:18
OK, so Multi-HealthÇok sağlık SystemsSistemleri
is a softwareyazılım companyşirket,
130
366760
3216
Evet, Multi-Health Systems
bir yazılım şirketi ve
06:22
and I hopeumut that nobodykimse here in this roomoda
131
370000
2816
ve umarım bu odadaki hiç kimse
06:24
ever comesgeliyor into contacttemas
with that softwareyazılım,
132
372840
3176
bu programla karşılaşmamıştır çünkü
06:28
because if you do,
it meansanlamına geliyor you're in prisonhapis.
133
376040
2096
eğer karşılaştıysanız
hapistesiniz demektir.
06:30
(LaughterKahkaha)
134
378160
1176
(Kahkahalar)
06:31
If someonebirisi here in the US is in prisonhapis,
and they applyuygulamak for paroleŞartlı tahliye,
135
379360
3536
Eğer buradaki herhangi biri ABD'de
hapse girerse ve
06:34
then it's very likelymuhtemelen that
dataveri analysisanaliz softwareyazılım from that companyşirket
136
382920
4296
şartlı tahliye başvurusu yaparsa büyük
olasılıkla başvuruyu onaylamak veya
06:39
will be used in determiningbelirleyen
whetherolup olmadığını to granthibe that paroleŞartlı tahliye.
137
387240
3616
reddetmek için bu şirketin
veri analiz yazılımı kullanılacak.
06:42
So it's the sameaynı principleprensip
as AmazonAmazon and NetflixNetflix,
138
390880
2576
Amazon ve Netflix ile aynı esaslarla ama
06:45
but now insteadyerine of decidingkarar whetherolup olmadığını
a TVTV showgöstermek is going to be good or badkötü,
139
393480
4616
şimdi bir dizinin iyi veya kötü olacağı
değil, bir insanın
06:50
you're decidingkarar whetherolup olmadığını a personkişi
is going to be good or badkötü.
140
398120
2896
iyi veya kötü olacağı hakkında
karar veriyorsunuz.
06:53
And mediocrevasat TVTV, 22 minutesdakika,
that can be prettygüzel badkötü,
141
401040
5496
Vasat bir dizi, 22 dakika,
biraz kötü olabilir,
06:58
but more yearsyıl in prisonhapis,
I guesstahmin, even worsedaha da kötüsü.
142
406560
2640
hapiste uzun yıllar, sanırım
çok daha kötü.
07:02
And unfortunatelyne yazık ki, there is actuallyaslında
some evidencekanıt that this dataveri analysisanaliz,
143
410360
4136
Ve maalesef veri analizi ile ilgili
bazı bulgular bize şunu gösteriyor ki,
07:06
despiterağmen havingsahip olan lots of dataveri,
does not always produceüretmek optimumOptimum resultsSonuçlar.
144
414520
4216
ne kadar çok veri olursa olsun, her zaman
optimum sonuçlar elde edemiyorsunuz.
07:10
And that's not because a companyşirket
like Multi-HealthÇok sağlık SystemsSistemleri
145
418760
2722
Bu, Multi-Health Systems
gibi bir şirketin elindeki verilerle
07:13
doesn't know what to do with dataveri.
146
421506
1627
ne yapacağını bilmediğinden değil.
07:15
Even the mostçoğu data-savvyveri düşkünü
companiesşirketler get it wrongyanlış.
147
423158
2298
Veri depolamaya en meraklı şirketler
bile hatalar yapıyor.
07:17
Yes, even GoogleGoogle getsalır it wrongyanlış sometimesara sıra.
148
425480
2400
Evet, Google bile bazen hatalar yapıyor.
07:20
In 2009, GoogleGoogle announcedaçıkladı
that they were ableyapabilmek, with dataveri analysisanaliz,
149
428680
4496
2009 yılında, Google, grip salgınını
tahmin etmek için,
07:25
to predicttahmin outbreakssalgınlar of influenzagrip,
the nastykötü kindtür of flugrip,
150
433200
4136
daha doğrusu kötü bir grip türünü,
07:29
by doing dataveri analysisanaliz
on theironların GoogleGoogle searchesaramalar.
151
437360
3776
veri analizi yapabileceğini duyurdu.
07:33
And it workedişlenmiş beautifullygüzel,
and it madeyapılmış a bigbüyük splashsıçrama in the newshaber,
152
441160
3856
Veri analizi bu konuda çok iyi çalıştı ve
haberlerde de büyük sükse yaptı,
07:37
includingdahil olmak üzere the pinnacleÇukur
of scientificilmi successbaşarı:
153
445040
2136
hatta bilimsel başarının zirvesini
yakaladı,
07:39
a publicationyayın in the journaldergi "NatureDoğa."
154
447200
2456
"Nature" dergisinde yayınlandı.
07:41
It workedişlenmiş beautifullygüzel
for yearyıl after yearyıl after yearyıl,
155
449680
3616
Çalışma başarısız olduğu o yıla kadar
07:45
untila kadar one yearyıl it failedbaşarısız oldu.
156
453320
1656
her yıl çok iyi sonuç verdi.
07:47
And nobodykimse could even tell exactlykesinlikle why.
157
455000
2256
Ve kimse tam olarak nedenini bile
söyleyemedi.
07:49
It just didn't work that yearyıl,
158
457280
1696
Sadece o yıl çalışmadı ve
07:51
and of coursekurs that again madeyapılmış bigbüyük newshaber,
159
459000
1936
tabii olarak haberlerde çok duyuldu ve
07:52
includingdahil olmak üzere now a retractiongeri çekme
160
460960
1616
"Nature" dergisi
07:54
of a publicationyayın
from the journaldergi "NatureDoğa."
161
462600
2840
yayını geri çekti.
07:58
So even the mostçoğu data-savvyveri düşkünü companiesşirketler,
AmazonAmazon and GoogleGoogle,
162
466480
3336
Evet, veri uzmanı en büyük firmalar,
Amazon ve Google bile
08:01
they sometimesara sıra get it wrongyanlış.
163
469840
2136
zaman zaman hatalar yapıyor.
08:04
And despiterağmen all those failuresarızaları,
164
472000
2936
Tüm bu başarısızlıklara rağmen
veri analizi,
08:06
dataveri is movinghareketli rapidlyhızla
into real-lifegerçek decision-makingkarar verme --
165
474960
3856
kanun hükümleri, tıp gibi
birçok hayati alanda
08:10
into the workplaceiş yeri,
166
478840
1816
kararı etkileyen
08:12
lawhukuk enforcementzorlama,
167
480680
1816
bir unsur olarak
08:14
medicinetıp.
168
482520
1200
kayıyor.
08:16
So we should better make sure
that dataveri is helpingyardım ediyor.
169
484400
3336
Bu yüzden veri analizinin işe yaradığına
emin olmalıyız.
08:19
Now, personallyŞahsen I've seengörüldü
a lot of this strugglemücadele with dataveri myselfkendim,
170
487760
3136
Ben, kişisel olarak verilerle ilgili
çok fazla zorluk gördüm
08:22
because I work in computationalbilişimsel geneticsgenetik,
171
490920
1976
çünkü kanser tedavisi veya
08:24
whichhangi is alsoAyrıca a fieldalan
where lots of very smartakıllı people
172
492920
2496
ilaç geliştirmek gibi alanlarda,
08:27
are usingkullanma unimaginabledüşünülemez amountsmiktarlar of dataveri
to make prettygüzel seriousciddi decisionskararlar
173
495440
3656
hayal edemeyeceğiniz kadar çok
verilerle uğraşan zeki insanların olduğu
08:31
like decidingkarar on a cancerkanser therapyterapi
or developinggelişen a drugilaç.
174
499120
3560
bir dal olan bilişimsel genetik
üzerinde çalışıyorum.
08:35
And over the yearsyıl,
I've noticedfark a sortçeşit of patternmodel
175
503520
2376
Ve yıllar içinde verilerle karar verme
konusunda
08:37
or kindtür of rulekural, if you will,
about the differencefark
176
505920
2456
başarılı olmak
veya olmamak arasında
08:40
betweenarasında successfulbaşarılı
decision-makingkarar verme with dataveri
177
508400
2696
niyet ettiğimizde paylaşmaya değer
bir kural veya kalıp
08:43
and unsuccessfulbaşarısız decision-makingkarar verme,
178
511120
1616
farkettim. Bu kalıp ise
08:44
and I find this a patternmodel worthdeğer sharingpaylaşım,
and it goesgider something like this.
179
512760
3880
şöyle bir şey:
08:50
So wheneverher ne zaman you're
solvingçözme a complexkarmaşık problemsorun,
180
518520
2135
Karışık bir problemi çözerken
08:52
you're doing essentiallyesasen two things.
181
520679
1737
temel olarak iki şey yapıyorsunuz.
08:54
The first one is, you take that problemsorun
apartayrı into its bitsbit and piecesparçalar
182
522440
3296
İlki, problemi küçük parçalara
ayırıyorsunuz, böylece bu parçaları
08:57
so that you can deeplyderinden analyzeçözümlemek
those bitsbit and piecesparçalar,
183
525760
2496
derinlenemesine analiz edebilirsiniz ve
09:00
and then of coursekurs
you do the secondikinci partBölüm.
184
528280
2016
sonra ikinci bölüme geçiyorsunuz.
09:02
You put all of these bitsbit and piecesparçalar
back togetherbirlikte again
185
530320
2656
Sonuca ulaşmak için bu küçük parçaları
tekrar
09:05
to come to your conclusionSonuç.
186
533000
1336
bir araya getiriyorsunuz.
09:06
And sometimesara sıra you
have to do it over again,
187
534360
2336
Bazen bu işi tekrar yapmanız
gerekebilir ama yaptığınız
09:08
but it's always those two things:
188
536720
1656
her zaman iki şeydir:
09:10
takingalma apartayrı and puttingkoyarak
back togetherbirlikte again.
189
538400
2320
parçalara ayırmak ve
parçaları birleştirmek.
09:14
And now the crucialçok önemli thing is
190
542280
1616
Burada kritik olan nokta şu ki,
09:15
that dataveri and dataveri analysisanaliz
191
543920
2896
veri ve veri analizi yalnızca
09:18
is only good for the first partBölüm.
192
546840
2496
ilk bölüm için önemli.
09:21
DataVeri and dataveri analysisanaliz,
no mattermadde how powerfulgüçlü,
193
549360
2216
Veri ve veri analizi ne kadar
güçlü olursa olsun,
09:23
can only help you takingalma a problemsorun apartayrı
and understandinganlayış its piecesparçalar.
194
551600
4456
yalnızca problemi parçalara ayırmanıza ve
parçaları anlamanıza yardımcı olur.
09:28
It's not suiteduygun to put those piecesparçalar
back togetherbirlikte again
195
556080
3496
Parçaları tekrar birleştirip
09:31
and then to come to a conclusionSonuç.
196
559600
1896
bir sonuca ulaşmak için uygun değildir.
09:33
There's anotherbir diğeri toolaraç that can do that,
and we all have it,
197
561520
2736
Bunu yapabilecek olan araç
herkeste mevcut
09:36
and that toolaraç is the brainbeyin.
198
564280
1296
ve bu araç beyin.
09:37
If there's one thing a brainbeyin is good at,
199
565600
1936
Eğer beynin iyi olduğu
bir şey varsa,
09:39
it's takingalma bitsbit and piecesparçalar
back togetherbirlikte again,
200
567560
2256
sahip olduğunuz bilgiler
tam olmasa bile
09:41
even when you have incompletetamamlanmamış informationbilgi,
201
569840
2016
parçaları alıp tekrar
araya getirmek ve
09:43
and cominggelecek to a good conclusionSonuç,
202
571880
1576
iyi bir sonuca ulaşmak,
09:45
especiallyözellikle if it's the brainbeyin of an expertuzman.
203
573480
2936
özellikle bu beyin bir uzmanın beyniyse.
09:48
And that's why I believe
that NetflixNetflix was so successfulbaşarılı,
204
576440
2656
Bence Netflix'in bu kadar başarılı
olmasının sebebi,
09:51
because they used dataveri and brainsbeyin
where they belongait in the processsüreç.
205
579120
3576
veriyi ve beyni süreçte olması gerektiği
yerde kullanmaları.
09:54
They use dataveri to first understandanlama
lots of piecesparçalar about theironların audienceseyirci
206
582720
3536
Onlar önce seyircilerle alakalı bir şeyler
öğrenmek için verileri kullanıyor,
09:58
that they otherwiseaksi takdirde wouldn'tolmaz have
been ableyapabilmek to understandanlama at that depthderinlik,
207
586280
3416
yoksa seyirciler hakkında bu derinlikte
bilgilere sahip olamazlardı.
10:01
but then the decisionkarar
to take all these bitsbit and piecesparçalar
208
589720
2616
Sonra karar vermek için bütün
bu parçaları birleştiriyor
10:04
and put them back togetherbirlikte again
and make a showgöstermek like "HouseEv of CardsKartları,"
209
592360
3336
ve ortaya hiçbir veride adı geçmeyen
"House of Cards" gibi
10:07
that was nowhereHiçbir yerde in the dataveri.
210
595720
1416
bir dizi çıkıyor.
10:09
TedTed SarandosSarandos and his teamtakım
madeyapılmış that decisionkarar to licenselisans that showgöstermek,
211
597160
3976
Ted Sarantos ve takımı büyük bir kişisel
risk alarak
10:13
whichhangi alsoAyrıca meantdemek, by the way,
that they were takingalma
212
601160
2381
bu diziyi yapmak için
10:15
a prettygüzel bigbüyük personalkişisel riskrisk
with that decisionkarar.
213
603565
2851
bir karar verdi.
10:18
And AmazonAmazon, on the other handel,
they did it the wrongyanlış way around.
214
606440
3016
Ama diğer yandan Amazon bu işi yanlış
bir şekilde yaptı.
10:21
They used dataveri all the way
to drivesürücü theironların decision-makingkarar verme,
215
609480
2736
İlk olarak dizi önerilerini bir yarışa
soktuklarında ve
10:24
first when they heldbekletilen
theironların competitionyarışma of TVTV ideasfikirler,
216
612240
2416
"Alpha House" dizisinde karar
kıldıklarında
10:26
then when they selectedseçilmiş "AlphaAlfa HouseEv"
to make as a showgöstermek.
217
614680
3696
karar alma mekanizmasını harekete
geçirmek için verileri kullandılar.
10:30
WhichHangi of coursekurs was
a very safekasa decisionkarar for them,
218
618400
2496
Bu onlar için güvenli bir karardı çünkü
verilere
10:32
because they could always
pointpuan at the dataveri, sayingsöz,
219
620920
2456
baktıklarında şunu söyleyebiliyorlardı:
10:35
"This is what the dataveri tellsanlatır us."
220
623400
1696
"Bize verilerin söylediği şey bu."
10:37
But it didn't leadöncülük etmek to the exceptionalolağanüstü
resultsSonuçlar that they were hopingumut for.
221
625120
4240
Ama bu veriler onları umut ettikleri gibi
istisnai bir sonuca götürmedi.
10:42
So dataveri is of coursekurs a massivelyağır
usefulişe yarar toolaraç to make better decisionskararlar,
222
630120
4976
Sonuç olarak veriler karar alırken
çok yararlı araçlar fakat
10:47
but I believe that things go wrongyanlış
223
635120
2376
bence bizi karara götüren tek şey
veriler olduğunda
10:49
when dataveri is startingbaşlangıç
to drivesürücü those decisionskararlar.
224
637520
2576
işler sarpa sarıyor.
10:52
No mattermadde how powerfulgüçlü,
dataveri is just a toolaraç,
225
640120
3776
Ne kadar güçlü olursa olsun, veriler
yalnızca birer araç ve
10:55
and to keep that in mindus,
I find this devicecihaz here quiteoldukça usefulişe yarar.
226
643920
3336
şunu unutmayın bu araç burada benim çok
işime yaradı.
10:59
ManyBirçok of you will ...
227
647280
1216
Aranızdan bir çoğunuz...
11:00
(LaughterKahkaha)
228
648520
1216
(Kahkahalar)
11:01
Before there was dataveri,
229
649760
1216
Veriler yokken
11:03
this was the decision-makingkarar verme
devicecihaz to use.
230
651000
2856
karar alma aracı buydu.
11:05
(LaughterKahkaha)
231
653880
1256
(Kahkahalar)
11:07
ManyBirçok of you will know this.
232
655160
1336
Bir çoğunuz bunu biliyor.
11:08
This toyoyuncak here is calleddenilen the MagicMagic 8 BallTop,
233
656520
1953
Bu oyuncağın ismi Sihirli 8 Topu,
11:10
and it's really amazingşaşırtıcı,
234
658497
1199
ve gerçekten inanılmaz.
11:11
because if you have a decisionkarar to make,
a yes or no questionsoru,
235
659720
2896
Çünkü eğer bir karar vermeniz gerekiyorsa,
11:14
all you have to do is you shakesallamak the balltop,
and then you get an answerCevap --
236
662640
3736
cevabı evet veya hayır olan bir soruysa,
tüm yapmanız gereken topu sallamak
11:18
"MostÇoğu LikelyBüyük olasılıkla" -- right here
in this windowpencere in realgerçek time.
237
666400
2816
ve cevabı almak. Şuanda şu küçük pencerede
"Büyük ihtimalle" yazıyor.
11:21
I'll have it out latersonra for techteknoloji demosdemolar.
238
669240
2096
Bunu daha sonra teknoloji
tanıtımlarında kullanacağım.
11:23
(LaughterKahkaha)
239
671360
1216
(Kahkahalar)
11:24
Now, the thing is, of coursekurs --
so I've madeyapılmış some decisionskararlar in my life
240
672600
3576
Olay şu ki, hayatımda bir çok konuda
kararlar aldım ve şimdi geriye dönüp
11:28
where, in hindsightGez,
I should have just listeneddinlenen to the balltop.
241
676200
2896
baktığımda şunu söyleyebilirim, keşke
topu dinleseydim.
11:31
But, you know, of coursekurs,
if you have the dataveri availablemevcut,
242
679120
3336
Ama bildiğiniz gibi, eğer elinizde
veriler varsa, daha iyi
11:34
you want to replacedeğiştirmek this with something
much more sophisticatedsofistike,
243
682480
3056
bir karar vermek için bunun yerine veri
analizi gibi daha
11:37
like dataveri analysisanaliz
to come to a better decisionkarar.
244
685560
3616
gelişmiş şeyleri kullanmak
istersiniz.
11:41
But that does not changedeğişiklik the basictemel setupKurulum.
245
689200
2616
Ama bu kurguyu değiştirmiyor.
11:43
So the balltop mayMayıs ayı get smarterdaha akıllı
and smarterdaha akıllı and smarterdaha akıllı,
246
691840
3176
Bu yüzden top, çok daha zeki olabiliyor,
ama şuna inanıyorum ki
11:47
but I believe it's still on us
to make the decisionskararlar
247
695040
2816
eğer eğrinin sağ tarafında,
11:49
if we want to achievebaşarmak
something extraordinaryolağanüstü,
248
697880
3016
sıra dışı bir şey başarmak istiyorsak
11:52
on the right endson of the curveeğri.
249
700920
1936
bu hala karar vermemiz
için hazır bekliyor ve
11:54
And I find that a very encouragingteşvik edici
messagemesaj, in factgerçek,
250
702880
4496
aslında çok teşvik edici bir şey buldum,
11:59
that even in the faceyüz
of hugeKocaman amountsmiktarlar of dataveri,
251
707400
3976
çok büyük sayıda verilere karşın
12:03
it still paysöder off to make decisionskararlar,
252
711400
4096
yaptığınız şeyde uzman olmak için
12:07
to be an expertuzman in what you're doing
253
715520
2656
karar vermeye ve
12:10
and take risksriskler.
254
718200
2096
risk almaya değer.
12:12
Because in the endson, it's not dataveri,
255
720320
2776
Çünkü en sonunda veriler yok, en sonunda
sizi eğrinin
sağına veya soluna yerleştirecek şey
yalnızca aldığınız riskler.
12:15
it's risksriskler that will landarazi you
on the right endson of the curveeğri.
256
723120
3960
12:19
Thank you.
257
727840
1216
Teşekkür ederim.
12:21
(ApplauseAlkış)
258
729080
3680
(Alkışlar)
Translated by Ozay Ozaydin
Reviewed by Sancak Gülgen

▲Back to top

ABOUT THE SPEAKER
Sebastian Wernicke - Data scientist
After making a splash in the field of bioinformatics, Sebastian Wernicke moved on to the corporate sphere, where he motivates and manages multidimensional projects.

Why you should listen

Dr. Sebastian Wernicke is the Chief Data Scientist of ONE LOGIC, a data science boutique that supports organizations across industries to make sense of their vast data collections to improve operations and gain strategic advantages. Wernicke originally studied bioinformatics and previously led the strategy and growth of Seven Bridges Genomics, a Cambridge-based startup that builds platforms for genetic analysis.

Before his career in statistics began, Wernicke worked stints as both a paramedic and successful short animated filmmaker. He's also the author of the TEDPad app, an irreverent tool for creating an infinite number of "amazing and really bad" and mostly completely meaningless talks. He's the author of the statistically authoritative and yet completely ridiculous "How to Give the Perfect TEDTalk."

More profile about the speaker
Sebastian Wernicke | Speaker | TED.com