ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com
TEDxCambridge

Tricia Wang: The human insights missing from big data

Tricia Wang: Büyük veride eksik olan insan sezgisi

Filmed:
1,688,539 views

Neden pek çok şirket, benzeri görülmemiş miktarda veriye erişebiliyor olduğu halde kötü kararlar veriyor? Nokia, Netflix ve antik Yunan kâhinlerinin hikâyeleriyle, Tricia Wang büyük veriyi açıklıyor ve tehlikelerinden bahsederken doğru iş kararları vermek ve bilinmeyeden başarılı olmak için "yoğun veri" - gerçek kişilerden değerli, niceliksel olmayan bilgiler - üzerine odaklanmamızı öneriyor.
- Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers. Full bio

Double-click the English transcript below to play the video.

00:12
In ancienteski GreeceYunanistan,
0
885
1545
Antik Yunan'da,
00:15
when anyonekimse from slavesköle to soldiersaskerler,
poetsşairler and politicianssiyasetçiler,
1
3436
3943
kölesinden askerine,
şairinden politikacısına herkes,
00:19
neededgerekli to make a bigbüyük decisionkarar
on life'shayatın mostçoğu importantönemli questionssorular,
2
7403
4004
"Evlenmeli miyim?" veya
"Bu yolculuğa çıkmalı mıyım?"
00:23
like, "Should I get marriedevli?"
3
11431
1391
veya "Ordumuz bu bölgede
ilerlemeli mi?" gibi
00:24
or "Should we embarkatılmak on this voyageyolculuk?"
4
12846
1857
hayatın en önemli sorularıyla ilgili
00:26
or "Should our armyordu
advanceilerlemek into this territorybölge?"
5
14727
2928
büyük bir karar vermesi gerektiğinde,
00:29
they all consultedistişare the oracletorpil.
6
17679
2579
hepsi kâhine danışırdı.
00:33
So this is how it workedişlenmiş:
7
21020
1440
İşler şöyle yürüyordu:
00:34
you would bringgetirmek her a questionsoru
and you would get on your kneesdizler,
8
22484
3112
kâhine sorunuzu aktarır ve
dizlerinizin üstüne çökerdiniz,
sonra o da transa geçerdi.
00:37
and then she would go into this trancetrans.
9
25620
1871
Birkaç gün sürerdi
00:39
It would take a coupleçift of daysgünler,
10
27515
1549
ve nihayetinde kâhin transtan çıkardı,
00:41
and then eventuallysonunda
she would come out of it,
11
29088
2163
00:43
givingvererek you her predictionstahminler as your answerCevap.
12
31275
2536
tahminlerini cevaben size söylerdi.
00:46
From the oracletorpil boneskemikler of ancienteski ChinaÇin
13
34910
2566
Antik Çin'in fal yazıtlarından
00:49
to ancienteski GreeceYunanistan to MayanMaya calendarsTakvimler,
14
37500
2345
antik Yunan ve Maya takvimine,
00:51
people have cravedcraved for prophecyKehanet
15
39869
2296
insanlar gelecekte
ne olacağını bulmak için
00:54
in ordersipariş to find out
what's going to happenolmak nextSonraki.
16
42189
3137
kehanetlerin peşinde koşmuştur.
00:58
And that's because we all want
to make the right decisionkarar.
17
46516
3239
Çünkü hepimiz doğru kararı vermek isteriz.
01:01
We don't want to missbayan something.
18
49779
1545
Bir şeyleri kaçırmak istemeyiz.
01:03
The futuregelecek is scarykorkutucu,
19
51892
1743
Gelecek korkutucu,
01:05
so it's much nicerdaha güzel
knowingbilme that we can make a decisionkarar
20
53659
2717
sonucu garantileyen bir karar
verebileceğimizi bilmek
01:08
with some assurancegüvence of the outcomesonuç.
21
56400
1982
çok daha hoş olur.
01:11
Well, we have a newyeni oracletorpil,
22
59079
1611
Artık yeni bir kâhinimiz var
01:12
and it's nameisim is bigbüyük dataveri,
23
60714
2145
ve onun adı büyük veri
01:14
or we call it "WatsonWatson"
or "deepderin learningöğrenme" or "neuralsinirsel net."
24
62883
3939
veya ona "Watson" veya "derin öğrenme"
veya "sinir ağı" diyebiliriz.
01:19
And these are the kindsçeşit of questionssorular
we asksormak of our oracletorpil now,
25
67340
4012
Ve şimdi kâhinimize şu gibi
sorular soruyoruz:
01:23
like, "What's the mostçoğu efficientverimli way
to shipgemi these phonestelefonlar
26
71376
3922
"Bu telefonları Çin'den
İsveç'e göndermenin
01:27
from ChinaÇin to Swedenİsveç?"
27
75322
1823
en kolay yolu nedir?"
01:29
Or, "What are the oddsolasılık
28
77169
1800
Veya "Çocuğumun
01:30
of my childçocuk beingolmak borndoğmuş
with a geneticgenetik disorderdüzensizlik?"
29
78993
3363
genetik bozuklukla doğma olasılığı nedir?"
01:34
Or, "What are the salessatış volumehacim
we can predicttahmin for this productürün?"
30
82952
3244
Veya "Bu ürün için öngörebileceğimiz
satış hacmi nedir?"
01:40
I have a dogköpek. Her nameisim is ElleElle,
and she hateskinler the rainyağmur.
31
88108
4047
Bir köpeğim var.
Adı Elle ve yağmurdan nefret ediyor.
01:44
And I have trieddenenmiş everything
to untrainuntrain her.
32
92179
3306
Onu eğitmek için her şeyi denedim.
01:47
But because I have failedbaşarısız oldu at this,
33
95509
2771
Bu konuda başarısız olduğum için
01:50
I alsoAyrıca have to consultdanışın
an oracletorpil, calleddenilen DarkKaranlık SkyGökyüzü,
34
98304
3286
yürüyüşe çıkmadan önce
sonraki 10 dakikanın
01:53
everyher time before we go on a walkyürümek,
35
101614
1635
kesin hava tahmini için
01:55
for very accuratedoğru weatherhava predictionstahminler
in the nextSonraki 10 minutesdakika.
36
103273
3577
Dark Sky denen kâhine
danışmak zorundayım.
02:01
She's so sweettatlı.
37
109535
1303
Çok tatlı.
02:03
So because of all of this,
our oracletorpil is a $122 billionmilyar industrysanayi.
38
111827
5707
Bu nedenle kâhinimiz
112 milyar dolarlık bir endüstri.
02:10
Now, despiterağmen the sizeboyut of this industrysanayi,
39
118006
3376
Şimdi, endüstrinin hacmine karşın,
02:13
the returnsdöner are surprisinglyşaşırtıcı biçimde lowdüşük.
40
121406
2456
getirisi şaşırtıcı derecede düşük.
02:16
InvestingYatırım in bigbüyük dataveri is easykolay,
41
124342
2494
Büyük Veri'ye yatırım yapmak kolay,
02:18
but usingkullanma it is hardzor.
42
126860
1933
ama onu kullanmak zor.
02:21
Over 73 percentyüzde of bigbüyük dataveri projectsprojeler
aren'tdeğil even profitablekârlı,
43
129981
4040
Büyük Veri projelerinin
%73'ünden fazlası kârlı bile değil
02:26
and I have executivesYöneticiler
cominggelecek up to me sayingsöz,
44
134045
2431
ve yöneticilerden yanıma gelip
02:28
"We're experiencingyaşandığı the sameaynı thing.
45
136500
1789
"Aynı şeyi deneyimliyoruz.
02:30
We investedyatırım in some bigbüyük dataveri systemsistem,
46
138313
1753
Bazı Büyük Veri sistemlerine
yatırım yaptık
02:32
and our employeesçalışanlar aren'tdeğil makingyapma
better decisionskararlar.
47
140090
2968
ama çalışanlarımız
daha iyi kararlar vermiyor
02:35
And they're certainlykesinlikle not cominggelecek up
with more breakthroughbuluş ideasfikirler."
48
143082
3162
ve kesinlikle daha çığır açıcı
fikirlerle gelmiyorlar." diyor.
02:38
So this is all really interestingilginç to me,
49
146914
3184
Bunların hepsi benim için çok ilginç,
02:42
because I'm a technologyteknoloji ethnographeretnograf.
50
150122
2010
çünkü ben bir teknoloji etnografıyım.
Hem araştırıyor, hem de insanların
02:44
I studyders çalışma and I advisetavsiye companiesşirketler
51
152630
2564
teknolojiyi kullanım modelleri üzerinden
şirketlere tavsiyeler veriyorum
02:47
on the patternsdesenler
of how people use technologyteknoloji,
52
155218
2483
02:49
and one of my interestfaiz areasalanlar is dataveri.
53
157725
2678
ve ilgi alanlarımdan biri de veri.
02:52
So why is havingsahip olan more dataveri
not helpingyardım ediyor us make better decisionskararlar,
54
160427
5193
Peki neden daha fazla veriye sahip olmak
daha iyi kararlar vermeye yardımcı olmuyor
02:57
especiallyözellikle for companiesşirketler
who have all these resourceskaynaklar
55
165644
2783
özellikle de büyük veri sistemlerine
yatırım yapacak
kaynakları olan şirketlere?
03:00
to investyatırmak in these bigbüyük dataveri systemssistemler?
56
168451
1736
03:02
Why isn't it gettingalma any easierDaha kolay for them?
57
170211
2398
Bu neden onların işini kolaylaştırmıyor?
03:05
So, I've witnessedtanık the strugglemücadele firsthandilk elden.
58
173990
2634
Bu sıkıntıya birebir şahit oldum.
03:09
In 2009, I startedbaşladı
a researchAraştırma positionpozisyon with NokiaNokia.
59
177374
3484
2009'da Nokia'nın araştırma
bölümünde işe başladım.
03:13
And at the time,
60
181232
1158
Ve o zamanlar,
03:14
NokiaNokia was one of the largesten büyük
cellhücre phonetelefon companiesşirketler in the worldDünya,
61
182414
3158
Nokia dünyadaki en büyük
telefon şirketlerinden biriydi,
03:17
dominatinghakim emerginggelişmekte olan marketspiyasalar
like ChinaÇin, MexicoMeksika and IndiaHindistan --
62
185596
3202
Çin, Meksika ve Hindistan gibi
gelişen pazarlara egemendi.
03:20
all placesyerler where I had donetamam
a lot of researchAraştırma
63
188822
2502
Tüm bu yerlerde düşük gelirli insanların
03:23
on how low-incomedüşük gelirli people use technologyteknoloji.
64
191348
2676
teknoloji kullanımı üzerine
birçok araştırma yaptım.
03:26
And I spentharcanmış a lot of extraekstra time in ChinaÇin
65
194048
2330
Ve kayıt dışı ekonomiyi öğrenmek için
03:28
gettingalma to know the informalresmi olmayan economyekonomi.
66
196402
2592
Çin'de epey fazla zaman harcadım.
03:31
So I did things like workingçalışma
as a streetsokak vendorSatıcı
67
199018
2401
İşportacılık gibi şeyler yaptım,
03:33
sellingsatış dumplingsköfte to constructioninşaat workersişçiler.
68
201443
2574
inşaat işçilerine mantı sattım.
03:36
Or I did fieldworksaha çalışması,
69
204041
1358
Veya saha işi yaptım,
03:37
spendingharcama nightsgece and daysgünler
in internetInternet cafCAFés,
70
205423
2958
gece gündüzümü
internet kafelerinde geçirdim,
03:40
hangingasılı out with ChineseÇince youthgençlik,
so I could understandanlama
71
208405
2546
oyunları ve cep telefonlarını
03:42
how they were usingkullanma
gamesoyunlar and mobileseyyar phonestelefonlar
72
210975
2284
ve bunları köyden kente geçişte
03:45
and usingkullanma it betweenarasında movinghareketli
from the ruralkırsal areasalanlar to the citiesşehirler.
73
213283
3370
nasıl kullandıklarını anlamak için
genç Çinlilerle takıldım.
03:50
ThroughAracılığıyla all of this qualitativenitel evidencekanıt
that I was gatheringtoplama,
74
218335
3927
Topladığım tüm bu nitel kanıtlarla
03:54
I was startingbaşlangıç to see so clearlyAçıkça
75
222286
2824
düşük gelirli Çin halkı içinde
03:57
that a bigbüyük changedeğişiklik was about to happenolmak
amongarasında low-incomedüşük gelirli ChineseÇince people.
76
225134
4472
büyük bir değişimin olmak üzere olduğunu
açık bir şekilde görmeye başlıyordum.
04:03
Even thoughgerçi they were surroundedçevrili
by advertisementsreklamlar for luxurylüks productsÜrünler
77
231020
4367
Süslü tuvaletler -bunu kim istemez ki?-
ve binalar, arabalar gibi
04:07
like fancyfantezi toiletstuvaletler --
who wouldn'tolmaz want one? --
78
235411
3495
lüks ürün reklamlarıyla
04:10
and apartmentsdaireler and carsarabalar,
79
238930
2890
etrafları çevrili olmasına rağmen,
04:13
throughvasitasiyla my conversationskonuşmaları with them,
80
241844
1820
onlarla yaptığım konuşmalarda
04:15
I foundbulunan out that the adsreklamlar
the actuallyaslında enticedikna them the mostçoğu
81
243688
3841
onların en çok aklını çelen reklamların
onlara bu yüksek teknoloji
hayatına girmeyi vaat eden
04:19
were the onesolanlar for iPhonesiPhone,
82
247553
1996
04:21
promisingumut verici them this entrygiriş
into this high-techyüksek teknoloji life.
83
249573
3052
iPhone reklamları olduğunu öğrendim.
04:25
And even when I was livingyaşam with them
in urbankentsel slumsgecekondu like this one,
84
253469
3163
Ve hatta onlarla burası gibi
varoşlarda yaşıyorken
04:28
I saw people investingyatırım
over halfyarım of theironların monthlyaylık incomegelir
85
256656
2996
aylık gelirlerinin yarısını
bir telefona harcayan
04:31
into buyingalış a phonetelefon,
86
259676
1623
insanlar gördüm
04:33
and increasinglygiderek, they were "shanzhaishanzhai,"
87
261323
2302
ve çoğunlukla bunlar "shanzhai" denen
04:35
whichhangi are affordablesatın alınabilir knock-offsknock-off
of iPhonesiPhone and other brandsmarkalar.
88
263649
3388
iPhone ve diğer markaların
uygun fiyatlı taklitleri oluyor.
04:40
They're very usablekullanılabilir.
89
268303
1625
Çok kullanışlılar.
04:42
Does the job.
90
270890
1322
İş görüyor.
04:44
And after yearsyıl of livingyaşam
with migrantsgöçmenler and workingçalışma with them
91
272750
5789
Ve yıllarca göçmenlerle
yaşayıp çalıştıktan sonra
04:50
and just really doing everything
that they were doing,
92
278563
3434
ve sadece gerçekten onların
yaptığı her şeyi yaparak
04:54
I startedbaşladı piecingekleme
all these dataveri pointsmakas togetherbirlikte --
93
282021
3597
tüm bu veri noktalarını
birleştirmeye başladım;
04:57
from the things that seemgörünmek randomrasgele,
like me sellingsatış dumplingsköfte,
94
285642
3123
benim mantı satmam gibi
rastgele görünen şeylerden,
05:00
to the things that were more obviousaçık,
95
288789
1804
telefon faturalarına
ne kadar harcadıklarını
05:02
like trackingizleme how much they were spendingharcama
on theironların cellhücre phonetelefon billsfatura.
96
290617
3232
takip etmek gibi
daha aşikâr olan şeylere kadar.
Ve neler olduğunu gösteren bu,
çok daha bütüncül olan
05:05
And I was ableyapabilmek to createyaratmak
this much more holisticbütünsel pictureresim
97
293873
2639
05:08
of what was happeningolay.
98
296536
1156
resmi yapabildim.
05:09
And that's when I startedbaşladı to realizegerçekleştirmek
99
297716
1722
Ve işte o zaman
05:11
that even the poorestyoksul in ChinaÇin
would want a smartphoneSmartphone,
100
299462
3509
en fakir Çinlinin bile bir akıllı telefon
istediğini ve onlardan birine
05:14
and that they would do almostneredeyse anything
to get theironların handseller on one.
101
302995
4985
el sürebilmek için neredeyse ne olursa
yapacaklarını fark etmeye başladım.
05:21
You have to keep in mindus,
102
309073
2404
Unutmamalısınız ki,
05:23
iPhonesiPhone had just come out, it was 2009,
103
311501
3084
iPhone'lar yeni çıkmıştı, 2009 yılıydı,
05:26
so this was, like, eightsekiz yearsyıl agoönce,
104
314609
1885
yani bu, sekiz yıl kadar önce
05:28
and AndroidsAndroidler had just startedbaşladı
looking like iPhonesiPhone.
105
316518
2437
ve Android'ler henüz iPhone'lar gibi
gözükmeye başlamıştı.
05:30
And a lot of very smartakıllı
and realisticgerçekçi people said,
106
318979
2507
Birçok zeki ve gerçekçi kişi
şöyle söyledi:
05:33
"Those smartphonesakıllı telefonlar -- that's just a fadfad.
107
321510
2207
"Bu akıllı telefonlar -- bir heves.
05:36
Who wants to carrytaşımak around
these heavyağır things
108
324243
2996
Pili hemen biten ve her düştüğünde kırılan
05:39
where batteriespiller draindrenaj quicklyhızlı bir şekilde
and they breakkırılma everyher time you dropdüşürmek them?"
109
327263
3487
bu ağır şeyleri kim taşımak ister?"
Fakat çok fazla verim vardı
05:44
But I had a lot of dataveri,
110
332793
1201
05:46
and I was very confidentkendine güvenen
about my insightsanlayışlar,
111
334018
2260
ve sezgilerim konusunda
kendimden çok emindim,
05:48
so I was very excitedheyecanlı
to sharepay them with NokiaNokia.
112
336302
2829
bu yüzden bunları Nokia ile
paylaşmak için sabırsızlanıyordum.
05:53
But NokiaNokia was not convincedikna olmuş,
113
341332
2517
Ama Nokia ikna olmamıştı,
05:55
because it wasn'tdeğildi bigbüyük dataveri.
114
343873
2335
çünkü bu büyük veri değildi.
"Elimizde milyonlarca veri noktası var
05:59
They said, "We have
millionsmilyonlarca of dataveri pointsmakas,
115
347022
2404
06:01
and we don't see any indicatorsgöstergeler
of anyonekimse wantingeksik to buysatın almak a smartphoneSmartphone,
116
349450
4247
ve kimsenin akıllı telefon almak
istediğine dair bir işaret görmüyoruz
06:05
and your dataveri setset of 100,
as diverseçeşitli as it is, is too weakzayıf
117
353721
4388
ve 100 olan veri kümen
çok kapsamlı olsa da,
ciddiye alamayacağımız kadar zayıf."
06:10
for us to even take seriouslycidden mi."
118
358133
1714
06:12
And I said, "NokiaNokia, you're right.
119
360908
1605
Ben de,
"Nokia, haklısın.
06:14
Of coursekurs you wouldn'tolmaz see this,
120
362537
1560
Tabii ki bunu göremezsiniz,
06:16
because you're sendinggönderme out surveysanketler
assumingvarsayarak that people don't know
121
364121
3371
çünkü insanların akıllı telefonun
ne olduğunu bilmediğini varsayan
06:19
what a smartphoneSmartphone is,
122
367516
1159
anketler yapıyorsunuz,
06:20
so of coursekurs you're not going
to get any dataveri back
123
368699
2366
o yüzden tabii ki iki yıl içinde
akıllı telefon almak isteyen insanlar
hakkında veri dönüşü alamazsınız.
06:23
about people wantingeksik to buysatın almak
a smartphoneSmartphone in two yearsyıl.
124
371089
2572
Anketçileriniz, metodlarınız
mevcut bir iş modelini
06:25
Your surveysanketler, your methodsyöntemleri
have been designedtasarlanmış
125
373685
2118
06:27
to optimizeoptimize an existingmevcut business modelmodel,
126
375827
2022
en iyi hale getirmek için tasarlandı
06:29
and I'm looking
at these emergentAcil humaninsan dynamicsdinamik
127
377873
2608
ve ben henüz oluşmamış
yeni insan dinamiklerine bakıyorum.
06:32
that haven'tyok happenedolmuş yethenüz.
128
380505
1354
06:33
We're looking outsidedışında of marketpazar dynamicsdinamik
129
381883
2438
Biz pazar dinamikleri dışından bakıyoruz,
06:36
so that we can get aheadönde of it."
130
384345
1631
ki onların önüne geçebilelim."
06:39
Well, you know what happenedolmuş to NokiaNokia?
131
387373
2244
Nokia'ya ne olduğunu biliyor musunuz?
06:41
TheirOnların business felldüştü off a cliffuçurum.
132
389641
2365
İşleri uçurumdan yuvarlandı.
06:44
This -- this is the costmaliyet
of missingeksik something.
133
392791
3727
Bu, bir şeyi kaçırmanın bedeli.
06:49
It was unfathomable"Kakıl" almaz.
134
397163
1999
Bu akıl sır ermez bir şeydi.
06:52
But Nokia'sNokia'nın not aloneyalnız.
135
400003
1651
Ama Nokia yalnız değil.
06:54
I see organizationsorganizasyonlar
throwingatma out dataveri all the time
136
402258
2581
Sürekli verileri görmezden gelen
şirketler görüyorum
06:56
because it didn't come from a quantQuant modelmodel
137
404863
2561
çünkü bu nicel bir modelden gelmiyor
06:59
or it doesn't fituygun in one.
138
407448
1768
veya birine uymuyor.
07:02
But it's not bigbüyük data'sData'nın faulthatası.
139
410219
2048
Ama bu, büyük verinin hatası değil.
07:04
It's the way we use bigbüyük dataveri;
it's our responsibilitysorumluluk.
140
412942
3907
Bu bizim büyük veriyi kullanma şeklimiz;
bu bizim sorumluluğumuz.
07:09
BigBüyük data'sData'nın reputationitibar for successbaşarı
141
417730
1911
Büyük verinin başarı şöhreti
07:11
comesgeliyor from quantifyingmiktarının
very specificözel environmentsortamları,
142
419665
3759
çok belirli çevrelerin
nicelendirilmesinden geliyor.
Örneğin; enerji nakil şebekeleri veya
dağıtım lojistikleri veya genetik kod gibi
07:15
like electricityelektrik powergüç gridsIzgaralar
or deliveryteslim logisticsLojistik or geneticgenetik codekod,
143
423448
4913
07:20
when we're quantifyingmiktarının in systemssistemler
that are more or lessaz containediçeriyordu.
144
428385
4318
az çok kapsamlı sistemler.
07:24
But not all systemssistemler
are as neatlydüzgünce containediçeriyordu.
145
432727
2969
Ama tüm sistemler bu kadar
düzgün belirlenmemiştir.
07:27
When you're quantifyingmiktarının
and systemssistemler are more dynamicdinamik,
146
435720
3258
Belirleme yaparken ve
sistemler daha dinamikse,
07:31
especiallyözellikle systemssistemler
that involvedahil humaninsan beingsvarlıklar,
147
439002
3799
özellikle insanı içeren sistemler,
07:34
forcesgüçler are complexkarmaşık and unpredictableöngörülemeyen,
148
442825
2426
kuvvetler karmaşık ve kestirilemez
07:37
and these are things
that we don't know how to modelmodel so well.
149
445275
3486
ve bunlar, nasıl modelleyeceğimizi
çok iyi bilmediğimiz sistemler.
07:41
OnceBir kez you predicttahmin something
about humaninsan behaviordavranış,
150
449204
2813
İnsan davranışları hakkında
bir tahminde bulunduğunuzda
07:44
newyeni factorsfaktörler emergeçıkmak,
151
452041
1855
yeni faktörler ortaya çıkar,
07:45
because conditionskoşullar
are constantlysürekli changingdeğiştirme.
152
453920
2365
çünkü şartlar sürekli değişmektedir.
07:48
That's why it's a never-endinghiç bitmeyen cycledevir.
153
456309
1803
Bu yüzen hiç bitmeyen bir döngüdür.
07:50
You think you know something,
154
458136
1464
Bir şeyi bildiğinizi düşünürsünüz
07:51
and then something unknownBilinmeyen
entersgirer the pictureresim.
155
459624
2242
ve sonra bilinmeyen bir şey
olaya dahil olur.
07:53
And that's why just relyingbağlı olduğu
on bigbüyük dataveri aloneyalnız
156
461890
3322
Ve bu yüzden, sadece büyük veriye güvenmek
07:57
increasesartışlar the chanceşans
that we'lliyi missbayan something,
157
465236
2849
bir şeyleri kaçırma ihtimalini artırarak
08:00
while givingvererek us this illusionyanılsama
that we alreadyzaten know everything.
158
468109
3777
zaten her şeyi bildiğimizi
düşündürerek bizi yanıltır.
08:04
And what makesmarkaları it really hardzor
to see this paradoxparadoks
159
472406
3856
Ve bu paradoksu görmeyi ve hatta
08:08
and even wrapsarmak our brainsbeyin around it
160
476286
2659
anlam vermemizi zorlaştıran şey
08:10
is that we have this thing
that I call the quantificationmiktar biasönyargı,
161
478969
3691
nicelleştirme önyargısı olarak
adlandırdığım
08:14
whichhangi is the unconsciousbilinçsiz beliefinanç
of valuingdeğer vermek the measurableölçülebilir
162
482684
3922
ölçülemez olan yerine
ölçülebilir olan şeye değer biçme
08:18
over the immeasurableölçülemez.
163
486630
1594
bilinç dışı inancıdır.
08:21
And we oftensık sık experiencedeneyim this at our work.
164
489222
3284
Ve bunu işimizde sık sık yaşıyoruz.
08:24
Maybe we work alongsideyanında
colleaguesmeslektaşlar who are like this,
165
492530
2650
Belki bu gibi meslektaşların
yanında çalışıyoruz
08:27
or even our wholebütün entiretüm
companyşirket mayMayıs ayı be like this,
166
495204
2428
veya hatta belki de
tüm şirketimiz böyledir.
08:29
where people becomeolmak
so fixatedsabitlenmiş on that numbernumara,
167
497656
2546
İnsanlar o numaraya sabitlenmiştir,
08:32
that they can't see anything
outsidedışında of it,
168
500226
2067
onun dışında hiçbir şey göremiyorlardır,
08:34
even when you presentmevcut them evidencekanıt
right in frontön of theironların faceyüz.
169
502317
3948
hatta kanıtları onların
gözlerine soktuğunuzda bile.
08:39
And this is a very appealingçekici messagemesaj,
170
507123
3371
Bu çok albenili bir mesajdır,
08:42
because there's nothing
wrongyanlış with quantifyingmiktarının;
171
510518
2343
çünkü belirlemenin
yanlış bir tarafı yoktur;
08:44
it's actuallyaslında very satisfyingtatmin edici.
172
512885
1430
aslında çok tatmin edicidir.
08:46
I get a great senseduyu of comfortkonfor
from looking at an ExcelExcel spreadsheettablo,
173
514339
4362
Çok basit Excel tablolarına
baktığımda bile
08:50
even very simplebasit onesolanlar.
174
518725
1401
huzurla doluyorum.
08:52
(LaughterKahkaha)
175
520150
1014
(Gülüşmeler)
08:53
It's just kindtür of like,
176
521188
1152
Bu şunun gibidir:
08:54
"Yes! The formulaformül workedişlenmiş. It's all OK.
Everything is underaltında controlkontrol."
177
522364
3504
"Evet! Formül işe yaradı.
Her şey tamam. Her şey kontrol altında."
08:58
But the problemsorun is
178
526792
2390
Ama problem şu ki,
09:01
that quantifyingmiktarının is addictivebağımlılık yapan.
179
529206
2661
belirleme işi bağımlılık yapıyor.
09:03
And when we forgetunutmak that
180
531891
1382
Ve bunu unuttuğumuzda
09:05
and when we don't have something
to kindtür of keep that in checkKontrol,
181
533297
3038
ve bunu kontrolde tutacak
bir şeyimiz yoksa,
09:08
it's very easykolay to just throwatmak out dataveri
182
536359
2118
veriyi çöpe atmak çok kolaydır
09:10
because it can't be expressedifade
as a numericalsayısal valuedeğer.
183
538501
2718
çünkü sayısal değer olarak ifade edilemez.
09:13
It's very easykolay just to slipkayma
into silver-bulletGümüş kurşun thinkingdüşünme,
184
541243
2921
Basit bir çözüm varmış gibi
sihirli değnek düşüncesine girmek
09:16
as if some simplebasit solutionçözüm existedvar.
185
544188
2579
çok kolaydır.
09:19
Because this is a great momentan of dangerTehlike
for any organizationorganizasyon,
186
547600
4062
Çünkü bu her şirket için
büyük tehlike anıdır,
09:23
because oftentimesOftentimes,
the futuregelecek we need to predicttahmin --
187
551686
2634
çünkü çoğu zaman,
tahmin etmemiz gereken gelecek,
09:26
it isn't in that haystackSamanlık,
188
554344
2166
ot yığınının içinde değil,
09:28
but it's that tornadoKasırga
that's bearingyatak down on us
189
556534
2538
ahırın dışından üzerimize gelen
09:31
outsidedışında of the barnahır.
190
559096
1488
o kasırgadır.
09:34
There is no greaterbüyük riskrisk
191
562960
2326
Bilinmeyeni görememekten
09:37
than beingolmak blindkör to the unknownBilinmeyen.
192
565310
1666
daha büyük bir risk yoktur.
09:39
It can causesebeb olmak you to make
the wrongyanlış decisionskararlar.
193
567000
2149
Bu, yanlış kararlar vermenize
neden olabilir.
09:41
It can causesebeb olmak you to missbayan something bigbüyük.
194
569173
1974
Büyük bir şey kaçırmanıza neden olabilir.
09:43
But we don't have to go down this pathyol.
195
571734
3101
Fakat bu yoldan gitmek zorunda değiliz.
09:47
It turnsdönüşler out that the oracletorpil
of ancienteski GreeceYunanistan
196
575453
3195
Meğer antik Yunan kâhinlerinin elinde
09:50
holdstutar the secretgizli keyanahtar
that showsgösterileri us the pathyol forwardileri.
197
578672
3966
bizi ileriye götürecek olan yolun
gizli anahtarı varmış.
09:55
Now, recentson geologicaljeolojik researchAraştırma has showngösterilen
198
583654
2595
Yakın zamanda yapılan jeolojik araştırma
09:58
that the TempleTapınak of ApolloApollo,
where the mostçoğu famousünlü oracletorpil satoturdu,
199
586273
3564
en meşhur kâhinin oturduğu
Apollo Tapınağının aslında
10:01
was actuallyaslında builtinşa edilmiş
over two earthquakedeprem faultshataları.
200
589861
3084
iki deprem fayı üzerine
inşa edildiğini gösterdi.
10:04
And these faultshataları would releaseserbest bırakmak
these petrochemicalpetrokimya fumesduman
201
592969
2886
Ve bu faylar Dünya'nın kabuğu altından
10:07
from underneathaltında the Earth'sDünya'nın crustkabuk,
202
595879
1685
petro-kimyasal gazlar salıyor
10:09
and the oracletorpil literallyharfi harfine satoturdu
right aboveyukarıdaki these faultshataları,
203
597588
3866
ve kâhin tam olarak
bu fayların üzerine oturmuş,
10:13
inhalingteneffüs edilmesi enormousmuazzam amountsmiktarlar
of ethyleneEtilen gasgaz, these fissuresçatlaklar.
204
601478
3588
bu yarıklardan gelen muazzam
miktarda etilen gazını soluyor.
10:17
(LaughterKahkaha)
205
605090
1008
(Kahkaha)
10:18
It's truedoğru.
206
606122
1173
Bu doğru.
10:19
(LaughterKahkaha)
207
607319
1017
(Kahkaha)
10:20
It's all truedoğru, and that's what madeyapılmış her
babblegevezelik and hallucinatekuruntu
208
608360
3509
Hepsi doğru ve onun saçmalamasına
ve hayal görmesine ve onu
10:23
and go into this trance-likeTrans benzeri statebelirtmek, bildirmek.
209
611893
1724
trans durumuna sokan şey bu.
10:25
She was highyüksek as a kiteuçurtma!
210
613641
1770
Bir uçurtma kadar yüksekte uçuyordu.
10:27
(LaughterKahkaha)
211
615435
4461
(Kahkaha)
10:31
So how did anyonekimse --
212
619920
2779
Peki bir kimse nasıl --
10:34
How did anyonekimse get
any usefulişe yarar advicetavsiye out of her
213
622723
3030
Peki bir kimse kadın bu haldeyken
ondan nasıl faydalı bir tavsiye alır?
10:37
in this statebelirtmek, bildirmek?
214
625777
1190
10:39
Well, you see those people
surroundingçevreleyen the oracletorpil?
215
627497
2381
Kâhinin etrafını saran
insanları görüyor musunuz?
10:41
You see those people holdingtutma her up,
216
629902
1879
Bu insanların onu tutmasının sebebi
10:43
because she's, like, a little woozysersem gibiyim?
217
631805
1717
kadının kafasının güzel olması mı?
10:45
And you see that guy
on your left-handsol sideyan
218
633546
2308
Peki sol tarafta
turuncu defteri tutan
10:47
holdingtutma the orangePortakal notebookNot defteri?
219
635878
1598
adamı görüyor musunuz?
10:50
Well, those were the templetapınak guideskılavuzları,
220
638105
1730
Bunlar tapınak rehberleriydi
10:51
and they workedişlenmiş handel in handel
with the oracletorpil.
221
639859
3016
ve kâhinle el ele çalışıyorlardı.
Talepte bulunanlar gelip
dizlerinin üzerine çöktüklerinde
10:56
When inquisitorssorgucular would come
and get on theironların kneesdizler,
222
644084
2516
10:58
that's when the templetapınak guideskılavuzları
would get to work,
223
646624
2340
tapınak rehberleri işe koyulur,
çünkü kâhine sorularını sorduktan sonra
11:00
because after they askeddiye sordu her questionssorular,
224
648988
1864
rehberler kişinin
duygusal durumunu gözlemler
11:02
they would observegözlemlemek theironların emotionalduygusal statebelirtmek, bildirmek,
225
650876
2001
ve ona sorular sorarlar:
11:04
and then they would asksormak them
follow-uptakip questionssorular,
226
652901
2324
"Bu kehaneti neden bilmek
istiyorsun? Sen kimsin?
11:07
like, "Why do you want to know
this prophecyKehanet? Who are you?
227
655249
2834
Bu bilgi ile ne yapacaksın?"
11:10
What are you going to do
with this informationbilgi?"
228
658107
2264
Ve sonra tapınak rehberleri
bu daha çok kültürel,
11:12
And then the templetapınak guideskılavuzları would take
this more ethnographicetnografik,
229
660395
3182
11:15
this more qualitativenitel informationbilgi,
230
663601
2156
bu daha çok nitel bilgiyi alır
11:17
and interpretyorumlamak the oracle'sOracle'nın babblingsbabblings.
231
665781
2075
ve kâhinin zırvalamalarını yorumlardı.
11:21
So the oracletorpil didn't standdurmak aloneyalnız,
232
669428
2292
Yani kâhin tek başına değildi
11:23
and neitherne should our bigbüyük dataveri systemssistemler.
233
671744
2148
ve bizim büyük verimiz de öyle olmalı.
Yanlış anlaşılmasın,
11:26
Now to be clearaçık,
234
674630
1161
11:27
I'm not sayingsöz that bigbüyük dataveri systemssistemler
are huffinghuffing ethyleneEtilen gasgaz,
235
675815
3459
büyük veri sistemlerinin
etilen gazı olduğunu
11:31
or that they're even givingvererek
invalidGeçersiz predictionstahminler.
236
679298
2353
veya geçersiz tahminlerde
bulunduğunu söylemiyorum.
11:33
The totalGenel Toplam oppositekarşısında.
237
681675
1161
Tam tersi.
11:34
But what I am sayingsöz
238
682860
2068
Ama söylediğim şey şu;
11:36
is that in the sameaynı way
that the oracletorpil neededgerekli her templetapınak guideskılavuzları,
239
684952
3832
kâhinin tapınak rehberlerine
ihtiyaç duyması gibi
11:40
our bigbüyük dataveri systemssistemler need them, too.
240
688808
2288
büyük veri sistemlerimiz de
buna ihtiyaç duyar.
11:43
They need people like ethnographersetnograf
and userkullanıcı researchersaraştırmacılar
241
691120
4109
Yoğun veri dediğim şeyleri toplayabilen
etnograflar ve kullanıcı araştırmacıları
gibi insanlara ihtiyaçları var.
11:47
who can gathertoplamak what I call thickkalın dataveri.
242
695253
2506
11:50
This is preciousdeğerli dataveri from humansinsanlar,
243
698502
2991
Bu, insanlardan gelen, nicelleştirilemeyen
11:53
like storieshikayeleri, emotionsduygular and interactionsetkileşimler
that cannotyapamam be quantifiedsayısal.
244
701517
4102
hikâyeler, duygular ve etkileşimler
gibi değerli verilerdir.
11:57
It's the kindtür of dataveri
that I collectedtoplanmış for NokiaNokia
245
705643
2322
Nokia için topladığım benzer veri
11:59
that comesgeliyor in in the formform
of a very smallküçük sampleNumune sizeboyut,
246
707989
2669
çok küçük bir örnek boyutu formundaydı
12:02
but deliversteslim incredibleinanılmaz depthderinlik of meaninganlam.
247
710682
2955
ancak inanılmaz derin mana katmaktaydı.
12:05
And what makesmarkaları it so thickkalın and meatyetli
248
713661
3680
Onu bu kadar yoğun ve özlü yapan şey
12:10
is the experiencedeneyim of understandinganlayış
the humaninsan narrativeöykü.
249
718445
4029
insan anlatısını anlama deneyimidir.
12:14
And that's what helpsyardım eder to see
what's missingeksik in our modelsmodeller.
250
722498
3639
Ve modellerimizde neyin eksik olduğunu
görmeye yardım eden de bu.
12:18
ThickKalın dataveri groundszeminler our business questionssorular
in humaninsan questionssorular,
251
726851
4045
Yoğun veri işle ilgili sorularımızı
insanla ilgili sorularımızla temellendirir
12:22
and that's why integratingentegre
bigbüyük and thickkalın dataveri
252
730920
3562
ve bu nedenle büyük ve
yoğun veriyi birleştirmek
12:26
formsformlar a more completetamamlayınız pictureresim.
253
734506
1689
daha bütün bir resim oluşturur.
12:28
BigBüyük dataveri is ableyapabilmek to offerteklif
insightsanlayışlar at scaleölçek
254
736772
2881
Büyük veri ölçekli sezgi sağlayıp
12:31
and leverageKaldıraç the besten iyi
of machinemakine intelligencezeka,
255
739677
2647
en iyi makine zekâsını geliştirebilir,
12:34
whereasbuna karşılık thickkalın dataveri can help us
rescuekurtarmak the contextbağlam losskayıp
256
742348
3572
oysa yoğun veri bize büyük veriyi
kullanılabilir yaparken
oluşan içerik kaybını
kurtarmamızda yardım edebilir
12:37
that comesgeliyor from makingyapma bigbüyük dataveri usablekullanılabilir,
257
745944
2098
ve en iyi insan zekâsını geliştirir.
12:40
and leverageKaldıraç the besten iyi
of humaninsan intelligencezeka.
258
748066
2181
12:42
And when you actuallyaslında integratebirleştirmek the two,
that's when things get really funeğlence,
259
750271
3552
Ve bu ikisini birleştirdiğinizde
işler eğlenceli hale gelir,
çünkü artık sadece topladığınız veriyle
12:45
because then you're no longeruzun
just workingçalışma with dataveri
260
753847
2436
çalışıyor olmazsınız.
12:48
you've alreadyzaten collectedtoplanmış.
261
756307
1196
Ayrıca henüz toplanmamış veriyle
çalışabilirsiniz.
12:49
You get to alsoAyrıca work with dataveri
that hasn'tdeğil sahiptir been collectedtoplanmış.
262
757527
2737
Kendinize nedenlerle ilgili
sorular sorabilirsiniz:
12:52
You get to asksormak questionssorular about why:
263
760288
1719
12:54
Why is this happeningolay?
264
762031
1317
Bu neden oluyor?
Netflix bunu yaptığında,
12:55
Now, when NetflixNetflix did this,
265
763778
1379
12:57
they unlockedkilidi a wholebütün newyeni way
to transformdönüştürmek theironların business.
266
765181
3035
işlerini dönüştürmek için
tamamen yeni bir yolun kilidini açtı.
13:01
NetflixNetflix is knownbilinen for theironların really great
recommendationtavsiye algorithmalgoritma,
267
769406
3956
Netflix gerçekten harika
tavsiye algoritmasıyla bilinir
13:05
and they had this $1 millionmilyon prizeödül
for anyonekimse who could improveiyileştirmek it.
268
773386
4797
ve bunu geliştirecek kişi için
1 milyon dolarlık ödül koydular
13:10
And there were winnerskazananlar.
269
778207
1314
ve kazananlar oldu.
13:12
But NetflixNetflix discoveredkeşfedilen
the improvementsiyileştirmeler were only incrementalartımlı.
270
780255
4323
Ama Netflix yapılan geliştirmelerin
sadece aşamalı olduğunu keşfetti.
13:17
So to really find out what was going on,
271
785404
1964
Ve gerçekte neler olduğunu bulması,
13:19
they hiredkiralanmış an ethnographeretnograf,
GrantGrant McCrackenMcCracken,
272
787392
3741
yoğun veri içgörülerini toplaması için
etnograf Grant McCracken'i işe aldılar.
13:23
to gathertoplamak thickkalın dataveri insightsanlayışlar.
273
791157
1546
13:24
And what he discoveredkeşfedilen was something
that they hadn'tolmasaydı seengörüldü initiallybaşlangıçta
274
792727
3924
Ve o, kantitatif veride
ilk başta görmedikleri
13:28
in the quantitativenicel dataveri.
275
796675
1355
bir şeyi keşfetti.
İnsanların dizileri peş peşe
izlemeyi sevdiğini keşfetti.
13:31
He discoveredkeşfedilen that people lovedsevilen
to binge-watchalem-izle.
276
799072
2728
Doğrusu insanlar bu konuda
suçlu da hissetmiyorlardı.
13:33
In factgerçek, people didn't even
feel guiltysuçlu about it.
277
801824
2353
Bu onları eğlendiriyordu.
13:36
They enjoyedzevk it.
278
804201
1255
13:37
(LaughterKahkaha)
279
805480
1026
(Kahkaha)
13:38
So NetflixNetflix was like,
"Oh. This is a newyeni insightIçgörü."
280
806530
2356
Netflix de, "Bu yeni bir anlayış" dedi.
Onlar da veri araştırma
ekiplerine gittiler
13:40
So they wentgitti to theironların dataveri scienceBilim teamtakım,
281
808910
1938
ve ekipleri de büyük veri
içgörülerini nicel veri içinde
13:42
and they were ableyapabilmek to scaleölçek
this bigbüyük dataveri insightIçgörü
282
810872
2318
13:45
in with theironların quantitativenicel dataveri.
283
813214
2587
ölçeklendirmeyi başardı.
13:47
And oncebir Zamanlar they verifieddoğrulanmadı it
and validateddoğrulanmış it,
284
815825
3170
Ve bunu onaylayıp doğruladıklarında,
13:51
NetflixNetflix decidedkarar to do something
very simplebasit but impactfuletkileyici.
285
819019
4761
Netflix çok basit ama çok etkili
bir şey yapmaya karar verdi.
13:56
They said, insteadyerine of offeringteklif
the sameaynı showgöstermek from differentfarklı genresTarzlar
286
824834
6492
Şunu söylediler:
Aynı şovu farklı türlerden
veya benzer kullanıcılardan gelen
farklı şovlardan daha fazla sunmak yerine,
14:03
or more of the differentfarklı showsgösterileri
from similarbenzer userskullanıcılar,
287
831350
3888
14:07
we'lliyi just offerteklif more of the sameaynı showgöstermek.
288
835262
2554
aynı şovdan daha fazlasını sunacağız.
14:09
We'llWe'll make it easierDaha kolay
for you to binge-watchalem-izle.
289
837840
2105
Bölümlerini peş peşe izlemeyi
kolaylaştıracağız.
14:11
And they didn't stop there.
290
839969
1486
Ve orada da durmadılar.
14:13
They did all these things
291
841479
1474
Tüm bunları
tüm izleyici deneyimini
14:14
to redesignyeniden tasarlamak theironların entiretüm
viewerizleyici experiencedeneyim,
292
842977
2959
tekrar tasarlamak ve seri izlemeyi
14:17
to really encourageteşvik etmek binge-watchingalem izlemeyi.
293
845960
1758
desteklemek için yaptılar.
Bu yüzden insanlar ve arkadaşlarınız,
"Master of None" gibi dizileri izlemek
14:20
It's why people and friendsarkadaşlar disappearkaybolmak
for wholebütün weekendshafta sonları at a time,
294
848230
3241
14:23
catchingbulaşıcı up on showsgösterileri
like "MasterMaster of NoneHiçbiri."
295
851495
2343
için tüm hafta sonu birden kayboluyordu.
14:25
By integratingentegre bigbüyük dataveri and thickkalın dataveri,
they not only improvedgelişmiş theironların business,
296
853862
4173
Büyük veri ve yoğun veriyi birleştirerek
işlerini geliştirmekle kalmadılar,
14:30
but they transformeddönüştürülmüş how we consumetüketmek mediamedya.
297
858059
2812
medyayı tüketim şeklimizi de
değiştirdiler.
14:32
And now theironların stockshisse senetleri are projectedprojekte
to doubleçift in the nextSonraki fewaz yearsyıl.
298
860895
4552
Ve şimdi hisse senetlerinin sonraki birkaç
yılda iki katına çıkacağı öngörülüyor.
14:38
But this isn't just about
watchingseyretme more videosvideolar
299
866280
3830
Fakat mesele sadece daha çok video izlemek
veya daha çok akıllı telefon satmak değil.
14:42
or sellingsatış more smartphonesakıllı telefonlar.
300
870134
1620
14:44
For some, integratingentegre thickkalın dataveri
insightsanlayışlar into the algorithmalgoritma
301
872143
4050
Kimisi için, yoğun veri içgörüsünü
algoritmaya entegre etmek
14:48
could mean life or deathölüm,
302
876217
2263
ölüm kalım meselesidir,
14:50
especiallyözellikle for the marginalizedmarjinal.
303
878504
2146
özellikle de ötekileştirilenler için.
14:53
All around the countryülke,
policepolis departmentsbölümler are usingkullanma bigbüyük dataveri
304
881738
3434
Tüm ülke çapında,
polis merkezleri
14:57
for predictiveAkıllı policingPolislik,
305
885196
1963
öngörücü polislik için,
14:59
to setset bondbağ amountsmiktarlar
and sentencingceza recommendationstavsiyeler
306
887183
3084
mevcut önyargıları güçlendirecek
şekilde kefalet miktarını ayarlamak
15:02
in waysyolları that reinforcepekiştirmek existingmevcut biasesönyargıların.
307
890291
3147
ve cezalandırma önerileri için
büyük veriyi kullanıyor.
15:06
NSA'sNSA'ın SkynetSkynet machinemakine learningöğrenme algorithmalgoritma
308
894296
2423
Ulusal Güvenlik Teşkilatı'nın
Skynet makine öğrenimi algoritması
15:08
has possiblybelki aideddestekli in the deathsölümler
of thousandsbinlerce of civilianssivil in PakistanPakistan
309
896743
5444
muhtemelen mobil cihaz verilerinin
yanlış okunması nedeniyle
15:14
from misreadingyanlış yorumlama cellularhücresel devicecihaz metadatameta veriler.
310
902211
2721
binlerce Pakistanlının
ölmesine sebep oldu.
15:19
As all of our liveshayatları becomeolmak more automatedotomatikleştirilmiş,
311
907131
3403
Otomobillerden sağlık sigortasına
veya istihdama,
15:22
from automobilesotomobiller to healthsağlık insurancesigorta
or to employment,
312
910558
3080
tüm hayatımız otomatikleştikçe
15:25
it is likelymuhtemelen that all of us
313
913662
2350
muhtemelen hepimiz
15:28
will be impactedetkilenen
by the quantificationmiktar biasönyargı.
314
916036
2989
nicelleştirme önyargısından etkileneceğiz.
15:32
Now, the good newshaber
is that we'vebiz ettik come a long way
315
920972
2621
Şimdi, iyi haber şu ki, etilen gazından
15:35
from huffinghuffing ethyleneEtilen gasgaz
to make predictionstahminler.
316
923617
2450
tahminlerde bulunmaya kadar
uzun bir yol geldik.
15:38
We have better toolsaraçlar,
so let's just use them better.
317
926091
3070
Daha iyi araçlarımız var,
gelin onları daha iyi kullanalım.
15:41
Let's integratebirleştirmek the bigbüyük dataveri
with the thickkalın dataveri.
318
929185
2323
Gelin büyük veriyi
yoğun veriyle entegre edelim.
15:43
Let's bringgetirmek our templetapınak guideskılavuzları
with the oraclesKahinler,
319
931532
2261
Gelin tapınak rehberleriyle
kâhinleri bir araya getirelim
15:45
and whetherolup olmadığını this work happensolur
in companiesşirketler or nonprofitskar amacı gütmeyen
320
933817
3376
ve bu işin şirketlerde,
kâr amacı gütmeyen kuruluşlarda,
15:49
or governmenthükümet or even in the softwareyazılım,
321
937217
2469
devlette veya yazılımda
çalışıp çalışmadığını öğrenelim,
15:51
all of it mattershususlar,
322
939710
1792
hepsi önemlidir,
15:53
because that meansanlamına geliyor
we're collectivelytopluca committedtaahhüt
323
941526
3023
çünkü bu, toplu olarak
veriyi, algoritmaları,
15:56
to makingyapma better dataveri,
324
944573
2191
sonuçları ve verilen kararları
15:58
better algorithmsalgoritmalar, better outputsçıkış
325
946788
1836
daha iyi hale getirmeye
16:00
and better decisionskararlar.
326
948648
1643
kararlı olduğumuz anlamına gelir.
16:02
This is how we'lliyi avoidönlemek
missingeksik that something.
327
950315
3558
İşte bu şekilde o bir şeyleri
kaçırmaktan sakınacağız.
16:07
(ApplauseAlkış)
328
955222
3948
(Alkış)
Translated by Ramazan Şen
Reviewed by Esra Çakmak

▲Back to top

ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com