ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com
TEDxCambridge

Tricia Wang: The human insights missing from big data

Триша Уонг: Большим данным не достаёт данных от людей

Filmed:
1,688,539 views

Почему так много компаний принимают неверные решения, даже несмотря на доступ к безграничному объёму данных? Рассказывая истории от случаев с Nokia и Netflix, до легенд об оракулах Древней Греции, Триша Уонг ответит на этот вопрос и укажет на опасность «больши́х данных». Чтобы принимать правильные бизнес-решения и преуспевать в будущем, она предлагает нам сосредоточиться на «плотных данных» — ценнейшей, неисчисляемой цифрами информации от самих людей.
- Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers. Full bio

Double-click the English transcript below to play the video.

00:12
In ancientдревний GreeceГреция,
0
885
1545
В Древней Греции,
00:15
when anyoneкто угодно from slavesрабы to soldiersсолдаты,
poetsпоэты and politiciansполитики,
1
3436
3943
когда кому-либо — от рабов
до воинов, поэтов и политиков —
00:19
neededнеобходимый to make a bigбольшой decisionрешение
on life'sжизнь mostбольшинство importantважный questionsвопросов,
2
7403
4004
нужно было принять ключевое решение
в самых важных жизненных вопросах,
вроде: «Стоит ли мне жениться?»,
00:23
like, "Should I get marriedв браке?"
3
11431
1391
00:24
or "Should we embarkначинать on this voyageпутешествие?"
4
12846
1857
или «Стоит ли отправляться в путь?»,
00:26
or "Should our armyармия
advanceпродвижение into this territoryтерритория?"
5
14727
2928
или «Стоит ли нашим войскам
наступать на эти земли?»,
00:29
they all consultedконсультации the oracleоракул.
6
17679
2579
они всегда спрашивали совета
у оракула, провидицы.
00:33
So this is how it workedработал:
7
21020
1440
Вот как это было:
00:34
you would bringприносить her a questionвопрос
and you would get on your kneesколени,
8
22484
3112
придя к ней с вопросом,
люди вставали на одно колено,
00:37
and then she would go into this tranceтранс.
9
25620
1871
после чего она впадала в транс.
00:39
It would take a coupleпара of daysдней,
10
27515
1549
На это могло уйти два дня,
00:41
and then eventuallyв итоге
she would come out of it,
11
29088
2163
и вот, наконец, она выходила из транса,
00:43
givingдающий you her predictionsпрогнозы as your answerответ.
12
31275
2536
и её ответом было предсказание.
00:46
From the oracleоракул bonesскелет of ancientдревний ChinaКитай
13
34910
2566
Начиная с гадальных костей Древнего Китая,
00:49
to ancientдревний GreeceГреция to Mayanмайя calendarsкалендари,
14
37500
2345
до оракулов Древней Греции
и календарей Майя,
00:51
people have cravedжаждал for prophecyпророчество
15
39869
2296
люди нуждались в пророчествах,
00:54
in orderзаказ to find out
what's going to happenслучаться nextследующий.
16
42189
3137
чтобы узнать, что произойдёт дальше.
00:58
And that's because we all want
to make the right decisionрешение.
17
46516
3239
И всё из-за того, что все мы хотим
принять правильное решение.
01:01
We don't want to missМисс something.
18
49779
1545
Мы не хотим ничего упускать.
01:03
The futureбудущее is scaryстрашно,
19
51892
1743
Будущее пугает,
01:05
so it's much nicerлучше
knowingзнание that we can make a decisionрешение
20
53659
2717
поэтому намного приятнее знать,
что можно принять решение
01:08
with some assuranceгарантия of the outcomeисход.
21
56400
1982
с некой долей уверенности в результате.
01:11
Well, we have a newновый oracleоракул,
22
59079
1611
И у нас появилась своя провидица,
01:12
and it's nameимя is bigбольшой dataданные,
23
60714
2145
и имя её — «большие данные» [Big data],
01:14
or we call it "WatsonУотсон"
or "deepглубоко learningобучение" or "neuralнервный netсеть."
24
62883
3939
которую мы также называем Watson,
«глубокое изучение» или «нейронная сеть».
01:19
And these are the kindsвиды of questionsвопросов
we askпросить of our oracleоракул now,
25
67340
4012
И вот какие вопросы мы задаём
нашей провидице сегодня:
01:23
like, "What's the mostбольшинство efficientэффективное way
to shipкорабль these phonesтелефоны
26
71376
3922
«Как наиболее эффективно
переправить эти телефоны
01:27
from ChinaКитай to SwedenШвеция?"
27
75322
1823
из Китая в Швецию?»,
01:29
Or, "What are the oddsшансы
28
77169
1800
или «Каковы шансы родить
01:30
of my childребенок beingявляющийся bornРодился
with a geneticгенетический disorderрасстройство?"
29
78993
3363
ребёнка с генетическим заболеванием?»,
01:34
Or, "What are the salesпродажи volumeобъем
we can predictпрогнозировать for this productпродукт?"
30
82952
3244
или «Каков прогноз по объёмам
продаж для этого продукта?».
01:40
I have a dogсобака. Her nameимя is ElleElle,
and she hatesненавидит the rainдождь.
31
88108
4047
У меня есть собака. Её зовут Эл,
она терпеть не может дождь.
01:44
And I have triedпытался everything
to untrainuntrain her.
32
92179
3306
Я всё перепробовала, чтобы это исправить.
01:47
But because I have failedне смогли at this,
33
95509
2771
Но у меня ничего не вышло,
01:50
I alsoтакже have to consultсоветоваться
an oracleоракул, calledназывается DarkТемно SkyНебо,
34
98304
3286
поэтому мне приходится обращаться
к пророку по имени «прогноз погоды»
01:53
everyкаждый time before we go on a walkходить,
35
101614
1635
перед каждым выходом на прогулку,
01:55
for very accurateточный weatherПогода predictionsпрогнозы
in the nextследующий 10 minutesминут.
36
103273
3577
чтобы получить самый точный прогноз
на следующие 10 минут.
02:01
She's so sweetмилая.
37
109535
1303
Она просто прелесть.
02:03
So because of all of this,
our oracleоракул is a $122 billionмиллиард industryпромышленность.
38
111827
5707
Из-за всего этого наша провидица
стала 122-миллиардной индустрией.
02:10
Now, despiteнесмотря the sizeразмер of this industryпромышленность,
39
118006
3376
Сейчас, несмотря на размер индустрии,
02:13
the returnsвозвращается are surprisinglyкак ни странно lowнизкий.
40
121406
2456
её доходы поразительно малы.
02:16
Investingинвестирование in bigбольшой dataданные is easyлегко,
41
124342
2494
Инвестировать в большие данные легко,
02:18
but usingс помощью it is hardжесткий.
42
126860
1933
но использовать их непросто.
02:21
Over 73 percentпроцент of bigбольшой dataданные projectsпроектов
aren'tне even profitableрентабельный,
43
129981
4040
Более 73% проектов с большими
данными совсем не приносят дохода.
02:26
and I have executivesруководство
comingприход up to me sayingпоговорка,
44
134045
2431
Ко мне приходили топ-менеджеры и говорили:
02:28
"We're experiencingиспытывают the sameодна и та же thing.
45
136500
1789
«И у нас то же самое.
02:30
We investedинвестированный in some bigбольшой dataданные systemсистема,
46
138313
1753
Мы вложились в такую систему,
02:32
and our employeesсотрудников aren'tне makingизготовление
better decisionsрешения.
47
140090
2968
но наши работники умнее не стали.
02:35
And they're certainlyбезусловно not comingприход up
with more breakthroughпрорвать ideasидеи."
48
143082
3162
И уж точно ничего передового
не придумают».
02:38
So this is all really interestingинтересно to me,
49
146914
3184
Так что всё это меня очень интересует,
02:42
because I'm a technologyтехнологии ethnographerэтнограф.
50
150122
2010
потому что я технологический этнограф.
02:44
I studyизучение and I adviseконсультировать companiesкомпании
51
152630
2564
Я изучаю и консультирую компании
02:47
on the patternsузоры
of how people use technologyтехнологии,
52
155218
2483
в вопросах того, как люди
используют технологии,
02:49
and one of my interestинтерес areasрайоны is dataданные.
53
157725
2678
и в частности меня интересуют данные.
02:52
So why is havingимеющий more dataданные
not helpingпомощь us make better decisionsрешения,
54
160427
5193
Так почему же доступ к бо́льшим данным
не помогает принятию лучших решений,
02:57
especiallyособенно for companiesкомпании
who have all these resourcesРесурсы
55
165644
2783
даже компаниям, владеющим ресурсами
03:00
to investвкладывать деньги in these bigбольшой dataданные systemsсистемы?
56
168451
1736
для инвестиций в большие данные?
03:02
Why isn't it gettingполучение any easierПолегче for them?
57
170211
2398
Почему им от них не становится легче?
03:05
So, I've witnessedсвидетелями the struggleборьба firsthandиз первых рук.
58
173990
2634
Такая ситуация случилась со мной лично.
03:09
In 2009, I startedначал
a researchисследование positionдолжность with NokiaNokia.
59
177374
3484
В 2009 году я устроилась
в исследовательский отдел Nokia.
03:13
And at the time,
60
181232
1158
А в то время Nokia была
03:14
NokiaNokia was one of the largestкрупнейший
cellклетка phoneТелефон companiesкомпании in the worldМир,
61
182414
3158
одним из самых крупных в мире
производителей сотовых телефонов,
03:17
dominatingдоминирующий emergingпоявление marketsрынки
like ChinaКитай, MexicoМексика and IndiaИндия --
62
185596
3202
лидируя на растущих рынках
Китая, Мексики и Индии,
03:20
all placesмест where I had doneсделанный
a lot of researchисследование
63
188822
2502
там же я провела множество
исследований того,
03:23
on how low-incomeнизкий уровень дохода people use technologyтехнологии.
64
191348
2676
как используют технологии
люди с низким доходом.
03:26
And I spentпотраченный a lot of extraдополнительный time in ChinaКитай
65
194048
2330
В Китае я провела особенно много времени,
03:28
gettingполучение to know the informalнеофициальный economyэкономика.
66
196402
2592
знакомясь с теневым сектором экономики.
03:31
So I did things like workingза работой
as a streetулица vendorпродавец
67
199018
2401
Ради этого я даже поработала
уличным торговцем,
03:33
sellingпродажа dumplingsвареники to constructionстроительство workersрабочие.
68
201443
2574
продавала пельмени рабочим со стройки.
03:36
Or I did fieldworkполевые работы,
69
204041
1358
А ещё собирала информацию,
03:37
spendingрасходы nightsночью and daysдней
in internetинтернет cafкафеés,
70
205423
2958
просиживая днями и ночами
в интернет-кафешках
03:40
hangingподвешивание out with ChineseКитайский youthмолодежь,
so I could understandПонимаю
71
208405
2546
и общаясь с китайской
молодёжью, чтобы понять,
03:42
how they were usingс помощью
gamesигры and mobileмобильный phonesтелефоны
72
210975
2284
как они относились к играм
и мобильным телефонам,
03:45
and usingс помощью it betweenмежду movingперемещение
from the ruralсельская местность areasрайоны to the citiesгорода.
73
213283
3370
и как это менялось с переездом
из сельской местности в город.
03:50
ThroughЧерез all of this qualitativeкачественный evidenceдоказательства
that I was gatheringсбор,
74
218335
3927
Благодаря всем тем качественным
данным, что я собирала,
03:54
I was startingначало to see so clearlyявно
75
222286
2824
я начала лучше понимать,
03:57
that a bigбольшой changeизменение was about to happenслучаться
amongсреди low-incomeнизкий уровень дохода ChineseКитайский people.
76
225134
4472
что в жизни китайцев с низким уровнем
дохода грядут большие перемены.
04:03
Even thoughхоть they were surroundedокруженный
by advertisementsобъявления for luxuryроскошь productsпродукты
77
231020
4367
Несмотря на то, что они были окружены
рекламой предметов роскоши,
04:07
like fancyмаскарадный toiletsтуалеты --
who wouldn'tне будет want one? --
78
235411
3495
вроде изысканных унитазов, —
и как такой не захотеть? —
04:10
and apartmentsапартаменты and carsлегковые автомобили,
79
238930
2890
рекламой квартир и машин,
04:13
throughчерез my conversationsразговоры with them,
80
241844
1820
пообщавшись с ними,
04:15
I foundнайденный out that the adsОбъявления
the actuallyна самом деле enticedзаманил them the mostбольшинство
81
243688
3841
я поняла, что по-настоящему их завлекала
04:19
were the onesте, for iPhonesайфонов,
82
247553
1996
только реклама айфонов,
04:21
promisingмногообещающий them this entryзапись
into this high-techвысокие технологии life.
83
249573
3052
обещавшая перенести их
в мир высоких технологий.
04:25
And even when I was livingживой with them
in urbanгородской slumsтрущобы like this one,
84
253469
3163
Даже когда я жила с ними
в городских трущобах, подобных этим,
04:28
I saw people investingинвестирование
over halfполовина of theirих monthlyежемесячно incomeдоход
85
256656
2996
я видела людей, тративших больше
половины месячного дохода
04:31
into buyingпокупка a phoneТелефон,
86
259676
1623
на покупку телефона,
04:33
and increasinglyвсе больше и больше, they were "shanzhaiShanzhai,"
87
261323
2302
или ещё хуже — его копии,
04:35
whichкоторый are affordableдоступный knock-offsстук-офф
of iPhonesайфонов and other brandsбренды.
88
263649
3388
одной из дешёвых подделок айфонов
или смартфонов других брендов.
04:40
They're very usableгодный к употреблению.
89
268303
1625
И они в большом ходу.
04:42
Does the jobработа.
90
270890
1322
Работают как надо.
04:44
And after yearsлет of livingживой
with migrantsмигранты and workingза работой with them
91
272750
5789
И спустя годы жизни с мигрантами
и работы с ними бок о бок,
04:50
and just really doing everything
that they were doing,
92
278563
3434
делая всё то же, что они,
04:54
I startedначал piecingкусочкам
all these dataданные pointsточки togetherвместе --
93
282021
3597
я начала собирать по кускам
всю эту информацию,
04:57
from the things that seemказаться randomслучайный,
like me sellingпродажа dumplingsвареники,
94
285642
3123
начав с того, что казалось случайным,
как моя торговля пельменями,
05:00
to the things that were more obviousочевидный,
95
288789
1804
до более очевидных вещей,
05:02
like trackingотслеживание how much they were spendingрасходы
on theirих cellклетка phoneТелефон billsбанкноты.
96
290617
3232
как, например, отслеживание
их счетов за телефон.
05:05
And I was ableв состоянии to createСоздайте
this much more holisticцелостный pictureкартина
97
293873
2639
И я смогла создать целостную картину
05:08
of what was happeningпроисходит.
98
296536
1156
того, что происходило.
05:09
And that's when I startedначал to realizeпонимать
99
297716
1722
И именно тогда я начала понимать,
05:11
that even the poorestбеднейший in ChinaКитай
would want a smartphoneсмартфон,
100
299462
3509
что даже нищий китаец хотел себе смартфон,
05:14
and that they would do almostпочти anything
to get theirих handsРуки on one.
101
302995
4985
и что они были готовы на всё,
лишь бы его заполучить.
05:21
You have to keep in mindразум,
102
309073
2404
При этом не забывайте,
05:23
iPhonesайфонов had just come out, it was 2009,
103
311501
3084
что айфоны тогда только появились.
Это был 2009 год.
05:26
so this was, like, eight8 yearsлет agoтому назад,
104
314609
1885
Это сколько? Восемь лет назад.
05:28
and AndroidsАндроиды had just startedначал
looking like iPhonesайфонов.
105
316518
2437
И андроиды только начинали
выглядеть как айфоны.
05:30
And a lot of very smartумная
and realisticреалистический people said,
106
318979
2507
И масса очень умных
и адекватных людей говорили:
05:33
"Those smartphonesсмартфоны -- that's just a fadприхоть.
107
321510
2207
«Эти смартфоны — лишь временное увлечение.
05:36
Who wants to carryнести around
these heavyтяжелый things
108
324243
2996
Кто захочет носить с собой такую тяжесть,
05:39
where batteriesбатареи drainистощать quicklyбыстро
and they breakломать everyкаждый time you dropпадение them?"
109
327263
3487
в которой батарейка быстро садится,
и которые ломаются, стоит разок уронить?».
Но я собрала много доказательств
05:44
But I had a lot of dataданные,
110
332793
1201
05:46
and I was very confidentуверенная в себе
about my insightsпонимание,
111
334018
2260
и была уверена в своих подозрениях,
05:48
so I was very excitedв восторге
to shareдоля them with NokiaNokia.
112
336302
2829
которыми с нетерпением
хотела поделиться с Nokia.
05:53
But NokiaNokia was not convincedубежденный,
113
341332
2517
Но в Nokia мне не поверили,
05:55
because it wasn'tне было bigбольшой dataданные.
114
343873
2335
потому что мои данные не были большими.
05:59
They said, "We have
millionsмиллионы of dataданные pointsточки,
115
347022
2404
Они сказали: «У нас миллионная выборка,
06:01
and we don't see any indicatorsпоказатели
of anyoneкто угодно wantingжелая to buyкупить a smartphoneсмартфон,
116
349450
4247
и мы не видим признаков того,
что кто-то хотел бы купить смартфон,
06:05
and your dataданные setзадавать of 100,
as diverseразнообразный as it is, is too weakслабый
117
353721
4388
а у вас всего 100 наблюдений, — какими бы
пёстрыми они не были ,— их слишком мало,
06:10
for us to even take seriouslyшутки в сторону."
118
358133
1714
чтобы принимать их всерьёз».
06:12
And I said, "NokiaNokia, you're right.
119
360908
1605
И я сказала: «Nokia, вы правы.
06:14
Of courseкурс you wouldn'tне будет see this,
120
362537
1560
Естественно, вы их не увидите,
06:16
because you're sendingотправка out surveysопросы
assumingпри условии, that people don't know
121
364121
3371
потому что рассылаете анкеты,
полагая, что люди не знают,
что такое смартфон,
06:19
what a smartphoneсмартфон is,
122
367516
1159
поэтому, естественно, вы не
получите нужную информацию
06:20
so of courseкурс you're not going
to get any dataданные back
123
368699
2366
о людях, пожелающих купить
смартфон через два года.
06:23
about people wantingжелая to buyкупить
a smartphoneсмартфон in two yearsлет.
124
371089
2572
Ваши опросы и ваши методы были разработаны
06:25
Your surveysопросы, your methodsметоды
have been designedпредназначенный
125
373685
2118
для оптимизации существующей
бизнес-модели,
06:27
to optimizeоптимизировать an existingсуществующий businessбизнес modelмодель,
126
375827
2022
06:29
and I'm looking
at these emergentвыходящий humanчеловек dynamicsдинамика
127
377873
2608
а я вижу среди людей динамику роста,
06:32
that haven'tне happenedполучилось yetвсе же.
128
380505
1354
которая ещё не случилась.
06:33
We're looking outsideза пределами of marketрынок dynamicsдинамика
129
381883
2438
Если смотреть за пределы динамики рынка,
06:36
so that we can get aheadвпереди of it."
130
384345
1631
его можно опередить».
06:39
Well, you know what happenedполучилось to NokiaNokia?
131
387373
2244
Всем известно, что случилось с Nokia?
06:41
TheirИх businessбизнес fellупал off a cliffутес.
132
389641
2365
Их бизнес потерпел полный крах.
06:44
This -- this is the costСтоимость
of missingотсутствует something.
133
392791
3727
Такова была плата за их упущения.
06:49
It was unfathomableнепостижимый.
134
397163
1999
Уму непостижимо.
06:52
But Nokia'sNokia, not aloneв одиночестве.
135
400003
1651
И это случилось не только с Nokia.
06:54
I see organizationsорганизации
throwingбросание out dataданные all the time
136
402258
2581
Я вижу организации, постоянно
отбрасывающие наши данные
06:56
because it didn't come from a quantшест для отталкивания modelмодель
137
404863
2561
из-за того, что они пришли
не из сухой статистики
06:59
or it doesn't fitпоместиться in one.
138
407448
1768
или не подтверждают её.
07:02
But it's not bigбольшой data'sДейты faultпридираться.
139
410219
2048
Но вины больших данные тут нет.
07:04
It's the way we use bigбольшой dataданные;
it's our responsibilityобязанность.
140
412942
3907
Просто мы их так используем.
Мы сами за это в ответе.
07:09
Bigбольшой data'sДейты reputationрепутации for successуспех
141
417730
1911
Репутация залога успеха
07:11
comesвыходит from quantifyingколичественного
very specificконкретный environmentsокружающая среда,
142
419665
3759
пришла к большим данным из-за расчётов
в очень специфических сферах,
07:15
like electricityэлектричество powerмощность gridsсетки
or deliveryДоставка logisticsлогистика or geneticгенетический codeкод,
143
423448
4913
таких как электросети, логистика
или генетический код,
07:20
when we're quantifyingколичественного in systemsсистемы
that are more or lessМеньше containedсодержащиеся.
144
428385
4318
когда мы высчитываем данные
в более-менее автономных системах.
07:24
But not all systemsсистемы
are as neatlyаккуратно containedсодержащиеся.
145
432727
2969
Но не все системы настолько автономны.
07:27
When you're quantifyingколичественного
and systemsсистемы are more dynamicдинамический,
146
435720
3258
При расчётах в более динамичных системах,
07:31
especiallyособенно systemsсистемы
that involveвключать humanчеловек beingsсущества,
147
439002
3799
особенно системах, включающих людей,
07:34
forcesсил are complexсложный and unpredictableнепредсказуемый,
148
442825
2426
факторы сложны и непредсказуемы,
07:37
and these are things
that we don't know how to modelмодель so well.
149
445275
3486
и мы не знаем, как их
правильно смоделировать.
07:41
Onceоднажды you predictпрогнозировать something
about humanчеловек behaviorповедение,
150
449204
2813
Стоит вам что-то предсказать
в поведении человека,
07:44
newновый factorsфакторы emergeвсплывать,
151
452041
1855
как появляются новые факторы,
07:45
because conditionsусловия
are constantlyпостоянно changingизменения.
152
453920
2365
потому что условия постоянно меняются.
Поэтому это бесконечный круг.
07:48
That's why it's a never-endingбесконечный cycleцикл.
153
456309
1803
Только вы решили, что что-то знаете,
07:50
You think you know something,
154
458136
1464
07:51
and then something unknownнеизвестный
entersвходит the pictureкартина.
155
459624
2242
как появляется что-то неизвестное.
07:53
And that's why just relyingопираясь
on bigбольшой dataданные aloneв одиночестве
156
461890
3322
Поэтому надежда лишь на большие данные
07:57
increasesувеличивается the chanceшанс
that we'llЧто ж missМисс something,
157
465236
2849
увеличивает вероятность
что-то упустить из виду.
08:00
while givingдающий us this illusionиллюзия
that we alreadyуже know everything.
158
468109
3777
Хоть у нас и появляется иллюзия,
что мы уже всё знаем.
08:04
And what makesмарки it really hardжесткий
to see this paradoxпарадокс
159
472406
3856
Увидеть этот парадокс
08:08
and even wrapзаворачивать our brainsмозги around it
160
476286
2659
и тем более уложить его в голове
сложнее оттого,
08:10
is that we have this thing
that I call the quantificationквантование biasсмещение,
161
478969
3691
что в нас есть такая штука, которую
я называю «креном к подсчёту количества»,
08:14
whichкоторый is the unconsciousбез сознания beliefвера
of valuingоценивающий the measurableизмеримый
162
482684
3922
когда всё измеряемое
подсознательно ценится больше,
чем неизмеряемое.
08:18
over the immeasurableнеизмеримый.
163
486630
1594
08:21
And we oftenдовольно часто experienceопыт this at our work.
164
489222
3284
И мы часто сталкиваемся с этим на работе.
08:24
Maybe we work alongsideрядом
colleaguesколлеги who are like this,
165
492530
2650
Мы, возможно, работаем
бок о бок с такими людьми
08:27
or even our wholeвсе entireвсе
companyКомпания mayмай be like this,
166
495204
2428
или, может, таковой является
вся наша организация,
08:29
where people becomeстали
so fixatedфиксироваться on that numberномер,
167
497656
2546
когда люди так сильно углубляются в цифры,
08:32
that they can't see anything
outsideза пределами of it,
168
500226
2067
что больше ничего за ними не видят,
08:34
even when you presentнастоящее время them evidenceдоказательства
right in frontфронт of theirих faceлицо.
169
502317
3948
даже если подсунуть
доказательства им прямо под нос.
08:39
And this is a very appealingпривлекательный messageсообщение,
170
507123
3371
И это очень приятное наблюдение,
08:42
because there's nothing
wrongнеправильно with quantifyingколичественного;
171
510518
2343
ведь в подсчёте количества
нет ничего плохого,
08:44
it's actuallyна самом деле very satisfyingсытный.
172
512885
1430
получается очень убедительно.
08:46
I get a great senseсмысл of comfortкомфорт
from looking at an Excelпревосходить spreadsheetтаблица,
173
514339
4362
Для меня смотреть на таблицы Excel —
такой бальзам на душу!
08:50
even very simpleпросто onesте,.
174
518725
1401
Даже на самые простые.
08:52
(LaughterСмех)
175
520150
1014
(Смех)
08:53
It's just kindсвоего рода of like,
176
521188
1152
Будто я такая:
08:54
"Yes! The formulaформула workedработал. It's all OK.
Everything is underпод controlконтроль."
177
522364
3504
«Ага! Формула сработала. Всё в порядке.
Всё идёт как надо».
08:58
But the problemпроблема is
178
526792
2390
Но проблема в том,
09:01
that quantifyingколичественного is addictiveпривыкание.
179
529206
2661
что к подсчётам количества привыкаешь.
09:03
And when we forgetзабывать that
180
531891
1382
И когда мы забываемся,
09:05
and when we don't have something
to kindсвоего рода of keep that in checkпроверить,
181
533297
3038
и когда нам не с чем свериться,
09:08
it's very easyлегко to just throwбросать out dataданные
182
536359
2118
очень легко просто выбросить данные,
09:10
because it can't be expressedвыраженный
as a numericalчисленный valueстоимость.
183
538501
2718
из-за того, что не получается
выразить их в цифровой форме.
09:13
It's very easyлегко just to slipслип
into silver-bulletСеребряная пуля thinkingмышление,
184
541243
2921
Очень легко уйти в размышления
о простых, но верных решениях,
09:16
as if some simpleпросто solutionрешение existedсуществовавший.
185
544188
2579
будто такие бывают.
09:19
Because this is a great momentмомент of dangerОпасность
for any organizationорганизация,
186
547600
4062
Потому что в этом и состоит
опасность для любой организации,
потому что зачастую будущее,
которое мы хотим предсказать,
09:23
because oftentimesчасто,
the futureбудущее we need to predictпрогнозировать --
187
551686
2634
09:26
it isn't in that haystackстог сена,
188
554344
2166
лежит не в том стогу,
09:28
but it's that tornadoторнадо
that's bearingподшипник down on us
189
556534
2538
а в том торнадо, которое
несётся на нас из-за стен сарая.
09:31
outsideза пределами of the barnсарай.
190
559096
1488
09:34
There is no greaterбольшая riskриск
191
562960
2326
Нет бо́льшего риска,
09:37
than beingявляющийся blindслепой to the unknownнеизвестный.
192
565310
1666
чем не видеть того, что неизвестно.
09:39
It can causeпричина you to make
the wrongнеправильно decisionsрешения.
193
567000
2149
Из-за этого можно принять
неверное решение.
09:41
It can causeпричина you to missМисс something bigбольшой.
194
569173
1974
Из-за этого что-то важное
может пройти мимо.
09:43
But we don't have to go down this pathдорожка.
195
571734
3101
Но нам не обязательно идти по этому пути.
09:47
It turnsвитки out that the oracleоракул
of ancientдревний GreeceГреция
196
575453
3195
Оказывается, у провидиц Древней Греции
09:50
holdsдержит the secretсекрет keyключ
that showsшоу us the pathдорожка forwardвперед.
197
578672
3966
был секретный ключ,
который укажет нам дорогу вперёд.
09:55
Now, recentнедавний geologicalгеологический researchисследование has shownпоказанный
198
583654
2595
Недавние геологические
исследования доказали,
09:58
that the TempleХрам of ApolloАполлон,
where the mostбольшинство famousизвестный oracleоракул satсидел,
199
586273
3564
что храм Аполлона, где обитал
самый известный оракул,
10:01
was actuallyна самом деле builtпостроен
over two earthquakeземлетрясение faultsнедостатки.
200
589861
3084
на самом деле был построен
на месте двух разломов в земной коре.
10:04
And these faultsнедостатки would releaseвыпуск
these petrochemicalнефтехимический fumesчад
201
592969
2886
Из тех разломов в земной коре
выходили петрохимические пары,
10:07
from underneathпод the Earth'sЗемли crustкора,
202
595879
1685
10:09
and the oracleоракул literallyбуквально satсидел
right aboveвыше these faultsнедостатки,
203
597588
3866
то есть провидица сидела
прямо над этими разломами
10:13
inhalingвдыхание enormousогромный amountsсуммы
of ethyleneэтилен gasгаз, these fissuresтрещины.
204
601478
3588
и вдыхала немыслимое количество
этилена, исходящего из этих трещин.
10:17
(LaughterСмех)
205
605090
1008
(Смех)
10:18
It's trueправда.
206
606122
1173
Так и было.
10:19
(LaughterСмех)
207
607319
1017
(Смех)
10:20
It's all trueправда, and that's what madeсделал her
babbleлепет and hallucinateгаллюцинировать
208
608360
3509
Всё это правда. Вот из-за чего провидица
бормотала, видела галлюцинации
10:23
and go into this trance-likeтранс-как stateгосударство.
209
611893
1724
и впадала в транс.
10:25
She was highвысокая as a kiteвоздушный змей!
210
613641
1770
Да она просто обкуренная была!
10:27
(LaughterСмех)
211
615435
4461
(Смех)
10:31
So how did anyoneкто угодно --
212
619920
2779
Как вообще кто-то...?
10:34
How did anyoneкто угодно get
any usefulполезным adviceсовет out of her
213
622723
3030
Как кто-то мог получить
от неё ценный совет
10:37
in this stateгосударство?
214
625777
1190
в таком состоянии?
10:39
Well, you see those people
surroundingокружающих the oracleоракул?
215
627497
2381
Видите этих людей вокруг неё?
10:41
You see those people holdingдержа her up,
216
629902
1879
Видите, как они поддерживали её,
10:43
because she's, like, a little woozyнеустойчивый?
217
631805
1717
потому что она слегка одурманена?
10:45
And you see that guy
on your left-handлевая рука sideбоковая сторона
218
633546
2308
И видите того парня слева от неё,
10:47
holdingдержа the orangeоранжевый notebookблокнот?
219
635878
1598
который держит оранжевую тетрадь?
10:50
Well, those were the templeхрам guidesнаправляющие,
220
638105
1730
Так вот, это были жрецы храма,
10:51
and they workedработал handрука in handрука
with the oracleоракул.
221
639859
3016
они работали рука об руку с провидицей.
10:56
When inquisitorsинквизиторы would come
and get on theirих kneesколени,
222
644084
2516
Когда просители приходили
и вставали на колени,
в тот же момент жрецы храма
приступали к работе:
10:58
that's when the templeхрам guidesнаправляющие
would get to work,
223
646624
2340
после того, как вопрос был задан,
жрецы следили за эмоциями просителей,
11:00
because after they askedспросил her questionsвопросов,
224
648988
1864
11:02
they would observeнаблюдать theirих emotionalэмоциональный stateгосударство,
225
650876
2001
а потом задавали им
дополнительные вопросы:
11:04
and then they would askпросить them
follow-upследовать за questionsвопросов,
226
652901
2324
«А почему вы хотите знать это
пророчество? Кто вы такие?
11:07
like, "Why do you want to know
this prophecyпророчество? Who are you?
227
655249
2834
Что вы будете делать с этой информацией?».
11:10
What are you going to do
with this informationИнформация?"
228
658107
2264
11:12
And then the templeхрам guidesнаправляющие would take
this more ethnographicэтнографический,
229
660395
3182
Так жрецы храма собирали
более этнографическую,
11:15
this more qualitativeкачественный informationИнформация,
230
663601
2156
более качественную информацию,
11:17
and interpretинтерпретировать the oracle'sOracle, babblingsудаляйся.
231
665781
2075
после чего трактовали лепет провидицы.
11:21
So the oracleоракул didn't standстоять aloneв одиночестве,
232
669428
2292
Так что она работала не одна.
11:23
and neitherни should our bigбольшой dataданные systemsсистемы.
233
671744
2148
Также и системам больших данных
нужна помощь.
11:26
Now to be clearЧисто,
234
674630
1161
Поясню: я говорю не о том,
11:27
I'm not sayingпоговорка that bigбольшой dataданные systemsсистемы
are huffingпыхтя ethyleneэтилен gasгаз,
235
675815
3459
что наши системы больших данных
надышались этилена,
11:31
or that they're even givingдающий
invalidинвалид predictionsпрогнозы.
236
679298
2353
или что они делают неправильные прогнозы.
11:33
The totalВсего oppositeнапротив.
237
681675
1161
Совсем наоборот.
11:34
But what I am sayingпоговорка
238
682860
2068
Я говорю о том, что,
11:36
is that in the sameодна и та же way
that the oracleоракул neededнеобходимый her templeхрам guidesнаправляющие,
239
684952
3832
как провидица нуждалась в жрецах,
так в них нуждаются и наши
системы больших данных.
11:40
our bigбольшой dataданные systemsсистемы need them, too.
240
688808
2288
11:43
They need people like ethnographersэтнографы
and userпользователь researchersисследователи
241
691120
4109
Им нужны такие люди, как этнографы
и исследователи пользователей,
11:47
who can gatherсобирать what I call thickтолстый dataданные.
242
695253
2506
кто мог бы собрать то, что я
называю «плотными данными».
11:50
This is preciousдрагоценный dataданные from humansлюди,
243
698502
2991
Это вся та ценная информация от людей,
11:53
like storiesистории, emotionsэмоции and interactionsвзаимодействия
that cannotне могу be quantifiedколичественно.
244
701517
4102
как истории, эмоции, общение,
которые нельзя представить количественно.
11:57
It's the kindсвоего рода of dataданные
that I collectedсобранный for NokiaNokia
245
705643
2322
Это всё то, что я собирала для Nokia,
11:59
that comesвыходит in in the formформа
of a very smallмаленький sampleобразец sizeразмер,
246
707989
2669
что поступало ко мне
мельчайшими крупицами,
12:02
but deliversобеспечивает incredibleнеимоверный depthглубина of meaningимея в виду.
247
710682
2955
но несло в себе значение
невероятной глубины.
12:05
And what makesмарки it so thickтолстый and meatyмясистый
248
713661
3680
Что делает их такими
плотными и содержательными,
12:10
is the experienceопыт of understandingпонимание
the humanчеловек narrativeповествовательный.
249
718445
4029
так это опыт правильного восприятия того,
что тебе рассказывают люди.
12:14
And that's what helpsпомогает to see
what's missingотсутствует in our modelsмодели.
250
722498
3639
И именно это помогает увидеть
прорехи в наших моделях.
12:18
Thickтолстый dataданные groundsоснования our businessбизнес questionsвопросов
in humanчеловек questionsвопросов,
251
726851
4045
Плотные данные погружают вопросы
бизнеса в проблемы человека,
12:22
and that's why integratingинтеграции
bigбольшой and thickтолстый dataданные
252
730920
3562
поэтому совмещение
больших и плотных данных
12:26
formsформы a more completeполный pictureкартина.
253
734506
1689
создаёт более полную картину.
12:28
Bigбольшой dataданные is ableв состоянии to offerпредлагает
insightsпонимание at scaleмасштаб
254
736772
2881
Большие данные способны предложить
своё видение в масштабе
12:31
and leverageлевередж the bestЛучший
of machineмашина intelligenceинтеллект,
255
739677
2647
и на самом высоком уровне
машинного интеллекта,
12:34
whereasв то время как thickтолстый dataданные can help us
rescueспасение the contextконтекст lossпотеря
256
742348
3572
тогда как плотные данные
могут помочь нам сохранить контекст,
появляющийся при использовании
больших данных,
12:37
that comesвыходит from makingизготовление bigбольшой dataданные usableгодный к употреблению,
257
745944
2098
12:40
and leverageлевередж the bestЛучший
of humanчеловек intelligenceинтеллект.
258
748066
2181
и подняться до самых высот
человеческого интеллекта.
12:42
And when you actuallyна самом деле integrateинтегрировать the two,
that's when things get really funвесело,
259
750271
3552
При объединении обоих видов данных
происходит удивительное,
12:45
because then you're no longerдольше
just workingза работой with dataданные
260
753847
2436
потому что вы не просто работаете
12:48
you've alreadyуже collectedсобранный.
261
756307
1196
с уже собранными данными.
12:49
You get to alsoтакже work with dataданные
that hasn'tне имеет been collectedсобранный.
262
757527
2737
Теперь вы также работаете
с ещё несобранными данными.
12:52
You get to askпросить questionsвопросов about why:
263
760288
1719
Вы хотите спросить о причине:
12:54
Why is this happeningпроисходит?
264
762031
1317
почему так происходит?
12:55
Now, when NetflixNetflix did this,
265
763778
1379
Когда это делал Netflix,
12:57
they unlockedразблокирована a wholeвсе newновый way
to transformпреобразование theirих businessбизнес.
266
765181
3035
они открыли совершенно новый
способ трансформации бизнеса.
13:01
NetflixNetflix is knownизвестен for theirих really great
recommendationрекомендация algorithmалгоритм,
267
769406
3956
Netflix прославился своим действительно
отличным алгоритмом рекомендаций,
13:05
and they had this $1 millionмиллиона prizeприз
for anyoneкто угодно who could improveулучшать it.
268
773386
4797
они объявили о призе в 1 миллион
долларов тому, кто сможет его улучшить.
13:10
And there were winnersпобедители.
269
778207
1314
И победители были.
13:12
But NetflixNetflix discoveredобнаруженный
the improvementsулучшения were only incrementalдополнительный.
270
780255
4323
Но Netflix обнаружил, что
улучшения были неравномерными.
13:17
So to really find out what was going on,
271
785404
1964
Чтобы узнать, что происходило,
13:19
they hiredнаемный an ethnographerэтнограф,
GrantГрант McCrackenМак-Кракен,
272
787392
3741
они наняли этнографа Гранта МакКрекена
проанализировать плотные данные.
13:23
to gatherсобирать thickтолстый dataданные insightsпонимание.
273
791157
1546
13:24
And what he discoveredобнаруженный was something
that they hadn'tне имел seenвидели initiallyпервоначально
274
792727
3924
И он выяснил нечто,
чего не было видно изначально
13:28
in the quantitativeколичественный dataданные.
275
796675
1355
в количественных данных.
13:31
He discoveredобнаруженный that people lovedлюбимый
to binge-watchпереедание-часы.
276
799072
2728
Он обнаружил, что люди любят
«приклеиваться» к телевизору.
13:33
In factфакт, people didn't even
feel guiltyвиновный about it.
277
801824
2353
Люди даже своей вины за это не чувствуют.
13:36
They enjoyedнаслаждались it.
278
804201
1255
Они балдеют от этого.
13:37
(LaughterСмех)
279
805480
1026
(Смеется)
Поэтому Netflix такой:
«Ага, это что-то новенькое».
13:38
So NetflixNetflix was like,
"Oh. This is a newновый insightв поле зрения."
280
806530
2356
Поэтому они пошли к своим
обработчикам данных,
13:40
So they wentотправился to theirих dataданные scienceнаука teamкоманда,
281
808910
1938
13:42
and they were ableв состоянии to scaleмасштаб
this bigбольшой dataданные insightв поле зрения
282
810872
2318
где смогли свести этот
вывод из плотных данных
13:45
in with theirих quantitativeколичественный dataданные.
283
813214
2587
со своими количественными данными.
13:47
And onceодин раз they verifiedпроверенный it
and validatedподтверждено it,
284
815825
3170
Стоило им сверить и утвердить их,
13:51
NetflixNetflix decidedприняли решение to do something
very simpleпросто but impactfulэффектных.
285
819019
4761
как в Netflix решили сделать
кое-что простое, но эффективное.
13:56
They said, insteadвместо of offeringпредложение
the sameодна и та же showпоказать from differentдругой genresжанры
286
824834
6492
Они сказали: «Вместо того, чтобы
предлагать всё те же разножанровые сериалы
14:03
or more of the differentдругой showsшоу
from similarаналогичный usersпользователи,
287
831350
3888
или чаще показывать разные сериалы
для одной категории пользователей,
мы просто будем больше
показывать один и тот же сериал.
14:07
we'llЧто ж just offerпредлагает more of the sameодна и та же showпоказать.
288
835262
2554
14:09
We'llЧто ж make it easierПолегче
for you to binge-watchпереедание-часы.
289
837840
2105
Облегчим им прилипание к телевизору».
14:11
And they didn't stop there.
290
839969
1486
И на этом они не остановились.
14:13
They did all these things
291
841479
1474
Они сделали всё,
14:14
to redesignпереконструировать theirих entireвсе
viewerзритель experienceопыт,
292
842977
2959
чтобы изменить всю практику трансляций,
14:17
to really encourageпоощрять binge-watchingпереедание-смотреть.
293
845960
1758
чтобы ещё сильнее притянуть
людей к телевизору.
14:20
It's why people and friendsдрузья disappearисчезать
for wholeвсе weekendsв выходные дни at a time,
294
848230
3241
Поэтому люди и друзья разом
исчезают на все выходные,
боясь пропустить сериал
вроде «Мастера не на все руки».
14:23
catchingпривлекательный up on showsшоу
like "MasterМастер of NoneНикто."
295
851495
2343
14:25
By integratingинтеграции bigбольшой dataданные and thickтолстый dataданные,
they not only improvedулучшен theirих businessбизнес,
296
853862
4173
Сведя вместе большие и плотные данные,
они не только улучшили свой бизнес,
но также изменили процесс
потребления людьми медиа-информации.
14:30
but they transformedтрансформировали how we consumeпотреблять mediaСМИ.
297
858059
2812
14:32
And now theirих stocksакции are projectedпроектируется
to doubleдвойной in the nextследующий fewмало yearsлет.
298
860895
4552
Ожидается, что их акции вырастут вдвое
в следующие несколько лет.
14:38
But this isn't just about
watchingнаблюдение more videosвидео
299
866280
3830
Но дело не только в том,
чтобы больше смотреть телевизор
14:42
or sellingпродажа more smartphonesсмартфоны.
300
870134
1620
или продавать больше смартфонов.
14:44
For some, integratingинтеграции thickтолстый dataданные
insightsпонимание into the algorithmалгоритм
301
872143
4050
Для некоторых привлечение
плотных данных в алгоритм —
14:48
could mean life or deathсмерть,
302
876217
2263
это дело жизни и смерти,
14:50
especiallyособенно for the marginalizedмаргинальным.
303
878504
2146
особенно для тех, чьё положение шатко.
14:53
All around the countryстрана,
policeполиция departmentsведомства are usingс помощью bigбольшой dataданные
304
881738
3434
По всей стране полиция
использует большие данные
14:57
for predictiveпрогностическое policingполицейская,
305
885196
1963
для прогнозирования своей работы,
14:59
to setзадавать bondсвязь amountsсуммы
and sentencingвынесение приговора recommendationsрекомендации
306
887183
3084
чтобы установить размер залога
и рекомендовать меру пресечения,
15:02
in waysпути that reinforceусиливать existingсуществующий biasesуклоны.
307
890291
3147
и это только усиливает
существующую дискриминацию.
15:06
NSA'sАНБ SkynetSkynet machineмашина learningобучение algorithmалгоритм
308
894296
2423
Алгоритм машинного обучения
АНБ США — Skynet —
15:08
has possiblyвозможно aidedавтоматизированного in the deathsсмертей
of thousandsтысячи of civiliansгражданское население in PakistanПакистан
309
896743
5444
вероятно, поспобствовал смертям
тысяч жителей Пакистана
из-за неправильного прочтения
метаданных с мобильного устройства.
15:14
from misreadingнеправильное прочтение cellularСотовая связь deviceустройство metadataметаданные.
310
902211
2721
15:19
As all of our livesжизни becomeстали more automatedавтоматизированный,
311
907131
3403
По мере того, как наша жизнь
всё больше автоматизируется,
15:22
from automobilesавтомобили to healthздоровье insuranceстрахование
or to employmentзанятость,
312
910558
3080
от автомобилей до медицинской
страховки или устройства на работу,
15:25
it is likelyвероятно that all of us
313
913662
2350
скорее всего, мы все
15:28
will be impactedвлияние
by the quantificationквантование biasсмещение.
314
916036
2989
будем склоняться к подсчёту количества.
15:32
Now, the good newsНовости
is that we'veмы в come a long way
315
920972
2621
Сегодня хорошая новость в том,
что прошло много времени
с тех пор, когда для предсказаний
нужно было дышать этиленом.
15:35
from huffingпыхтя ethyleneэтилен gasгаз
to make predictionsпрогнозы.
316
923617
2450
15:38
We have better toolsинструменты,
so let's just use them better.
317
926091
3070
У нас есть способы получше,
и их можно ещё улучшить.
15:41
Let's integrateинтегрировать the bigбольшой dataданные
with the thickтолстый dataданные.
318
929185
2323
Давайте совмещать
большие данные с плотными.
15:43
Let's bringприносить our templeхрам guidesнаправляющие
with the oraclesоракулы,
319
931532
2261
Давайте сведём жрецов храма с провидицей,
и если провести эту работу в коммерческих
или некоммерческих организациях,
15:45
and whetherбудь то this work happensпроисходит
in companiesкомпании or nonprofitsнеприбыль
320
933817
3376
15:49
or governmentправительство or even in the softwareпрограммного обеспечения,
321
937217
2469
или в правительстве, или даже
в программном обеспечении,
15:51
all of it mattersвопросы,
322
939710
1792
всё это будет иметь смысл,
15:53
because that meansозначает
we're collectivelyколлективно committedпривержен
323
941526
3023
потому что это будет значить,
что мы действуем сообща
15:56
to makingизготовление better dataданные,
324
944573
2191
ради бо́льших данных,
15:58
better algorithmsалгоритмы, better outputsвыходы
325
946788
1836
лучших алгоритмов, лучших результатов
16:00
and better decisionsрешения.
326
948648
1643
и лучших решений.
16:02
This is how we'llЧто ж avoidизбежать
missingотсутствует that something.
327
950315
3558
Так мы ничего не потеряем.
(Аплодисменты)
16:07
(ApplauseАплодисменты)
328
955222
3948
Translated by Olga Gruzd
Reviewed by Natalia Ost

▲Back to top

ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com