ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com
TEDxCambridge

Tricia Wang: The human insights missing from big data

טרישה וואנג: תובנות אנושיות החסרות בביג דאטה

Filmed:
1,688,539 views

מדוע כל כך הרבה חברות מקבלות החלטות גרועות, אפילו עם גישה לכמויות עצומות של מידע? עם סיפורים מנוקיה לנטפליקס ולאורקלים של יוון העתיקה, טרישה וואנג חושפת מהו ביג דאטה ומזהה את הכשלים שלו, היא מציעה שנתמקד במקום על "נתוני עובי"-- תובנות יקרות, בלתי ניתנות לכימות של אנשים ממשיים.-- כדי לבצע החלטות עסקיות נכונות ולשגשג בבלתי ידוע.
- Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers. Full bio

Double-click the English transcript below to play the video.

00:12
In ancientעָתִיק Greeceיָוָן,
0
885
1545
ביוון העתיקה,
00:15
when anyoneכֹּל אֶחָד from slavesעבדים to soldiersחיילים,
poetsמשוררים and politiciansפוליטיקאים,
1
3436
3943
כשאדם כלשהו, בין אם עבד, חייל,
משורר או פוליטיקאי,
00:19
neededנָחוּץ to make a bigגָדוֹל decisionהַחְלָטָה
on life'sהחיים mostרוב importantחָשׁוּב questionsשאלות,
2
7403
4004
היה זקוק לקבל החלטה גורלית
בשאלות הכי חשובות בחיים,
00:23
like, "Should I get marriedנָשׂוּי?"
3
11431
1391
כמו "האם עלי להתחתן?"
00:24
or "Should we embarkלַעֲלוֹת לְאֳנִיָה on this voyageמַסָע?"
4
12846
1857
או "האם עלינו לצאת למסע הזה?"
00:26
or "Should our armyצָבָא
advanceלְקַדֵם into this territoryשֶׁטַח?"
5
14727
2928
או "האם הצבא שלנו צריך להתקדם
לתוך הטריטוריה הזאת?"
00:29
they all consultedהתייעץ the oracleאוֹרַקְל.
6
17679
2579
כולם התייעצו עם האורקל.
00:33
So this is how it workedעבד:
7
21020
1440
אז ככה זה עבד:
00:34
you would bringלְהָבִיא her a questionשְׁאֵלָה
and you would get on your kneesברכיים,
8
22484
3112
הייתם שואלים אותה שאלה כשאתם
כורעים על הברכיים,
00:37
and then she would go into this tranceטְרַנס.
9
25620
1871
ואז היא היתה נכנסת לטראנס.
00:39
It would take a coupleזוּג of daysימים,
10
27515
1549
זה היה לוקח כמה ימים,
00:41
and then eventuallyבסופו של דבר
she would come out of it,
11
29088
2163
ואז לבסוף היא היתה יוצאת מזה,
00:43
givingמַתָן you her predictionsתחזיות as your answerתשובה.
12
31275
2536
ומשיבה לשאלות בעזרת התחזיות שלה.
00:46
From the oracleאוֹרַקְל bonesעצמות of ancientעָתִיק Chinaסין
13
34910
2566
מעצמות האורקל של סין העתיקה
00:49
to ancientעָתִיק Greeceיָוָן to Mayanהמאיה calendarsלוחות שנה,
14
37500
2345
ליוון העתיקה וללוחות הזמן של תרבות המאיה,
00:51
people have cravedהשתוקק for prophecyנְבוּאָה
15
39869
2296
אנשים השתוקקו לנבואה
00:54
in orderלהזמין to find out
what's going to happenלִקְרוֹת nextהַבָּא.
16
42189
3137
כדי לגלות מה עומד לקרות.
00:58
And that's because we all want
to make the right decisionהַחְלָטָה.
17
46516
3239
וזה משום שכולנו רוצים לקבל
את ההחלטה הנכונה.
01:01
We don't want to missעלמה something.
18
49779
1545
אנחנו לא רוצים להחמיץ משהו.
01:03
The futureעתיד is scaryמַפְחִיד,
19
51892
1743
העתיד מפחיד,
01:05
so it's much nicerיפה יותר
knowingיוֹדֵעַ that we can make a decisionהַחְלָטָה
20
53659
2717
והרבה יותר נעים לדעת
שאנחנו יכולים לקבל החלטה
01:08
with some assuranceהַבטָחָה of the outcomeתוֹצָאָה.
21
56400
1982
עם הבטחה כלשהי לגבי התוצאה.
01:11
Well, we have a newחָדָשׁ oracleאוֹרַקְל,
22
59079
1611
ובכן, יש לנו אורקל חדש,
01:12
and it's nameשֵׁם is bigגָדוֹל dataנתונים,
23
60714
2145
ושמו ביג דאטה,
01:14
or we call it "Watsonווטסון"
or "deepעָמוֹק learningלְמִידָה" or "neuralעֲצַבִּי netנֶטוֹ."
24
62883
3939
או שנקרא לו "ווטסון" או
"למידה לעומק" או "רשת עצבית".
01:19
And these are the kindsמיני of questionsשאלות
we askלִשְׁאוֹל of our oracleאוֹרַקְל now,
25
67340
4012
ואלו הן סוג השאלות שאנחנו
שואלים את האורקל שלנו כעת,
01:23
like, "What's the mostרוב efficientיָעִיל way
to shipספינה these phonesטלפונים
26
71376
3922
כמו "מהי הדרך היעילה ביותר
לשלוח את הטלפונים האלה
01:27
from Chinaסין to Swedenשבדיה?"
27
75322
1823
מסין לשבדיה?"
01:29
Or, "What are the oddsקְטָטָה
28
77169
1800
או "מהם הסיכויים
01:30
of my childיֶלֶד beingלהיות bornנוֹלָד
with a geneticגֵנֵטִי disorderהפרעה?"
29
78993
3363
שהילד שלי יוולד עם בעיה גנטית?"
01:34
Or, "What are the salesמכירות volumeכֶּרֶך
we can predictלַחֲזוֹת for this productמוצר?"
30
82952
3244
או "מה היקף המכירות שניתן
לחזות עבור המוצר הזה?"
01:40
I have a dogכֶּלֶב. Her nameשֵׁם is Elleאל,
and she hatesשונא the rainגֶשֶׁם.
31
88108
4047
יש לי כלבה, ששמה אל,
והיא שונאת את הגשם.
01:44
And I have triedניסה everything
to untrainuntrain her.
32
92179
3306
וניסיתי הכל כדי לשנות זאת אצלה.
01:47
But because I have failedנִכשָׁל at this,
33
95509
2771
אבל בגלל שנכשלתי בזה,
01:50
I alsoגַם have to consultלְהִתְיַעֵץ
an oracleאוֹרַקְל, calledשקוראים לו Darkאפל Skyשָׁמַיִם,
34
98304
3286
עלי גם להתייעץ עם אורקל,
שנקרא "שמיים אפלים",
01:53
everyכֹּל time before we go on a walkלָלֶכֶת,
35
101614
1635
בכל פעם לפני שאנחנו יוצאות לטיול,
01:55
for very accurateמְדוּיָק weatherמזג אוויר predictionsתחזיות
in the nextהַבָּא 10 minutesדקות.
36
103273
3577
כדי לקבל תחזיות מזג אויר מדויקות
ב 10 דקות הקרובות.
02:01
She's so sweetמתוק.
37
109535
1303
היא כל כך חמודה.
02:03
So because of all of this,
our oracleאוֹרַקְל is a $122 billionמיליארד industryתַעֲשִׂיָה.
38
111827
5707
אז לפיכך, האורקל שלנו הוא תעשייה
של 122 מיליארד דולר.
02:10
Now, despiteלמרות the sizeגודל of this industryתַעֲשִׂיָה,
39
118006
3376
ולמרות גודלה של התעשייה הזאת,
02:13
the returnsהחזרות are surprisinglyלמרבה ההפתעה lowנָמוּך.
40
121406
2456
הרווחים נמוכים להפליא.
02:16
Investingהשקעות in bigגָדוֹל dataנתונים is easyקַל,
41
124342
2494
השקעה בביג דאטה היא קלה,
02:18
but usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני it is hardקָשֶׁה.
42
126860
1933
אבל השימוש בה הוא קשה.
02:21
Over 73 percentאָחוּז of bigגָדוֹל dataנתונים projectsפרויקטים
aren'tלא even profitableמִשׁתַלֵם,
43
129981
4040
מעל 73 אחוזים של פרוייקטים של
ביג דאטה אינם רווחיים אפילו,
02:26
and I have executivesמנהלים
comingמגיע up to me sayingפִּתגָם,
44
134045
2431
ויש לי מנהלים שבאים אלי ואומרים,
02:28
"We're experiencingהִתנַסוּת the sameאותו thing.
45
136500
1789
"אנחנו חווים את אותו הדבר.
02:30
We investedמוּשׁקָע in some bigגָדוֹל dataנתונים systemמערכת,
46
138313
1753
אנו משקיעים במערכת ביג דאטה כלשהי,
02:32
and our employeesעובדים aren'tלא makingהֲכָנָה
better decisionsהחלטות.
47
140090
2968
והעובדים שלנו לא מקבלים החלטות טובות יותר.
02:35
And they're certainlyבְּהֶחלֵט not comingמגיע up
with more breakthroughפְּרִיצַת דֶרֶך ideasרעיונות."
48
143082
3162
והם לבטח לא מעלים יותר רעיונות פורצי דרך".
02:38
So this is all really interestingמעניין to me,
49
146914
3184
אז כל זה ממש מעניין אותי,
02:42
because I'm a technologyטֶכנוֹלוֹגִיָה ethnographerאֶתנוֹגרָף.
50
150122
2010
משום שאני אתנוגרפית טכנולוגיה.
02:44
I studyלימוד and I adviseלייעץ companiesחברות
51
152630
2564
אני חוקרת ומייעצת לחברות
02:47
on the patternsדפוסי
of how people use technologyטֶכנוֹלוֹגִיָה,
52
155218
2483
בנושאי הדפוסים שאנשים משתמשים
בהם בטכנולוגיה,
02:49
and one of my interestריבית areasאזורי is dataנתונים.
53
157725
2678
ואחד מתחומי העניין שלי הוא נתונים.
02:52
So why is havingשיש more dataנתונים
not helpingמָנָה us make better decisionsהחלטות,
54
160427
5193
אז למה יותר נתונים לא עוזרים לנו
לקבל החלטות טובות יותר,
02:57
especiallyבמיוחד for companiesחברות
who have all these resourcesאֶמְצָעִי
55
165644
2783
בייחוד בחברות שיש להן את כל המשאבים
03:00
to investלהשקיע in these bigגָדוֹל dataנתונים systemsמערכות?
56
168451
1736
להשקיע במערכות ביג דאטה אלה?
03:02
Why isn't it gettingמקבל any easierקל יותר for them?
57
170211
2398
למה זה לא מקל עליהן?
03:05
So, I've witnessedעדים the struggleמַאֲבָק firsthandמִמָקוֹר רִאשׁוֹן.
58
173990
2634
אז, הייתי עדה למאבק ממקור ראשון.
03:09
In 2009, I startedהתחיל
a researchמחקר positionעמדה with NokiaNokia.
59
177374
3484
ב2009, התחלתי לעבוד במחקר בנוקיה.
03:13
And at the time,
60
181232
1158
ובזמנו,
03:14
NokiaNokia was one of the largestהגדול
cellתָא phoneטלפון companiesחברות in the worldעוֹלָם,
61
182414
3158
נוקיה היתה אחת מחברות הסלולר
הגדולות ביותר בעולם,
03:17
dominatingשולט emergingמתעוררים marketsשווקים
like Chinaסין, Mexicoמקסיקו and Indiaהוֹדוּ --
62
185596
3202
היא שלטה בשווקים מתעוררים
כמו סין, מקסיקו והודו --
03:20
all placesמקומות where I had doneבוצע
a lot of researchמחקר
63
188822
2502
בכל המקומות חקרתי הרבה
03:23
on how low-incomeהכנסה נמוכה people use technologyטֶכנוֹלוֹגִיָה.
64
191348
2676
כיצד אנשים בעלי הכנסה נמוכה
משתמשים בטכנולוגיה.
03:26
And I spentמוּתַשׁ a lot of extraתוֹסֶפֶת time in Chinaסין
65
194048
2330
וביליתי הרבה זמן בסין
03:28
gettingמקבל to know the informalלא רשמי economyכַּלְכָּלָה.
66
196402
2592
ולמדתי להכיר את הכלכלה הלא רשמית.
03:31
So I did things like workingעובד
as a streetרְחוֹב vendorמוֹכֵר
67
199018
2401
אז עשיתי דברים כמו לעבוד
כמוכרת בדוכן רחוב,
03:33
sellingמוכר dumplingsכופתאות to constructionבְּנִיָה workersעובדים.
68
201443
2574
מכרתי כופתאות לפועלי בניין.
03:36
Or I did fieldworkשדה,
69
204041
1358
או שעשיתי עבודת שטח,
03:37
spendingההוצאה nightsבלילות and daysימים
in internetאינטרנט cafבית קפהés,
70
205423
2958
ביליתי לילות וימים בבתי קפה-אינטרנט,
03:40
hangingתְלִיָה out with Chineseסִינִית youthנוֹעַר,
so I could understandמבין
71
208405
2546
ביליתי עם הנוער הסיני כדי להבין
03:42
how they were usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני
gamesמשחקים and mobileנייד phonesטלפונים
72
210975
2284
איך הם משתמשים במשחקים ובטלפונים ניידים
03:45
and usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני it betweenבֵּין movingמעבר דירה
from the ruralכַּפרִי areasאזורי to the citiesערים.
73
213283
3370
ומשתמשים בהם במעבר מהכפרים לערים.
03:50
Throughדרך all of this qualitativeאֵיכוּתִי evidenceעֵדוּת
that I was gatheringכֶּנֶס,
74
218335
3927
בעזרת כל הראיות האיכותיות שאספתי
03:54
I was startingהחל to see so clearlyבְּבִירוּר
75
222286
2824
התחלתי לראות בבירור
03:57
that a bigגָדוֹל changeשינוי was about to happenלִקְרוֹת
amongבין low-incomeהכנסה נמוכה Chineseסִינִית people.
76
225134
4472
שעומד להתרחש שינוי גדול בקרב
הסינים בעלי ההכנסה הנמוכה.
04:03
Even thoughאם כי they were surroundedמוּקָף
by advertisementsפרסומות for luxuryמוּתָרוּת productsמוצרים
77
231020
4367
למרות שהם היו מוקפים בפרסומות למוצרי יוקרה
04:07
like fancyלְחַבֵּב toiletsשֵׁרוּתִים --
who wouldn'tלא want one? --
78
235411
3495
כמו אסלות מפוארות -- מי לא היה
רוצה אחת כזאת?
04:10
and apartmentsדירות and carsמכוניות,
79
238930
2890
ודירות, ומכוניות,
04:13
throughדרך my conversationsשיחות with them,
80
241844
1820
באמצעות שיחות שניהלתי איתם,
04:15
I foundמצאתי out that the adsמודעות
the actuallyלמעשה enticedמְפוּתֶה them the mostרוב
81
243688
3841
גיליתי שהפרסומות שבעצם הכי פיתו אותם
04:19
were the onesיחידות for iPhonesiPhones,
82
247553
1996
היו אלה של האייפונים,
04:21
promisingמַבְטִיחַ them this entryכְּנִיסָה
into this high-techהיי טק life.
83
249573
3052
שהבטיחו להם כניסה לעולם ההייטק.
04:25
And even when I was livingחַי with them
in urbanעִירוֹנִי slumsשכונות עוני like this one,
84
253469
3163
ואפילו כשחייתי ביניהם בשכונות
העוני העירוניות כמו זו,
04:28
I saw people investingהשקעה
over halfחֲצִי of theirשֶׁלָהֶם monthlyיַרחוֹן incomeהַכנָסָה
85
256656
2996
ראיתי אנשים משקיעים יותר
ממחצית משכורתם החודשית
04:31
into buyingקְנִיָה a phoneטלפון,
86
259676
1623
בקניית טלפון,
04:33
and increasinglyיותר ויותר, they were "shanzhaiשנז 'א,"
87
261323
2302
ויותר ויותר מהם היו מכשירי "שאנזהאי",
04:35
whichאיזה are affordableזול knock-offsלדפוק- offs
of iPhonesiPhones and other brandsהמותגים.
88
263649
3388
שהם חיקויים זולים של אייפונים
ומותגים אחרים.
04:40
They're very usableשָׁמִישׁ.
89
268303
1625
הם מאוד שמישים.
04:42
Does the jobעבודה.
90
270890
1322
עושים את העבודה.
04:44
And after yearsשנים of livingחַי
with migrantsמהגרים and workingעובד with them
91
272750
5789
ואחרי שנים שחייתי עם מהגרים ועבדתי אתם
04:50
and just really doing everything
that they were doing,
92
278563
3434
וממש עשיתי את כל מה שהם עושים,
04:54
I startedהתחיל piecingpiecing
all these dataנתונים pointsנקודות togetherיַחַד --
93
282021
3597
התחלתי להרכיב את כל נקודות
הנתונים האלה יחד --
04:57
from the things that seemנראה randomאַקרַאִי,
like me sellingמוכר dumplingsכופתאות,
94
285642
3123
מהדברים שנראים רנדומליים,
כמו מכירת כופתאות על ידי,
05:00
to the things that were more obviousברור,
95
288789
1804
לדברים שהיו ברורים יותר,
05:02
like trackingמעקב how much they were spendingההוצאה
on theirשֶׁלָהֶם cellתָא phoneטלפון billsשטרות.
96
290617
3232
כמו מעקב אחרי הוצאות חשבונות הטלפון שלהם.
05:05
And I was ableיכול to createלִיצוֹר
this much more holisticהוליסטית pictureתְמוּנָה
97
293873
2639
והצלחתי ליצור תמונה הרבה יותר הוליסטית
05:08
of what was happeningמתרחש.
98
296536
1156
של המתרחש.
05:09
And that's when I startedהתחיל to realizeלִהַבִין
99
297716
1722
ורק אז התחלתי להבין
05:11
that even the poorestענייה in Chinaסין
would want a smartphoneהטלפון החכם,
100
299462
3509
שאפילו העניים ביותר בסין רצו סמארטפון,
05:14
and that they would do almostכִּמעַט anything
to get theirשֶׁלָהֶם handsידיים on one.
101
302995
4985
והיו מוכנים לעשות כמעט הכל כדי להשיג אחד.
05:21
You have to keep in mindאכפת,
102
309073
2404
עליכם לזכור,
05:23
iPhonesiPhones had just come out, it was 2009,
103
311501
3084
שאייפונים רק יצאו לשוק אז, ב2009,
05:26
so this was, like, eightשמונה yearsשנים agoלִפנֵי,
104
314609
1885
אז זה היה לפני שמונה שנים בערך,
05:28
and Androidsאנדרואידים had just startedהתחיל
looking like iPhonesiPhones.
105
316518
2437
ומכשירי אנדרואיד רק התחילו
להיראות כמו אייפונים.
05:30
And a lot of very smartלִכאוֹב
and realisticמְצִיאוּתִי people said,
106
318979
2507
והרבה אנשים מאוד חכמים ומציאותיים אמרו,
05:33
"Those smartphonesטלפונים חכמים -- that's just a fadתַחבִּיב.
107
321510
2207
"הסמארטפונים האלה -- הם רק תופעה חולפת.
05:36
Who wants to carryלשאת around
these heavyכָּבֵד things
108
324243
2996
מי רוצה להסתובב עם המכשירים הכבדים האלה
05:39
where batteriesסוללות drainלנקז quicklyבִּמְהִירוּת
and they breakלשבור everyכֹּל time you dropיְרִידָה them?"
109
327263
3487
שמרוקנים מהר את הסוללות
ונשברים בכל פעם שמפילים אותם?"
05:44
But I had a lot of dataנתונים,
110
332793
1201
אבל היו לי הרבה נתונים,
05:46
and I was very confidentבטוח
about my insightsתובנות,
111
334018
2260
והייתי בטוחה מאוד לגבי התובנות שלי.
05:48
so I was very excitedנִרגָשׁ
to shareלַחֲלוֹק them with NokiaNokia.
112
336302
2829
אז מאוד התרגשתי לשתף אותן עם נוקיה.
05:53
But NokiaNokia was not convincedמְשׁוּכנָע,
113
341332
2517
אבל נוקיה לא השתכנעו,
05:55
because it wasn'tלא היה bigגָדוֹל dataנתונים.
114
343873
2335
בגלל שאלה לא היו "ביג דאטה".
05:59
They said, "We have
millionsמיליונים of dataנתונים pointsנקודות,
115
347022
2404
הם אמרו "יש לנו מיליוני נקודות מידע,
06:01
and we don't see any indicatorsאינדיקטורים
of anyoneכֹּל אֶחָד wantingרוצה to buyלִקְנוֹת a smartphoneהטלפון החכם,
116
349450
4247
ואנחנו לא רואים שום אינדיקציות
שמישהו ירצה לקנות סמארטפון,
06:05
and your dataנתונים setמַעֲרֶכֶת of 100,
as diverseמְגוּוָן as it is, is too weakחלש
117
353721
4388
ומערך המידע שלך שעומד על 100
על אף שהוא מגוון הוא חלש מדי,
06:10
for us to even take seriouslyברצינות."
118
358133
1714
מכדי שנוכל לקחת אותו ברצינות".
06:12
And I said, "NokiaNokia, you're right.
119
360908
1605
אז אמרתי, "נוקיה, אתם צודקים.
06:14
Of courseקוּרס you wouldn'tלא see this,
120
362537
1560
ברור שלא יכולתם לראות את זה,
06:16
because you're sendingשְׁלִיחָה out surveysסקרים
assumingבהנחה that people don't know
121
364121
3371
כי אתם שולחים סקרים בהנחה שאנשים לא יודעים
06:19
what a smartphoneהטלפון החכם is,
122
367516
1159
מה זה סמארטפון,
06:20
so of courseקוּרס you're not going
to get any dataנתונים back
123
368699
2366
אז ברור שאתם לא הולכים לקבל
שום נתונים חזרה
06:23
about people wantingרוצה to buyלִקְנוֹת
a smartphoneהטלפון החכם in two yearsשנים.
124
371089
2572
על אנשים שרוצים לקנות סמארטפון
בשנתיים הקרובות.
06:25
Your surveysסקרים, your methodsשיטות
have been designedמְעוּצָב
125
373685
2118
הסקרים שלכם, השיטות שלכם, תוכננו
06:27
to optimizeלייעל an existingקיים businessעֵסֶק modelדֶגֶם,
126
375827
2022
כדי למטב דגם עסק קיים,
06:29
and I'm looking
at these emergentמתהווה humanבן אנוש dynamicsדִינָמִיקָה
127
377873
2608
ואני מסתכלת על דינמיקות אנושיות צומחות אלו
06:32
that haven'tלא happenedקרה yetעדיין.
128
380505
1354
שעדיין לא קרו.
06:33
We're looking outsideבחוץ of marketשׁוּק dynamicsדִינָמִיקָה
129
381883
2438
אנחנו מסתכלים מחוץ לדינמיקה של השוק
06:36
so that we can get aheadקָדִימָה of it."
130
384345
1631
כדי שנוכל להקדים אותה".
06:39
Well, you know what happenedקרה to NokiaNokia?
131
387373
2244
ובכן, אתם יודעים מה קרה לנוקיה?
06:41
Theirשֶׁלָהֶם businessעֵסֶק fellנפל off a cliffצוּק.
132
389641
2365
העסק שלהם נפל חזק.
06:44
This -- this is the costעֲלוּת
of missingחָסֵר something.
133
392791
3727
זה -- זה המחיר של ההחטאה.
06:49
It was unfathomableתְהוֹמִי.
134
397163
1999
זה היה בלתי ניתן להבנה.
06:52
But Nokia'sשל נוקיה not aloneלבד.
135
400003
1651
אבל נוקיה לא לבד.
06:54
I see organizationsארגונים
throwingזְרִיקָה out dataנתונים all the time
136
402258
2581
אני רואה ארגונים שזורקים נתונים כל הזמן
06:56
because it didn't come from a quantכמות modelדֶגֶם
137
404863
2561
בגלל שהם לא הגיעו ממודל כמותי
06:59
or it doesn't fitלְהַתְאִים in one.
138
407448
1768
או שהם לא מתאימים למודל כזה.
07:02
But it's not bigגָדוֹל data'sנתונים של faultאשמה.
139
410219
2048
אבל זו לא אשמתו של ביג דאטה.
07:04
It's the way we use bigגָדוֹל dataנתונים;
it's our responsibilityאַחֲרָיוּת.
140
412942
3907
זה האופן שבו אנחנו משתמשים
בביג דאטה; זאת האחריות שלנו.
07:09
Bigגָדוֹל data'sנתונים של reputationמוֹנֵיטִין for successהַצלָחָה
141
417730
1911
המוניטין של ביג דאטה להצלחה
07:11
comesבא from quantifyingכימות
very specificספֵּצִיפִי environmentsסביבות,
142
419665
3759
נובע מכימות של סביבות ספציפיות מאוד,
07:15
like electricityחַשְׁמַל powerכּוֹחַ gridsרשתות
or deliveryמְסִירָה logisticsלוֹגִיסטִיקָה or geneticגֵנֵטִי codeקוד,
143
423448
4913
כמו רשתות חשמל או מערכות שינוע
או קוד גנטי,
07:20
when we're quantifyingכימות in systemsמערכות
that are more or lessפָּחוּת containedהכיל.
144
428385
4318
כשאנחנו מכמתים מערכות שהן
פחות או יותר מוכלות.
07:24
But not all systemsמערכות
are as neatlyלְמִשׁעִי containedהכיל.
145
432727
2969
אבל לא כל המערכות מוכלות
בצורה כל כך מסודרת.
07:27
When you're quantifyingכימות
and systemsמערכות are more dynamicדִינָמִי,
146
435720
3258
כשמכמתים והמערכות יותר דינמיות,
07:31
especiallyבמיוחד systemsמערכות
that involveכרוך humanבן אנוש beingsישויות,
147
439002
3799
במיוחד מערכות שמערבות בני אדם,
07:34
forcesכוחות are complexמורכב and unpredictableבלתי צפוי,
148
442825
2426
הכוחות הפועלים הם מורכבים ובלתי צפויים,
07:37
and these are things
that we don't know how to modelדֶגֶם so well.
149
445275
3486
ואלו הם דברים שמהם איננו יודעים
היטב כיצד ליצור דגם.
07:41
Onceפַּעַם you predictלַחֲזוֹת something
about humanבן אנוש behaviorהִתְנַהֲגוּת,
150
449204
2813
ברגע שחוזים משהו על התנהגות אנושית,
07:44
newחָדָשׁ factorsגורמים emergeלָצֵאת,
151
452041
1855
גורמים חדשים צצים,
07:45
because conditionsתנאים
are constantlyתָמִיד changingמִשְׁתַנֶה.
152
453920
2365
כי התנאים משתנים כל הזמן.
07:48
That's why it's a never-endingשלא נגמר cycleמחזור.
153
456309
1803
לכן זהו מחזור אינסופי.
07:50
You think you know something,
154
458136
1464
אתם חושבים שאתם יודעים משהו,
07:51
and then something unknownלא ידוע
entersנכנס the pictureתְמוּנָה.
155
459624
2242
ואז משהו לא ידוע נכנס לתמונה.
07:53
And that's why just relyingהסתמכות
on bigגָדוֹל dataנתונים aloneלבד
156
461890
3322
ולכן הסתמכות על ביג דאטה בלבד
07:57
increasesמגביר the chanceהִזדַמְנוּת
that we'llטוֹב missעלמה something,
157
465236
2849
מעלה את הסיכוי שנחסיר משהו.
08:00
while givingמַתָן us this illusionאַשְׁלָיָה
that we alreadyכְּבָר know everything.
158
468109
3777
בעוד שהיא מעוררת בנו את האשלייה
שאנחנו כבר יודעים הכל.
08:04
And what makesעושה it really hardקָשֶׁה
to see this paradoxפָּרָדוֹקס
159
472406
3856
ומה שמקשה עלינו לראות את הפרדוקס הזה
08:08
and even wrapלַעֲטוֹף our brainsמוֹחַ around it
160
476286
2659
ואפילו להבין אותו
08:10
is that we have this thing
that I call the quantificationקְבִיעַת כָּמוּת biasהֲטָיָה,
161
478969
3691
הוא שיש לנו את הכלי הזה
שאני מכנה אותו ההטיה לכימות,
08:14
whichאיזה is the unconsciousחסר הכרה beliefאמונה
of valuingמעריך the measurableמָדִיד
162
482684
3922
שהיא האמונה הלא מודעת להעדפת מידע מדיד
08:18
over the immeasurableלְלֹא גְבוּל.
163
486630
1594
על פני בלתי מדיד.
08:21
And we oftenלעתים קרובות experienceניסיון this at our work.
164
489222
3284
ופעמים רבות אנחנו חווים את זה בעבודה שלנו.
08:24
Maybe we work alongsideבַּצַד
colleaguesעמיתים who are like this,
165
492530
2650
אולי אנחנו עובדים לצד עמיתים שהם כאלה,
08:27
or even our wholeכֹּל entireשלם
companyחֶברָה mayמאי be like this,
166
495204
2428
או שאפילו החברה שלנו כולה עשויה
להיות כזאת,
08:29
where people becomeהפכו
so fixatedמקובע on that numberמספר,
167
497656
2546
שבה אנשים הופכים כה מקובעים על המספר הזה,
08:32
that they can't see anything
outsideבחוץ of it,
168
500226
2067
שאינם יכולים לראות שום דבר מעבר לו,
08:34
even when you presentמתנה them evidenceעֵדוּת
right in frontחֲזִית of theirשֶׁלָהֶם faceפָּנִים.
169
502317
3948
אפילו כשמציגים להם הוכחות ממש מול הפרצוף.
08:39
And this is a very appealingמושך messageהוֹדָעָה,
170
507123
3371
וזהו מסר מאוד מושך,
08:42
because there's nothing
wrongלא בסדר with quantifyingכימות;
171
510518
2343
כיוון שאין שום פגם בכמותיות;
08:44
it's actuallyלמעשה very satisfyingסיפוק.
172
512885
1430
זה למעשה מאוד מספק.
08:46
I get a great senseלָחוּשׁ of comfortנוחות
from looking at an Excelלְהִצטַיֵן spreadsheetגיליון אלקטרוני,
173
514339
4362
אני מקבלת תחושה נפלאה של נוחות
מהתבוננות בגיליון אלקטרוני של אקסל,
08:50
even very simpleפָּשׁוּט onesיחידות.
174
518725
1401
אפילו בפשוטים מאוד.
08:52
(Laughterצחוק)
175
520150
1014
(צחוק)
08:53
It's just kindסוג of like,
176
521188
1152
זה כאילו,
08:54
"Yes! The formulaנוּסחָה workedעבד. It's all OK.
Everything is underתַחַת controlלִשְׁלוֹט."
177
522364
3504
"כן! הנוסחה הצליחה. הכל בסדר.
הכל תחת שליטה".
08:58
But the problemבְּעָיָה is
178
526792
2390
אבל הבעיה היא
09:01
that quantifyingכימות is addictiveממכר.
179
529206
2661
שלכמת זה ממכר.
09:03
And when we forgetלשכוח that
180
531891
1382
וכאשר אנחנו שוכחים את זה
09:05
and when we don't have something
to kindסוג of keep that in checkלבדוק,
181
533297
3038
וכשאין לנו משהו שעוזר לנו לפקח על זה,
09:08
it's very easyקַל to just throwלזרוק out dataנתונים
182
536359
2118
קל מאוד פשוט לזרוק מידע
09:10
because it can't be expressedהביע
as a numericalמִספָּרִי valueערך.
183
538501
2718
כיוון שלא ניתן לבטא אותו כערך מספרי.
09:13
It's very easyקַל just to slipפליטת פה
into silver-bulletכדור כסף thinkingחושב,
184
541243
2921
קל מאוד להחליק לתוך חשיבה מאגית,
09:16
as if some simpleפָּשׁוּט solutionפִּתָרוֹן existedהיה קיים.
185
544188
2579
כאילו קיים פתרון פשוט כלשהו.
09:19
Because this is a great momentרֶגַע of dangerסַכָּנָה
for any organizationאִרגוּן,
186
547600
4062
כי זה רגע מסוכן מאוד עבור כל ארגון,
09:23
because oftentimesלְעִתִים קְרוֹבוֹת,
the futureעתיד we need to predictלַחֲזוֹת --
187
551686
2634
כי לעתים קרובות העתיד שעלינו לחזות --
09:26
it isn't in that haystackעֲרֵמַת שַׁחַת,
188
554344
2166
לא נמצא בערימת השחת הזאת,
09:28
but it's that tornadoטוֹרנָדוֹ
that's bearingמֵסַב down on us
189
556534
2538
אלא הוא סופת הטורנדו הזו שמאיימת עלינו
09:31
outsideבחוץ of the barnאֹסֶם.
190
559096
1488
מחוץ לאסם.
09:34
There is no greaterגדול יותר riskלְהִסְתָכֵּן
191
562960
2326
אין דבר יותר מסוכן
09:37
than beingלהיות blindסומא to the unknownלא ידוע.
192
565310
1666
מלהיות עיוור ללא נודע.
09:39
It can causeגורם you to make
the wrongלא בסדר decisionsהחלטות.
193
567000
2149
זה יכול לגרום לכם לקבל החלטות שגויות.
09:41
It can causeגורם you to missעלמה something bigגָדוֹל.
194
569173
1974
זה יכול לגרום לכם לפספס משהו גדול.
09:43
But we don't have to go down this pathנָתִיב.
195
571734
3101
אבל אנחנו לא חייבים ללכת בנתיב הזה.
09:47
It turnsפונה out that the oracleאוֹרַקְל
of ancientעָתִיק Greeceיָוָן
196
575453
3195
מסתבר שהאורקל של יוון העתיקה
09:50
holdsמחזיק the secretסוֹד keyמַפְתֵחַ
that showsמופעים us the pathנָתִיב forwardקָדִימָה.
197
578672
3966
מחזיקה את המפתח הסודי
שמראה לנו את הדרך קדימה.
09:55
Now, recentלאחרונה geologicalגֵאוֹלוֹגִי researchמחקר has shownמוצג
198
583654
2595
מחקר גאולוגי שנעשה לאחרונה הראה
09:58
that the Templeבית המקדש of Apolloאפולו,
where the mostרוב famousמפורסם oracleאוֹרַקְל satישבה,
199
586273
3564
שמקדש אפולו, שבו ישבו
רוב האורקלים המפורסמים,
10:01
was actuallyלמעשה builtבנוי
over two earthquakeרעידת אדמה faultsפגמים.
200
589861
3084
נבנה למעשה מעל שני קווי שבר טקטוניים.
10:04
And these faultsפגמים would releaseלְשַׁחְרֵר
these petrochemicalפטרוכימיים fumesאדים
201
592969
2886
וקווי השבר האלה משחררים אדים פטרו-כימיים
10:07
from underneathמתחת the Earth'sכדור הארץ crustקרום,
202
595879
1685
ממעמקי קרום כדור הארץ,
10:09
and the oracleאוֹרַקְל literallyפשוטו כמשמעו satישבה
right aboveמֵעַל these faultsפגמים,
203
597588
3866
והאורקל ישבה ממש מעל קווים אלה,
10:13
inhalingשאיפה enormousעֲנָקִי amountsסכומים
of ethyleneאתילן gasגַז, these fissuresסדקים.
204
601478
3588
ושאפה כמויות עצומות
של גז אתילן מסדקים אלה.
10:17
(Laughterצחוק)
205
605090
1008
(צחוק)
10:18
It's trueנָכוֹן.
206
606122
1173
זה אמיתי.
10:19
(Laughterצחוק)
207
607319
1017
(צחוק)
10:20
It's all trueנָכוֹן, and that's what madeעָשׂוּי her
babbleפִּטפּוּט and hallucinateהזיה
208
608360
3509
הכל אמיתי, וזה מה שגרם לה לפטפט ולהזות
10:23
and go into this trance-likeכמו טראנס stateמדינה.
209
611893
1724
ולהכנס למצבי טראנס.
10:25
She was highגָבוֹהַ as a kiteעֲפִיפוֹן!
210
613641
1770
היא היתה מסטולה לגמרי!
10:27
(Laughterצחוק)
211
615435
4461
(צחוק)
10:31
So how did anyoneכֹּל אֶחָד --
212
619920
2779
אז איך מישהו --
10:34
How did anyoneכֹּל אֶחָד get
any usefulמוֹעִיל adviceעֵצָה out of her
213
622723
3030
איך מישהו יכול היה לקבל עצה שימושית
כלשהי ממנה
10:37
in this stateמדינה?
214
625777
1190
במצב הזה?
10:39
Well, you see those people
surroundingמַקִיף the oracleאוֹרַקְל?
215
627497
2381
ובכן, אתם רואים את האנשים
שמקיפים את האורקל?
10:41
You see those people holdingהַחזָקָה her up,
216
629902
1879
אתם רואים את האנשים שנושאים אותה,
10:43
because she's, like, a little woozywoozy?
217
631805
1717
כי היא כאילו קצת מבולבלת?
10:45
And you see that guy
on your left-handיד שמאל sideצַד
218
633546
2308
ואתם רואים את הבחור הזה בצדכם השמאלי
10:47
holdingהַחזָקָה the orangeתפוז notebookמחברת?
219
635878
1598
מחזיק את המחברת הכתומה?
10:50
Well, those were the templeבית המקדש guidesמדריכים,
220
638105
1730
ובכן אלה היו כוהני הדת של המקדש,
10:51
and they workedעבד handיד in handיד
with the oracleאוֹרַקְל.
221
639859
3016
והם עבדו יד ביד עם האורקל.
10:56
When inquisitorsאינקוויזיטורים would come
and get on theirשֶׁלָהֶם kneesברכיים,
222
644084
2516
כאשר מבקרים היו באים וכורעים על ברכיהם,
10:58
that's when the templeבית המקדש guidesמדריכים
would get to work,
223
646624
2340
כוהני המקדש היו נכנסים לפעולה,
11:00
because after they askedשאל her questionsשאלות,
224
648988
1864
כי אחרי ששאלו אותה שאלות,
11:02
they would observeלצפות theirשֶׁלָהֶם emotionalרִגשִׁי stateמדינה,
225
650876
2001
הם היו בוחנים את מצבם הרגשי,
11:04
and then they would askלִשְׁאוֹל them
follow-upמעקב questionsשאלות,
226
652901
2324
ואז הם היו שואלים אותם שאלות נוספות,
11:07
like, "Why do you want to know
this prophecyנְבוּאָה? Who are you?
227
655249
2834
כמו "למה אתה רוצה לשמוע
את הנבואה הזאת? מי אתה?
11:10
What are you going to do
with this informationמֵידָע?"
228
658107
2264
מה אתה הולך לעשות עם המידע הזה?"
11:12
And then the templeבית המקדש guidesמדריכים would take
this more ethnographicאתנוגרפי,
229
660395
3182
ואז כוהני המקדש היו בוחרים במידע
היותר אתנוגרפי,
11:15
this more qualitativeאֵיכוּתִי informationמֵידָע,
230
663601
2156
והיותר איכותני,
11:17
and interpretלפרש the oracle'sשל אורקל babblingsקשקשים.
231
665781
2075
ומפרשים את הפטפוטים של האורקל.
11:21
So the oracleאוֹרַקְל didn't standלַעֲמוֹד aloneלבד,
232
669428
2292
כך שהאורקל לא עמדה לבד,
11:23
and neitherלא זה ולא זה should our bigגָדוֹל dataנתונים systemsמערכות.
233
671744
2148
וכך גם מערכות הביג דאטה שלנו.
11:26
Now to be clearברור,
234
674630
1161
אני רוצה להבהיר.
11:27
I'm not sayingפִּתגָם that bigגָדוֹל dataנתונים systemsמערכות
are huffingמתנשף ethyleneאתילן gasגַז,
235
675815
3459
איני אומרת שמערכות
ביג דאטה שואפות גז אתילן,
11:31
or that they're even givingמַתָן
invalidלא חוקי predictionsתחזיות.
236
679298
2353
ואפילו לא שהן נותנות תחזיות מוטעות.
11:33
The totalסה"כ oppositeמול.
237
681675
1161
ההפך הגמור.
11:34
But what I am sayingפִּתגָם
238
682860
2068
אבל מה שאני אומרת הוא
11:36
is that in the sameאותו way
that the oracleאוֹרַקְל neededנָחוּץ her templeבית המקדש guidesמדריכים,
239
684952
3832
שבאותו אופן שבו האורקל
נזקקה לכוהני המקדש שלה,
11:40
our bigגָדוֹל dataנתונים systemsמערכות need them, too.
240
688808
2288
מערכות הביג דאטה שלנו זקוקות להם גם כן.
11:43
They need people like ethnographersאתנוגרפים
and userמִשׁתַמֵשׁ researchersחוקרים
241
691120
4109
הן זקוקות לאנשים כמו אתנוגרפים
וחוקרי משתמשים
11:47
who can gatherלאסוף what I call thickעָבֶה dataנתונים.
242
695253
2506
שיכולים לאסוף את מה
שאני קוראת לו "נתוני עובי."
11:50
This is preciousיָקָר dataנתונים from humansבני אנוש,
243
698502
2991
זהו מידע יקר ערך שבא מבני אדם,
11:53
like storiesסיפורים, emotionsרגשות and interactionsאינטראקציות
that cannotלא יכול be quantifiedכימות.
244
701517
4102
כמו סיפורים, רגשות, ואינטרקציות
שלא ניתנים לכימות.
11:57
It's the kindסוג of dataנתונים
that I collectedשנאספו for NokiaNokia
245
705643
2322
זהו סוג המידע שאני אספתי עבור נוקיה
11:59
that comesבא in in the formטופס
of a very smallקָטָן sampleלִטעוֹם sizeגודל,
246
707989
2669
שמגיע בצורה של מדגם קטן מאוד,
12:02
but deliversמספק incredibleמדהים depthעוֹמֶק of meaningמַשְׁמָעוּת.
247
710682
2955
אבל מספק עומק גדול של משמעות.
12:05
And what makesעושה it so thickעָבֶה and meatyבַּשׂרָנִי
248
713661
3680
ומה שהופך אותו לעבה ובשרני
12:10
is the experienceניסיון of understandingהֲבָנָה
the humanבן אנוש narrativeנרטיב.
249
718445
4029
זו חוויית ההבנה של הנרטיב האנושי.
12:14
And that's what helpsעוזר to see
what's missingחָסֵר in our modelsמודלים.
250
722498
3639
וזה מה שעוזר לנו לראות
מה חסר במודלים שלנו.
12:18
Thickעבה dataנתונים groundsשטח our businessעֵסֶק questionsשאלות
in humanבן אנוש questionsשאלות,
251
726851
4045
נתוני-עובי מקרקעים את השאלות
העסקיות שלנו בנושאי שאלות אנושיות,
12:22
and that's why integratingשילוב
bigגָדוֹל and thickעָבֶה dataנתונים
252
730920
3562
ולכן השילוב של ביג דאטה ונתוני עובי
12:26
formsטפסים a more completeלְהַשְׁלִים pictureתְמוּנָה.
253
734506
1689
יוצר תמונה יותר מלאה.
12:28
Bigגָדוֹל dataנתונים is ableיכול to offerהַצָעָה
insightsתובנות at scaleסוּלָם
254
736772
2881
ביג דאטה יכולים לספק תובנות בקנה מידה
12:31
and leverageתְנוּפָה the bestהטוב ביותר
of machineמְכוֹנָה intelligenceאינטליגנציה,
255
739677
2647
ולמנף את האינטליגנציה המכנית הטובה ביותר,
12:34
whereasואילו thickעָבֶה dataנתונים can help us
rescueלְהַצִיל the contextהֶקשֵׁר lossהֶפסֵד
256
742348
3572
בעוד שנתוני-עובי יכולים לעזור לנו
להציל את אובדן ההקשר
12:37
that comesבא from makingהֲכָנָה bigגָדוֹל dataנתונים usableשָׁמִישׁ,
257
745944
2098
שמגיע מהפיכת ביג דאטה לשמישים,
12:40
and leverageתְנוּפָה the bestהטוב ביותר
of humanבן אנוש intelligenceאינטליגנציה.
258
748066
2181
ולמנף את האינטליגנציה האנושית הטובה ביותר.
12:42
And when you actuallyלמעשה integrateלשלב the two,
that's when things get really funכֵּיף,
259
750271
3552
וכאשר למעשה משלבים את שניהם,
הכיף ממש מתחיל,
12:45
because then you're no longerארוך יותר
just workingעובד with dataנתונים
260
753847
2436
כי אז אתם כבר לא רק עובדים עם נתונים
12:48
you've alreadyכְּבָר collectedשנאספו.
261
756307
1196
שכבר אספתם.
12:49
You get to alsoגַם work with dataנתונים
that hasn'tלא been collectedשנאספו.
262
757527
2737
אלא עובדים גם עם נתונים שעוד לא נאספו.
12:52
You get to askלִשְׁאוֹל questionsשאלות about why:
263
760288
1719
תוכלו לשאול שאלות כמו למה:
12:54
Why is this happeningמתרחש?
264
762031
1317
למה זה קורה?
12:55
Now, when Netflixנטפליקס did this,
265
763778
1379
עכשיו, כשנטפליקס עשו את זה,
12:57
they unlockedלא נעול a wholeכֹּל newחָדָשׁ way
to transformשינוי צורה theirשֶׁלָהֶם businessעֵסֶק.
266
765181
3035
הם גילו דרך חדשה לחלוטין
לשנות את העסק שלהם.
13:01
Netflixנטפליקס is knownידוע for theirשֶׁלָהֶם really great
recommendationהמלצה algorithmאַלגוֹרִיתְם,
267
769406
3956
נטפליקס ידועים באלגוריתם
ההמלצות המצוין שלהם,
13:05
and they had this $1 millionמִילִיוֹן prizeפרס
for anyoneכֹּל אֶחָד who could improveלְשַׁפֵּר it.
268
773386
4797
והם הציעו פרס של מיליון דולר
לכל מי שיוכל לשפר אותו.
13:10
And there were winnersזוכים.
269
778207
1314
והיו שם זוכים.
13:12
But Netflixנטפליקס discoveredגילה
the improvementsשיפורים were only incrementalמצטבר.
270
780255
4323
אבל נטפליקס גילו שהשיפורים
היו מזעריים בלבד.
13:17
So to really find out what was going on,
271
785404
1964
אז כדי לגלות מה באמת קרה,
13:19
they hiredנשכר an ethnographerאֶתנוֹגרָף,
Grantמענק McCrackenמקרקן,
272
787392
3741
הם שכרו אתנוגרף בשם גרנט מק'קראקן,
13:23
to gatherלאסוף thickעָבֶה dataנתונים insightsתובנות.
273
791157
1546
כדי שיאסוף תובנות מנתוני-עובי.
13:24
And what he discoveredגילה was something
that they hadn'tלא seenלראות initiallyבהתחלה
274
792727
3924
והוא גילה משהו שהם לא ראו מלכתחילה
13:28
in the quantitativeכמותי dataנתונים.
275
796675
1355
בנתונים הכמותיים.
13:31
He discoveredגילה that people lovedאהוב
to binge-watchשעון בינג.
276
799072
2728
הוא גילה שאנשים אוהבים לצפות
בכמה פרקים של סדרות ברצף.
13:33
In factעוּבדָה, people didn't even
feel guiltyאָשֵׁם about it.
277
801824
2353
למעשה, אנשים אפילו לא חשו אשמים בשל כך.
13:36
They enjoyedנהנה it.
278
804201
1255
הם נהנו מזה.
13:37
(Laughterצחוק)
279
805480
1026
(צחוק)
13:38
So Netflixנטפליקס was like,
"Oh. This is a newחָדָשׁ insightתוֹבָנָה."
280
806530
2356
אז נטפליקס החליטו, "אוקיי זאת תובנה חדשה,
13:40
So they wentהלך to theirשֶׁלָהֶם dataנתונים scienceמַדָע teamקְבוּצָה,
281
808910
1938
והם הלכו לצוות מדעני הנתונים שלהם,
13:42
and they were ableיכול to scaleסוּלָם
this bigגָדוֹל dataנתונים insightתוֹבָנָה
282
810872
2318
והצליחו לדרג את התובנה הזו
13:45
in with theirשֶׁלָהֶם quantitativeכמותי dataנתונים.
283
813214
2587
באמצעות הנתונים הכמותיים שלהם.
13:47
And onceפַּעַם they verifiedמְאוּמָת it
and validatedתוקף it,
284
815825
3170
וברגע שהם אישרו ואימתו את זה,
13:51
Netflixנטפליקס decidedהחליט to do something
very simpleפָּשׁוּט but impactfulבר - השפעה.
285
819019
4761
נטפליקס החליטו לעשות משהו
פשוט מאוד, אך בעל השפעה.
13:56
They said, insteadבמקום זאת of offeringהַצָעָה
the sameאותו showלְהַצִיג from differentשונה genresז'אנרים
286
824834
6492
הם אמרו, שבמקום להציע את
אותה הסדרה בז'אנרים שונים
14:03
or more of the differentשונה showsמופעים
from similarדוֹמֶה usersמשתמשים,
287
831350
3888
או יותר מהסדרות השונות ממשתמשים דומים,
14:07
we'llטוֹב just offerהַצָעָה more of the sameאותו showלְהַצִיג.
288
835262
2554
פשוט נציע יותר מאותה הסדרה.
14:09
We'llטוֹב make it easierקל יותר
for you to binge-watchשעון בינג.
289
837840
2105
נקל עליכם לצפות בה ברצף.
14:11
And they didn't stop there.
290
839969
1486
והם לא עצרו שם.
14:13
They did all these things
291
841479
1474
הם עשו את כל הדברים
14:14
to redesignעיצוב מחדש theirשֶׁלָהֶם entireשלם
viewerצוֹפֶה experienceניסיון,
292
842977
2959
כדי לעצב מחדש את חווית הצופה שלהם כולה,
14:17
to really encourageלְעוֹדֵד binge-watchingצופה בינגה.
293
845960
1758
כדי באמת לעודד צפייה ברצף.
14:20
It's why people and friendsחברים disappearלְהֵעָלֵם
for wholeכֹּל weekendsסופי שבוע at a time,
294
848230
3241
לכן אנשים וחברים נעלמים
במשך סופי שבוע שלמים מדי פעם,
14:23
catchingמִדַבֵּק up on showsמופעים
like "Masterלִשְׁלוֹט of Noneאף אחד."
295
851495
2343
כדי להשלים צפייה בסדרות כמו
"מאסטר של אף אחד".
14:25
By integratingשילוב bigגָדוֹל dataנתונים and thickעָבֶה dataנתונים,
they not only improvedמְשׁוּפָּר theirשֶׁלָהֶם businessעֵסֶק,
296
853862
4173
על ידי שילוב של נתוני-עתק ונתוני-עובי
הם לא רק שיפרו את העסק שלהם,
14:30
but they transformedהשתנה how we consumeלִצְרוֹך mediaכְּלֵי תִקְשׁוֹרֶת.
297
858059
2812
אלא שינו את האופן בו אנחנו צורכים מדיה.
14:32
And now theirשֶׁלָהֶם stocksמניות are projectedמוּקרָן
to doubleלְהַכפִּיל in the nextהַבָּא fewמְעַטִים yearsשנים.
298
860895
4552
ועכשיו צופים שהמניות שלהם
יכפילו את ערכן בשנים הקרובות.
14:38
But this isn't just about
watchingצופה more videosסרטונים
299
866280
3830
אבל לא מדובר כאן רק בצפייה בעוד כמה פרקים
14:42
or sellingמוכר more smartphonesטלפונים חכמים.
300
870134
1620
או במכירה של יותר סמארטפונים.
14:44
For some, integratingשילוב thickעָבֶה dataנתונים
insightsתובנות into the algorithmאַלגוֹרִיתְם
301
872143
4050
עבור אחדים, שילוב של תובנות
נתוני-עובי לתוך האלגוריתם
14:48
could mean life or deathמוות,
302
876217
2263
יכול להיות עניין של חיים או מוות,
14:50
especiallyבמיוחד for the marginalizedשוליים.
303
878504
2146
בייחוד עבור אלה שנמצאים בשוליים.
14:53
All around the countryמדינה,
policeמִשׁטָרָה departmentsמחלקות are usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני bigגָדוֹל dataנתונים
304
881738
3434
בכל רחבי המדינה במחלקות
משטרה משתמשים בביג דאטה
14:57
for predictiveמְנַבֵּא policingשיטור,
305
885196
1963
לחיזוי שיטור,
14:59
to setמַעֲרֶכֶת bondאגרת חוב amountsסכומים
and sentencingגזר הדין recommendationsהמלצות
306
887183
3084
כדי לקבוע סכומי ערבות והמלצות פסק דין
15:02
in waysדרכים that reinforceלחזק existingקיים biasesהטיות.
307
890291
3147
בדרכים שמחזקות דעות קדומות קיימות.
15:06
NSA'sשל NSA Skynetסקיינט machineמְכוֹנָה learningלְמִידָה algorithmאַלגוֹרִיתְם
308
894296
2423
אלגוריתם הלמידה של מכונת סקיי-נט של נ.ס.א.
15:08
has possiblyיִתָכֵן aidedבסיוע in the deathsמוות
of thousandsאלפים of civiliansאזרחים in Pakistanפקיסטן
309
896743
5444
ייתכן וסייעה במותם של אלפי אזרחים בפקיסטן
15:14
from misreadingהֲבָנָה מוּטעֶית cellularתָאִי deviceהתקן metadataמטה-נתונים.
310
902211
2721
בגלל טעויות בקריאת מטא-נתונים
במכשירים סלולריים
15:19
As all of our livesחיים becomeהפכו more automatedאוטומטי,
311
907131
3403
מאחר וכל חיינו הפכו להיות יותר אוטומטיים,
15:22
from automobilesמכוניות to healthבְּרִיאוּת insuranceביטוח
or to employmentתעסוקה,
312
910558
3080
החל ממכוניות, לביטוח רפואי, או לתעסוקה,
15:25
it is likelyסָבִיר that all of us
313
913662
2350
סביר להניח שכולנו
15:28
will be impactedמושפעים
by the quantificationקְבִיעַת כָּמוּת biasהֲטָיָה.
314
916036
2989
נושפע מדעות קדומות כמותיות.
15:32
Now, the good newsחֲדָשׁוֹת
is that we'veיש לנו come a long way
315
920972
2621
עכשיו החדשות הטובות הן שעברנו דרך ארוכה
15:35
from huffingמתנשף ethyleneאתילן gasגַז
to make predictionsתחזיות.
316
923617
2450
מנשיפת גז אתילן לעשיית תחזיות.
15:38
We have better toolsכלים,
so let's just use them better.
317
926091
3070
יש לנו כלים טובים יותר, בואו ונשתמש
בהם יותר טוב.
15:41
Let's integrateלשלב the bigגָדוֹל dataנתונים
with the thickעָבֶה dataנתונים.
318
929185
2323
בואו ונשלב את ביג דאטה עם נתוני-העובי.
15:43
Let's bringלְהָבִיא our templeבית המקדש guidesמדריכים
with the oraclesאורקל,
319
931532
2261
נביא גם את כוהני המקדש שלנו
יחד עם האורקלים,
15:45
and whetherהאם this work happensקורה
in companiesחברות or nonprofitsעמותות
320
933817
3376
ובין אם עבודה זו מתרחשת בחברות או במלכ"רים
15:49
or governmentמֶמְשָׁלָה or even in the softwareתוֹכנָה,
321
937217
2469
או בממשלה או אפילו בתוכנה,
15:51
all of it mattersעניינים,
322
939710
1792
כל זה חשוב,
15:53
because that meansאומר
we're collectivelyיַחַד committedמְחוּיָב
323
941526
3023
כי זה אומר שאנו מחויבים באופן קולקטיבי
15:56
to makingהֲכָנָה better dataנתונים,
324
944573
2191
להביא נתונים טובים יותר,
15:58
better algorithmsאלגוריתמים, better outputsתפוקות
325
946788
1836
אלגוריתמים טובים יותר, פלט טוב יותר
16:00
and better decisionsהחלטות.
326
948648
1643
החלטות טובות יותר.
16:02
This is how we'llטוֹב avoidלְהִמָנַע
missingחָסֵר that something.
327
950315
3558
כך נימנע מלהחסיר דבר מה.
16:07
(Applauseתְשׁוּאוֹת)
328
955222
3948
(מחיאות כפיים)
Translated by zeeva Livshitz
Reviewed by Ido Dekkers

▲Back to top

ABOUT THE SPEAKER
Tricia Wang - Technology ethnographer
With astronaut eyes and ethnographer curiosity, Tricia Wang helps corporations grow by discovering the unknown about their customers.

Why you should listen

For Tricia Wang, human behavior generates some of the most perplexing questions of our times. She has taught global organizations how to identify new customers and markets hidden behind their data, amplified IDEO's design thinking practice as an expert-in-residence, researched the social evolution of the Chinese internet, and written about the "elastic self," an emergent form of interaction in a virtual world. Wang is the co-founder of Sudden Compass, a consulting firm that helps companies unlock new growth opportunities by putting customer obsession into practice.

Wang's work has been featured in The Atlantic, Al Jazeera, and The Guardian. Fast Company spotlighted her work in China: "What Twitter Can Learn From Weibo: Field Notes From Global Tech Ethnographer Tricia Wang." In her latest op-ed on Slate, she discusses how attempts to stop terrorists on social media can harm our privacy and anonymity. Her Medium post, "Why Big Data Needs Thick Data," is a frequently cited industry piece on the importance of an integrated data approach. One of her favorite essays documents her day in the life of working as a street vendor in China.

Known for her lively presentations that are grounded in her research and observations about human behavior and data, Wang has spoken at organizations such as Proctor & Gamble, Nike, Wrigley, 21st Century Fox and Tumblr. Her most recent talk at Enterprise UX delved into why corporate innovation usually doesn’t work and what to do about it. She delivered the opening keynote at The Conference to a crowd of marketers and creatives, delving into the wild history of linear perspective and its influence on how we think and form organizations.

Wang holds affiliate positions at Data & Society, Harvard University's Berkman Klein Center for Internet Studies and New York University's Interactive Telecommunication Program. She oversees Ethnography Matters, a site that publishes articles about applied ethnography and technology. She co-started a Slack community for anyone who uses ethnographic methods in industry.

Wang began her career as a documentary filmmaker at NASA, an HIV/AIDS activist, and an educator specializing in culturally responsive pedagogy. She is also proud to have co-founded the first national hip-hop education initiative, which turned into the Hip Hop Education Center at New York University, and to have built after-school technology and arts programs for low-income youth at New York City public schools and the Queens Museum of Arts. Her life philosophy is that you have to go to the edge to discover what’s really happening. She's the proud companion of her internet famous dog, #ellethedog.

More profile about the speaker
Tricia Wang | Speaker | TED.com