ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com
TEDSalon Berlin 2014

Kenneth Cukier: Big data is better data

קנת' קוקיאר: ים נתונים (ביג דאטה)* משמעו נתונים יותר טובים

Filmed:
1,663,038 views

מכוניות ללא נהג היו רק ההתחלה. מהו עתידם של הטכנולוגיה והעיצוב המבוססים על ים הנתונים? בהרצאה מדעית מרתקת, קנת' קוקיאר סוקר את עתיד המכונה הלומדת -- והידע האנושי. * "ים נתונים" - הצעה של ד"ר עמנואל לוטם ל-Big Data
- Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio

Double-click the English transcript below to play the video.

00:12
America'sשל אמריקה favoriteהכי אהוב pieפַּאִי is?
0
787
3845
העוגה החביבה על האמריקאים היא...?
00:16
Audienceקהל: Appleתפוח עץ.
Kennethקנת Cukierצוקר: Appleתפוח עץ. Of courseקוּרס it is.
1
4632
3506
קהל: תפוחים.
קנת קוקיאר: תפוחים, כמובן.
00:20
How do we know it?
2
8138
1231
איך אנו יודעים?
00:21
Because of dataנתונים.
3
9369
2753
בגלל הנתונים.
00:24
You look at supermarketסוּפֶּרמַרקֶט salesמכירות.
4
12122
2066
רואים את המכירות בסופרמרקטים.
00:26
You look at supermarketסוּפֶּרמַרקֶט
salesמכירות of 30-centimeter-סַנטִימֶטֶר piesפשטידות
5
14188
2866
בודקים את המכירות של כל עוגות
00:29
that are frozenקָפוּא, and appleתפוח עץ winsמנצח, no contestתַחֲרוּת.
6
17054
4075
30 הס"מ הקפואות,
ועוגות התפוחים מנצחות בגדול.
00:33
The majorityרוֹב of the salesמכירות are appleתפוח עץ.
7
21129
5180
רוב המכירות הן של עוגות תפוחים.
00:38
But then supermarketsסופרמרקטים startedהתחיל sellingמוכר
8
26309
2964
אבל אז הסופרמרקטים החלו למכור
00:41
smallerקטן יותר, 11-centimeter-סַנטִימֶטֶר piesפשטידות,
9
29273
2583
עוגות יותר קטנות, בקוטר 11 ס"מ,
00:43
and suddenlyפִּתְאוֹם, appleתפוח עץ fellנפל to fourthרביעי or fifthחמישי placeמקום.
10
31856
4174
ופתאום עוגות התפוחים
ירדו למקום הרביעי או החמישי.
00:48
Why? What happenedקרה?
11
36030
2875
מדוע? מה קרה?
00:50
Okay, think about it.
12
38905
2818
חישבו על זה.
00:53
When you buyלִקְנוֹת a 30-centimeter-סַנטִימֶטֶר pieפַּאִי,
13
41723
3848
כאשר אנו קונים עוגת 30 ס"מ,
00:57
the wholeכֹּל familyמִשׁפָּחָה has to agreeלְהַסכִּים,
14
45571
2261
כל המשפחה צריכה להסכים,
00:59
and appleתפוח עץ is everyone'sשל כולם secondשְׁנִיָה favoriteהכי אהוב.
15
47832
3791
ועוגת תפוחים היא בעדיפות
שניה אצל כל אחד.
01:03
(Laughterצחוק)
16
51623
1935
(צחוק)
01:05
But when you buyלִקְנוֹת an individualאִישִׁי 11-centimeter-סַנטִימֶטֶר pieפַּאִי,
17
53558
3615
אבל כשקונים עוגת 11 ס"מ אישית,
01:09
you can buyלִקְנוֹת the one that you want.
18
57173
3745
אפשר לקנות את זו
שכל אחד אוהב אישית.
01:12
You can get your first choiceבְּחִירָה.
19
60918
4015
כל אחד מקבל את מה
שבעדיפות ראשונה אצלו.
01:16
You have more dataנתונים.
20
64933
1641
יש יותר נתונים.
01:18
You can see something
21
66574
1554
ניתן לראות דברים
01:20
that you couldn'tלא יכול see
22
68128
1132
שלא ניתן היה לראות
01:21
when you only had smallerקטן יותר amountsסכומים of it.
23
69260
3953
כאשר היו פחות נתונים.
01:25
Now, the pointנְקוּדָה here is that more dataנתונים
24
73213
2475
העניין הוא שיותר נתונים
01:27
doesn't just let us see more,
25
75688
2283
אינם מאפשרים רק לראות יותר --
01:29
more of the sameאותו thing we were looking at.
26
77971
1854
יותר מאותם הדברים שראינו קודם.
01:31
More dataנתונים allowsמאפשרים us to see newחָדָשׁ.
27
79825
3613
יותר נתונים מאפשרים לראות דברים חדשים.
01:35
It allowsמאפשרים us to see better.
28
83438
3094
הם מאפשרים לנו לראות יותר טוב.
01:38
It allowsמאפשרים us to see differentשונה.
29
86532
3656
הם מאפשרים להסתכל אחרת.
01:42
In this caseמקרה, it allowsמאפשרים us to see
30
90188
3173
במקרה זה, הם מאפשרים לראות
01:45
what America'sשל אמריקה favoriteהכי אהוב pieפַּאִי is:
31
93361
2913
מהי העוגה האהובה באמריקה:
01:48
not appleתפוח עץ.
32
96274
2542
לא עוגת תפוחים.
01:50
Now, you probablyכנראה all have heardשמע the termטווח bigגָדוֹל dataנתונים.
33
98816
3614
כולכם בוודאי שמעתם
את המושג 'ביג דאטה'.
01:54
In factעוּבדָה, you're probablyכנראה sickחוֹלֶה of hearingשמיעה the termטווח
34
102430
2057
בטח נמאס לכם לשמוע את המושג
01:56
bigגָדוֹל dataנתונים.
35
104487
1630
'ביג דאטה'.
01:58
It is trueנָכוֹן that there is a lot of hypeהתלהבות around the termטווח,
36
106117
3330
אכן, יש הרבה הפרזה סביב המושג,
02:01
and that is very unfortunateחסר מזל,
37
109447
2332
וזה חבל מאוד,
02:03
because bigגָדוֹל dataנתונים is an extremelyמְאוֹד importantחָשׁוּב toolכְּלִי
38
111779
3046
כי ביג דאטה הוא כלי חשוב ביותר
02:06
by whichאיזה societyחֶברָה is going to advanceלְקַדֵם.
39
114825
3734
שבאמצעותו החברה עתידה להתקדם.
02:10
In the pastעבר, we used to look at smallקָטָן dataנתונים
40
118559
3561
בעבר, נהגנו להסתכל על נתונים מצומצמים
02:14
and think about what it would mean
41
122120
1704
ולחשוב מה משמעותם
02:15
to try to understandמבין the worldעוֹלָם,
42
123824
1496
בניסיון להבין את העולם,
02:17
and now we have a lot more of it,
43
125320
1991
וכעת יש לנו הרבה יותר כאלה,
02:19
more than we ever could before.
44
127311
2722
יותר ממה שיכלו להיות אי-פעם בעבר.
מה שאנו מגלים הוא שכאשר יש לנו
02:22
What we find is that when we have
45
130033
1877
02:23
a largeגָדוֹל bodyגוּף of dataנתונים, we can fundamentallyבִּיסוֹדוֹ do things
46
131910
2724
מסד נתונים גדול, ניתן לעשות דברים
02:26
that we couldn'tלא יכול do when we
only had smallerקטן יותר amountsסכומים.
47
134634
3276
שלא יכולנו לעשות כאשר
היו לנו פחות נתונים.
02:29
Bigגָדוֹל dataנתונים is importantחָשׁוּב, and bigגָדוֹל dataנתונים is newחָדָשׁ,
48
137910
2641
ביג דאטה הוא חשוב והוא חדש,
02:32
and when you think about it,
49
140551
1777
וכאשר חושבים על כך,
02:34
the only way this planetכוכב לכת is going to dealעִסקָה
50
142328
2216
הדרך היחידה בה עולמנו יוכל
02:36
with its globalגלוֹבָּלִי challengesאתגרים
51
144544
1789
להתמודד עם האתגרים הגלובליים --
02:38
to feedהזנה people, supplyלְסַפֵּק them with medicalרְפוּאִי careלְטַפֵּל,
52
146333
3537
לספק לכולם אוכל, טיפול רפואי,
02:41
supplyלְסַפֵּק them with energyאֵנֶרְגִיָה, electricityחַשְׁמַל,
53
149870
2810
אנרגיה, חשמל,
02:44
and to make sure they're not burntשַׂרוּף to a crispפָּרִיך
54
152680
1789
וגם לוודא שלא ייצלו בגלל
02:46
because of globalגלוֹבָּלִי warmingהִתחַמְמוּת
55
154469
1238
ההתחממות הגלובלית --
02:47
is because of the effectiveיָעִיל use of dataנתונים.
56
155707
4195
תהיה באמצעות שימוש יעיל בנתונים.
02:51
So what is newחָדָשׁ about bigגָדוֹל
dataנתונים? What is the bigגָדוֹל dealעִסקָה?
57
159902
3870
אז מה כל-כך שונה בביג דאטה?
על מה כל הרעש?
02:55
Well, to answerתשובה that questionשְׁאֵלָה, let's think about
58
163772
2517
כדי לענות על השאלה, הבה נחשוב
02:58
what informationמֵידָע lookedהביט like,
59
166289
1896
כיצד המידע נראה פעם,
03:00
physicallyפיזית lookedהביט like in the pastעבר.
60
168185
3034
כיצד הוא נראה בפועל בעבר.
03:03
In 1908, on the islandאִי of Creteכרתים,
61
171219
3611
ב-1908, באי כרתים,
03:06
archaeologistsארכיאולוגים discoveredגילה a clayחֶרֶס discדיסק.
62
174830
4735
ארכיאולוגים גילו דיסקה מחימר.
03:11
They datedמְיוּשָׁן it from 2000 B.C., so it's 4,000 yearsשנים oldישן.
63
179565
4059
הם תיארכו אותה ל-2000 לפנה"ס,
כלומר, לפני 4,000 שנה.
03:15
Now, there's inscriptionsכתובות on this discדיסק,
64
183624
2004
יש כיתוב על הדיסקה
שאין אנו יודעים את פירושו.
03:17
but we actuallyלמעשה don't know what it meansאומר.
65
185628
1327
03:18
It's a completeלְהַשְׁלִים mysteryמִסתוֹרִין, but the pointנְקוּדָה is that
66
186955
2098
זוהי תעלומה. אבל מה שחשוב כאן
03:21
this is what informationמֵידָע used to look like
67
189053
1928
הוא שכך נראה מידע
03:22
4,000 yearsשנים agoלִפנֵי.
68
190981
2089
לפני 4,000 שנה.
03:25
This is how societyחֶברָה storedמְאוּחסָן
69
193070
2548
זו הדרך בה החברה
איחסנה והעבירה מידע.
03:27
and transmittedהועבר informationמֵידָע.
70
195618
3524
03:31
Now, societyחֶברָה hasn'tלא advancedמִתקַדֵם all that much.
71
199142
4160
החברה לא התקדמה מאז כל-כך.
03:35
We still storeחֲנוּת informationמֵידָע on discsדיסקים,
72
203302
3474
אנו עדיין מאחסנים מידע על דיסקות,
03:38
but now we can storeחֲנוּת a lot more informationמֵידָע,
73
206776
3184
אבל היום אנו יכולים
לאחסן הרבה יותר מידע,
03:41
more than ever before.
74
209960
1260
הרבה יותר מאי-פעם.
03:43
Searchingמחפש it is easierקל יותר. Copyingהַעתָקָה it easierקל יותר.
75
211220
3093
יותר קל לחפש אותו. יותר קל להעתיקו.
03:46
Sharingשיתוף it is easierקל יותר. Processingמעבד it is easierקל יותר.
76
214313
3500
יותר קל לשתפו. יותר קל לעבדו.
03:49
And what we can do is we can reuseשימוש חוזר this informationמֵידָע
77
217813
2766
ניתן גם להשתמש בו למטרות
03:52
for usesשימו that we never even imaginedדמיוני
78
220579
1834
שאף פעם לא חשבנו עליהן
03:54
when we first collectedשנאספו the dataנתונים.
79
222413
3195
כאשר אספנו את המידע.
03:57
In this respectכבוד, the dataנתונים has goneנעלם
80
225608
2252
בהקשר זה, המידע הפך
03:59
from a stockהמניה to a flowזְרִימָה,
81
227860
3532
ממצבור לזרם,
04:03
from something that is stationaryיַצִיב and staticסטָטִי
82
231392
3938
ממשהו שהוא נייח וסטטי
04:07
to something that is fluidנוֹזֵל and dynamicדִינָמִי.
83
235330
3609
למשהו שהוא זורם ודינמי.
04:10
There is, if you will, a liquidityנְזִילוּת to informationמֵידָע.
84
238939
4023
מתקיימת, אם תרצו, נוזליות של מידע.
04:14
The discדיסק that was discoveredגילה off of Creteכרתים
85
242962
3474
הדיסקה מלפני 4,000 שנה
שנתגלתה בכרתים היא כבדה.
04:18
that's 4,000 yearsשנים oldישן, is heavyכָּבֵד,
86
246436
3764
היא אינה מחזיקה הרבה מידע,
04:22
it doesn't storeחֲנוּת a lot of informationמֵידָע,
87
250200
1962
04:24
and that informationמֵידָע is unchangeableללא שינוי.
88
252162
3116
והמידע הזה אינו ניתן לשינוי.
04:27
By contrastבניגוד, all of the filesקבצים
89
255278
4011
לעומתו, כל הקבצים
04:31
that Edwardאדוארד Snowdenסנודן tookלקח
90
259289
1861
שאדוארד סנודן לקח
04:33
from the Nationalלאומי Securityבִּטָחוֹן
Agencyסוֹכְנוּת in the Unitedמאוחד Statesמדינות
91
261150
2621
מהסוכנות לביטחון לאומי של ארה"ב
04:35
fitsמתאים on a memoryזיכרון stickמקל
92
263771
2419
נכנסים בזכרון נייד
04:38
the sizeגודל of a fingernailצִפּצֹרֶן,
93
266190
3010
בגודל של ציפורן,
04:41
and it can be sharedמְשׁוּתָף at the speedמְהִירוּת of lightאוֹר.
94
269200
4745
וניתן לשתפם במהירות האור.
04:45
More dataנתונים. More.
95
273945
5255
יותר נתונים. יותר.
04:51
Now, one reasonסיבה why we have
so much dataנתונים in the worldעוֹלָם todayהיום
96
279200
1974
אחת הסיבות שיש לנו
כל-כך הרבה מידע היום
04:53
is we are collectingאיסוף things
97
281174
1432
היא שאנו אוספים דברים
04:54
that we'veיש לנו always collectedשנאספו informationמֵידָע on,
98
282606
3280
שתמיד אספנו עליהם מידע,
04:57
but anotherאַחֵר reasonסיבה why is we're takingלְקִיחָה things
99
285886
2656
אבל סיבה נוספת היא
שאנו אוספים דברים
05:00
that have always been informationalמידע
100
288542
2812
שתמיד היו קשורים במידע
05:03
but have never been renderedשניתנו into a dataנתונים formatפוּרמָט
101
291354
2486
אבל אף פעם לא היו בתבנית של נתונים
05:05
and we are puttingלשים it into dataנתונים.
102
293840
2419
וכעת אנו הופכים אותם לנתונים.
05:08
Think, for exampleדוגמא, the questionשְׁאֵלָה of locationמקום.
103
296259
3308
חישבו למשל על שאלת המיקום.
05:11
Take, for exampleדוגמא, Martinסְנוּנִית Lutherלותר.
104
299567
2249
לדוגמא, מרטין לותר.
05:13
If we wanted to know in the 1500s
105
301816
1597
אם היינו רוצים לדעת ב-1500
05:15
where Martinסְנוּנִית Lutherלותר was,
106
303413
2667
איפה נמצא מרטין לותר,
היינו צריכים לעקוב אחריו כל הזמן,
05:18
we would have to followלעקוב אחר him at all timesפִּי,
107
306080
2092
05:20
maybe with a featheryנוֹצִי quillנוֹצָה and an inkwellקֶסֶת,
108
308172
2137
אולי עם קולמוס-נוצה וקסת-דיו,
05:22
and recordתקליט it,
109
310309
1676
ולרשום את המיקומים.
05:23
but now think about what it looksנראה like todayהיום.
110
311985
2183
אבל חישבו כיצד זה היה נראה היום.
05:26
You know that somewhereאי שם,
111
314168
2122
אנו יודעים שהיכן שהוא,
ככל הנראה בבסיס נתונים
של חברת תקשורת,
05:28
probablyכנראה in a telecommunicationsטלקומוניקציה carrier'sשל המוביל databaseמאגר מידע,
112
316290
2446
05:30
there is a spreadsheetגיליון אלקטרוני or at leastהכי פחות a databaseמאגר מידע entryכְּנִיסָה
113
318736
3036
ישנו גיליון אלקטרוני או לפחות רשומה
05:33
that recordsרשומות your informationמֵידָע
114
321772
2088
הרושמת את המידע על כל אחד
05:35
of where you've been at all timesפִּי.
115
323860
2063
ואיפה הוא היה בכל עת.
05:37
If you have a cellתָא phoneטלפון,
116
325923
1360
אם יש לך טלפון נייד,
05:39
and that cellתָא phoneטלפון has GPSג'י.פי. אס,
but even if it doesn't have GPSג'י.פי. אס,
117
327283
2847
ובו יש איכון לווייני,
אבל גם אם אין,
05:42
it can recordתקליט your informationמֵידָע.
118
330130
2385
הוא יכול לתעד את המידע עליך.
05:44
In this respectכבוד, locationמקום has been datafiedמטומטם.
119
332515
4084
מבחינה זו, המיקום הפך לנתון.
05:48
Now think, for exampleדוגמא, of the issueנושא of postureיְצִיבָה,
120
336599
4601
חישבו למשל על תנוחה,
05:53
the way that you are all sittingיְשִׁיבָה right now,
121
341200
1285
האופן בו אתם ישובים כרגע,
05:54
the way that you sitלָשֶׁבֶת,
122
342485
2030
האופן בו אתה יושב,
05:56
the way that you sitלָשֶׁבֶת, the way that you sitלָשֶׁבֶת.
123
344515
2771
האופן בו אתה יושב,
האופן בו את יושבת.
05:59
It's all differentשונה, and it's a functionפוּנקצִיָה of your legרגל lengthאורך
124
347286
2077
אצל כל אחד זה שונה
וזו פונקציה
של אורך הרגל, הגב והקימור שלו,
06:01
and your back and the contoursקווי המתאר of your back,
125
349363
2093
06:03
and if I were to put sensorsחיישנים,
maybe 100 sensorsחיישנים
126
351456
2531
ואם הייתי שם חיישנים,
אולי 100 חיישנים
06:05
into all of your chairsכִּיסְאוֹת right now,
127
353987
1766
בכל הכיסאות שלכם,
06:07
I could createלִיצוֹר an indexאינדקס that's fairlyלְמַדַי uniqueייחודי to you,
128
355753
3600
הייתי יכול ליצור תבנית
די ייחודית לכל אחד,
06:11
sortסוג of like a fingerprintטביעת אצבע, but it's not your fingerאֶצבַּע.
129
359353
4409
מין טביעת אצבע, אבל לא מאצבע.
06:15
So what could we do with this?
130
363762
2969
אז מה היינו עושים עם זה?
06:18
Researchersחוקרים in Tokyoטוקיו are usingמבנה יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוניפים יוני it
131
366731
2397
חוקרים בטוקיו משתמשים בזה
06:21
as a potentialפוטנציאל anti-theftנגד גניבה deviceהתקן in carsמכוניות.
132
369128
4388
בתור אמצעי אפשרי נגד גניבת מכוניות.
06:25
The ideaרַעְיוֹן is that the carjackerקארקר sitsיושב behindמֵאָחוֹר the wheelגַלגַל,
133
373516
2924
הרעיון הוא שכאשר הפורץ
יישב מאחורי ההגה
06:28
triesמנסה to streamזרם off, but the carאוטו recognizesמזהה
134
376440
2104
וינסה להתניע, המכונית תזהה
06:30
that a non-approvedלא מאושר driverנהג is behindמֵאָחוֹר the wheelגַלגַל,
135
378544
2362
שנהג לא מורשה יושב מאחורי ההגה,
06:32
and maybe the engineמנוע just stopsמפסיק, unlessאֶלָא אִם you
136
380906
2164
ואולי המנוע ייכבה, אלא אם
תוקלד סיסמה בלוח המחוונים
06:35
typeסוּג in a passwordסיסמה into the dashboardלוּחַ מַחווָנִים
137
383070
3177
06:38
to say, "Hey, I have authorizationהרשאה to driveנהיגה." Great.
138
386247
4658
כדי לומר, "יש לי הרשאה לנהוג."
מצוין.
06:42
What if everyכֹּל singleיחיד carאוטו in Europeאֵירוֹפָּה
139
390905
2553
מה אם בכל מכונית באירופה
06:45
had this technologyטֶכנוֹלוֹגִיָה in it?
140
393458
1457
תהיה טכנולוגיה זו?
06:46
What could we do then?
141
394915
3165
מה היינו יכולים לעשות אז?
06:50
Maybe, if we aggregatedמצטבר the dataנתונים,
142
398080
2240
אם היינו צוברים את הנתונים,
06:52
maybe we could identifyלזהות telltaleמַלשִׁין signsשלטים
143
400320
3814
אולי היינו יכולים
לזהות סימנים מקדימים
06:56
that bestהטוב ביותר predictלַחֲזוֹת that a carאוטו accidentתְאוּנָה
144
404134
2709
לתאונת דרכים
06:58
is going to take placeמקום in the nextהַבָּא fiveחָמֵשׁ secondsשניות.
145
406843
5893
העומדת להתרחש תוך 5 השניות הקרובות.
07:04
And then what we will have datafiedמטומטם
146
412736
2557
ומה שנאגור אז כנתונים
07:07
is driverנהג fatigueעייפות,
147
415293
1783
זו עייפות הנהג,
07:09
and the serviceשֵׁרוּת would be when the carאוטו sensesחושים
148
417076
2334
והמענה יהיה כאשר המכונית
07:11
that the personאדם slumpsשפל into that positionעמדה,
149
419410
3437
תחוש שהאדם צונח לאותו מצב,
07:14
automaticallyבאופן אוטומטי knowsיודע, hey, setמַעֲרֶכֶת an internalפְּנִימִי alarmאזעקה
150
422847
3994
היא תדע זאת אוטומטית,
תפעיל אתראה פנימית
07:18
that would vibrateלְנַדְנֵד the steeringהגה wheelגַלגַל, honkלִצְפּוֹר insideבְּתוֹך
151
426841
2025
שתרעיד את ההגה, תצפור,
07:20
to say, "Hey, wakeלְהִתְעוֹרֵר up,
152
428866
1721
כדי לומר, "אדוני, תתעורר,
07:22
payלְשַׁלֵם more attentionתשומת הלב to the roadכְּבִישׁ."
153
430587
1904
שים לב לכביש."
07:24
These are the sortsמיני of things we can do
154
432491
1853
דברים כאלה נוכל לבצע כאשר
07:26
when we datafydatafy more aspectsהיבטים of our livesחיים.
155
434344
2821
נהפוך לנתונים יותר ויותר
היבטים מחיינו.
07:29
So what is the valueערך of bigגָדוֹל dataנתונים?
156
437165
3675
מה הערך של ביג דאטה?
07:32
Well, think about it.
157
440840
2190
חישבו על זה.
07:35
You have more informationמֵידָע.
158
443030
2412
יש לנו יותר מידע.
07:37
You can do things that you couldn'tלא יכול do before.
159
445442
3341
ניתן לעשות דברים שלא ניתן היה קודם.
07:40
One of the mostרוב impressiveמרשימים areasאזורי
160
448783
1676
אחד התחומים הכי מרשימים
07:42
where this conceptמוּשָׂג is takingלְקִיחָה placeמקום
161
450459
1729
שבו זה קורה
07:44
is in the areaאֵזוֹר of machineמְכוֹנָה learningלְמִידָה.
162
452188
3307
הוא התחום של מכונות לומדות.
07:47
Machineמְכוֹנָה learningלְמִידָה is a branchענף of artificialמְלָאכוּתִי intelligenceאינטליגנציה,
163
455495
3077
מכונות לומדות הוא ענף של
אינטליגנציה מלאכותית,
07:50
whichאיזה itselfעצמה is a branchענף of computerמַחשֵׁב scienceמַדָע.
164
458572
3378
שהיא בעצמה ענף של מדעי המחשב.
07:53
The generalכללי ideaרַעְיוֹן is that insteadבמקום זאת of
165
461950
1543
הרעיון באופן כללי הוא
07:55
instructingהדרכה a computerמַחשֵׁב what do do,
166
463493
2117
שבמקום להורות למחשב מה לעשות,
07:57
we are going to simplyבפשטות throwלזרוק dataנתונים at the problemבְּעָיָה
167
465610
2620
פשוט נזרוק נתונים בנוגע לבעיה
08:00
and tell the computerמַחשֵׁב to figureדמות it out for itselfעצמה.
168
468230
3206
ונאמר למחשב שימצא פיתרון לבד.
08:03
And it will help you understandמבין it
169
471436
1777
כדי להבין את הרעיון
08:05
by seeingרְאִיָה its originsמקורות.
170
473213
3552
נסתכל על המקור שלו.
08:08
In the 1950s, a computerמַחשֵׁב scientistמַדְעָן
171
476765
2388
בשנות ה-50, איש מדעי המחשב
08:11
at IBMיבמ namedבשם Arthurארתור Samuelסמואל likedאהב to playלְשַׂחֵק checkersדַמקָה,
172
479153
3592
באיי-בי-אם, בשם ארתור סמואל,
אהב לשחק דמקה,
08:14
so he wroteכתבתי a computerמַחשֵׁב programתָכְנִית
173
482745
1402
אז הוא כתב תוכנת מחשב
08:16
so he could playלְשַׂחֵק againstמול the computerמַחשֵׁב.
174
484147
2813
כדי שיוכל לשחק נגד המחשב.
08:18
He playedשיחק. He wonזכית.
175
486960
2711
הוא שיחק וניצח.
08:21
He playedשיחק. He wonזכית.
176
489671
2103
הוא שיחק וניצח.
08:23
He playedשיחק. He wonזכית,
177
491774
3015
הוא שיחק וניצח,
08:26
because the computerמַחשֵׁב only knewידע
178
494789
1778
כי המחשב ידע
08:28
what a legalמשפטי moveמהלך \ לזוז \ לעבור was.
179
496567
2227
רק מהלכים חוקיים.
08:30
Arthurארתור Samuelסמואל knewידע something elseאַחֵר.
180
498794
2087
ארתור סמואל ידע משהו אחר.
08:32
Arthurארתור Samuelסמואל knewידע strategyאִסטרָטֶגִיָה.
181
500881
4629
ארתור סמואל ידע אסטרטגיה.
08:37
So he wroteכתבתי a smallקָטָן sub-programתת-תוכנית alongsideבַּצַד it
182
505510
2396
לכן הוא כתב תוכנת-משנה
08:39
operatingהפעלה in the backgroundרקע כללי, and all it did
183
507906
1974
שפעלה ברקע,
וכל מה שהיא עשתה
08:41
was scoreציון the probabilityהִסתַבְּרוּת
184
509880
1817
היה לאמוד את הסבירות
08:43
that a givenנָתוּן boardלוּחַ configurationתְצוּרָה would likelyסָבִיר leadעוֹפֶרֶת
185
511697
2563
שסידור נתון על הלוח יוביל
08:46
to a winningלנצח boardלוּחַ versusנגד a losingלאבד boardלוּחַ
186
514260
2910
לעמדת ניצחון לעומת עמדת הפסד
לאחר כל מהלך.
08:49
after everyכֹּל moveמהלך \ לזוז \ לעבור.
187
517170
2508
08:51
He playsמחזות the computerמַחשֵׁב. He winsמנצח.
188
519678
3150
הוא שיחק נגד המחשב וניצח.
08:54
He playsמחזות the computerמַחשֵׁב. He winsמנצח.
189
522828
2508
הוא שיחק נגד המחשב וניצח
08:57
He playsמחזות the computerמַחשֵׁב. He winsמנצח.
190
525336
3731
הוא שיחק נגד המחשב וניצח.
09:01
And then Arthurארתור Samuelסמואל leavesמשאיר the computerמַחשֵׁב
191
529067
2277
ואז ארתור סמואל עזב את המחשב
09:03
to playלְשַׂחֵק itselfעצמה.
192
531344
2227
כדי שישחק עם עצמו.
09:05
It playsמחזות itselfעצמה. It collectsאוספת more dataנתונים.
193
533571
3509
הוא שיחק עם עצמו ואסף יותר מידע.
09:09
It collectsאוספת more dataנתונים. It increasesמגביר
the accuracyדיוק of its predictionנְבוּאָה.
194
537080
4309
הוא אסף יותר מידע וזה הגדיל
את הדיוק של החיזוי שלו.
09:13
And then Arthurארתור Samuelסמואל goesהולך back to the computerמַחשֵׁב
195
541389
2104
ואז ארתור סמואל חזר למחשב,
09:15
and he playsמחזות it, and he losesמאבד,
196
543493
2318
שיחק נגדו והפסיד,
09:17
and he playsמחזות it, and he losesמאבד,
197
545811
2069
ושיחק נגדו והפסיד,
09:19
and he playsמחזות it, and he losesמאבד,
198
547880
2047
ושיחק נגדו והפסיד,
09:21
and Arthurארתור Samuelסמואל has createdשנוצר a machineמְכוֹנָה
199
549927
2599
וכך ארתור סמואל יצר מכונה
09:24
that surpassesעולה his abilityיְכוֹלֶת in a taskמְשִׁימָה that he taughtלימד it.
200
552526
6288
שהתעלתה על יכולתו,
במשימה שהוא עצמו לימד אותה.
09:30
And this ideaרַעְיוֹן of machineמְכוֹנָה learningלְמִידָה
201
558814
2498
והרעיון הזה של למידת מכונה
מגיע לכל מקום.
09:33
is going everywhereבכל מקום.
202
561312
3927
09:37
How do you think we have self-drivingנהיגה עצמית carsמכוניות?
203
565239
3149
איך לדעתכם יש לנו
מכוניות ללא נהג?
09:40
Are we any better off as a societyחֶברָה
204
568388
2137
האם נהיה במצב יותר טוב כחברה
09:42
enshriningהקודש all the rulesכללים of the roadכְּבִישׁ into softwareתוֹכנָה?
205
570525
3285
אם נכניס את כל חוקי
התנועה לתוך תוכנה?
09:45
No. Memoryזיכרון is cheaperיותר זול. No.
206
573810
2598
לא. האם הזיכרון זול יותר? לא.
09:48
Algorithmsאלגוריתמים are fasterמהיר יותר. No. Processorsמעבדים are better. No.
207
576408
3994
האלגוריתמים מהירים יותר? לא.
המעבדים טובים יותר? לא.
09:52
All of those things matterחוֹמֶר, but that's not why.
208
580402
2772
כל הדברים הללו חשובים,
אבל הם לא הסיבה.
09:55
It's because we changedהשתנה the natureטֶבַע of the problemבְּעָיָה.
209
583174
3141
הסיבה היא ששינינו את אופי הבעיה.
09:58
We changedהשתנה the natureטֶבַע of the problemבְּעָיָה from one
210
586315
1530
שינינו את אופי הבעיה
ממצב שבו ניסינו באופן מוגזם ובגלוי
09:59
in whichאיזה we triedניסה to overtlyבגלוי and explicitlyבִּמְפוּרָשׁ
211
587845
2245
10:02
explainלהסביר to the computerמַחשֵׁב how to driveנהיגה
212
590090
2581
להסביר למחשב כיצד לנהוג
10:04
to one in whichאיזה we say,
213
592671
1316
למצב בו אנו אומרים,
10:05
"Here'sהנה a lot of dataנתונים around the vehicleרכב.
214
593987
1876
"הנה, קח לך המון נתונים על הרכב.
10:07
You figureדמות it out.
215
595863
1533
ואתה תמצא את הפיתרון.
10:09
You figureדמות it out that that is a trafficתְנוּעָה lightאוֹר,
216
597396
1867
אתה תמצא שזה רמזור,
10:11
that that trafficתְנוּעָה lightאוֹר is redאָדוֹם and not greenירוק,
217
599263
2081
שהרמזור אדום ולא ירוק,
10:13
that that meansאומר that you need to stop
218
601344
2014
פירושו שצריך לעצור
10:15
and not go forwardקָדִימָה."
219
603358
3083
ולא להתקדם."
10:18
Machineמְכוֹנָה learningלְמִידָה is at the basisבָּסִיס
220
606441
1518
למידת מכונות נמצאת
ביסוד הרבה דברים
שאנו מבצעים ברשת:
10:19
of manyרב of the things that we do onlineבאינטרנט:
221
607959
1991
10:21
searchחפש enginesמנועים,
222
609950
1857
מנועי חיפוש,
10:23
Amazon'sאמזון personalizationהתאמה אישית algorithmאַלגוֹרִיתְם,
223
611807
3801
אלגוריתמים של אמזון
להתאמה אישית,
10:27
computerמַחשֵׁב translationתִרגוּם,
224
615608
2212
תרגום ממוחשב,
10:29
voiceקוֹל recognitionהַכָּרָה systemsמערכות.
225
617820
4290
מערכות לזיהוי קול.
10:34
Researchersחוקרים recentlyלאחרונה have lookedהביט at
226
622110
2835
לאחרונה, חוקרים התעמקו
10:36
the questionשְׁאֵלָה of biopsiesביופסיות,
227
624945
3195
בסוגיית הביופסיה,
10:40
cancerousסַרטָנִי biopsiesביופסיות,
228
628140
2767
של דגימת רקמות סרטניות,
10:42
and they'veהם כבר askedשאל the computerמַחשֵׁב to identifyלזהות
229
630907
2315
והם ביקשו ממחשב לקבוע,
10:45
by looking at the dataנתונים and survivalהישרדות ratesתעריפים
230
633222
2471
באמצעות בחינת הנתונים
10:47
to determineלקבוע whetherהאם cellsתאים are actuallyלמעשה
231
635693
4667
ושיעורי התמותה, אם התאים
הם באמת סרטניים,
10:52
cancerousסַרטָנִי or not,
232
640360
2544
וכשהנתונים הוזנו למחשב,
10:54
and sure enoughמספיק, when you throwלזרוק the dataנתונים at it,
233
642904
1778
10:56
throughדרך a machine-learningלמידת מכונה algorithmאַלגוֹרִיתְם,
234
644682
2047
באמצעות אלגוריתם למידת מכונה,
10:58
the machineמְכוֹנָה was ableיכול to identifyלזהות
235
646729
1877
המכונה היתה מסוגלת לזהות
11:00
the 12 telltaleמַלשִׁין signsשלטים that bestהטוב ביותר predictלַחֲזוֹת
236
648606
2262
את 12 הסימנים המחשידים
שמנבאים הכי טוב
11:02
that this biopsyבִּיוֹפְּסִיָה of the breastשד cancerמחלת הסרטן cellsתאים
237
650868
3299
שריקמה זו מתאי סרטן-שד
11:06
are indeedאכן cancerousסַרטָנִי.
238
654167
3218
היא אכן ממאירה.
11:09
The problemבְּעָיָה: The medicalרְפוּאִי literatureסִפְרוּת
239
657385
2498
הבעיה: הספרות הרפואית
11:11
only knewידע nineתֵשַׁע of them.
240
659883
2789
הכירה רק 9 מהם.
11:14
Threeשְׁלוֹשָׁה of the traitsתכונות were onesיחידות
241
662672
1800
שלושה מהסימנים היו כאלה
11:16
that people didn't need to look for,
242
664472
2975
שלא היה צורך שאנשים יחפשו,
11:19
but that the machineמְכוֹנָה spottedמְנוּקָד.
243
667447
5531
אבל המכונה איתרה אותם.
11:24
Now, there are darkאפל sidesצדדים to bigגָדוֹל dataנתונים as well.
244
672978
5925
אבל, ישנם גם צדדים אפלים לביג דאטה.
11:30
It will improveלְשַׁפֵּר our livesחיים, but there are problemsבעיות
245
678903
2074
ביג דאטה ישפר את חיינו,
אבל יש גם בעיות שצריך
להיות מודעים אליהן.
11:32
that we need to be consciousמוּדָע of,
246
680977
2640
11:35
and the first one is the ideaרַעְיוֹן
247
683617
2623
הראשונה היא האפשרות
11:38
that we mayמאי be punishedנענשו for predictionsתחזיות,
248
686240
2686
שאנו עשויים לסבול מביצוע ניבויים,
11:40
that the policeמִשׁטָרָה mayמאי use bigגָדוֹל dataנתונים for theirשֶׁלָהֶם purposesמטרות,
249
688926
3870
כי המשטרה עלולה להשתמש
בביג דאטה למטרותיה,
11:44
a little bitbit like "Minorityמיעוט Reportלהגיש תלונה."
250
692796
2351
משהו כמו בסרט "דו"ח מיוחד".
11:47
Now, it's a termטווח calledשקוראים לו predictiveמְנַבֵּא policingשיטור,
251
695147
2441
זה נקרא "שיטור מנבא",
11:49
or algorithmicאלגוריתמי criminologyקרִימִינוֹלוֹגִיָה,
252
697588
2363
או "חקר פשיעה אלגוריתמי".
11:51
and the ideaרַעְיוֹן is that if we take a lot of dataנתונים,
253
699951
2036
הרעיון הוא שאם לוקחים המון נתונים,
11:53
for exampleדוגמא where pastעבר crimesפשעים have been,
254
701987
2159
לדוגמא, היכן התרחשו פשעים בעבר,
11:56
we know where to sendלִשְׁלוֹחַ the patrolsפטרולים.
255
704146
2543
נדע לאן לשגר את סיורי המשטרה.
11:58
That makesעושה senseלָחוּשׁ, but the problemבְּעָיָה, of courseקוּרס,
256
706689
2115
זה נראה הגיוני, אבל הבעיה
12:00
is that it's not simplyבפשטות going to stop on locationמקום dataנתונים,
257
708804
4544
היא שזה לא ייעצר רק בנתוני המיקום,
12:05
it's going to go down to the levelרָמָה of the individualאִישִׁי.
258
713348
2959
אלא זה יירד לרמת הפרט.
12:08
Why don't we use dataנתונים about the person'sשל אדם
259
716307
2250
למה שלא נשתמש בנתונים
מתעודת התיכון של האדם?
12:10
highגָבוֹהַ schoolבית ספר transcriptתמליל?
260
718557
2228
12:12
Maybe we should use the factעוּבדָה that
261
720785
1561
אולי עלינו להשתמש בנתונים כמו,
12:14
they're unemployedמובטלים or not, theirשֶׁלָהֶם creditאַשׁרַאי scoreציון,
262
722346
2028
אם האדם עובד או מובטל, רמת האשראי שלו,
12:16
theirשֶׁלָהֶם web-surfingגלישה ברשת behaviorהִתְנַהֲגוּת,
263
724374
1552
הרגלי גלישתו באינטרנט,
12:17
whetherהאם they're up lateמאוחר at night.
264
725926
1878
אם הוא ער עד מאוחר בלילה.
12:19
Theirשֶׁלָהֶם Fitbitפיטביט, when it's ableיכול
to identifyלזהות biochemistriesביוכימרים,
265
727804
3161
מכשיר הניטור הגופני,
אם הוא מסוגל לזהות
תגובות כימיות, יראה שיש
לו מחשבות תוקפניות.
12:22
will showלְהַצִיג that they have aggressiveתוֹקפָּנִי thoughtsמחשבות.
266
730965
4236
12:27
We mayמאי have algorithmsאלגוריתמים that are likelyסָבִיר to predictלַחֲזוֹת
267
735201
2221
עשויים להיות אלגוריתמים
שיכולים לנבא
12:29
what we are about to do,
268
737422
1633
מה אנו עומדים לעשות,
12:31
and we mayמאי be heldמוּחזָק accountableאַחֲרַאִי
269
739055
1244
ואנו עלולים להיחשב
12:32
before we'veיש לנו actuallyלמעשה actedפעל.
270
740299
2590
לאחראים לדברים שטרם ביצענו בפועל.
12:34
Privacyפְּרָטִיוּת was the centralמֶרכָּזִי challengeאתגר
271
742889
1732
פרטיות היוותה אתגר מרכזי
12:36
in a smallקָטָן dataנתונים eraתְקוּפָה.
272
744621
2880
בעידן של נתונים מועטים.
12:39
In the bigגָדוֹל dataנתונים ageגיל,
273
747501
2149
בעידן ביג דאטה,
12:41
the challengeאתגר will be safeguardingשְׁמִירָה freeחופשי will,
274
749650
4523
האתגר יהיה לשמור מכל משמר
על הרצון החופשי,
12:46
moralמוסר השכל choiceבְּחִירָה, humanבן אנוש volitionרָצוֹן,
275
754173
3779
על הבחירה המוסרית, על רצון האדם,
12:49
humanבן אנוש agencyסוֹכְנוּת.
276
757952
3068
על העצמאות האנושית.
12:54
There is anotherאַחֵר problemבְּעָיָה:
277
762540
2225
ישנה בעיה נוספת:
12:56
Bigגָדוֹל dataנתונים is going to stealלִגנוֹב our jobsמקומות תעסוקה.
278
764765
3556
ביג דאטה יגזול מאיתנו את עבודותינו.
13:00
Bigגָדוֹל dataנתונים and algorithmsאלגוריתמים are going to challengeאתגר
279
768321
3512
ביג דאטה והאלגוריתמים
עומדים לקרוא תיגר
13:03
whiteלבן collarקוֹלָר, professionalמקצועי knowledgeיֶדַע work
280
771833
3061
על עבודות הצווארון הלבן המקצועיות
13:06
in the 21stרחוב centuryמֵאָה
281
774894
1653
של המאה ה-21
13:08
in the sameאותו way that factoryבית חרושת automationאוטומציה
282
776547
2434
באותו אופן שהמיכון התעשייתי
13:10
and the assemblyהַרכָּבָה lineקַו
283
778981
2189
וקו הייצור קראו תיגר
13:13
challengedתיגר blueכָּחוֹל collarקוֹלָר laborעבודה in the 20thה centuryמֵאָה.
284
781170
3026
על עבודות הצווארון הכחול במאה ה-20.
13:16
Think about a labמַעבָּדָה technicianטכנאי
285
784196
2092
תחשבו על טכנאי מעבדה
13:18
who is looking throughדרך a microscopeמִיקרוֹסקוֹפּ
286
786288
1409
שמסתכל דרך מיקרוסקופ
13:19
at a cancerמחלת הסרטן biopsyבִּיוֹפְּסִיָה
287
787697
1624
על ריקמה סרטנית
13:21
and determiningקביעת whetherהאם it's cancerousסַרטָנִי or not.
288
789321
2637
ומחליט אם היא ממאירה או לא.
13:23
The personאדם wentהלך to universityאוּנִיבֶרְסִיטָה.
289
791958
1972
האדם למד באוניברסיטה.
13:25
The personאדם buysקונה propertyנכס.
290
793930
1430
הוא קנה רכוש.
13:27
He or she votesקולות.
291
795360
1741
הוא או היא מצביעים בבחירות.
13:29
He or she is a stakeholderבעל עניין in societyחֶברָה.
292
797101
3666
הוא או היא בעלי עניין בחברה.
13:32
And that person'sשל אדם jobעבודה,
293
800767
1394
והעבודה של אותו אדם,
13:34
as well as an entireשלם fleetצי
294
802161
1609
כמו גם צי שלם
13:35
of professionalsאנשי מקצוע like that personאדם,
295
803770
1969
של אנשי מקצוע כמו אותו אדם,
13:37
is going to find that theirשֶׁלָהֶם jobsמקומות תעסוקה are radicallyבאופן קיצוני changedהשתנה
296
805739
3150
ימצאו שהעבודות שלהם
השתנו באופן ניכר
13:40
or actuallyלמעשה completelyלַחֲלוּטִין eliminatedבוטלו.
297
808889
2357
או למעשה התחסלו כליל.
13:43
Now, we like to think
298
811246
1284
אנו אוהבים לחשוב
13:44
that technologyטֶכנוֹלוֹגִיָה createsיוצר jobsמקומות תעסוקה over a periodפרק זמן of time
299
812530
3187
שהטכנולוגיה יוצרת עם הזמן עבודות,
13:47
after a shortקצר, temporaryזמני periodפרק זמן of dislocationנקע,
300
815717
3465
לאחר תקופת-מעבר קצרה וזמנית,
13:51
and that is trueנָכוֹן for the frameמִסגֶרֶת of referenceהתייחסות
301
819182
1941
וזה נכון ביחס למציאות שאנו
13:53
with whichאיזה we all liveלחיות, the Industrialתַעֲשִׂיָתִי Revolutionמַהְפֵּכָה,
302
821123
2142
חיים בה, שהיא המהפכה התעשייתית,
13:55
because that's preciselyבְּדִיוּק what happenedקרה.
303
823265
2328
כי זה בדיוק מה שקרה.
13:57
But we forgetלשכוח something in that analysisאָנָלִיזָה:
304
825593
2333
אבל אנו שוכחים משהו בניתוח זה:
13:59
There are some categoriesקטגוריות of jobsמקומות תעסוקה
305
827926
1830
ישנם כמה תחומי עבודה
14:01
that simplyבפשטות get eliminatedבוטלו and never come back.
306
829756
3420
שפשוט נמחקים ולעולם לא שבים.
14:05
The Industrialתַעֲשִׂיָתִי Revolutionמַהְפֵּכָה wasn'tלא היה very good
307
833176
2004
המהפכה התעשייתית
לא היתה טובה במיוחד עבור סוסים.
14:07
if you were a horseסוּס.
308
835180
4002
14:11
So we're going to need to be carefulזָהִיר
309
839182
2055
לכן יהיה עלינו להיזהר
14:13
and take bigגָדוֹל dataנתונים and adjustלְהַתְאִים it for our needsצרכי,
310
841237
3514
ולהתאים את ביג דאטה לצרכינו,
14:16
our very humanבן אנוש needsצרכי.
311
844751
3185
צרכינו האנושיים ביותר.
14:19
We have to be the masterלִשְׁלוֹט of this technologyטֶכנוֹלוֹגִיָה,
312
847936
1954
יהיה עלינו להיות אדוניה
של טכנולוגיה זו,
14:21
not its servantמְשָׁרֵת.
313
849890
1656
לא משרתיה.
14:23
We are just at the outsetרֵאשִׁית of the bigגָדוֹל dataנתונים eraתְקוּפָה,
314
851546
2958
אנו נמצאים רק בתחילתו
של עידן ביג דאטה,
14:26
and honestlyבִּיוֹשֶׁר, we are not very good
315
854504
3150
והאמת היא שאנו לא מצטיינים
14:29
at handlingטיפול all the dataנתונים that we can now collectלאסוף.
316
857654
4207
בטיפול בכל הנתונים שאנו
מסוגלים לאסוף כיום.
14:33
It's not just a problemבְּעָיָה for
the Nationalלאומי Securityבִּטָחוֹן Agencyסוֹכְנוּת.
317
861861
3330
זו לא רק בעיה הנוגעת
לסוכנות לביטחון לאומי.
14:37
Businessesעסקים collectלאסוף lots of
dataנתונים, and they misuseשימוש לא נכון it too,
318
865191
3038
חברות אוספות המון נתונים
והן גם משתמשות בו לרעה,
14:40
and we need to get better at
this, and this will take time.
319
868229
3667
ועלינו להשתפר בתחום זה, וזה יקח זמן.
14:43
It's a little bitbit like the challengeאתגר that was facedפנים
320
871896
1822
זה קצת כמו האתגר שניצב
14:45
by primitiveפְּרִימִיטִיבִי man and fireאֵשׁ.
321
873718
2407
בפני האדם הקדמון עם האש.
14:48
This is a toolכְּלִי, but this is a toolכְּלִי that,
322
876125
1885
זהו כלי, אבל כלי שאם
14:50
unlessאֶלָא אִם we're carefulזָהִיר, will burnלשרוף us.
323
878010
3559
לא נהיה זהירים איתו,
הוא ישרוף אותנו.
14:56
Bigגָדוֹל dataנתונים is going to transformשינוי צורה how we liveלחיות,
324
884008
3120
ביג דאטה עומד
לשנות את דרך חיינו,
את דרך עבודתנו וחשיבתנו.
14:59
how we work and how we think.
325
887128
2801
15:01
It is going to help us manageלנהל our careersקריירה
326
889929
1889
הוא יסייע לנו לנהל
את הקריירות שלנו
15:03
and leadעוֹפֶרֶת livesחיים of satisfactionשביעות רצון and hopeלְקַווֹת
327
891818
3634
ולנהל חיים של סיפוק, תקווה
15:07
and happinessאושר and healthבְּרִיאוּת,
328
895452
2992
אושר ובריאות.
15:10
but in the pastעבר, we'veיש לנו oftenלעתים קרובות
lookedהביט at informationמֵידָע technologyטֶכנוֹלוֹגִיָה
329
898444
3306
אבל בעבר, הסתכלנו על
"טכנולוגיית מידע"
15:13
and our eyesעיניים have only seenלראות the T,
330
901750
2208
וראינו רק את ה-"ט",
15:15
the technologyטֶכנוֹלוֹגִיָה, the hardwareחוּמרָה,
331
903958
1686
את הטכנולוגיה, החומרה,
15:17
because that's what was physicalגוּפָנִי.
332
905644
2262
כי הם היו הדברים הפיזיקליים.
15:19
We now need to recastלִבנוֹת מִחָדָשׁ our gazeמַבָּט at the I,
333
907906
2924
כעת אנו צריכים להסתכל על ה-"מ",
15:22
the informationמֵידָע,
334
910830
1380
המידע,
15:24
whichאיזה is lessפָּחוּת apparentנִרְאֶה,
335
912210
1373
הבולט פחות לעין,
15:25
but in some waysדרכים a lot more importantחָשׁוּב.
336
913583
4109
אבל במובנים מסויימים
הוא הרבה יותר חשוב.
15:29
Humanityאֶנוֹשִׁיוּת can finallyסוף כל סוף learnלִלמוֹד from the informationמֵידָע
337
917692
3465
האנושות יכולה סוף-סוף ללמוד מהמידע
15:33
that it can collectלאסוף,
338
921157
2418
שהיא מסוגלת לאסוף,
15:35
as partחֵלֶק of our timelessנִצחִי questלַחקוֹר
339
923575
2115
כחלק ממסעינו הנצחי
15:37
to understandמבין the worldעוֹלָם and our placeמקום in it,
340
925690
3159
להבנת העולם ומקומנו בתוכו,
15:40
and that's why bigגָדוֹל dataנתונים is a bigגָדוֹל dealעִסקָה.
341
928849
5631
וזו הסיבה מדוע ביג דאטה
הוא עניין כה חשוב.
15:46
(Applauseתְשׁוּאוֹת)
342
934480
3568
(מחיאות כפיים)
Translated by Yubal Masalker
Reviewed by Sigal Tifferet

▲Back to top

ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.

Why you should listen

As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.

More profile about the speaker
Kenneth Cukier | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee