TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Kenneth Cukier: Datele masive sunt date mai bune
Filmed:
Readability: 4.1
1,663,038 views
Mașinile care se conduc singure au fost doar începutul. Cum arată viitorul tehnologiei și proiectării realizate pe baza datelor masive? Într-o captivantă prezentare științifică, Kenneth Cukier se uită la ce urmează în învățarea automată, dar și în cunoașterea umană.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
Plăcinta preferată a Americii. Care este?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
Public: De mere!
Kenneth Cukier: De mere, sigur că da.
Kenneth Cukier: De mere, sigur că da.
00:20
How do we know it?
2
8138
1231
De unde știm?
00:21
Because of data.
3
9369
2753
Datorită datelor.
00:24
You look at supermarket sales.
4
12122
2066
Ne uităm la vânzările supermarketurilor,
vânzările plăcintelor congelate de 30 cm.
vânzările plăcintelor congelate de 30 cm.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
Iar plăcinta de mere câștigă.
Detașat.
Detașat.
Majoritatea vânzărilor
sunt la plăcinta de mere.
sunt la plăcinta de mere.
00:33
The majority of the sales are apple.
7
21129
5180
00:38
But then supermarkets started selling
8
26309
2964
Dar apoi supermarketurile au început
să vândă plăcinte mai mici, de 11 cm,
să vândă plăcinte mai mici, de 11 cm,
00:41
smaller, 11-centimeter pies,
9
29273
2583
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
și dintr-o dată plăcinta de mere
a căzut pe locul 4 sau 5.
a căzut pe locul 4 sau 5.
00:48
Why? What happened?
11
36030
2875
De ce? Ce s-a întâmplat?
00:50
Okay, think about it.
12
38905
2818
Ia să ne gândim.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
Când cumpărăm o plăcintă de 30 cm
00:57
the whole family has to agree,
14
45571
2261
toată familia trebuie să fie de acord,
00:59
and apple is everyone's second favorite.
15
47832
3791
iar plăcinta de mere
e a doua preferință a tuturor.
e a doua preferință a tuturor.
01:03
(Laughter)
16
51623
1935
(Râsete)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
Dar când iei o plăcintă
personală, de 11 cm,
personală, de 11 cm,
01:09
you can buy the one that you want.
18
57173
3745
poți s-o iei pe cea pe care ți-o dorești.
01:12
You can get your first choice.
19
60918
4015
Poți să-ți alegi prima preferință.
01:16
You have more data.
20
64933
1641
Avem mai multe date.
01:18
You can see something
21
66574
1554
Vedem ceva ce nu puteam vedea
când aveam cantități mai mici de date.
când aveam cantități mai mici de date.
01:20
that you couldn't see
22
68128
1132
01:21
when you only had smaller amounts of it.
23
69260
3953
01:25
Now, the point here is that more data
24
73213
2475
Dar ideea e că datele mai multe
01:27
doesn't just let us see more,
25
75688
2283
nu ne permit doar să vedem mai mult,
mai mult din același lucru.
mai mult din același lucru.
01:29
more of the same thing we were looking at.
26
77971
1854
01:31
More data allows us to see new.
27
79825
3613
Datele mai multe ne permit
să vedem ceva nou.
să vedem ceva nou.
01:35
It allows us to see better.
28
83438
3094
Ne permit să vedem mai bine.
01:38
It allows us to see different.
29
86532
3656
Ne permit să vedem altfel.
01:42
In this case, it allows us to see
30
90188
3173
În cazul de faţă ne permit să vedem
01:45
what America's favorite pie is:
31
93361
2913
care e plăcinta preferată a Americii:
01:48
not apple.
32
96274
2542
nu cea de mere.
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Probabil toată lumea a auzit
termenul „date masive”.
termenul „date masive”.
De fapt probabil vi s-a făcut acru
tot auzind „date masive”.
tot auzind „date masive”.
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
01:56
big data.
35
104487
1630
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
E adevărat că se face mult tam-tam
pe seama termenului și e mare păcat,
pe seama termenului și e mare păcat,
02:01
and that is very unfortunate,
37
109447
2332
02:03
because big data is an extremely important tool
38
111779
3046
pentru că datele masive sunt
o unealtă foarte importantă
o unealtă foarte importantă
02:06
by which society is going to advance.
39
114825
3734
prin care va avansa societatea.
02:10
In the past, we used to look at small data
40
118559
3561
În trecut ne uitam la date puține
02:14
and think about what it would mean
41
122120
1704
și ne întrebam cum am putea
încerca să înțelegem lumea,
încerca să înțelegem lumea,
02:15
to try to understand the world,
42
123824
1496
02:17
and now we have a lot more of it,
43
125320
1991
iar acum avem mult mai multe,
mai multe decât era posibil înainte.
mai multe decât era posibil înainte.
02:19
more than we ever could before.
44
127311
2722
02:22
What we find is that when we have
45
130033
1877
Constatăm că având o colecție mare de date
putem face lucruri
putem face lucruri
02:23
a large body of data, we can fundamentally do things
46
131910
2724
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
imposibil de realizat cu date puține.
02:29
Big data is important, and big data is new,
48
137910
2641
Datele masive sunt importante și sunt noi.
02:32
and when you think about it,
49
140551
1777
Dacă ne gândim bine,
02:34
the only way this planet is going to deal
50
142328
2216
singurul mod în care planeta
va face față problemelor globale
va face față problemelor globale
02:36
with its global challenges —
51
144544
1789
02:38
to feed people, supply them with medical care,
52
146333
3537
— hrănirea populației,
furnizarea serviciilor medicale,
furnizarea serviciilor medicale,
02:41
supply them with energy, electricity,
53
149870
2810
alimentarea cu energie, electricitate,
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
și cum facem să nu ne rumenim
cu încălzirea globală —
cu încălzirea globală —
02:46
because of global warming —
55
154469
1238
02:47
is because of the effective use of data.
56
155707
4195
e prin folosirea eficientă a datelor.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Dar ce e nou în datele masive?
Care e marea scofală?
Care e marea scofală?
02:55
Well, to answer that question, let's think about
58
163772
2517
Pentru a răspunde, să ne amintim
cum arătau informațiile efectiv în trecut.
cum arătau informațiile efectiv în trecut.
02:58
what information looked like,
59
166289
1896
03:00
physically looked like in the past.
60
168185
3034
03:03
In 1908, on the island of Crete,
61
171219
3611
În 1908, pe insula Creta,
03:06
archaeologists discovered a clay disc.
62
174830
4735
arheologii au descoperit un disc de lut.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
L-au datat în 2000 î.Hr.,
deci e vechi de 4000 ani.
deci e vechi de 4000 ani.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
Discul are inscripții, dar nu știm
ce înseamnă, e un mister complet.
ce înseamnă, e un mister complet.
03:17
but we actually don't know what it means.
65
185628
1327
03:18
It's a complete mystery, but the point is that
66
186955
2098
Dar ideea e că așa arătau informațiile
acum 4000 ani.
acum 4000 ani.
03:21
this is what information used to look like
67
189053
1928
03:22
4,000 years ago.
68
190981
2089
03:25
This is how society stored
69
193070
2548
Așa proceda societatea pentru a păstra
și transmite informațiile.
și transmite informațiile.
03:27
and transmitted information.
70
195618
3524
03:31
Now, society hasn't advanced all that much.
71
199142
4160
Dar societatea nu a avansat așa de mult.
03:35
We still store information on discs,
72
203302
3474
Încă mai păstrăm informații pe discuri,
03:38
but now we can store a lot more information,
73
206776
3184
dar acum putem stoca
mult mai multe informații decât oricând.
mult mai multe informații decât oricând.
03:41
more than ever before.
74
209960
1260
03:43
Searching it is easier. Copying it easier.
75
211220
3093
Căutarea e mai ușoară.
Copierea e mai ușoară.
Copierea e mai ușoară.
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
Distribuirea e mai ușoară.
Prelucrarea e mai ușoară.
Prelucrarea e mai ușoară.
03:49
And what we can do is we can reuse this information
77
217813
2766
Și putem refolosi aceste informații
03:52
for uses that we never even imagined
78
220579
1834
în moduri pe care nu ni le-am închipuit
când am colectat datele.
când am colectat datele.
03:54
when we first collected the data.
79
222413
3195
03:57
In this respect, the data has gone
80
225608
2252
În această privință datele au trecut
de la a fi păstrate la a fi circulate,
de la a fi păstrate la a fi circulate,
03:59
from a stock to a flow,
81
227860
3532
04:03
from something that is stationary and static
82
231392
3938
de la ceva staționar și static
04:07
to something that is fluid and dynamic.
83
235330
3609
la ceva fluid și dinamic.
Ca să zic așa,
informațiile au o lichiditate.
informațiile au o lichiditate.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
04:14
The disc that was discovered off of Crete
85
242962
3474
Discul descoperit în Creta
și vechi de 4000 ani
și vechi de 4000 ani
04:18
that's 4,000 years old, is heavy,
86
246436
3764
e greu, nu stochează multe informații.
04:22
it doesn't store a lot of information,
87
250200
1962
04:24
and that information is unchangeable.
88
252162
3116
Iar acele informații nu pot fi schimbate.
04:27
By contrast, all of the files
89
255278
4011
Pe de altă parte, toate documentele
04:31
that Edward Snowden took
90
259289
1861
pe care le-a luat Edward Snowden de la
Agenția de Securitate Națională din SUA
Agenția de Securitate Națională din SUA
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
04:35
fits on a memory stick
92
263771
2419
încap pe un stick de memorie
de mărimea unei unghii,
de mărimea unei unghii,
04:38
the size of a fingernail,
93
266190
3010
și se pot transmite cu viteza luminii.
04:41
and it can be shared at the speed of light.
94
269200
4745
04:45
More data. More.
95
273945
5255
Mai multe date. Mai multe.
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
Un motiv pentru care azi lumea are
atâtea date e că adunăm lucruri
atâtea date e că adunăm lucruri
04:53
is we are collecting things
97
281174
1432
04:54
that we've always collected information on,
98
282606
3280
despre care dintotdeauna
am adunat informații.
am adunat informații.
04:57
but another reason why is we're taking things
99
285886
2656
Dar un alt motiv e că luăm lucruri
care au fost mereu informaționale,
care au fost mereu informaționale,
05:00
that have always been informational
100
288542
2812
05:03
but have never been rendered into a data format
101
291354
2486
dar n-au mai fost puse sub formă de date,
și le transformăm în date.
și le transformăm în date.
05:05
and we are putting it into data.
102
293840
2419
05:08
Think, for example, the question of location.
103
296259
3308
Gândiți-vă de exemplu
la problema localizării.
la problema localizării.
05:11
Take, for example, Martin Luther.
104
299567
2249
Să-l luăm pe Martin Luther.
05:13
If we wanted to know in the 1500s
105
301816
1597
Dacă voiam să știm, în anii 1500,
unde se află Martin Luther,
unde se află Martin Luther,
05:15
where Martin Luther was,
106
303413
2667
05:18
we would have to follow him at all times,
107
306080
2092
trebuia să-l urmăm peste tot,
poate cu pană și cerneală, ca să notăm.
poate cu pană și cerneală, ca să notăm.
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
05:22
and record it,
109
310309
1676
05:23
but now think about what it looks like today.
110
311985
2183
Dar acum gândiți-vă cum e azi.
05:26
You know that somewhere,
111
314168
2122
Știți că undeva, printr-o bază de date
a unui furnizor de telecomunicații,
a unui furnizor de telecomunicații,
05:28
probably in a telecommunications carrier's database,
112
316290
2446
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
e un tabel sau cel puțin o înscriere
05:33
that records your information
114
321772
2088
care înregistrează informații despre noi,
unde am fost în fiecare moment.
unde am fost în fiecare moment.
05:35
of where you've been at all times.
115
323860
2063
Dacă aveți un telefon mobil cu GPS,
dar chiar dacă nu are GPS,
dar chiar dacă nu are GPS,
05:37
If you have a cell phone,
116
325923
1360
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
05:42
it can record your information.
118
330130
2385
vă poate memora informațiile.
05:44
In this respect, location has been datafied.
119
332515
4084
În această privință
localizarea a fost „datificată”.
localizarea a fost „datificată”.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
Acum gândiți-vă de exemplu
la problema posturii,
la problema posturii,
05:53
the way that you are all sitting right now,
121
341200
1285
cum stați așezați,
05:54
the way that you sit,
122
342485
2030
cum stați dv.
05:56
the way that you sit, the way that you sit.
123
344515
2771
sau cum stați dv. sau dv.
Diferă în funcție de lungimea piciorului,
de spate și de conturul spatelui.
de spate și de conturul spatelui.
05:59
It's all different, and it's a function of your leg length
124
347286
2077
06:01
and your back and the contours of your back,
125
349363
2093
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
Dacă aș pune sensori, să zicem
100 de sensori, în scaunele tuturor,
100 de sensori, în scaunele tuturor,
06:05
into all of your chairs right now,
127
353987
1766
06:07
I could create an index that's fairly unique to you,
128
355753
3600
aș putea crea un index
unic pentru fiecare.
unic pentru fiecare.
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
Ca o amprentă, dar nu a degetului.
06:15
So what could we do with this?
130
363762
2969
Și la ce am putea s-o folosim?
06:18
Researchers in Tokyo are using it
131
366731
2397
Unii cercetători din Tokio o folosesc
ca posibil sistem antifurt pentru mașini.
ca posibil sistem antifurt pentru mașini.
06:21
as a potential anti-theft device in cars.
132
369128
4388
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
Ideea e că hoțul stă la volan,
încearcă să pornească,
încearcă să pornească,
06:28
tries to stream off, but the car recognizes
134
376440
2104
dar mașina recunoaște
că la volan e un șofer neautorizat
că la volan e un șofer neautorizat
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
06:32
and maybe the engine just stops, unless you
136
380906
2164
și atunci de exemplu se oprește motorul
dacă nu tastezi o parolă în sistem
dacă nu tastezi o parolă în sistem
06:35
type in a password into the dashboard
137
383070
3177
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
ca să-i spui:
„Hei, sunt autorizat să conduc.”
„Hei, sunt autorizat să conduc.”
Grozav.
06:42
What if every single car in Europe
139
390905
2553
Ce-ar fi dacă toate mașinile din Europa
ar folosi această tehnologie?
ar folosi această tehnologie?
06:45
had this technology in it?
140
393458
1457
06:46
What could we do then?
141
394915
3165
Ce am putea face atunci?
06:50
Maybe, if we aggregated the data,
142
398080
2240
Dacă punem datele cap la cap
poate reușim să identificăm
poate reușim să identificăm
06:52
maybe we could identify telltale signs
143
400320
3814
semnele distinctive care să prezică optim
06:56
that best predict that a car accident
144
404134
2709
că se va produce un accident de mașină
06:58
is going to take place in the next five seconds.
145
406843
5893
în următoarele cinci secunde.
07:04
And then what we will have datafied
146
412736
2557
Astfel s-ar datifica oboseala șoferului.
07:07
is driver fatigue,
147
415293
1783
07:09
and the service would be when the car senses
148
417076
2334
Iar utilitatea apare când mașina simte
că persoana cade în poziția aceea
că persoana cade în poziția aceea
07:11
that the person slumps into that position,
149
419410
3437
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
și știe automat să pornească
o alarmă internă,
o alarmă internă,
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
să vibreze volanul
sau să claxoneze înăuntru, să spună:
sau să claxoneze înăuntru, să spună:
07:20
to say, "Hey, wake up,
152
428866
1721
„Trezește-te, fii mai atent la drum!”
07:22
pay more attention to the road."
153
430587
1904
07:24
These are the sorts of things we can do
154
432491
1853
Astfel de lucruri putem face
datificând mai multe aspecte ale vieții.
datificând mai multe aspecte ale vieții.
07:26
when we datafy more aspects of our lives.
155
434344
2821
07:29
So what is the value of big data?
156
437165
3675
Deci ce valoare au datele masive?
07:32
Well, think about it.
157
440840
2190
Ia gândiți-vă.
Avem mai multe informații.
Avem mai multe informații.
07:35
You have more information.
158
443030
2412
07:37
You can do things that you couldn't do before.
159
445442
3341
Putem face lucruri pe care
nu le puteam face înainte.
nu le puteam face înainte.
07:40
One of the most impressive areas
160
448783
1676
Una din aplicațiile impresionante
ale acestei noțiuni
ale acestei noțiuni
07:42
where this concept is taking place
161
450459
1729
07:44
is in the area of machine learning.
162
452188
3307
e în domeniul învățării automate.
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
Învățarea automată e o ramură
a inteligenței artificiale
a inteligenței artificiale
07:50
which itself is a branch of computer science.
164
458572
3378
care ea însăși e o ramură a informaticii.
07:53
The general idea is that instead of
165
461950
1543
Pe scurt, în loc să instruim
un calculator ce să facă,
un calculator ce să facă,
07:55
instructing a computer what do do,
166
463493
2117
07:57
we are going to simply throw data at the problem
167
465610
2620
bombardăm problema cu informații
08:00
and tell the computer to figure it out for itself.
168
468230
3206
și-i cerem calculatorului
să descopere singur.
să descopere singur.
08:03
And it will help you understand it
169
471436
1777
Veți înțelege mai bine
dacă veți vedea începuturile.
dacă veți vedea începuturile.
08:05
by seeing its origins.
170
473213
3552
08:08
In the 1950s, a computer scientist
171
476765
2388
În anii 1950, un informatician de la IBM
pe nume Arthur Samuel,
pe nume Arthur Samuel,
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
căruia îi plăcea să joace dame,
08:14
so he wrote a computer program
173
482745
1402
a scris un program pentru a putea juca
împotriva calculatorului.
împotriva calculatorului.
08:16
so he could play against the computer.
174
484147
2813
08:18
He played. He won.
175
486960
2711
A jucat. A câștigat.
08:21
He played. He won.
176
489671
2103
A jucat. A câștigat.
08:23
He played. He won,
177
491774
3015
A jucat. A câștigat.
08:26
because the computer only knew
178
494789
1778
Pentru că tot ce știa calculatorul
erau mutările permise.
erau mutările permise.
08:28
what a legal move was.
179
496567
2227
08:30
Arthur Samuel knew something else.
180
498794
2087
Arthur Samuel mai știa altceva.
08:32
Arthur Samuel knew strategy.
181
500881
4629
Arthur Samuel mai știa
și strategie.
08:37
So he wrote a small sub-program alongside it
182
505510
2396
Atunci a adăugat un mic sub-program
care să opereze în fundal.
care să opereze în fundal.
08:39
operating in the background, and all it did
183
507906
1974
Tot ce făcea era să calculeze
probabilitatea ca o configurație dată
probabilitatea ca o configurație dată
08:41
was score the probability
184
509880
1817
08:43
that a given board configuration would likely lead
185
511697
2563
să conducă la o tablă de joc
câștigătoare sau necâștigătoare
câștigătoare sau necâștigătoare
08:46
to a winning board versus a losing board
186
514260
2910
08:49
after every move.
187
517170
2508
după fiecare mutare.
08:51
He plays the computer. He wins.
188
519678
3150
Joacă cu calculatorul. Câștigă.
08:54
He plays the computer. He wins.
189
522828
2508
Joacă cu calculatorul. Câștigă.
08:57
He plays the computer. He wins.
190
525336
3731
Joacă cu calculatorul. Câștigă.
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
Atunci Arthur Samuel
lasă calculatorul să joace singur.
lasă calculatorul să joace singur.
09:03
to play itself.
192
531344
2227
09:05
It plays itself. It collects more data.
193
533571
3509
Joacă singur, adună mai multe date.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
Adună mai multe date,
îi crește precizia predicției.
îi crește precizia predicției.
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
Atunci Arthur Samuel se întoarce
la calculator și joacă cu el, și pierde.
la calculator și joacă cu el, și pierde.
09:15
and he plays it, and he loses,
196
543493
2318
09:17
and he plays it, and he loses,
197
545811
2069
Și joacă, și pierde.
09:19
and he plays it, and he loses,
198
547880
2047
Și joacă, și pierde.
09:21
and Arthur Samuel has created a machine
199
549927
2599
Și Arthur Samuel a creat o mașină
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
care îl depășește la o sarcină
în care el a inițiat-o.
în care el a inițiat-o.
09:30
And this idea of machine learning
201
558814
2498
Această idee de învățare automată
se răspândește peste tot.
se răspândește peste tot.
09:33
is going everywhere.
202
561312
3927
09:37
How do you think we have self-driving cars?
203
565239
3149
Cum credeți că avem mașini
care se conduc singure?
care se conduc singure?
09:40
Are we any better off as a society
204
568388
2137
E societatea mai capabilă să pună
toate regulile rutiere într-un software?
toate regulile rutiere într-un software?
09:42
enshrining all the rules of the road into software?
205
570525
3285
09:45
No. Memory is cheaper. No.
206
573810
2598
Nu.
E mai ieftină memoria? Nu.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Sunt mai rapizi algoritmii? Nu.
Sunt mai bune procesoarele? Nu.
09:52
All of those things matter, but that's not why.
208
580402
2772
Toate astea contează,
dar nu sunt ele motivul.
dar nu sunt ele motivul.
09:55
It's because we changed the nature of the problem.
209
583174
3141
Motivul e că am schimbat natura problemei.
09:58
We changed the nature of the problem from one
210
586315
1530
Am trecut de la a-i spune deschis
și explicit calculatorului cum să conducă
și explicit calculatorului cum să conducă
09:59
in which we tried to overtly and explicitly
211
587845
2245
10:02
explain to the computer how to drive
212
590090
2581
la a-i spune:
10:04
to one in which we say,
213
592671
1316
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
„Iată o mulțime de date despre vehicul.
Descurcă-te.
Descurcă-te.
10:07
You figure it out.
215
595863
1533
10:09
You figure it out that that is a traffic light,
216
597396
1867
Prinde-te singur că ăla e un semafor,
că semaforul e roșu și nu verde,
că semaforul e roșu și nu verde,
10:11
that that traffic light is red and not green,
217
599263
2081
că asta înseamnă să te oprești
și nu să continui”.
și nu să continui”.
10:13
that that means that you need to stop
218
601344
2014
10:15
and not go forward."
219
603358
3083
10:18
Machine learning is at the basis
220
606441
1518
Învățarea automată e la baza
multor lucruri pe care le facem online:
multor lucruri pe care le facem online:
10:19
of many of the things that we do online:
221
607959
1991
10:21
search engines,
222
609950
1857
motoare de căutare,
10:23
Amazon's personalization algorithm,
223
611807
3801
algoritmul de personalizare de la Amazon,
10:27
computer translation,
224
615608
2212
traduceri computerizate,
10:29
voice recognition systems.
225
617820
4290
sisteme de recunoaștere a vocii.
10:34
Researchers recently have looked at
226
622110
2835
Cercetătorii s-au interesat recent
de problema biopsiilor,
de problema biopsiilor,
10:36
the question of biopsies,
227
624945
3195
10:40
cancerous biopsies,
228
628140
2767
a biopsiilor de cancer.
10:42
and they've asked the computer to identify
229
630907
2315
Au cerut calculatorului să identifice,
10:45
by looking at the data and survival rates
230
633222
2471
analizând datele
și procentajul de supraviețuire,
și procentajul de supraviețuire,
10:47
to determine whether cells are actually
231
635693
4667
să determine dacă într-adevăr celulele
10:52
cancerous or not,
232
640360
2544
sunt canceroase sau nu.
10:54
and sure enough, when you throw the data at it,
233
642904
1778
Și bineînțeles, folosind date
și un algoritm de învățare automată,
și un algoritm de învățare automată,
10:56
through a machine-learning algorithm,
234
644682
2047
mașina a reușit să identifice
cele 12 semne tipice care prezic optim
cele 12 semne tipice care prezic optim
10:58
the machine was able to identify
235
646729
1877
11:00
the 12 telltale signs that best predict
236
648606
2262
11:02
that this biopsy of the breast cancer cells
237
650868
3299
că biopsia unor celule canceroase
de sân e într-adevăr canceroasă.
de sân e într-adevăr canceroasă.
11:06
are indeed cancerous.
238
654167
3218
11:09
The problem: The medical literature
239
657385
2498
Problema?
Literatura medicală cunoștea
numai nouă dintre ele.
numai nouă dintre ele.
11:11
only knew nine of them.
240
659883
2789
11:14
Three of the traits were ones
241
662672
1800
Trei caracteristici nu erau
între cele care trebuiau verificate,
între cele care trebuiau verificate,
11:16
that people didn't need to look for,
242
664472
2975
dar mașina le-a detectat.
11:19
but that the machine spotted.
243
667447
5531
11:24
Now, there are dark sides to big data as well.
244
672978
5925
Datele masive au și părți negative.
11:30
It will improve our lives, but there are problems
245
678903
2074
Ne vor îmbunătăți viața, dar sunt probleme
de care trebuie să fim conștienți.
de care trebuie să fim conștienți.
11:32
that we need to be conscious of,
246
680977
2640
11:35
and the first one is the idea
247
683617
2623
Prima e ideea
că s-ar putea să fim
pedepsiți pentru predicții,
pedepsiți pentru predicții,
11:38
that we may be punished for predictions,
248
686240
2686
11:40
that the police may use big data for their purposes,
249
688926
3870
că poliția ar putea folosi datele masive
pentru propriile scopuri,
pentru propriile scopuri,
11:44
a little bit like "Minority Report."
250
692796
2351
ca în filmul „Raport Special”.
11:47
Now, it's a term called predictive policing,
251
695147
2441
Se numește „poliție preventivă”
sau „criminologie algoritmică”,
sau „criminologie algoritmică”,
11:49
or algorithmic criminology,
252
697588
2363
11:51
and the idea is that if we take a lot of data,
253
699951
2036
iar ideea e că folosind multe date,
de exemplu locul crimelor trecute,
de exemplu locul crimelor trecute,
11:53
for example where past crimes have been,
254
701987
2159
11:56
we know where to send the patrols.
255
704146
2543
știm unde să trimitem patrulele.
11:58
That makes sense, but the problem, of course,
256
706689
2115
Are logică, dar desigur problema
e că nu se va limita la localizare,
e că nu se va limita la localizare,
12:00
is that it's not simply going to stop on location data,
257
708804
4544
12:05
it's going to go down to the level of the individual.
258
713348
2959
ci va ajunge la nivelul individului.
12:08
Why don't we use data about the person's
259
716307
2250
De ce să nu folosim date
din foaia matricolă de liceu?
din foaia matricolă de liceu?
12:10
high school transcript?
260
718557
2228
12:12
Maybe we should use the fact that
261
720785
1561
Poate ar trebui să ținem cont
dacă sunt șomeri, ce risc de credit au,
dacă sunt șomeri, ce risc de credit au,
12:14
they're unemployed or not, their credit score,
262
722346
2028
12:16
their web-surfing behavior,
263
724374
1552
ce comportament au pe internet,
dacă se culcă noaptea târziu.
dacă se culcă noaptea târziu.
12:17
whether they're up late at night.
264
725926
1878
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
Fitbitul lor, când va decela biochimia,
va arăta că au gânduri agresive.
va arăta că au gânduri agresive.
12:22
will show that they have aggressive thoughts.
266
730965
4236
Poate vom avea algoritmi care să prezică
ce avem de gând să facem
ce avem de gând să facem
12:27
We may have algorithms that are likely to predict
267
735201
2221
12:29
what we are about to do,
268
737422
1633
12:31
and we may be held accountable
269
739055
1244
și poate vom fi trași la răspundere
înainte de a face ceva.
înainte de a face ceva.
12:32
before we've actually acted.
270
740299
2590
12:34
Privacy was the central challenge
271
742889
1732
Intimitatea era problema centrală
în epoca datelor puține.
în epoca datelor puține.
12:36
in a small data era.
272
744621
2880
12:39
In the big data age,
273
747501
2149
În epoca datelor masive problema va fi
12:41
the challenge will be safeguarding free will,
274
749650
4523
de a proteja liberul arbitru,
12:46
moral choice, human volition,
275
754173
3779
alegerea morală,
voința umană,
factorul uman.
12:49
human agency.
276
757952
3068
12:54
There is another problem:
277
762540
2225
Mai e o problemă.
12:56
Big data is going to steal our jobs.
278
764765
3556
Datele masive ne vor fura
locurile de muncă.
locurile de muncă.
13:00
Big data and algorithms are going to challenge
279
768321
3512
Datele masive și algoritmii
vor pune la încercare
vor pune la încercare
13:03
white collar, professional knowledge work
280
771833
3061
munca funcționarilor
și a profesioniștilor în secolul XXI
și a profesioniștilor în secolul XXI
13:06
in the 21st century
281
774894
1653
așa cum automatizarea fabricilor
și linia de asamblare
și linia de asamblare
13:08
in the same way that factory automation
282
776547
2434
13:10
and the assembly line
283
778981
2189
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
au pus la încercare
muncitorimea în secolul XX.
muncitorimea în secolul XX.
13:16
Think about a lab technician
285
784196
2092
Să luăm un laborant
13:18
who is looking through a microscope
286
786288
1409
care se uită cu microscopul
la o biopsie de cancer
la o biopsie de cancer
13:19
at a cancer biopsy
287
787697
1624
13:21
and determining whether it's cancerous or not.
288
789321
2637
să vadă dacă e canceroasă sau nu.
13:23
The person went to university.
289
791958
1972
Omul a fost la facultate.
13:25
The person buys property.
290
793930
1430
Cumpără proprietate.
13:27
He or she votes.
291
795360
1741
Votează.
13:29
He or she is a stakeholder in society.
292
797101
3666
E acționar în societate.
13:32
And that person's job,
293
800767
1394
Omul acesta și o întreagă armată
de profesioniști ca el
de profesioniști ca el
13:34
as well as an entire fleet
294
802161
1609
13:35
of professionals like that person,
295
803770
1969
13:37
is going to find that their jobs are radically changed
296
805739
3150
își vor găsi slujbele schimbate radical
sau chiar complet eliminate.
sau chiar complet eliminate.
13:40
or actually completely eliminated.
297
808889
2357
13:43
Now, we like to think
298
811246
1284
Ne place să credem că tehnologia
creează slujbe pentru o vreme
creează slujbe pentru o vreme
13:44
that technology creates jobs over a period of time
299
812530
3187
13:47
after a short, temporary period of dislocation,
300
815717
3465
după o perioadă scurtă de dislocare.
13:51
and that is true for the frame of reference
301
819182
1941
E adevărat în sistemul de referință
cu care trăim: revoluția industrială.
cu care trăim: revoluția industrială.
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
Pentru că exact așa s-a întâmplat.
13:55
because that's precisely what happened.
303
823265
2328
13:57
But we forget something in that analysis:
304
825593
2333
Dar uităm ceva în analiza aceasta:
13:59
There are some categories of jobs
305
827926
1830
anumite categorii de locuri de muncă
sunt eliminate total și nu se mai întorc.
sunt eliminate total și nu se mai întorc.
14:01
that simply get eliminated and never come back.
306
829756
3420
14:05
The Industrial Revolution wasn't very good
307
833176
2004
Revoluția industrială
nu prea a fost bună dacă erai un cal.
nu prea a fost bună dacă erai un cal.
14:07
if you were a horse.
308
835180
4002
14:11
So we're going to need to be careful
309
839182
2055
Deci va trebui să avem grijă,
14:13
and take big data and adjust it for our needs,
310
841237
3514
să luăm datele masive
și să le adaptăm la nevoile noastre,
și să le adaptăm la nevoile noastre,
14:16
our very human needs.
311
844751
3185
la nevoile noastre foarte omenești.
Trebuie să fim stăpânul tehnologiei,
nu servitorul ei.
nu servitorul ei.
14:19
We have to be the master of this technology,
312
847936
1954
14:21
not its servant.
313
849890
1656
Era datelor masive abia acum începe
14:23
We are just at the outset of the big data era,
314
851546
2958
14:26
and honestly, we are not very good
315
854504
3150
și, sincer, nu prea ne descurcăm
cu datele pe care le putem colecta acum.
cu datele pe care le putem colecta acum.
14:29
at handling all the data that we can now collect.
316
857654
4207
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
Nu e doar o problemă pentru
Agenția de Securitate Națională.
Agenția de Securitate Națională.
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
Firmele adună o mulțime de date
și mai abuzează de ele.
și mai abuzează de ele.
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
Trebuie să avansăm, iar asta durează.
14:43
It's a little bit like the challenge that was faced
320
871896
1822
E cam ca problema pe care o avea
omul primitiv cu focul.
omul primitiv cu focul.
14:45
by primitive man and fire.
321
873718
2407
14:48
This is a tool, but this is a tool that,
322
876125
1885
E o unealtă, dar e o unealtă care,
dacă nu suntem atenți, ne va arde.
dacă nu suntem atenți, ne va arde.
14:50
unless we're careful, will burn us.
323
878010
3559
14:56
Big data is going to transform how we live,
324
884008
3120
Datele masive ne vor transforma
viața, munca și gândirea.
viața, munca și gândirea.
14:59
how we work and how we think.
325
887128
2801
15:01
It is going to help us manage our careers
326
889929
1889
Ne vor ajuta să ne ocupăm de cariere
și să trăim o viață plină de satisfacții,
și să trăim o viață plină de satisfacții,
15:03
and lead lives of satisfaction and hope
327
891818
3634
de speranță, de fericire și de sănătate.
15:07
and happiness and health,
328
895452
2992
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
Dar în trecut ne-am uitat adesea
la tehnologia informației
la tehnologia informației
15:13
and our eyes have only seen the T,
330
901750
2208
și ochii noștri au văzut doar T-ul,
tehnologia, hardware-ul,
tehnologia, hardware-ul,
15:15
the technology, the hardware,
331
903958
1686
pentru că asta era partea fizică.
15:17
because that's what was physical.
332
905644
2262
15:19
We now need to recast our gaze at the I,
333
907906
2924
Acum trebuie să ne aruncăm privirea pe I,
informația, care e mai puțin vizibilă,
informația, care e mai puțin vizibilă,
15:22
the information,
334
910830
1380
15:24
which is less apparent,
335
912210
1373
15:25
but in some ways a lot more important.
336
913583
4109
dar în unele privințe mult mai importantă.
15:29
Humanity can finally learn from the information
337
917692
3465
Omenirea poate în sfârșit învăța
din informațiile pe care le poate colecta,
din informațiile pe care le poate colecta,
15:33
that it can collect,
338
921157
2418
15:35
as part of our timeless quest
339
923575
2115
în încercarea noastră dintotdeauna
de a înțelege lumea și locul nostru în ea.
de a înțelege lumea și locul nostru în ea.
15:37
to understand the world and our place in it,
340
925690
3159
15:40
and that's why big data is a big deal.
341
928849
5631
De aceea datele masive
sunt mare scofală.
sunt mare scofală.
15:46
(Applause)
342
934480
3568
(Aplauze)
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com