TEDSalon Berlin 2014
Kenneth Cukier: Big data is better data
Kenneth Cukier: Büyük veri daha iyi veridir
Filmed:
Readability: 4.1
1,663,038 views
Sürücüsüz arabalar sadece bir başlangıçtı. Büyük veri odaklı teknoloji ve tasarımın geleceği nedir? Heyecanlandırıcı bir bilim konuşmasında, Kenneth Cukier makine öğreniminin ve insan bilgisinin devamına odaklanıyor.
Kenneth Cukier - Data Editor of The Economist
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Kenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages. Full bio
Double-click the English transcript below to play the video.
00:12
America's favorite pie is?
0
787
3845
Amerika'nın en sevilen turtası nedir ?
00:16
Audience: Apple.
Kenneth Cukier: Apple. Of course it is.
Kenneth Cukier: Apple. Of course it is.
1
4632
3506
İzleyici: Elmalı turta.
Kenneth Cukier: Elmalı turta. Tabii ki o.
Kenneth Cukier: Elmalı turta. Tabii ki o.
00:20
How do we know it?
2
8138
1231
Bunu nasıl biliyoruz?
00:21
Because of data.
3
9369
2753
Veri sayesinde.
00:24
You look at supermarket sales.
4
12122
2066
Süpermarket satışlarına bakın.
00:26
You look at supermarket
sales of 30-centimeter pies
sales of 30-centimeter pies
5
14188
2866
Dondurulmuş, 30 santimlik
turtaların süpermarket satışlarına
turtaların süpermarket satışlarına
00:29
that are frozen, and apple wins, no contest.
6
17054
4075
bakın ve elmalı turta kazanır, şüphesiz.
00:33
The majority of the sales are apple.
7
21129
5180
En çok satılanlar elmalı turtalardır.
00:38
But then supermarkets started selling
8
26309
2964
Fakat sonra süpermarketler daha küçük,
00:41
smaller, 11-centimeter pies,
9
29273
2583
11 santimlik turtalar satmaya başladı
00:43
and suddenly, apple fell to fourth or fifth place.
10
31856
4174
ve aniden elmalı turta dördüncü ya da
beşinciliğe düştü.
beşinciliğe düştü.
00:48
Why? What happened?
11
36030
2875
Neden? Ne oldu?
00:50
Okay, think about it.
12
38905
2818
Tamam, bir düşünün.
00:53
When you buy a 30-centimeter pie,
13
41723
3848
30 santimlik bir turta aldığınızda
00:57
the whole family has to agree,
14
45571
2261
bütün aile hemfikir olmalı
00:59
and apple is everyone's second favorite.
15
47832
3791
ve elmalı turta herkesin
ikinci favori tercihidir.
ikinci favori tercihidir.
01:03
(Laughter)
16
51623
1935
(Gülüşmeler)
01:05
But when you buy an individual 11-centimeter pie,
17
53558
3615
Ama 11 santimlik tek turta aldığınızda
01:09
you can buy the one that you want.
18
57173
3745
istediğinizi alabilirsiniz.
01:12
You can get your first choice.
19
60918
4015
İlk tercihinizi alabilirsiniz.
01:16
You have more data.
20
64933
1641
Daha fazla veriniz var.
01:18
You can see something
21
66574
1554
Ondan daha küçük miktarlarda
01:20
that you couldn't see
22
68128
1132
sizde olunca daha önce
01:21
when you only had smaller amounts of it.
23
69260
3953
göremediğiniz bir şeyi görebilirsiniz.
01:25
Now, the point here is that more data
24
73213
2475
Şimdi, buradaki anafikir ise
daha fazla veri
daha fazla veri
01:27
doesn't just let us see more,
25
75688
2283
bizim sadece daha fazla görmemizi değil,
01:29
more of the same thing we were looking at.
26
77971
1854
baktığımız şeyin daha fazlasını
görmemizi sağlar.
görmemizi sağlar.
01:31
More data allows us to see new.
27
79825
3613
Daha fazla veri, yeniyi görmemizi sağlar.
01:35
It allows us to see better.
28
83438
3094
Daha iyi görmemizi sağlar.
01:38
It allows us to see different.
29
86532
3656
Farklı görmemizi sağlar.
01:42
In this case, it allows us to see
30
90188
3173
Bu durumda da bize
01:45
what America's favorite pie is:
31
93361
2913
Amerika'nın en sevdiği turtanın
01:48
not apple.
32
96274
2542
elmalı turta olmadığını gösteriyor.
01:50
Now, you probably all have heard the term big data.
33
98816
3614
Şimdi, hepiniz büyük ihtimalle büyük veri
terimini duymuşsunuzdur.
terimini duymuşsunuzdur.
01:54
In fact, you're probably sick of hearing the term
34
102430
2057
Hatta, belki de büyük
veri terimini
veri terimini
01:56
big data.
35
104487
1630
duymaktan bıkmışsınızdır.
01:58
It is true that there is a lot of hype around the term,
36
106117
3330
Terimin etrafında bir çok aldatıcı
olduğu doğru
olduğu doğru
02:01
and that is very unfortunate,
37
109447
2332
ve bu çok talihsiz bir durum
02:03
because big data is an extremely important tool
38
111779
3046
çünkü büyük veri toplumun ilerleyeceği
02:06
by which society is going to advance.
39
114825
3734
çok önemli bir araçtır.
02:10
In the past, we used to look at small data
40
118559
3561
Geçmişte küçük verilere bakardık
02:14
and think about what it would mean
41
122120
1704
ve dünyayı anlamaya
çalışmanın nasıl
çalışmanın nasıl
02:15
to try to understand the world,
42
123824
1496
bir şey olacağını düşünürdük
02:17
and now we have a lot more of it,
43
125320
1991
ve şu an daha fazlasına sahibiz,
02:19
more than we ever could before.
44
127311
2722
daha önce sahip olabileceğimizden
de daha fazlasına.
de daha fazlasına.
02:22
What we find is that when we have
45
130033
1877
Bulduğumuz şey ise, geniş bir veriye sahip
02:23
a large body of data, we can fundamentally do things
46
131910
2724
olduğumuzda küçük miktarlara
sahip olduğumuz
sahip olduğumuz
02:26
that we couldn't do when we
only had smaller amounts.
only had smaller amounts.
47
134634
3276
zaman yapamadığımız şeyleri
temel olarak yapabilmemizdir.
temel olarak yapabilmemizdir.
02:29
Big data is important, and big data is new,
48
137910
2641
Büyük veri önemlidir ve büyük veri yenidir
02:32
and when you think about it,
49
140551
1777
ve bunun hakkında düşündüğünüzde
02:34
the only way this planet is going to deal
50
142328
2216
bu gezegenin küresel zorluklarını ---
02:36
with its global challenges —
51
144544
1789
insanları beslemek; sağlık hizmetini,
enerjisini,
enerjisini,
02:38
to feed people, supply them with medical care,
52
146333
3537
elektriğini sağlamak ve
küresel ısınma yüzünden
küresel ısınma yüzünden
02:41
supply them with energy, electricity,
53
149870
2810
onların yanıp kül olmadığından
02:44
and to make sure they're not burnt to a crisp
54
152680
1789
emin olmak —
02:46
because of global warming —
55
154469
1238
verinin verimli kullamıyla
02:47
is because of the effective use of data.
56
155707
4195
üstesinden gelebileceği tek yoldur.
02:51
So what is new about big
data? What is the big deal?
data? What is the big deal?
57
159902
3870
Peki büyük veri hakkında gelişmeler ne?
Önemli olan ne?
Önemli olan ne?
02:55
Well, to answer that question, let's think about
58
163772
2517
Peki, bu soruyu cevaplamak için
02:58
what information looked like,
59
166289
1896
geçmişte fiziksel olarak
03:00
physically looked like in the past.
60
168185
3034
bilginin neye benzediğini düşünelim.
03:03
In 1908, on the island of Crete,
61
171219
3611
1908'de Girit Adası'nda
03:06
archaeologists discovered a clay disc.
62
174830
4735
arkeologlar bir kil disk buldular.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
179565
4059
Milattan önce 2000 tarihli olduğunu
söylediler, yani kil 4000 yaşında.
söylediler, yani kil 4000 yaşında.
03:15
Now, there's inscriptions on this disc,
64
183624
2004
Diskin üzerinde yazılar var fakat
03:17
but we actually don't know what it means.
65
185628
1327
ne anlama geldiklerini bilmiyoruz.
03:18
It's a complete mystery, but the point is that
66
186955
2098
Bu tamamen bir gizem, fakat önemli olan
03:21
this is what information used to look like
67
189053
1928
bunun bize bilgilerin 4000 yıl
önce nasıl
önce nasıl
03:22
4,000 years ago.
68
190981
2089
göründüğünü göstermesidir.
03:25
This is how society stored
69
193070
2548
Toplum, bu şekilde bilgiyi
03:27
and transmitted information.
70
195618
3524
kaydetmiş ve aktarmış.
03:31
Now, society hasn't advanced all that much.
71
199142
4160
Şu an toplum o kadar da fazla ilerlemedi.
03:35
We still store information on discs,
72
203302
3474
Biz hâlâ bilgileri disklerin
üzerine kaydediyoruz
üzerine kaydediyoruz
03:38
but now we can store a lot more information,
73
206776
3184
fakat şu an daha fazla
bilgi depolayabiliyoruz,
bilgi depolayabiliyoruz,
03:41
more than ever before.
74
209960
1260
her zamankinden de fazla.
03:43
Searching it is easier. Copying it easier.
75
211220
3093
Arama daha kolaydır.
Kopyalama daha kolaydır.
Kopyalama daha kolaydır.
03:46
Sharing it is easier. Processing it is easier.
76
214313
3500
Paylaşmak daha kolaydır.
İşlemek daha kolaydır.
İşlemek daha kolaydır.
03:49
And what we can do is we can reuse this information
77
217813
2766
Ve yapabildiğimiz şey ise bilgileri
ilk topladığımızda
ilk topladığımızda
03:52
for uses that we never even imagined
78
220579
1834
hiç hayal etmediğimiz kullanımlar için
03:54
when we first collected the data.
79
222413
3195
tekrar tekrar kullanabilmemizdir.
03:57
In this respect, the data has gone
80
225608
2252
Bu açıdan, veri bir depodan
03:59
from a stock to a flow,
81
227860
3532
bir akıma, yani durağan
04:03
from something that is stationary and static
82
231392
3938
ve dengeli olan bir şeyden akışkan
04:07
to something that is fluid and dynamic.
83
235330
3609
ve hareketli olan bir şeye gitti.
04:10
There is, if you will, a liquidity to information.
84
238939
4023
İsterseniz, bilgide bir akıcılık var.
04:14
The disc that was discovered off of Crete
85
242962
3474
4000 yaşındaki Girit'te
04:18
that's 4,000 years old, is heavy,
86
246436
3764
keşfedilen disk ağır,
04:22
it doesn't store a lot of information,
87
250200
1962
çok fazla bilgi depolamıyor
04:24
and that information is unchangeable.
88
252162
3116
ve bu bilgi değiştirilemez.
04:27
By contrast, all of the files
89
255278
4011
Buna zıt olarak, Edward Snowden'ın
04:31
that Edward Snowden took
90
259289
1861
Birleşik Devletler'deki Ulusal Güvenlik
04:33
from the National Security
Agency in the United States
Agency in the United States
91
261150
2621
Ajansından aldığı bütün dosyalar
04:35
fits on a memory stick
92
263771
2419
bir tırnak büyüklüğündeki
04:38
the size of a fingernail,
93
266190
3010
bir hafıza kartına sığıyor
04:41
and it can be shared at the speed of light.
94
269200
4745
ve ışık hızında paylaşılabiliyor.
04:45
More data. More.
95
273945
5255
Daha fazla veri. Daha fazla.
04:51
Now, one reason why we have
so much data in the world today
so much data in the world today
96
279200
1974
Bugün dünyada bunca veri
olmasının bir nedeni ise
olmasının bir nedeni ise
04:53
is we are collecting things
97
281174
1432
daha önce üzerinde bilgi
04:54
that we've always collected information on,
98
282606
3280
biriktirdiğimiz şeyleri toplamamızdandır
04:57
but another reason why is we're taking things
99
285886
2656
ancak diğer bir sebep ise
daha önce bilgili
daha önce bilgili
05:00
that have always been informational
100
288542
2812
olduğumuz fakat öncesinde
hiç veri formatı
hiç veri formatı
05:03
but have never been rendered into a data format
101
291354
2486
hâline getirilmememiş şeyleri almamız
05:05
and we are putting it into data.
102
293840
2419
ve onları verilerin içine koymamızdır.
05:08
Think, for example, the question of location.
103
296259
3308
Örneğin, yer mevzusunu düşünün.
05:11
Take, for example, Martin Luther.
104
299567
2249
Mesela Martin Luther'i ele alın.
05:13
If we wanted to know in the 1500s
105
301816
1597
Eğer Martin Luther'in yaşadığı
05:15
where Martin Luther was,
106
303413
2667
1500'lü yılları bilmek isteseydik
05:18
we would have to follow him at all times,
107
306080
2092
onu her zaman takip etmek
zorunda olacaktık,
zorunda olacaktık,
05:20
maybe with a feathery quill and an inkwell,
108
308172
2137
belki bir kuş tüyü ve
mürekkep hokkası ile
mürekkep hokkası ile
05:22
and record it,
109
310309
1676
onu kaydetmek zorunda olacaktık
05:23
but now think about what it looks like today.
110
311985
2183
ama şimdi bugün bu nasıl
görünür bir düşünün.
görünür bir düşünün.
05:26
You know that somewhere,
111
314168
2122
Bilirsiniz bir yerde, muhtemelen
05:28
probably in a telecommunications carrier's database,
112
316290
2446
telekomünikasyon
taşıyıcılarının veri tabanında,
taşıyıcılarının veri tabanında,
05:30
there is a spreadsheet or at least a database entry
113
318736
3036
bütün zaman nerede olduğunuza dair bilgi
05:33
that records your information
114
321772
2088
kaydeden bir hesap çizelgesi veya
05:35
of where you've been at all times.
115
323860
2063
en azından bir veri tabanı girişi vardır.
05:37
If you have a cell phone,
116
325923
1360
Cep telefonunuz varsa
05:39
and that cell phone has GPS,
but even if it doesn't have GPS,
but even if it doesn't have GPS,
117
327283
2847
ve bu cep telefonunun GPS'i varsa
hatta GPS'i yoksa bile
hatta GPS'i yoksa bile
05:42
it can record your information.
118
330130
2385
bilginizi kaydedebilir.
05:44
In this respect, location has been datafied.
119
332515
4084
Bu bakımdan konum verilendirilmiştir.
05:48
Now think, for example, of the issue of posture,
120
336599
4601
Şimdi düşünün, örneğin şu anki
05:53
the way that you are all sitting right now,
121
341200
1285
hepinizin oturuş biçimini,
05:54
the way that you sit,
122
342485
2030
sizin oturuş biçiminizi,
05:56
the way that you sit, the way that you sit.
123
344515
2771
sizin oturuş biçiminizi,
sizin oturuş biçiminizi.
sizin oturuş biçiminizi.
05:59
It's all different, and it's a function of your leg length
124
347286
2077
Hepsi de farklı, sizin
bacak uzunluğunuzun,
bacak uzunluğunuzun,
06:01
and your back and the contours of your back,
125
349363
2093
sırt ve sırt konturünün fonksiyonudur
06:03
and if I were to put sensors,
maybe 100 sensors
maybe 100 sensors
126
351456
2531
ve eğer herbirinizin sandalyesine belki
06:05
into all of your chairs right now,
127
353987
1766
bütün sandalyelere toplamda
06:07
I could create an index that's fairly unique to you,
128
355753
3600
100 sensör koysaydım,
parmağınızın olmasa da
parmağınızın olmasa da
06:11
sort of like a fingerprint, but it's not your finger.
129
359353
4409
parmak iziniz gibi size özel bir
indeks yaratabilirdim.
indeks yaratabilirdim.
06:15
So what could we do with this?
130
363762
2969
Peki bununla ne yapabilirdik?
06:18
Researchers in Tokyo are using it
131
366731
2397
Tokyo'daki araştırmacılar bunu arabalarda
06:21
as a potential anti-theft device in cars.
132
369128
4388
potansiyel hırsızlık önleme aracı
olarak kullanıyorlar.
olarak kullanıyorlar.
06:25
The idea is that the carjacker sits behind the wheel,
133
373516
2924
Fikir şu ki; araba hırsızı
direksiyona geçer,
direksiyona geçer,
06:28
tries to stream off, but the car recognizes
134
376440
2104
yola çıkmaya çalışır ama
araba direksiyonda
araba direksiyonda
06:30
that a non-approved driver is behind the wheel,
135
378544
2362
izinsiz bir sürücünün olduğunu tanımlar
06:32
and maybe the engine just stops, unless you
136
380906
2164
ve belki de motor birden durur, tabii eğer
06:35
type in a password into the dashboard
137
383070
3177
"Hey, kullanmak için yetkim var" diye
06:38
to say, "Hey, I have authorization to drive." Great.
138
386247
4658
şifre yapmadıysanız. Harika.
06:42
What if every single car in Europe
139
390905
2553
Avrupa'daki her arabada bu teknoloji
06:45
had this technology in it?
140
393458
1457
olsa ne olurdu?
06:46
What could we do then?
141
394915
3165
Ne yapabilirdik o zaman?
06:50
Maybe, if we aggregated the data,
142
398080
2240
Belki, verileri kümelersek
06:52
maybe we could identify telltale signs
143
400320
3814
belki belirtileri, en iyi öngörüyü
06:56
that best predict that a car accident
144
404134
2709
5 dakika içerinde bir araba kazasının
06:58
is going to take place in the next five seconds.
145
406843
5893
gerçekleşebileceğini tanımlayabiliriz.
07:04
And then what we will have datafied
146
412736
2557
Ve daha sonra verileştireceğimiz ise
07:07
is driver fatigue,
147
415293
1783
sürücü yorgunluğudur
07:09
and the service would be when the car senses
148
417076
2334
ve servis otomatik olarak bilir,
07:11
that the person slumps into that position,
149
419410
3437
kişi birden o pozisyona düştüğünde araba
07:14
automatically knows, hey, set an internal alarm
150
422847
3994
bunu algılayarak direksiyonu titretecek
07:18
that would vibrate the steering wheel, honk inside
151
426841
2025
içeride korna çalacak ve
07:20
to say, "Hey, wake up,
152
428866
1721
"Hey, Uyan ve daha dikkatli ol. "
07:22
pay more attention to the road."
153
430587
1904
diyecek bir iç alarm kurar.
07:24
These are the sorts of things we can do
154
432491
1853
Yaşamımızın diğer yönlerini
07:26
when we datafy more aspects of our lives.
155
434344
2821
verileştirirken yapabileceğimiz
şeylerdendir bunlar.
şeylerdendir bunlar.
07:29
So what is the value of big data?
156
437165
3675
Peki büyük verinin değeri nedir?
07:32
Well, think about it.
157
440840
2190
Peki, bir düşünün.
07:35
You have more information.
158
443030
2412
Daha fazla bilginiz var.
07:37
You can do things that you couldn't do before.
159
445442
3341
Önceden yapamadığınız
şeyleri yapabilirsiniz.
şeyleri yapabilirsiniz.
07:40
One of the most impressive areas
160
448783
1676
Bu konseptin yer aldığı
07:42
where this concept is taking place
161
450459
1729
en etkileyici alanlardan bir tanesi
07:44
is in the area of machine learning.
162
452188
3307
ise makine öğrenmesi.
07:47
Machine learning is a branch of artificial intelligence,
163
455495
3077
Makine öğrenmesi yapay zekânın bir dalıdır
07:50
which itself is a branch of computer science.
164
458572
3378
ki o da bilgisayar biliminin bir dalıdır.
07:53
The general idea is that instead of
165
461950
1543
Genel fikir ise, bir bilgisayarı
07:55
instructing a computer what do do,
166
463493
2117
yapacağı şey için talimat vermek yerine
07:57
we are going to simply throw data at the problem
167
465610
2620
adeta verileri probleme yönelteceğiz ve
08:00
and tell the computer to figure it out for itself.
168
468230
3206
bilgisayara yolunu bulmasını söyleyeceğiz.
08:03
And it will help you understand it
169
471436
1777
Ve temelini görerek
08:05
by seeing its origins.
170
473213
3552
anlamanıza yardımcı olacaktır.
08:08
In the 1950s, a computer scientist
171
476765
2388
1950 'lerde, IBM'de Arthur Samuel
08:11
at IBM named Arthur Samuel liked to play checkers,
172
479153
3592
adında bir bilgisayar
bilimci dama oynamayı seviyordu
bilimci dama oynamayı seviyordu
08:14
so he wrote a computer program
173
482745
1402
ve bilgisayara karşı
08:16
so he could play against the computer.
174
484147
2813
oynayabilmek için bir program yazdı.
08:18
He played. He won.
175
486960
2711
Oynadı. Kazandı.
08:21
He played. He won.
176
489671
2103
Oynadı. Kazandı.
08:23
He played. He won,
177
491774
3015
Oynadı. Kazandı.
Çünkü bilgisayar sadece
geçerli hamlenin
geçerli hamlenin
08:26
because the computer only knew
178
494789
1778
ne olduğunu biliyordu.
08:28
what a legal move was.
179
496567
2227
Arthur Samuel başka bir şey biliyordu.
08:30
Arthur Samuel knew something else.
180
498794
2087
08:32
Arthur Samuel knew strategy.
181
500881
4629
Arthur Samuel strateji biliyordu.
Bu yüzden yanına ufak
bir alt-program yazdı
bir alt-program yazdı
08:37
So he wrote a small sub-program alongside it
182
505510
2396
08:39
operating in the background, and all it did
183
507906
1974
arkaplanda işyelen ve tüm yaptığı
08:41
was score the probability
184
509880
1817
verilen bir dama tahta düzeninin
olası kazanan ya da kaybeden taraf
08:43
that a given board configuration would likely lead
185
511697
2563
olma ihtimalini tutmasıydı
08:46
to a winning board versus a losing board
186
514260
2910
her hamle sonrası.
08:49
after every move.
187
517170
2508
Bilgisayarla oynar. Kazanır.
08:51
He plays the computer. He wins.
188
519678
3150
Bilgisayarla oynar. Kazanır.
08:54
He plays the computer. He wins.
189
522828
2508
Bilgisayarla oynar. Kazanır.
08:57
He plays the computer. He wins.
190
525336
3731
Ve daha sonra Arthur Samuel bilgisayarı
09:01
And then Arthur Samuel leaves the computer
191
529067
2277
kendi kendine oynamaya bırakır.
09:03
to play itself.
192
531344
2227
09:05
It plays itself. It collects more data.
193
533571
3509
Kendi kendine oynar,
daha fazla veri toplar.
daha fazla veri toplar.
Daha çok veri toplar.
Tahminlerinin doğruluk oranını yükseltir.
Tahminlerinin doğruluk oranını yükseltir.
09:09
It collects more data. It increases
the accuracy of its prediction.
the accuracy of its prediction.
194
537080
4309
Sonra Arthur Samuel yine
bilgisayarın başına geçer
bilgisayarın başına geçer
09:13
And then Arthur Samuel goes back to the computer
195
541389
2104
oynar ve kaybeder,
09:15
and he plays it, and he loses,
196
543493
2318
oynar ve kaybeder,
09:17
and he plays it, and he loses,
197
545811
2069
09:19
and he plays it, and he loses,
198
547880
2047
oynar ve kaybeder
09:21
and Arthur Samuel has created a machine
199
549927
2599
ve Arthur Samuel kendi
öğrettiği bir işte,
öğrettiği bir işte,
09:24
that surpasses his ability in a task that he taught it.
200
552526
6288
kendi becerilerini aşan
bir makine yaratmıştır.
bir makine yaratmıştır.
09:30
And this idea of machine learning
201
558814
2498
Ve bu makine öğrenimi fikri
her yerde kullanılıyor.
09:33
is going everywhere.
202
561312
3927
09:37
How do you think we have self-driving cars?
203
565239
3149
Kendi kendini süren arabaları
nasıl yapıyoruz zannediyorsunuz ?
nasıl yapıyoruz zannediyorsunuz ?
09:40
Are we any better off as a society
204
568388
2137
İnsanlık olarak bir yolun tüm kurallarını
09:42
enshrining all the rules of the road into software?
205
570525
3285
bir yazılıma yüklemekten
daha iyisini yapabiliyor muyuz ?
daha iyisini yapabiliyor muyuz ?
09:45
No. Memory is cheaper. No.
206
573810
2598
Hayır. Bellek daha ucuz. Hayır.
Algoritmalar daha hızlı. Hayır.
İşlemciler daha iyi. Hayır.
İşlemciler daha iyi. Hayır.
09:48
Algorithms are faster. No. Processors are better. No.
207
576408
3994
Bunların hepsi önemli,
fakat asıl mesele bunlar değil.
fakat asıl mesele bunlar değil.
09:52
All of those things matter, but that's not why.
208
580402
2772
Asıl mesele, bizim sorunun doğasını
değiştirmiş olmamızdır.
değiştirmiş olmamızdır.
09:55
It's because we changed the nature of the problem.
209
583174
3141
Sorunun doğasını açık şekilde
09:58
We changed the nature of the problem from one
210
586315
1530
09:59
in which we tried to overtly and explicitly
211
587845
2245
bizim bilgisayara arabayı nasıl
süreceğini anlattığımız noktadan,
10:02
explain to the computer how to drive
212
590090
2581
"İşte, aracın etrafında
bir sürü veri var.
bir sürü veri var.
10:04
to one in which we say,
213
592671
1316
Sen bunları çözersin.
10:05
"Here's a lot of data around the vehicle.
214
593987
1876
Sen onun bir trafik
ışığı olduğunu anlarsın,
ışığı olduğunu anlarsın,
10:07
You figure it out.
215
595863
1533
bu trafik ışığı kırmızı, yeşil değil
10:09
You figure it out that that is a traffic light,
216
597396
1867
ve bu durman gerektiği
10:11
that that traffic light is red and not green,
217
599263
2081
ileriye gitmemen gerektiği
anlamına gelir."
anlamına gelir."
10:13
that that means that you need to stop
218
601344
2014
noktasına değiştirdik.
10:15
and not go forward."
219
603358
3083
Makine öğrenimi temelinde
10:18
Machine learning is at the basis
220
606441
1518
bizim internette yaptığımız
çoğu şey vardır:
çoğu şey vardır:
10:19
of many of the things that we do online:
221
607959
1991
10:21
search engines,
222
609950
1857
arama motorları,
10:23
Amazon's personalization algorithm,
223
611807
3801
Amazon'un kişiselleştirme algoritması,
bilgisayar çevirisi,
10:27
computer translation,
224
615608
2212
ses tanıma sistemleri.
10:29
voice recognition systems.
225
617820
4290
Araştırmacılar yakın zamanda
10:34
Researchers recently have looked at
226
622110
2835
biopsi ve kanserli biopsi sorusu
10:36
the question of biopsies,
227
624945
3195
ile ilgilenmeye başladılar
10:40
cancerous biopsies,
228
628140
2767
ve bilgisayardan verilere ve hayatta kalma
10:42
and they've asked the computer to identify
229
630907
2315
10:45
by looking at the data and survival rates
230
633222
2471
oranlarına bakarak
hücrelerin aslında
hücrelerin aslında
10:47
to determine whether cells are actually
231
635693
4667
kanserli olup olmadığına
karar vermesini istediler ve
10:52
cancerous or not,
232
640360
2544
bilgisayara makine öğrenimi algoritması
10:54
and sure enough, when you throw the data at it,
233
642904
1778
10:56
through a machine-learning algorithm,
234
644682
2047
aracılığıyla bir veri verdiğinizde
10:58
the machine was able to identify
235
646729
1877
makine göğüs kanseri hücre
11:00
the 12 telltale signs that best predict
236
648606
2262
biopsilerininden en iyi 12 tane
11:02
that this biopsy of the breast cancer cells
237
650868
3299
gerçekten de kanserli hücre belirtisini
bulmayı başardı.
11:06
are indeed cancerous.
238
654167
3218
Sorun şu: Sağlık literatürü
11:09
The problem: The medical literature
239
657385
2498
bunların sadece 9 tanesini biliyordu.
11:11
only knew nine of them.
240
659883
2789
Belirtilerden üçü, onların
11:14
Three of the traits were ones
241
662672
1800
11:16
that people didn't need to look for,
242
664472
2975
araştırma ihtiyacı duymadıklarıydı
11:19
but that the machine spotted.
243
667447
5531
fakat bilgisayar bunları buldu.
11:24
Now, there are dark sides to big data as well.
244
672978
5925
Şimdi, büyük verinin karanlık
tarafları da var.
tarafları da var.
11:30
It will improve our lives, but there are problems
245
678903
2074
Hayatlarımızı kolaylaştıracak fakat
11:32
that we need to be conscious of,
246
680977
2640
farkına varmamız gereken sorunlar da var
11:35
and the first one is the idea
247
683617
2623
ve ilki de
tahminler yüzünden cezalandırılabiliriz,
11:38
that we may be punished for predictions,
248
686240
2686
polis büyük veriyi kendi amaçları
için kullanabilir,
için kullanabilir,
11:40
that the police may use big data for their purposes,
249
688926
3870
"Azınlık Raporu"' ndaki gibi.
11:44
a little bit like "Minority Report."
250
692796
2351
11:47
Now, it's a term called predictive policing,
251
695147
2441
Öngörüsel polislik adı
verilen bir terim var
verilen bir terim var
11:49
or algorithmic criminology,
252
697588
2363
veya algoritmik suçbilim olarak
olay şu, bir sürü veri toplarsak
11:51
and the idea is that if we take a lot of data,
253
699951
2036
meselâ geçmiş suçlar nerede
gerçekleşti gibi
gerçekleşti gibi
11:53
for example where past crimes have been,
254
701987
2159
devriyeleri nereye
göndereceğimizi de biliriz.
göndereceğimizi de biliriz.
11:56
we know where to send the patrols.
255
704146
2543
Mantıklı duruyor fakat,
sorun şu ki
sorun şu ki
11:58
That makes sense, but the problem, of course,
256
706689
2115
12:00
is that it's not simply going to stop on location data,
257
708804
4544
bu öyle konum bilgisiyle bitmeyecek
bu kişisel sınırlara kadar inecektir.
12:05
it's going to go down to the level of the individual.
258
713348
2959
Neden birinin lisedeki
not dökümünü
not dökümünü
12:08
Why don't we use data about the person's
259
716307
2250
veri olarak kullanmıyoruz ?
12:10
high school transcript?
260
718557
2228
Belki de, işsiz olsalar da olmasalar da
12:12
Maybe we should use the fact that
261
720785
1561
12:14
they're unemployed or not, their credit score,
262
722346
2028
kredi notlarını,
internette gezinme davranışlarını,
12:16
their web-surfing behavior,
263
724374
1552
gece ayakta olup
olmadıklarını kullanmalıyız.
olmadıklarını kullanmalıyız.
12:17
whether they're up late at night.
264
725926
1878
12:19
Their Fitbit, when it's able
to identify biochemistries,
to identify biochemistries,
265
727804
3161
Fitbit'leri, biyokimyalarını
tanımlayabildiğinde
tanımlayabildiğinde
12:22
will show that they have aggressive thoughts.
266
730965
4236
agresif fikirleri
olduğunu bize gösterecek.
olduğunu bize gösterecek.
Ne yapacağımızı tahmin edebilecek
12:27
We may have algorithms that are likely to predict
267
735201
2221
algoritmalara sahip olabiliriz
12:29
what we are about to do,
268
737422
1633
hatta harekete geçmeden önce
12:31
and we may be held accountable
269
739055
1244
12:32
before we've actually acted.
270
740299
2590
sorumlu bile tutulabiliriz.
Mahremiyet, küçük veri devrinde
12:34
Privacy was the central challenge
271
742889
1732
esas zorlu işimiz idi.
12:36
in a small data era.
272
744621
2880
12:39
In the big data age,
273
747501
2149
Büyük veri devrinde ise
12:41
the challenge will be safeguarding free will,
274
749650
4523
zorlu iş hür iradeyi,
ahlaki seçimleri, insani istekleri ve
12:46
moral choice, human volition,
275
754173
3779
insanın benliğini korumak olacak.
12:49
human agency.
276
757952
3068
Başka bir sorun daha var:
12:54
There is another problem:
277
762540
2225
Büyük veri mesleklerimizi
elimizden alacak.
elimizden alacak.
12:56
Big data is going to steal our jobs.
278
764765
3556
Büyük veri ve algoritmalar birlikte
13:00
Big data and algorithms are going to challenge
279
768321
3512
ofis çalışanlarına, 21. yüzyıldaki
mesleki becerilere
mesleki becerilere
13:03
white collar, professional knowledge work
280
771833
3061
meydan okuyacak
13:06
in the 21st century
281
774894
1653
13:08
in the same way that factory automation
282
776547
2434
sanayi devriminin 20. yy'da
otomasyon ve seri üretim hattı ile
otomasyon ve seri üretim hattı ile
13:10
and the assembly line
283
778981
2189
13:13
challenged blue collar labor in the 20th century.
284
781170
3026
mavi yakalı işçilere yaptığı gibi.
Bir laboratuar teknisyeni düşünün
13:16
Think about a lab technician
285
784196
2092
13:18
who is looking through a microscope
286
786288
1409
bir mikroskopla kanser biopsisine bakıyor
13:19
at a cancer biopsy
287
787697
1624
13:21
and determining whether it's cancerous or not.
288
789321
2637
ve kanserli olup olmadığına
karar veriyor.
karar veriyor.
Bu kişi üniversiteye gitti.
13:23
The person went to university.
289
791958
1972
13:25
The person buys property.
290
793930
1430
Bu kişi mülk ediniyor.
13:27
He or she votes.
291
795360
1741
Oy kullanıyor.
13:29
He or she is a stakeholder in society.
292
797101
3666
Toplumda paydaş bir kimse.
Ve bu kişinin işi
13:32
And that person's job,
293
800767
1394
13:34
as well as an entire fleet
294
802161
1609
ve diğer onun gibi
13:35
of professionals like that person,
295
803770
1969
profesyoneller filosunun
mesleklerinin tamamiyle
13:37
is going to find that their jobs are radically changed
296
805739
3150
başka bir şeye dönüştüğünü
13:40
or actually completely eliminated.
297
808889
2357
ya da artık yok olduğunu görecekler.
13:43
Now, we like to think
298
811246
1284
Biz kısa ve geçici bir
13:44
that technology creates jobs over a period of time
299
812530
3187
alt üst olmadan sonra
teknolojinin bizlere yeni
meslekler
meslekler
13:47
after a short, temporary period of dislocation,
300
815717
3465
yaratacağını düşünmeyi seviyoruz
ve bu hakikaten doğru,
hepimizin yaşadığı
hepimizin yaşadığı
13:51
and that is true for the frame of reference
301
819182
1941
13:53
with which we all live, the Industrial Revolution,
302
821123
2142
önümüzdeki endüstri
devrimi örneğine bakınca
devrimi örneğine bakınca
13:55
because that's precisely what happened.
303
823265
2328
çünkü gerçekte olan tam olarak bu.
13:57
But we forget something in that analysis:
304
825593
2333
Fakat bu tahlilde bir şeyi unutuyoruz:
13:59
There are some categories of jobs
305
827926
1830
Bazı meslek grupları var
öylece yok olan ve
14:01
that simply get eliminated and never come back.
306
829756
3420
bir daha geri gelmeyecek olan.
Endüstri Devrimi pek iyi olmazdı
14:05
The Industrial Revolution wasn't very good
307
833176
2004
eğer bir at olsaydınız.
14:07
if you were a horse.
308
835180
4002
14:11
So we're going to need to be careful
309
839182
2055
Yani dikkatli olmamız gerekiyor
14:13
and take big data and adjust it for our needs,
310
841237
3514
büyük veriyi ele alıp ihtiyaçlarımıza
göre şekillendirmemiz gerekiyor
14:16
our very human needs.
311
844751
3185
tümüyle insani ihtiyaçlarımıza göre.
Bu teknolojinin ustası olmamız gerekiyor,
14:19
We have to be the master of this technology,
312
847936
1954
14:21
not its servant.
313
849890
1656
hizmetçisi değil.
Daha henüz büyük
veri devrinin başındayız
veri devrinin başındayız
14:23
We are just at the outset of the big data era,
314
851546
2958
ve doğrusu, toplayabildiğimiz
14:26
and honestly, we are not very good
315
854504
3150
veri ile başa çıkmak
konusunda pek iyi değiliz.
konusunda pek iyi değiliz.
14:29
at handling all the data that we can now collect.
316
857654
4207
Bu sadece
Ulusal Güvenlik Teşkilatı
Ulusal Güvenlik Teşkilatı
14:33
It's not just a problem for
the National Security Agency.
the National Security Agency.
317
861861
3330
için bir sorun değil.
İşletmeler oldukça veri topluyorlar
14:37
Businesses collect lots of
data, and they misuse it too,
data, and they misuse it too,
318
865191
3038
ve bunu suistimal de ediyorlar
ve bu konuda daha iyi
olmamız gerekiyor,
olmamız gerekiyor,
14:40
and we need to get better at
this, and this will take time.
this, and this will take time.
319
868229
3667
tabii ki bu da zaman alacak.
Bu biraz zorlu bir iş,
14:43
It's a little bit like the challenge that was faced
320
871896
1822
ilkel insanın ateşle karşılaşması gibi.
14:45
by primitive man and fire.
321
873718
2407
14:48
This is a tool, but this is a tool that,
322
876125
1885
Bu bir araç fakat dikkatli olmazsak
14:50
unless we're careful, will burn us.
323
878010
3559
bizi yakabilecek bir araç.
Büyük veri yaşayış
şeklimizi değiştirecek,
şeklimizi değiştirecek,
14:56
Big data is going to transform how we live,
324
884008
3120
çalışma şeklimizi
ve düşünme şeklimizi de.
ve düşünme şeklimizi de.
14:59
how we work and how we think.
325
887128
2801
Kariyerimizi yönetmemize
yardımcı olacak
yardımcı olacak
15:01
It is going to help us manage our careers
326
889929
1889
15:03
and lead lives of satisfaction and hope
327
891818
3634
hayatlarımıza tatmin
ve umut getirecek,
ve umut getirecek,
mutluluk ve sağlık getirecek
15:07
and happiness and health,
328
895452
2992
fakat geçmişte sıkça
15:10
but in the past, we've often
looked at information technology
looked at information technology
329
898444
3306
bilgi teknolojilerine baktık ve
15:13
and our eyes have only seen the T,
330
901750
2208
gözlerimiz yalnızca
teknolojinin -T' sini gördü
teknolojinin -T' sini gördü
15:15
the technology, the hardware,
331
903958
1686
teknoloji, donanım
çünkü fiziksel olanlar onlardı.
15:17
because that's what was physical.
332
905644
2262
Şimdi gözlerimizi daha az
15:19
We now need to recast our gaze at the I,
333
907906
2924
meydanda olan
bilginin -B' sine
bilginin -B' sine
15:22
the information,
334
910830
1380
çevirmemiz gerekiyor
15:24
which is less apparent,
335
912210
1373
15:25
but in some ways a lot more important.
336
913583
4109
ki bazı açılardan
çok daha önemlidir kendisi.
çok daha önemlidir kendisi.
İnsanlık en sonunda toplayabileceğimiz
15:29
Humanity can finally learn from the information
337
917692
3465
bilgiden bir şeyler öğrenebilir,
15:33
that it can collect,
338
921157
2418
bu dünyayı ve içindeki yerimizi
15:35
as part of our timeless quest
339
923575
2115
anlamamızı sağlayacak olan
15:37
to understand the world and our place in it,
340
925690
3159
ebedi görevimizin bir parçası olarak
15:40
and that's why big data is a big deal.
341
928849
5631
ve bu sebeple büyük veri
büyük bir meseledir.
büyük bir meseledir.
15:46
(Applause)
342
934480
3568
(Alkışlar)
ABOUT THE SPEAKER
Kenneth Cukier - Data Editor of The EconomistKenneth Cukier is the Data Editor of The Economist. From 2007 to 2012 he was the Tokyo correspondent, and before that, the paper’s technology correspondent in London, where his work focused on innovation, intellectual property and Internet governance. Kenneth is also the co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think with Viktor Mayer-Schönberger in 2013, which was a New York Times Bestseller and translated into 16 languages.
Why you should listen
As Data Editor of The Economist and co-author of Big Data: A Revolution That Will Transform How We Live, Work, and Think, Kenneth Cukier has spent years immersed in big data, machine learning -- and the impact of both. What's the future of big data-driven technology and design? To find out, watch this talk.
Kenneth Cukier | Speaker | TED.com