ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com
TED2017

Tristan Harris: How a handful of tech companies control billions of minds every day

Tristan Harris: Bir grup teknoloji şirketi milyarlarca aklı her gün nasıl kontrol ediyor

Filmed:
2,591,029 views

Bir grup teknoloji şirketinde çalışan bir grup insan her gün milyarlarca insanın düşüncelerini yönlendiriyor, diyor tasarım düşünürü Tristan Harris. Facebook bildirimlerinden Snap şeritlere ve YouTube otomatik oynatmaya kadar tüm bu özellikler tek bir şey için yarışıyor: sizin dikkatiniz. Harris bu şirketlerin nasıl psikolojimiz üzerinde avlanarak kâr sağladıklarını anlatırken, bir yandan da kendi zaman tünelimizi yaşamamız için bizi teşvik edecek bir tasarım devrimi için çağrı yapıyor.
- Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential. Full bio

Double-click the English transcript below to play the video.

00:12
I want you to imaginehayal etmek
0
960
1200
Bir odaya doğru
00:15
walkingyürüme into a roomoda,
1
3000
1200
yürüdüğünüzü hayal edin,
00:17
a controlkontrol roomoda with a bunchDemet of people,
2
5480
2136
bir grup insanla beraber
bir kontrol odasında
00:19
a hundredyüz people, hunchedkambur
over a deskbüro with little dialsaramalar,
3
7640
2840
yüz kişi küçük tuşlarla dolu
bir masada oturmuş
00:23
and that that controlkontrol roomoda
4
11280
1520
ve bu kontrol odası
00:25
will shapeşekil the thoughtsdüşünceler and feelingsduygular
5
13680
3696
milyarlarca insanın
duygu ve düşüncelerini
00:29
of a billionmilyar people.
6
17400
1240
şekillendirecek.
00:32
This mightbelki soundses like scienceBilim fictionkurgu,
7
20560
1880
Size bilim kurgu gibi gelse de
00:35
but this actuallyaslında existsvar
8
23320
2216
bu, günümüzde
şu anda var olan bir gerçek.
00:37
right now, todaybugün.
9
25560
1200
00:40
I know because I used to be
in one of those controlkontrol roomsOdalar.
10
28040
3360
Bunu biliyorum çünkü ben de
o kontrol odasındakilerden biriydim.
00:44
I was a designdizayn ethicistahlâkbilimci at GoogleGoogle,
11
32159
2297
İnsanların düşüncelerinin etik olarak
00:46
where I studiedokudu how do you ethicallyetik
steerSteer people'sinsanların thoughtsdüşünceler?
12
34480
3360
yönlendirilmesi üzerine çalışan
Google' da bir etik tasarım uzmanıydım.
00:50
Because what we don't talk about
is how the handfulavuç of people
13
38560
2896
Çünkü bizim konuşmadığımız konu
bir avuç teknoloji şirketinde
00:53
workingçalışma at a handfulavuç
of technologyteknoloji companiesşirketler
14
41480
2536
kendi seçimleriyle çalışan
bir avuç insanın
00:56
throughvasitasiyla theironların choicesseçimler will steerSteer
what a billionmilyar people are thinkingdüşünme todaybugün.
15
44040
5040
milyarlarca kişinin bugünkü düşüncelerini
nasıl yönlendirecekleri.
01:02
Because when you pullÇek out your phonetelefon
16
50400
1736
Telefonunuzu elinize aldığınızda...
01:04
and they designdizayn how this worksEserleri
or what's on the feedbesleme,
17
52160
3096
bunu ve ne göreceğinizi dahi tasarlarlar -
01:07
it's schedulingzamanlama little blocksbloklar
of time in our mindszihinler.
18
55280
3216
aklımızda küçük zamanlamalar planlanır.
01:10
If you see a notificationbildirim,
it scheduleszamanlamaları you to have thoughtsdüşünceler
19
58520
3136
Eğer bir bildirim görürseniz,
belki de daha önce sahip olmadığın
01:13
that maybe you didn't intendniyet etmek to have.
20
61680
2040
düşünceleri zihninden geçirir.
01:16
If you swipetokatlamak over that notificationbildirim,
21
64400
2616
Bildirim üzerinden hızlıca geçerseniz,
01:19
it scheduleszamanlamaları you into spendingharcama
a little bitbit of time
22
67040
2381
belki de hiç içine dalmaya
niyetiniz yokken
01:21
gettingalma suckedemdi into something
23
69445
1381
bir şeyin içine
01:22
that maybe you didn't intendniyet etmek
to get suckedemdi into.
24
70850
2955
kısa bir zaman da olsa dalmanızı sağlar.
01:27
When we talk about technologyteknoloji,
25
75320
1520
Konu teknoloji olunca,
01:30
we tendeğiliminde to talk about it
as this bluemavi skygökyüzü opportunityfırsat.
26
78040
2696
onu bu mavi gökyüzü fırsatı
olarak konuşuyoruz.
01:32
It could go any directionyön.
27
80760
1480
O herhangi bir yöne gidebilir.
01:35
And I want to get seriousciddi for a momentan
28
83400
1856
Bir an için ciddi olmak istiyorum
01:37
and tell you why it's going
in a very specificözel directionyön.
29
85280
2680
ve çok özel bir yöne
neden gittiğini size söyleyeceğim.
01:40
Because it's not evolvinggelişen randomlyrasgele.
30
88840
2200
Çünkü teknoloji rasgele gelişmiyor.
01:44
There's a hiddengizli goalhedef
drivingsürme the directionyön
31
92000
2016
Bizim yaptığımız tüm teknolojinin
01:46
of all of the technologyteknoloji we make,
32
94040
2136
gittiği yönün gizli bir amacı var
01:48
and that goalhedef is the raceyarış
for our attentionDikkat.
33
96200
2920
ve bu amaç bizim dikkatimize
yönelik bir yarış.
01:52
Because everyher newyeni siteyer --
34
100840
2736
Her yeni internet sitesi,
01:55
TEDTED, electionsseçimleri, politicianssiyasetçiler,
35
103600
2736
TED, seçimler, politikacılar,
01:58
gamesoyunlar, even meditationmeditasyon appsuygulamaların --
36
106360
1976
oyunlar, meditasyon uygulamaları bile...
02:00
have to competeyarışmak for one thing,
37
108360
1960
bir şey için mücadele etmek zorundadır,
02:03
whichhangi is our attentionDikkat,
38
111160
1736
bu da bizim dikkatimiz
02:04
and there's only so much of it.
39
112920
1600
ve bunun da bir sınırı var.
02:08
And the besten iyi way to get people'sinsanların attentionDikkat
40
116440
2416
İnsanların dikkatini çekmek için
en iyi yöntem ise
02:10
is to know how someone'sbirisi var mindus worksEserleri.
41
118880
2440
akıllarının nasıl çalıştığını bilmektir.
02:13
And there's a wholebütün bunchDemet
of persuasiveikna edici techniquesteknikleri
42
121800
2336
İnsanların dikkatlerini çekmek için
üniversitede
02:16
that I learnedbilgili in collegekolej at a lablaboratuvar
calleddenilen the Persuasiveİkna edici TechnologyTeknoloji LabLaboratuvar
43
124160
3496
İkna Teknoloji Laboratuvarı
adında bir laboratuvarda
02:19
to get people'sinsanların attentionDikkat.
44
127680
1600
çok sayıda teknik öğrendim.
02:21
A simplebasit exampleörnek is YouTubeYouTube.
45
129880
1480
Basit bir örnek Youtube.
02:24
YouTubeYouTube wants to maximizeen üst düzeye çıkarmak
how much time you spendharcamak.
46
132000
2936
Youtube harcadığınız zamanı
maksimize etmeyi istiyor.
02:26
And so what do they do?
47
134960
1200
Peki ne yapıyorlar?
02:28
They autoplayOtomatik Kullan the nextSonraki videovideo.
48
136840
2280
Bir sonraki videoyu
otomatik oynatıyorlar.
02:31
And let's say that worksEserleri really well.
49
139760
1816
Bunun çok iyi çalıştığını söyleyelim.
02:33
They're gettingalma a little bitbit
more of people'sinsanların time.
50
141600
2416
İnsanların zamanından
biraz daha alıyorlar.
02:36
Well, if you're NetflixNetflix,
you look at that and say,
51
144040
2376
Eğer Netflix çalışanıysanız,
buna bakıyor
02:38
well, that's shrinkingbüzülür my marketpazar sharepay,
52
146440
1858
ve bunun pazar payınızı düşürdüğünü
02:40
so I'm going to autoplayOtomatik Kullan the nextSonraki episodeBölüm.
53
148322
2000
sizin de oto oynatmaya
başlamanız gerektiğini düşünüyorsunuz.
02:43
But then if you're FacebookFacebook,
54
151320
1376
Facebook çalışanıysanız,
02:44
you say, that's shrinkingbüzülür
all of my marketpazar sharepay,
55
152720
2336
Bu benim tüm pazar payımı düşürüyor,
02:47
so now I have to autoplayOtomatik Kullan
all the videosvideolar in the newsfeedhaber yüklemesi
56
155080
2656
haber akışındaki tüm videoları
siz 'oynat'a tıklamadan
02:49
before waitingbekleme for you to clicktık playoyun.
57
157760
1762
oynatmak zorundayım diyorsunuz.
02:52
So the internetInternet is not evolvinggelişen at randomrasgele.
58
160320
3160
Böylece internet rasgele gelişmiyor.
02:56
The reasonneden it feelshissediyor
like it's suckingemme us in the way it is
59
164320
4416
Bizi içine çekiyormuş gibi
hissettirmesinin nedeni,
03:00
is because of this raceyarış for attentionDikkat.
60
168760
2376
dikkatimizi çekmeye yönelik bu yarış.
03:03
We know where this is going.
61
171160
1416
Bunun nereye gittiğini biliyoruz.
03:04
TechnologyTeknoloji is not neutralnötr,
62
172600
1520
Teknoloji tarafsız değil
03:07
and it becomesolur this raceyarış
to the bottomalt of the brainbeyin stemkök
63
175320
3416
ve bu yarış beynimizin son hücresine kadar
03:10
of who can go loweralt to get it.
64
178760
2200
kimin daha çok alçalacağı
yarışına dönüşüyor.
03:13
Let me give you an exampleörnek of SnapchatSnapchat.
65
181920
2336
Bir Snapchat örneği vereyim.
03:16
If you didn't know,
SnapchatSnapchat is the numbernumara one way
66
184280
3696
Eğer bilmiyorsanız,
Snapchat ABD'deki gençlerin
03:20
that teenagersgençler in
the UnitedAmerika StatesBirleşik communicateiletişim kurmak.
67
188000
2256
bir numaralı iletişim aracı.
03:22
So if you're like me, and you use
textMetin messagesmesajları to communicateiletişim kurmak,
68
190280
4176
Benim gibiyseniz,
iletişim için normal mesaj kullanırsınız.
03:26
SnapchatSnapchat is that for teenagersgençler,
69
194480
1776
Snapchat gençler içindir
03:28
and there's, like,
a hundredyüz millionmilyon of them that use it.
70
196280
2696
ve yüz milyonlarca genç
onu kullanıyor zaten.
Bir de Snap şeritleri diye
bir şey geliştirdiler.
03:31
And they inventedicat edildi
a featureözellik calleddenilen SnapstreaksSnapstreaks,
71
199000
2216
03:33
whichhangi showsgösterileri the numbernumara of daysgünler in a rowsıra
72
201240
1896
İki kişinin ardı ardına konuştuğu
03:35
that two people have
communicatedtebliğ with eachher other.
73
203160
2616
gün sayısını ayrıca gösteren bir özellik.
03:37
In other wordskelimeler, what they just did
74
205800
1856
Başka bir deyişle,
03:39
is they gaveverdi two people
something they don't want to losekaybetmek.
75
207680
2960
onlara kaybetmek istemedikleri
bir şey verildi.
03:44
Because if you're a teenagergenç,
and you have 150 daysgünler in a rowsıra,
76
212000
3456
Çünkü bir gençseniz
ve 150 ardışık gününüz varsa,
03:47
you don't want that to go away.
77
215480
1976
bunu kaybetmek istemezsiniz.
03:49
And so think of the little blocksbloklar of time
that that scheduleszamanlamaları in kids'çocukların mindszihinler.
78
217480
4160
Bu da çocukların aklında
küçük zamanlamalar yapmaktır.
03:54
This isn't theoreticalteorik:
when kidsçocuklar go on vacationtatil,
79
222160
2336
Konu teorik de değil:
Çocuklar tatile gittiğinde,
03:56
it's been showngösterilen they give theironların passwordsparolalar
to up to fivebeş other friendsarkadaşlar
80
224520
3256
kendileri yapamayacağı için
bazen 5 arkadaşlarıyla
03:59
to keep theironların SnapstreaksSnapstreaks going,
81
227800
2216
Snapchat'leri aktif kalsın diye
04:02
even when they can't do it.
82
230040
2016
şifrelerini paylaştıkları gösterildi.
04:04
And they have, like, 30 of these things,
83
232080
1936
Bunlarda 30 tane kadarına sahipler,
04:06
and so they have to get throughvasitasiyla
takingalma photosfotoğraflar of just picturesresimler or wallsduvarlar
84
234040
3376
yani günü geçirmek için
başka resimlerin, duvarların
04:09
or ceilingstavanlar just to get throughvasitasiyla theironların day.
85
237440
2480
hatta tavanın resimlerini
çekmek zorundalar.
04:13
So it's not even like
they're havingsahip olan realgerçek conversationskonuşmaları.
86
241200
2696
Yani aslında gerçek bir sohbet
dahi gerçekleştirmiyorlar.
04:15
We have a temptationgünaha to think about this
87
243920
1936
Bunu şöyle düşünüyor olabilirsiniz,
04:17
as, oh, they're just usingkullanma SnapchatSnapchat
88
245880
2696
bizim telefonda dedikodu yaptığımız gibi
04:20
the way we used to
gossipdedikodu on the telephonetelefon.
89
248600
2016
onlar da Snapchat kullanıyor.
04:22
It's probablymuhtemelen OK.
90
250640
1200
Bu doğru olabilirdi.
04:24
Well, what this missesözlüyor
is that in the 1970s,
91
252480
2256
Ancak biz 70'li yıllarda
04:26
when you were just
gossipingdedikodu on the telephonetelefon,
92
254760
2615
telefonda sadece dedikodu yaparken
04:29
there wasn'tdeğildi a hundredyüz engineersmühendisler
on the other sideyan of the screenekran
93
257399
3017
ekranın diğer tarafında
psikolojimizi tamamen anlayan
04:32
who knewbiliyordum exactlykesinlikle
how your psychologyPsikoloji workedişlenmiş
94
260440
2056
ve bizi birbirimize bağlamak için
04:34
and orchestratedOrkestra you
into a doubleçift bindbağlamak with eachher other.
95
262520
2640
taktik geliştiren yüz mühendis yoktu.
04:38
Now, if this is makingyapma you
feel a little bitbit of outragerezalet,
96
266440
3400
Bu sizi biraz da olsa kızdırdıysa,
04:42
noticeihbar that that thought
just comesgeliyor over you.
97
270680
2576
bu düşüncenin sizin önünüze
geçtiğinin farkına varın.
04:45
OutrageÖfke is a really good way alsoAyrıca
of gettingalma your attentionDikkat,
98
273280
3320
Kızgınlık da dikkatinizi kazanmak için
çok iyi bir yol,
04:49
because we don't chooseseçmek outragerezalet.
99
277880
1576
çünkü kızgınlığı biz seçmiyoruz.
04:51
It happensolur to us.
100
279480
1416
Kendiliğinden oluyor.
04:52
And if you're the FacebookFacebook newsfeedhaber yüklemesi,
101
280920
1856
Eğer Facebook haber akışı ekibiyseniz,
04:54
whetherolup olmadığını you'dşimdi etsen want to or not,
102
282800
1416
isteyin veya istemeyin,
04:56
you actuallyaslında benefityarar when there's outragerezalet.
103
284240
2736
kızgınlıktan fayda sağlıyorsunuz.
04:59
Because outragerezalet
doesn't just scheduleprogram a reactionreaksiyon
104
287000
2936
Çünkü kızgınlık yalnızca
sizin duygusal bir zaman ve boşlukta
05:01
in emotionalduygusal time, spaceuzay, for you.
105
289960
2880
tepki vermenizden ibaret olmuyor.
05:05
We want to sharepay that outragerezalet
with other people.
106
293440
2416
Bu kızgınlığı başkalarıyla
paylaşmak istiyoruz.
05:07
So we want to hitvurmak sharepay and say,
107
295880
1576
O yüzden paylaş'a dokunmak
05:09
"Can you believe the thing
that they said?"
108
297480
2040
ve ''Söylediği şeye inanabiliyor musun?''
demek istiyoruz.
05:12
And so outragerezalet worksEserleri really well
at gettingalma attentionDikkat,
109
300520
3376
Kızgınlık dikkat toplamada
gerçekten işe yarıyor,
05:15
suchböyle that if FacebookFacebook had a choiceseçim
betweenarasında showinggösterme you the outragerezalet feedbesleme
110
303920
3896
hatta Facebook'ta kızgınlık akışı
ve sakinlik akışı
05:19
and a calmsakin newsfeedhaber yüklemesi,
111
307840
1320
diye iki seçenek olsa,
05:22
they would want
to showgöstermek you the outragerezalet feedbesleme,
112
310120
2136
size kızgınlık akışını gösterirlerdi,
05:24
not because someonebirisi
consciouslybilinçli olarak choseseçti that,
113
312280
2056
biri bilinçli olarak
onu seçtiğinden değil,
05:26
but because that workedişlenmiş better
at gettingalma your attentionDikkat.
114
314360
2680
dikkatinizi çekmede daha iyi olduğu için.
05:31
And the newsfeedhaber yüklemesi controlkontrol roomoda
is not accountablesorumlu to us.
115
319120
5480
Haber akışı kontrol odası
bize karşı sorumlu değil.
05:37
It's only accountablesorumlu
to maximizingen üst düzeye çıkarma attentionDikkat.
116
325040
2296
Dikkati maksimize etmekle sorumlular.
05:39
It's alsoAyrıca accountablesorumlu,
117
327360
1216
Şuna karşı da sorumlular:
05:40
because of the business modelmodel
of advertisingreklâm,
118
328600
2376
reklama yönelik iş modelleri gereği
05:43
for anybodykimse who can payödeme the mostçoğu
to actuallyaslında walkyürümek into the controlkontrol roomoda
119
331000
3336
içeri girmek için en çok parayı ödeyebilen
05:46
and say, "That groupgrup over there,
120
334360
1576
ve ''Hey, şuradaki grup,
05:47
I want to scheduleprogram these thoughtsdüşünceler
into theironların mindszihinler."
121
335960
2640
insanların aklına şu düşünceleri
sokalım'' diyen herkes.
05:51
So you can targethedef,
122
339760
1200
Hedef koyabilirsiniz,
05:54
you can preciselytam targethedef a lieYalan
123
342040
1936
bir yalan belirleyip
05:56
directlydirekt olarak to the people
who are mostçoğu susceptibleduyarlı.
124
344000
2920
buna en yatkın insanları
hedefleyebilirsiniz.
06:00
And because this is profitablekârlı,
it's only going to get worsedaha da kötüsü.
125
348080
2880
Kâr amacı olduğu için
sadece kötüye gidecektir.
06:05
So I'm here todaybugün
126
353040
1800
Bugün buradayım,
06:08
because the costsmaliyetler are so obviousaçık.
127
356160
2000
çünkü bunun bedeli çok açık.
06:12
I don't know a more urgentacil
problemsorun than this,
128
360280
2136
Bundan daha ciddi bir sorun
göremiyorum,
06:14
because this problemsorun
is underneathaltında all other problemssorunlar.
129
362440
3120
çünkü diğer tüm sorunların altında
bu sorun yatıyor.
06:18
It's not just takingalma away our agencyAjans
130
366720
3176
Yalnızca dikkatimizi çalıp
06:21
to spendharcamak our attentionDikkat
and livecanlı the liveshayatları that we want,
131
369920
2600
bizi istediğimiz hayatı yaşamaya
bırakmıyorlar,
06:25
it's changingdeğiştirme the way
that we have our conversationskonuşmaları,
132
373720
3536
sohbet etme şekillerimizi,
06:29
it's changingdeğiştirme our democracydemokrasi,
133
377280
1736
demokrasimizi,
06:31
and it's changingdeğiştirme our abilitykabiliyet
to have the conversationskonuşmaları
134
379040
2616
sohbet etme yetimizi
06:33
and relationshipsilişkiler we want with eachher other.
135
381680
2000
istediğimiz ilişkileri değiştiriyorlar.
06:37
And it affectsetkiler everyoneherkes,
136
385160
1776
Bu herkesi etkiliyor,
06:38
because a billionmilyar people
have one of these in theironların pocketcep.
137
386960
3360
çünkü bir milyar insanın
cebinde bunlardan bir tane var.
06:45
So how do we fixdüzeltmek this?
138
393360
1400
Peki bunu nasıl düzeltiriz?
06:49
We need to make threeüç radicalradikal changesdeğişiklikler
139
397080
2936
Teknoloji ve toplumumuz için
06:52
to technologyteknoloji and to our societytoplum.
140
400040
1800
üç radikal değişiklik yapmamız gerek.
06:55
The first is we need to acknowledgekabul
that we are persuadableiknaedilen.
141
403720
3800
Öncelikle ikna edilebilir
olduğumuzu kabul etmeliyiz.
07:00
OnceBir kez you startbaşlama understandinganlayış
142
408840
1376
Aklımıza küçük düşünceler
07:02
that your mindus can be scheduledZamanlanmış
into havingsahip olan little thoughtsdüşünceler
143
410240
2776
veya bizim seçmediğimiz küçük zamanlamalar
07:05
or little blocksbloklar of time
that you didn't chooseseçmek,
144
413040
2576
konulabileceğini kabul ettikten sonra,
07:07
wouldn'tolmaz we want to use that understandinganlayış
145
415640
2056
anladığımız bu bilgiyi kullanarak
07:09
and protectkorumak againstkarşısında the way
that that happensolur?
146
417720
2160
kendimizi buna karşı
korumak istemez miyiz?
07:12
I think we need to see ourselveskendimizi
fundamentallyesasen in a newyeni way.
147
420600
3296
Bence kendimizi tamamen
yeni bir yönden görmemiz lazım.
07:15
It's almostneredeyse like a newyeni perioddönem
of humaninsan historytarih,
148
423920
2216
Tıpkı insanlık tarihinde
yeni bir çağ gibi,
07:18
like the EnlightenmentAydınlanma,
149
426160
1216
Aydınlanma Çağı gibi
07:19
but almostneredeyse a kindtür of
self-awarekendini bilen EnlightenmentAydınlanma,
150
427400
2216
ama farkına varma türünde
bir aydınlanma,
07:21
that we can be persuadedikna,
151
429640
2080
bu durumda ikna edilebiliriz
07:24
and there mightbelki be something
we want to protectkorumak.
152
432320
2240
ve korumak istediğimiz değerler olabilir.
07:27
The secondikinci is we need newyeni modelsmodeller
and accountabilityHesap verebilirlik systemssistemler
153
435400
4576
İkincisi, yeni modeller
ve sorumluluk sistemlerine gerek var,
07:32
so that as the worldDünya getsalır better
and more and more persuasiveikna edici over time --
154
440000
3496
böylece dünya zamanla daha iyi
ve çok daha inandırıcı olacaktır,
07:35
because it's only going
to get more persuasiveikna edici --
155
443520
2336
çünkü eninde sonunda
daha inandırıcı olacak,
07:37
that the people in those controlkontrol roomsOdalar
156
445880
1856
o kontrol odasındaki insanlar
07:39
are accountablesorumlu and transparentşeffaf
to what we want.
157
447760
2456
istediğimiz şeylere karşı
sorumlu ve şeffaf olacak.
07:42
The only formform of ethicalahlâki
persuasionikna that existsvar
158
450240
2696
Var olan tek etik ikna biçimi
07:44
is when the goalshedefleri of the persuadertabanca
159
452960
1936
ikna eden kişinin amaçlarıyla
07:46
are alignedhizalanmış with the goalshedefleri
of the persuadeepersuadee.
160
454920
2200
ikna edilenin amaçları
birleştiği zaman olur.
07:49
And that involvesgerektirir questioningsorgulama bigbüyük things,
like the business modelmodel of advertisingreklâm.
161
457640
3840
Bu da büyük şeylerin sorgulanması
ile olur, reklama dair iş modelleri gibi.
07:54
LastlySon olarak,
162
462720
1576
Son olarak,
07:56
we need a designdizayn renaissanceRönesans,
163
464320
1680
bir tasarım rönesansına ihtiyacımız var
07:59
because oncebir Zamanlar you have
this viewgörünüm of humaninsan naturedoğa,
164
467080
3056
çünkü insan doğasının bu kısmına
bir kez sahip olursanız,
08:02
that you can steerSteer the timelineszaman çizelgeleri
of a billionmilyar people --
165
470160
2976
milyarlarca insanın zaman tünelini
yönlendirebilirsiniz...
08:05
just imaginehayal etmek, there's people
who have some desirearzu etmek
166
473160
2736
Bir hayal edin,
ne yapmak ve düşünmek istediğini,
ne hissetmek
08:07
about what they want to do
and what they want to be thinkingdüşünme
167
475920
2856
08:10
and what they want to be feelingduygu
and how they want to be informedbilgili,
168
478800
3136
ve nasıl bilgilendirilmek
istediğini bilen onca insan var
08:13
and we're all just tuggedçekiştirdi
into these other directionstalimatlar.
169
481960
2536
ve hepimiz diğer yönlere doğru
sıkıştırılmışız.
08:16
And you have a billionmilyar people just tuggedçekiştirdi
into all these differentfarklı directionstalimatlar.
170
484520
3696
Bu farklı yönlere sıkışmış
bir milyar insan var.
08:20
Well, imaginehayal etmek an entiretüm designdizayn renaissanceRönesans
171
488240
2056
Tam bir tasarım rönesansı düşünün,
08:22
that trieddenenmiş to orchestrateorkestraya uyarlamak
the exactkesin and mostçoğu empoweringgüçlendirici
172
490320
3096
o zaman aralıklarının gerçekleşmesi için
08:25
time-well-spentiyi harcanan zaman way
for those timelineszaman çizelgeleri to happenolmak.
173
493440
3136
en güçlü ve üzerinde uğraşılmış
yol düzenlenmiş olsun.
08:28
And that would involvedahil two things:
174
496600
1656
Bu beraberinde iki şey getirirdi:
08:30
one would be protectingkoruyucu
againstkarşısında the timelineszaman çizelgeleri
175
498280
2136
bunlardan biri
istemediğimiz zamanlamalara
08:32
that we don't want to be experiencingyaşandığı,
176
500440
1856
sahip olmak istemediğimiz düşüncelere
08:34
the thoughtsdüşünceler that we
wouldn'tolmaz want to be happeningolay,
177
502320
2416
karşı bizi korurdu,
08:36
so that when that dingDing happensolur,
not havingsahip olan the dingDing that sendsgönderir us away;
178
504760
3336
böylece o bildirim sesi geldiğinde,
bildirim bizi yönetmiş olmaz.
08:40
and the secondikinci would be empoweringgüçlendirici us
to livecanlı out the timelinezaman çizelgesi that we want.
179
508120
3616
İkincisi bizim istediğimiz zamanlamaları
yaşamamızı mümkün kılar.
08:43
So let me give you a concretebeton exampleörnek.
180
511760
1880
Size elle tutulur bir örnek vereyim.
08:46
TodayBugün, let's say your friendarkadaş
cancelsiptal eder dinnerakşam yemegi on you,
181
514280
2456
Diyelim ki arkadaşınız
yemek planınızı iptal etti
08:48
and you are feelingduygu a little bitbit lonelyyalnız.
182
516760
3775
ve kendinizi biraz yalnız hissettiniz.
08:52
And so what do you do in that momentan?
183
520559
1817
O an ne yaparsınız?
08:54
You openaçık up FacebookFacebook.
184
522400
1279
Facebook'a girersiniz.
08:56
And in that momentan,
185
524960
1696
İşte o anda,
08:58
the designerstasarımcılar in the controlkontrol roomoda
want to scheduleprogram exactlykesinlikle one thing,
186
526680
3376
kontrol odasındaki tasarımcılar
tamamen tek bir şey programlar,
09:02
whichhangi is to maximizeen üst düzeye çıkarmak how much time
you spendharcamak on the screenekran.
187
530080
3040
ekrana bakarak geçirdiğiniz zamanı
maksimize etmek.
09:06
Now, insteadyerine, imaginehayal etmek if those designerstasarımcılar
createdoluşturulan a differentfarklı timelinezaman çizelgesi
188
534640
3896
Şimdi bunun yerine o tasarımcıların
farklı bir zamanlama yarattığını varsayın,
09:10
that was the easiesten kolay way,
usingkullanma all of theironların dataveri,
189
538560
3496
bu, tüm verilerini kullanarak
sevdiğiniz insanlarla dışarı çıkmanıza
09:14
to actuallyaslında help you get out
with the people that you carebakım about?
190
542080
3096
yardım etmenin en kolay yolu
olurdu değil mi ?
09:17
Just think, alleviatinghafifletilmesi
all lonelinessyalnızlık in societytoplum,
191
545200
5416
Sadece düşünün,
toplumdaki o yalnızlığı azaltmak...
09:22
if that was the timelinezaman çizelgesi that FacebookFacebook
wanted to make possiblemümkün for people.
192
550640
3496
Facebook'un insanlar için mümkün
kıldığı zaman tüneli bu olabilirdi.
09:26
Or imaginehayal etmek a differentfarklı conversationkonuşma.
193
554160
1715
Farklı bir durumu hayal edin.
09:27
Let's say you wanted to postposta
something supercontroversialsupercontroversial on FacebookFacebook,
194
555899
3317
Diyelim ki Facebook'ta
inanılmaz aykırı bir şey paylaştınız,
09:31
whichhangi is a really importantönemli
thing to be ableyapabilmek to do,
195
559240
2416
bunu yapabilmek gerçekten önemli,
09:33
to talk about controversialtartışmalı topicskonular.
196
561680
1696
aykırı konularda konuşmak.
09:35
And right now, when there's
that bigbüyük commentyorum Yap boxkutu,
197
563400
2336
Şimdi orada büyük bir
yorum yap kutusu var,
09:37
it's almostneredeyse askingsormak you,
what keyanahtar do you want to typetip?
198
565760
3376
adeta sizden yorum yapmanızı istiyor,
ne yazmak istiyorsunuz?
09:41
In other wordskelimeler, it's schedulingzamanlama
a little timelinezaman çizelgesi of things
199
569160
2816
Diğer bir deyişle,
ekranda yapmaya devam edeceğiniz
09:44
you're going to continuedevam et
to do on the screenekran.
200
572000
2136
şeylerin bir zamanlamasını yapıyor.
09:46
And imaginehayal etmek insteadyerine that there was
anotherbir diğeri buttondüğme there sayingsöz,
201
574160
2976
Bunun yerine
şöyle bir seçenek olabilirdi;
09:49
what would be mostçoğu
time well spentharcanmış for you?
202
577160
2056
zaman en iyi şekilde
nasıl değerlendirilir?
09:51
And you clicktık "hostevsahibi a dinnerakşam yemegi."
203
579240
1576
''Yemek daveti''ne tıklıyorsunuz
09:52
And right there
underneathaltında the itemmadde it said,
204
580840
2096
ve hemen altında yeni bir seçenek
09:54
"Who wants to RSVPRSVP for the dinnerakşam yemegi?"
205
582960
1696
''Davete kim LCV yazmak ister?''
09:56
And so you'dşimdi etsen still have a conversationkonuşma
about something controversialtartışmalı,
206
584680
3256
Hala o aykırı konudaki
sohbetinizi yapıyor olursunuz
09:59
but you'dşimdi etsen be havingsahip olan it in the mostçoğu
empoweringgüçlendirici placeyer on your timelinezaman çizelgesi,
207
587960
3736
ama bunu zaman tünelinizdeki
en güçlü yerde yaparsınız,
10:03
whichhangi would be at home that night
with a bunchDemet of a friendsarkadaşlar over
208
591720
3016
bunu konuşmak için
o gece evinizde
10:06
to talk about it.
209
594760
1200
arkadaşlarınız olur.
10:09
So imaginehayal etmek we're runningkoşu, like,
a find and replacedeğiştirmek
210
597000
3160
Bizi yönlendiren o zamanlamalar yerine
10:13
on all of the timelineszaman çizelgeleri
that are currentlyşu anda steeringyönetim us
211
601000
2576
daha farklı bir alternatif
bulduğumuzu varsayalım,
10:15
towardskarşı more and more
screenekran time persuasivelyikna edici
212
603600
2560
daha fazla ekran zamanı olsun
10:19
and replacingyerine all of those timelineszaman çizelgeleri
213
607080
2536
ve tüm o zamanlamaların yerini alarak
10:21
with what do we want in our liveshayatları.
214
609640
1640
hayatta istediğimiz şeylerle dolu olsun.
10:26
It doesn't have to be this way.
215
614960
1480
Bu şekilde olmak zorunda değil.
10:30
InsteadBunun yerine of handicappingŞike our attentionDikkat,
216
618360
2256
Dikkatimizi baltalamak yerine,
10:32
imaginehayal etmek if we used all of this dataveri
and all of this powergüç
217
620640
2816
tüm bu veri, güç ve bu yeni insan doğası
10:35
and this newyeni viewgörünüm of humaninsan naturedoğa
218
623480
1616
bakış açısını kullanarak
10:37
to give us a superhumaninsanüstü abilitykabiliyet to focusodak
219
625120
2856
kendimize insanüstü
bir yeti kazandırdığımızı
10:40
and a superhumaninsanüstü abilitykabiliyet to put
our attentionDikkat to what we caredbakım about
220
628000
4136
ve bununla önemsediğimiz şeylere
odaklandığımızı,
10:44
and a superhumaninsanüstü abilitykabiliyet
to have the conversationskonuşmaları
221
632160
2616
bu süper yeteneğin
demokrasi için sohbetler etmemizi
10:46
that we need to have for democracydemokrasi.
222
634800
2000
sağladığını bir hayal edin.
10:51
The mostçoğu complexkarmaşık challengeszorluklar in the worldDünya
223
639600
2680
Dünyadaki en karmaşık zorluklar
10:56
requiregerektirir not just us
to use our attentionDikkat individuallytek tek.
224
644280
3120
yalnızca bireysel dikkatimizi
kullanmamızı değil,
11:00
They requiregerektirir us to use our attentionDikkat
and coordinatekoordinat it togetherbirlikte.
225
648440
3320
bunu birlikte
koordine etmemizi gerektirir.
11:04
Climateİklim changedeğişiklik is going to requiregerektirir
that a lot of people
226
652440
2816
İklim değişikliği pek çok insanın
11:07
are beingolmak ableyapabilmek
to coordinatekoordinat theironların attentionDikkat
227
655280
2096
dikkatlerini birlikte en güçlü şekilde
11:09
in the mostçoğu empoweringgüçlendirici way togetherbirlikte.
228
657400
1896
koordine edebilmelerini gerektirir.
11:11
And imaginehayal etmek creatingoluşturma
a superhumaninsanüstü abilitykabiliyet to do that.
229
659320
3080
Bunu yapabilmek için de
insanüstü bir yetimiz olduğunu düşünün.
11:19
SometimesBazen the world'sDünyanın en
mostçoğu pressingbasma and importantönemli problemssorunlar
230
667000
4160
Bazen dünyanın en önemli sorunları
11:24
are not these hypotheticalfarazi futuregelecek things
that we could createyaratmak in the futuregelecek.
231
672040
3840
gelecekte yaratacağımız varsayımlı
sorunlar değil,
11:28
SometimesBazen the mostçoğu pressingbasma problemssorunlar
232
676560
1736
Bazen en önemli sorunlar
11:30
are the onesolanlar that are
right underneathaltında our nosesburunlar,
233
678320
2336
hemen yanı başımızda bulunan sorunlardır,
11:32
the things that are alreadyzaten directingyönetmenlik
a billionmilyar people'sinsanların thoughtsdüşünceler.
234
680680
3120
şu an bir milyar insanın
düşüncelerine yön veren sorunlar.
11:36
And maybe insteadyerine of gettingalma excitedheyecanlı
about the newyeni augmentedartar realitygerçeklik
235
684600
3376
Belki de yeni güçlendirilmiş gerçeklik
11:40
and virtualsanal realitygerçeklik
and these coolgüzel things that could happenolmak,
236
688000
3296
ve bilgisyar gerçekliği gibi harika
yenilikler için mutlu olmaktansa,
11:43
whichhangi are going to be susceptibleduyarlı
to the sameaynı raceyarış for attentionDikkat,
237
691320
3296
bu yenilikller de
aynı dikkat yarışından etkilenecek,
11:46
if we could fixdüzeltmek the raceyarış for attentionDikkat
238
694640
2176
belki de bir milyar insanın cebinde
11:48
on the thing that's alreadyzaten
in a billionmilyar people'sinsanların pocketscepler.
239
696840
2720
zaten var olan
bu dikkat yarışını düzeltebiliriz.
11:52
Maybe insteadyerine of gettingalma excitedheyecanlı
240
700040
1576
Belki de yeni hoş görünümlü
11:53
about the mostçoğu excitingheyecan verici
newyeni coolgüzel fancyfantezi educationEğitim appsuygulamaların,
241
701640
4176
eğitim uygulamaları için
mutlu olmak yerine,
11:57
we could fixdüzeltmek the way
kids'çocukların mindszihinler are gettingalma manipulatedmanipüle
242
705840
2896
çocukların beynini manipüle eden
sorunu düzeltebilir,
12:00
into sendinggönderme emptyboş messagesmesajları
back and forthileri.
243
708760
2480
sürekli boş mesajlar göndermelerine
son verebiliriz.
12:04
(ApplauseAlkış)
244
712040
4296
(Alkış)
12:08
Maybe insteadyerine of worryingendişe verici
245
716360
1256
Belki de gelecekte
12:09
about hypotheticalfarazi futuregelecek
runawayKaçmak artificialyapay intelligenceszeka
246
717640
3776
yalnızca tek bir amaç için çalışan
varsayımlı yapay zekâ hakkında
12:13
that are maximizingen üst düzeye çıkarma for one goalhedef,
247
721440
1880
endişelenmek yerine,
12:16
we could solveçözmek the runawayKaçmak
artificialyapay intelligencezeka
248
724680
2656
zaten şu an var olan
bu kaçak yapay zekâyı,
12:19
that alreadyzaten existsvar right now,
249
727360
2056
tek bir amaca hizmet eden
12:21
whichhangi are these newsfeedshaber başlıkları
maximizingen üst düzeye çıkarma for one thing.
250
729440
2920
haber akışını düzeltebiliriz.
12:26
It's almostneredeyse like insteadyerine of runningkoşu away
to colonizekolonize newyeni planetsgezegenler,
251
734080
3816
Tıpkı yeni gezegenleri
kolonize etmek yerine
12:29
we could fixdüzeltmek the one
that we're alreadyzaten on.
252
737920
2056
üzerinde yaşadığımız gezegeni
düzeltmek gibi.
12:32
(ApplauseAlkış)
253
740000
4120
(Alkış)
12:40
SolvingÇözme this problemsorun
254
748040
1776
Bu sorunu çözmek
12:41
is criticalkritik infrastructurealtyapı
for solvingçözme everyher other problemsorun.
255
749840
3800
diğer her sorunu çözmek için
önemli bir altyapı.
12:46
There's nothing in your life
or in our collectivetoplu problemssorunlar
256
754600
4016
Hayatınızda
kolektif sorunlarımıza dair
12:50
that does not requiregerektirir our abilitykabiliyet
to put our attentionDikkat where we carebakım about.
257
758640
3560
önemsediğimiz şeylere verdiğimiz
dikkati gerektiren hiçbir şey yok.
12:55
At the endson of our liveshayatları,
258
763800
1240
Hayatımızın sonunda,
12:58
all we have is our attentionDikkat and our time.
259
766240
2640
sahip olduğumuz tek şey
dikkat ve zamanımız.
13:01
What will be time well spentharcanmış for oursbizim?
260
769800
1896
Biz bu zamanı ne için iyi kullanacağız?
13:03
Thank you.
261
771720
1216
Teşekkür ederim.
13:04
(ApplauseAlkış)
262
772960
3120
(Alkış)
13:17
ChrisChris AndersonAnderson: TristanTristan, thank you.
Hey, staykalmak up here a secsek.
263
785760
2936
Chris Anderson: Tristan, teşekkürler.
Lütfen biraz bekle.
13:20
First of all, thank you.
264
788720
1336
Öncelikle, teşekkür ederim.
13:22
I know we askeddiye sordu you to do this talk
on prettygüzel shortkısa noticeihbar,
265
790080
2776
Bu konuşma için sana
oldukça az zaman tanıdık
13:24
and you've had quiteoldukça a stressfulstresli weekhafta
266
792880
2216
ve bu konuşmayı hazırlayarak
13:27
gettingalma this thing togetherbirlikte, so thank you.
267
795120
2440
oldukça stresli bir hafta geçirdin,
teşekkür ederim.
13:30
Some people listeningdinleme mightbelki say,
what you complainşikayet about is addictionbağımlılığı,
268
798680
3976
Dinleyen bazı kimseler yakındığın
konunun bağımlılık olduğunu söyleyebilir,
13:34
and all these people doing this stuffşey,
for them it's actuallyaslında interestingilginç.
269
802680
3496
bu söylediklerini yapan bu insanlar,
bu onlar için çok ilgi çekici.
13:38
All these designdizayn decisionskararlar
270
806200
1256
Tüm bu tasarım kararları
13:39
have builtinşa edilmiş userkullanıcı contentiçerik
that is fantasticallyfantastik interestingilginç.
271
807480
3096
Çok ilgi çekici kullanıcı
içerikleri geliştirdiler.
13:42
The world'sDünyanın en more interestingilginç
than it ever has been.
272
810600
2416
Dünya hiç olmadığı kadar ilgi çekici.
13:45
What's wrongyanlış with that?
273
813040
1256
Bunda yanlış olan ne ?
13:46
TristanTristan HarrisHarris:
I think it's really interestingilginç.
274
814320
2256
Tristan Harris:
Bence de gerçekten ilginç.
13:48
One way to see this
is if you're just YouTubeYouTube, for exampleörnek,
275
816600
4016
Bunu görmenin bir yolu
eğer Youtube'taysanız örneğin,
13:52
you want to always showgöstermek
the more interestingilginç nextSonraki videovideo.
276
820640
2656
daha ilginç olan sonraki videoyu
görmek isteyeceksiniz.
13:55
You want to get better and better
at suggestingdüşündüren that nextSonraki videovideo,
277
823320
3016
O bir sonraki videoyu göstermede
hep daha iyi olmak istiyorsunuz
13:58
but even if you could proposeteklif etmek, önermek
the perfectmükemmel nextSonraki videovideo
278
826360
2456
ama herkesin izlemek istediği türden
14:00
that everyoneherkes would want to watch,
279
828840
1656
mükemmel bir video sunabilecekken,
14:02
it would just be better and better
at keepingkoruma you hookedbağlanmış on the screenekran.
280
830520
3336
Sİzi ekranda tutmak çok daha ağır basıyor.
14:05
So what's missingeksik in that equationdenklem
281
833880
1656
Bu denklemde eksik olan şey,
14:07
is figuringendam out what
our boundariessınırları would be.
282
835560
2136
sınırlarımızın ne olduğunu
anlamıyor olmamız.
14:09
You would want YouTubeYouTube to know
something about, say, fallingdüşen asleepuykuda.
283
837720
3216
Mesela YouTube'un uykuya
daldığınızı bilsin isteyebilirsiniz.
14:12
The CEOCEO of NetflixNetflix recentlyson günlerde said,
284
840960
1616
Netflix'in CEO'su son günlerde
14:14
"our biggesten büyük competitorsrakipler
are FacebookFacebook, YouTubeYouTube and sleepuyku."
285
842600
2736
''en büyük rakiplerimiz
Facebook, YouTube ve uyku'' dedi.
14:17
And so what we need to recognizetanımak
is that the humaninsan architecturemimari is limitedsınırlı
286
845360
4456
İnsan mimarisinin sınırlı olduğunu
anlamamız lazım
14:21
and that we have certainbelli boundariessınırları
or dimensionsboyutlar of our liveshayatları
287
849840
2976
ve hayatımızda yapmamız
ve saygı duymamız gereken
14:24
that we want to be honoredonur and respecteditibarlı,
288
852840
1976
belli başlı sınırlar var,
14:26
and technologyteknoloji could help do that.
289
854840
1816
teknoloji bunu yapmamızda
bize yardım edebilir.
14:28
(ApplauseAlkış)
290
856680
2616
(Alkış)
14:31
CACA: I mean, could you make the casedurum
291
859320
1696
CA: Yani şunu söyleyebilir miyiz?
14:33
that partBölüm of the problemsorun here is that
we'vebiz ettik got a nanaïveve modelmodel of humaninsan naturedoğa?
292
861040
6056
İnsan doğasının saf bir modeline
sahip olmamız asıl sorun?
14:39
So much of this is justifiedhaklı
in termsşartlar of humaninsan preferencetercih,
293
867120
2736
İnsan tercihi açısından
bunun büyük kısmı haklı kılınıyor,
14:41
where we'vebiz ettik got these algorithmsalgoritmalar
that do an amazingşaşırtıcı job
294
869880
2616
insan tercihini optimize eden
14:44
of optimizingEn iyi duruma getirme for humaninsan preferencetercih,
295
872520
1696
harika algoritmalarımız var
14:46
but whichhangi preferencetercih?
296
874240
1336
ama hangi tercihleri?
14:47
There's the preferencesTercihler
of things that we really carebakım about
297
875600
3496
İçgüdüsel olarak tıkladığımız tercihlerle
14:51
when we think about them
298
879120
1376
diğerlerini kıyasladığımızda
14:52
versuse karşı the preferencesTercihler
of what we just instinctivelyiçgüdüsel clicktık on.
299
880520
3056
gerçekten önemsediğimiz tercihler var.
14:55
If we could implantimplant that more nuancednüanslı
viewgörünüm of humaninsan naturedoğa in everyher designdizayn,
300
883600
4656
Her tasarımda insan doğasına göre
daha farklılaştırılmış bir bakış sunsak,
15:00
would that be a stepadım forwardileri?
301
888280
1456
bu ileriye bir adım olur mu?
15:01
THİNCİ: AbsolutelyKesinlikle. I mean, I think right now
302
889760
1976
TH: Bence şu anda
15:03
it's as if all of our technologyteknoloji
is basicallytemel olarak only askingsormak our lizardkertenkele brainbeyin
303
891760
3496
teknoloji tamamen
beynimizin temel kısmına
15:07
what's the besten iyi way
to just impulsivelyDüşüncesizce get you to do
304
895280
2496
içgüdüsel olarak küçük şeyler
15:09
the nextSonraki tiniestufak thing with your time,
305
897800
2136
yaptırıp zamanımızı dolduruyor,
15:11
insteadyerine of askingsormak you in your life
306
899960
1656
bunun yerine hayatımızda zamanı
15:13
what we would be mostçoğu
time well spentharcanmış for you?
307
901640
2176
en iyi nasıl değerlendireceğimiz sorulsa?
15:15
What would be the perfectmükemmel timelinezaman çizelgesi
that mightbelki includeDahil etmek something latersonra,
308
903840
3296
Daha sonra da dahil olmak üzere,
burada son gününüzde TED'de
15:19
would be time well spentharcanmış for you
here at TEDTED in your last day here?
309
907160
3176
zamanınızı değerlendirmek için
yapacağınız en iyi şey ne olurdu?
15:22
CACA: So if FacebookFacebook and GoogleGoogle
and everyoneherkes said to us first up,
310
910360
2976
CA: Yani Facebook ve Google
bize en baştan şöyle söyleseler:
15:25
"Hey, would you like us
to optimizeoptimize for your reflectiveyansıtıcı brainbeyin
311
913360
2896
''Reflektif veya sürüngen beyninizi
nasıl optimize etmemizi
15:28
or your lizardkertenkele brainbeyin? You chooseseçmek."
312
916280
1656
istersiniz? Siz seçin.''
15:29
THİNCİ: Right. That would be one way. Yes.
313
917960
2080
TH: Doğru. Bu bir yol olabilir. Evet.
15:34
CACA: You said persuadabilitypersuadability,
that's an interestingilginç wordsözcük to me
314
922358
2858
CA: İknadan bahsettin,
benim için ilginç bir kelime bu
15:37
because to me there's
two differentfarklı typestürleri of persuadabilitypersuadability.
315
925240
2856
çünkü bana göre iki farklı tür ikna var.
15:40
There's the persuadabilitypersuadability
that we're tryingçalışıyor right now
316
928120
2536
Şu an uğraştığımız ikna edilebilirlik;
15:42
of reasonneden and thinkingdüşünme
and makingyapma an argumenttartışma,
317
930680
2176
mantık, düşünme ve tartışma
yoluyla ulaşılan
15:44
but I think you're almostneredeyse
talkingkonuşma about a differentfarklı kindtür,
318
932880
2696
ama siz başka bir tür iknadan
bahsediyorsunuz,
15:47
a more visceralvisseral typetip of persuadabilitypersuadability,
319
935590
1906
içten gelen bir iknadan,
15:49
of beingolmak persuadedikna withoutolmadan
even knowingbilme that you're thinkingdüşünme.
320
937520
2896
onu düşündüğünüzü bile bilmeden
ikna edilmekten.
15:52
THİNCİ: ExactlyTam olarak. The reasonneden
I carebakım about this problemsorun so much is
321
940440
2856
TH: Kesinlikle.
Bu sorunu bu kadar önemsememin sebebi
15:55
I studiedokudu at a lablaboratuvar calleddenilen
the Persuasiveİkna edici TechnologyTeknoloji LabLaboratuvar at StanfordStanford
322
943320
3176
Stanford'da İkna Teknolojisi Laboratuvarı
adında bir yerde okudum,
15:58
that taughtöğretilen people
exactlykesinlikle these techniquesteknikleri.
323
946520
2096
öğrencilere bu teknikler öğretiliyordu.
16:00
There's conferenceskonferanslar and workshopsatölyeler
that teachöğretmek people all these covertgizli waysyolları
324
948640
3456
İnsanların dikkatlerini toplayarak
hayatlarına yön veren
16:04
of gettingalma people'sinsanların attentionDikkat
and orchestratingdüzenlediğini people'sinsanların liveshayatları.
325
952120
2976
bu teknikleri öğreten konferans
ve çalıştaylar var.
16:07
And it's because mostçoğu people
don't know that that existsvar
326
955120
2656
İnsanların çoğu bunun
var olduğunu bilmedikleri için
16:09
that this conversationkonuşma is so importantönemli.
327
957800
1896
bu sohbet konusu aslında çok önemli.
16:11
CACA: TristanTristan, you and I, we bothher ikisi de know
so manyçok people from all these companiesşirketler.
328
959720
3776
CA: İkimiz de bu şirketlerden
çok sayıda insan tanıyoruz.
16:15
There are actuallyaslında manyçok here in the roomoda,
329
963520
1976
Hatta pek çoğu salonda aramızda,
16:17
and I don't know about you,
but my experiencedeneyim of them
330
965520
2477
Seni bilemiyorum
ama benim onlarla olan deneyimim
16:20
is that there is
no shortagesıkıntısı of good intentniyet.
331
968021
2075
iyi niyette
hiç taviz vermedikleri yönünde.
16:22
People want a better worldDünya.
332
970120
2176
İnsanlar daha iyi bir dünya istiyor.
16:24
They are actuallyaslında -- they really want it.
333
972320
3520
Bunu gerçekten istiyorlar.
16:28
And I don't think anything you're sayingsöz
is that these are evilkötülük people.
334
976320
4176
Bu insanların şeytani olduğunu
söylemiyorsun aslında.
16:32
It's a systemsistem where there's
these unintendedistenmeyen consequencessonuçları
335
980520
3696
Bu istenmeyen sonuçlar doğurmuş
16:36
that have really got out of controlkontrol --
336
984240
1856
ve kontrolden çıkmış bir sistem.
16:38
THİNCİ: Of this raceyarış for attentionDikkat.
337
986120
1496
TH: Dikkat için bu yarışta.
16:39
It's the classicklasik raceyarış to the bottomalt
when you have to get attentionDikkat,
338
987640
3176
Dikkat kazanmak için yapılan
dibe doğru bir yarış
16:42
and it's so tensegergin.
339
990840
1216
ve çok yoğun ilerliyor.
16:44
The only way to get more
is to go loweralt on the brainbeyin stemkök,
340
992080
2736
Daha fazlası için tek yol
beyinde daha aşağıya gitmek,
16:46
to go loweralt into outragerezalet,
to go loweralt into emotionduygu,
341
994840
2416
kızgınlığın ve duygunun
ve sürüngen beyninizin,
16:49
to go loweralt into the lizardkertenkele brainbeyin.
342
997280
1696
daha aşağısına gitmek.
16:51
CACA: Well, thank you so much for helpingyardım ediyor us
all get a little bitbit wiserbilge about this.
343
999000
3816
CA: Pekâlâ, bu konuda bizi biraz daha
bilgilendirdiğin için çok teşekkürler.
16:54
TristanTristan HarrisHarris, thank you.
THİNCİ: Thank you very much.
344
1002840
2416
Tristan Harris, teşekkürler.
TH: Çok teşekkür ederim.
16:57
(ApplauseAlkış)
345
1005280
2240
(Alkış)
Translated by Cihan Ekmekçi
Reviewed by Figen Ergürbüz

▲Back to top

ABOUT THE SPEAKER
Tristan Harris - Design thinker
Tristan Harris helps the technology industry more consciously and ethically shape the human spirit and human potential.

Why you should listen

Tristan Harris has been called "the closest thing Silicon Valley has to a conscience" by The Atlantic magazine. Prior to founding the new Center for Humane Technology, he was Google's Design Ethicist, developing a framework for how technology should "ethically" steer the thoughts and actions of billions of people from screens.  

Harris has spent a decade understanding the invisible influences that hijack human thinking and action. Drawing on literature from addiction, performative magic, social engineering, persuasive design and behavioral economics, he is currently developing a framework for ethical persuasion, especially as it relates to the moral responsibility of technology companies.

Rolling Stone magazine named Harris one of "25 People Shaping the World" in 2017. His work has been featured on TED, "60 Minutes," HBO's "RealTime with Bill Maher," "PBS NewsHour," Recode, The Atlantic, WIRED, the New York Times, Der Spiegel, The Economist and many more. Harris has briefed heads of state, technology company CEOs and members of the US Congress about the attention economy.

More profile about the speaker
Tristan Harris | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee