ABOUT THE SPEAKER
Evgeny Morozov - Internet scientist
Evgeny Morozov wants to know how the Internet has changed the conduct of global affairs, because it certainly has ... but perhaps not in all the ways we think.

Why you should listen

Writer Evgeny Morozov studies the political and social aspects of the Internet. Right now, he's working on a book about the Internet's role in politics -- and especially how the Web influences civic engagement and regime stability in authoritarian, closed societies or in countries "in transition."

Morozov writes the much-quoted Foreign Policy blog Net.Effect, and is known for debunking -- with facts, figures and sound research -- myths and media-bandwagon assumptions about the impact of the Internet and mobile technologies on politics and society. We all want to be cyber-optimists, assuming that free societies necessarily follow from free data. Morozov is careful to say that it's not quite that simple: yes, social change can be empowered by new tech, but so can the policies of repressive regimes. Morozov attended TEDGlobal 2009 as one of 25 TEDGlobal Fellows.

Get the slide deck from his TEDGlobal talk >>

Read his essay in design mind >>

More profile about the speaker
Evgeny Morozov | Speaker | TED.com
TEDGlobal 2009

Evgeny Morozov: How the Net aids dictatorships

Евгениј Морозов: Дали интернетот е она од што Орвел се плашеше?

Filmed:
507,428 views

Членот на TED и новинар Евгениј Морозов го разоткрива она што тој го нарекува „Ајпод либерализам“ - претпоставката дека технолошките иновации секогаш промовираат слобода и демократија - со отрезнувачки примери за тоа како интернетот им помага на опресивните режими да го потиснат бунтот.
- Internet scientist
Evgeny Morozov wants to know how the Internet has changed the conduct of global affairs, because it certainly has ... but perhaps not in all the ways we think. Full bio

Double-click the English transcript below to play the video.

00:12
Good morning. I think, as a grumpy Eastern European,
0
0
5000
Добро утро. Ми се чини дека како намќорест Источноевропеец,
00:17
I was brought in to play the pessimist this morning. So bear with me.
1
5000
4000
утрово сум тука во улога на песимист. Па, имајте трпение.
00:21
Well, I come from the former Soviet Republic of Belarus,
2
9000
3000
Доаѓам од поранешната советска република Белорусија,
00:24
which, as some of you may know,
3
12000
3000
која, како што можеби знаете,
00:27
is not exactly an oasis of liberal democracy.
4
15000
3000
не е оаза на либералната демократија.
00:30
So that's why I've always been fascinated
5
18000
4000
Затоа, секогаш сум бил фасциниран
00:34
with how technology could actually reshape
6
22000
3000
со прашањето како технологијата може да обликува
00:37
and open up authoritarian societies like ours.
7
25000
3000
и отвори едно авторитарно општество како нашето.
00:40
So, I'm graduating college
8
28000
2000
Така, кога завршив со факултетот,
00:42
and, feeling very idealistic,
9
30000
2000
чуствувајќи се многу идеалистички,
00:44
I decided to join the NGO
10
32000
2000
одлучив да се приклучам на една НВО
00:46
which actually was using new media
11
34000
2000
што ги користеше новите медиуми
00:48
to promote democracy and media reform
12
36000
2000
за да промовира демократија и реформа на медиумите
00:50
in much of the former Soviet Union.
13
38000
3000
во поголемиот дел од поранешниот Советски Сојуз.
00:53
However, to my surprise,
14
41000
2000
Сепак, на мое изненадување,
00:55
I discovered that dictatorships
15
43000
2000
открив дека диктатурите
00:57
do not crumble so easily.
16
45000
2000
не паѓаат така лесно.
00:59
In fact, some of them actually
17
47000
3000
Всушност, некои од нив
01:02
survived the Internet challenge,
18
50000
2000
го преживеаа предизвикот,
01:04
and some got even more repressive.
19
52000
3000
а некои станаа уште порепресивни.
01:07
So this is when I ran out of my idealism and
20
55000
3000
Тука некаде ми се потроши идеализмот и
01:10
decided to quit my NGO job
21
58000
2000
одлучив да ја напуштам работата во невладината организација
01:12
and actually study how the Internet could impede democratization.
22
60000
5000
и да проучам како интернетот може да ја спречи демократизацијата.
01:17
Now, I must tell you that this was never
23
65000
2000
Е, сега, морам да потенцирам дека ова никогаш не бил
01:19
a very popular argument,
24
67000
3000
многу популарен аргумент.
01:22
and it's probably not very popular yet
25
70000
2000
И веројатно сè уште не е популарен
01:24
with some of you sitting in this audience.
26
72000
2000
помеѓу некои од вас во публиката.
01:26
It was never popular with many political leaders,
27
74000
3000
Не бил популарен ни помеѓу политичките лидери,
01:29
especially those in the United States
28
77000
2000
посебно оние во Соединетите Американски Држави,
01:31
who somehow thought that new media
29
79000
2000
кои некако мислеа дека новите медиуми
01:33
would be able to do what missiles couldn't.
30
81000
4000
ќе го направат она што проектилите не можеа да го направат,
01:37
That is, promote democracy in difficult places
31
85000
3000
а тоа е да ја промовираат демократијата на незгодни места,
01:40
where everything else has already been tried and failed.
32
88000
4000
каде сè друго досега не успеало.
01:44
And I think by 2009,
33
92000
2000
И мислам дека до 2009-та,
01:46
this news has finally reached Britain,
34
94000
3000
овие вести конечно стигнаа до Британија.
01:49
so I should probably add Gordon Brown to this list as well.
35
97000
3000
Па, веројатно треба да го додадам и Гордон Браун на списокот.
01:52
However, there is an underlying argument about logistics,
36
100000
5000
Сепак, има заедничка нишка во аргументот за логистика,
01:57
which has driven so much of this debate. Right?
37
105000
3000
што ја движи оваа дебата.
02:00
So if you look at it close enough,
38
108000
2000
Ако погледнете доволно внимателно,
02:02
you'll actually see that much of this
39
110000
2000
ќе видите дека во голем дел
02:04
is about economics.
40
112000
3000
овде се работи за економија.
02:07
The cybertopians say, much like fax machines
41
115000
3000
Сјаберутопијанците велат дека, исто како што факсовите
02:10
and Xerox machines did in the '80s,
42
118000
3000
и копир машините направија во 80-тите,
02:13
blogs and social networks
43
121000
2000
блоговите и социјалните мрежи
02:15
have radically transformed the economics of protest,
44
123000
3000
радикално ја трансформираа економијата на протестот.
02:18
so people would inevitably rebel.
45
126000
3000
Така, луѓето неизбежно ќе се побунат.
02:21
To put it very simply,
46
129000
2000
Или, просто кажано,
02:23
the assumption so far has been
47
131000
2000
претпоставката до сега беше
02:25
that if you give people enough connectivity,
48
133000
3000
дека ако им дадете на луѓето доволно интернет
02:28
if you give them enough devices,
49
136000
3000
и доволно уреди,
02:31
democracy will inevitably follow.
50
139000
2000
демократијата неизбежно ќе следи.
02:33
And to tell you the truth,
51
141000
2000
Да ви кажам искрено,
02:35
I never really bought into this argument,
52
143000
3000
никогаш целосно не поверував во овој аргумент,
02:38
in part because I never saw three American presidents
53
146000
3000
делумно затоа што немам видено тројца американски претседатели
02:41
agree on anything else in the past.
54
149000
2000
да се согласат за што било друго во минатото.
02:43
(Laughter)
55
151000
4000
(Смеа)
02:47
But, you know, even beyond that,
56
155000
2000
Но, настрана од тоа,
02:49
if you think about the logic underlying it,
57
157000
2000
ако размислите за логиката што е темел на ова,
02:51
is something I call iPod liberalism,
58
159000
3000
тоа е нешто што го викам „ајпод либерализам“.
02:54
where we assume that every single Iranian or Chinese
59
162000
4000
Претпоставуваме дека секој Ирачанец или Кинез
02:58
who happens to have and love his iPod
60
166000
2000
кој случајно има ајпод што си го сака,
03:00
will also love liberal democracy.
61
168000
4000
исто така ќе ја сака и либералната демократија.
03:04
And again, I think this is kind of false.
62
172000
4000
И, повторно, мислам дека ова е погрешно.
03:08
But I think a much bigger problem with this
63
176000
2000
Но, мислам дека многу поголем проблем со ова
03:10
is that this logic --
64
178000
2000
е тоа што оваа логика -
03:12
that we should be dropping iPods not bombs --
65
180000
3000
дека треба да фрламе ајподи, а не бомби -
03:15
I mean, it would make a fascinating title
66
183000
3000
мислам, тоа би било одличен наслов
03:18
for Thomas Friedman's new book.
67
186000
2000
за новата книга на Томас Фридман.
03:20
(Laughter)
68
188000
1000
(Смеа)
03:21
But this is rarely a good sign. Right?
69
189000
4000
Но, ова ретко е добар знак. Така?
03:25
So, the bigger problem with this logic
70
193000
4000
Поголемиот проблем со оваа логика
03:29
is that it confuses the intended
71
197000
2000
е што ги меша посакуваната и
03:31
versus the actual uses of technology.
72
199000
4000
фактичката употреба на технологијата.
03:35
For those of you who think that
73
203000
2000
Оние од вас кои мислат дека
03:37
new media of the Internet
74
205000
2000
интернетот како нов медиум
03:39
could somehow help us avert genocide,
75
207000
3000
може некако да ни помогнат да избегнеме геноцид,
03:42
should look no further than Rwanda,
76
210000
2000
треба само да ја погледнат Руанда.
03:44
where in the '90s it was actually two radio stations
77
212000
3000
Таму, во 90-тите, токму две радио станици
03:47
which were responsible for fueling much of the ethnic hatred in the first place.
78
215000
4000
во најголем дел беа одговорни за подгревање на етничката омраза.
03:51
But even beyond that, coming back to the Internet,
79
219000
3000
Но, да се вратиме на интернетот.
03:54
what you can actually see
80
222000
2000
Она што можете да го видите
03:56
is that certain governments
81
224000
2000
е дека некои влади
03:58
have mastered the use of cyberspace
82
226000
3000
ја совладале вештината на употреба на сајбер-просторот
04:01
for propaganda purposes. Right?
83
229000
2000
за пропагандни цели.
04:03
And they are building what I call the Spinternet.
84
231000
2000
И градат нешто што јас го нарекувам „спинтернет“ -
04:05
The combination of spin, on the one hand,
85
233000
3000
комбинација на спин, од една страна,
04:08
and the Internet on the other.
86
236000
2000
и интернет, од друга.
04:10
So governments from Russia to China to Iran
87
238000
3000
Значи, владите од Русија до Кина, до Иран,
04:13
are actually hiring, training and paying bloggers
88
241000
3000
всушност најмуваат, тренираат и плаќаат блогери,
04:16
in order to leave ideological comments
89
244000
3000
чија задача е да пишуваат идеолошки коментари
04:19
and create a lot of ideological blog posts
90
247000
2000
и да пишуваат многу идеолошки блог-записи
04:21
to comment on sensitive political issues. Right?
91
249000
3000
во кои коментираат на чувствителни политички прашања.
04:24
So you may wonder, why on Earth are they doing it?
92
252000
4000
Можеби ќе се запрашате зошто го прават тоа?
04:28
Why are they engaging with cyberspace?
93
256000
2000
Зошто се активни во сајбер-просторот?
04:30
Well my theory is that
94
258000
2000
Мојата теорија е дека
04:32
it's happening because censorship actually
95
260000
3000
тоа е така бидејќи цензурата на многу од овие места,
04:35
is less effective than you think it is in many of those places.
96
263000
3000
всушност, е помалку ефективна одошто мислиме.
04:38
The moment you put something critical in a blog,
97
266000
4000
Во моментот кога ќе објавите нешто на блог,
04:42
even if you manage to ban it immediately,
98
270000
3000
дури и тоа веднаш да биде банирано,
04:45
it will still spread around thousands and thousands of other blogs.
99
273000
4000
сепак има време да се прошири на илјадници други блогови.
04:49
So the more you block it,
100
277000
2000
Па, така, колку повеќе го блокирате,
04:51
the more it emboldens people to actually avoid the censorship
101
279000
3000
толку повеќе ги поттикнувате луѓето да ја избегнуваат цензурата
04:54
and thus win in this cat-and-mouse game.
102
282000
3000
и со тоа да победат во оваа игра на мачка и глушец.
04:57
So the only way to control this message
103
285000
4000
Значи, единствениот начин да се контролира оваа порака
05:01
is actually to try to spin it
104
289000
2000
е да се обидете да ја извртите,
05:03
and accuse anyone who has written something critical
105
291000
3000
и да го обвините секој оној што напишал некоја критика
05:06
of being, for example, a CIA agent.
106
294000
2000
дека е, на пример, агент на ЦИА.
05:08
And, again, this is happening quite often.
107
296000
3000
Ова се случува често.
05:11
Just to give you an example of how it works in China, for example.
108
299000
4000
Само да ви дадам еден пример како тоа функционира во Кина.
05:15
There was a big case in February 2009
109
303000
4000
Имаше голем случај во февруари 2009-та,
05:19
called "Elude the Cat."
110
307000
2000
наречен „Избегај од мачката".
05:21
And for those of you who didn't know, I'll just give a little summary.
111
309000
4000
За оние кои не знаат, ќе дадам кратко резиме.
05:25
So what happened is that a 24-year-old man,
112
313000
3000
Еден 24-годишен човек,
05:28
a Chinese man, died in prison custody.
113
316000
3000
Кинез, почина во затвор.
05:31
And police said that it happened
114
319000
3000
Полицијата изјави дека тоа се случило
05:34
because he was playing hide and seek,
115
322000
2000
бидејќи тој играл криенка -
05:36
which is "elude the cat" in Chinese slang,
116
324000
3000
а тоа е „избегај од мачката“ во кинескиот сленг -
05:39
with other inmates and hit his head
117
327000
2000
со други затвореници и си ја удрил
05:41
against the wall,
118
329000
2000
главата во ѕид.
05:43
which was not an explanation which sat well with many Chinese bloggers.
119
331000
7000
Ова објаснување не беше доволно за многу кинески блогери.
05:50
So they immediately began posting a lot of critical comments.
120
338000
4000
Тие веднаш почнаа да објавуваат многу критички коментари.
05:54
In fact, QQ.com, which is a popular Chinese website,
121
342000
4000
Всушност, QQ.com, популарна кинеска веб-страница,
05:58
had 35,000 comments
122
346000
2000
имаше 35.000 коментари
06:00
on this issue within hours.
123
348000
2000
по ова прашање за само неколку часа.
06:02
But then authorities did something very smart.
124
350000
3000
Но, тогаш власта направи нешто многу паметно.
06:05
Instead of trying to purge these comments,
125
353000
3000
Наместо да се обидат да ги избришат овие коментари,
06:08
they instead went and reached out to the bloggers.
126
356000
3000
тие им се обратија на блогерите.
06:11
And they basically said, "Look guys. We'd like you to become netizen investigators."
127
359000
5000
Во основа им рекоа: „Дечки, би сакале да станете е-граѓански истражувачи“.
06:16
So 500 people applied,
128
364000
3000
Се пријавија 500 луѓе,
06:19
and four were selected to actually go and tour the facility in question,
129
367000
4000
и беа одбрани четворица да одат да го разгледаат затворот,
06:23
and thus inspect it and then blog about it.
130
371000
4000
да го проверат и потоа да блогираат за тоа.
06:27
Within days the entire incident was forgotten,
131
375000
3000
За неколку дена целиот инцидент беше заборавен,
06:30
which would have never happened if they simply tried to block the content.
132
378000
3000
што немаше да се случи доколку се обидеа да ја блокираат содржината.
06:33
People would keep talking about it for weeks.
133
381000
3000
Луѓето ќе продолжеа да зборуваат за тоа со недели.
06:36
And this actually fits with another interesting theory
134
384000
4000
Ова е во согласност со друга интересна теорија
06:40
about what's happening in authoritarian states
135
388000
3000
за тоа што се случува во авторитарните држави
06:43
and in their cyberspace.
136
391000
2000
и нивниот сајбер-простор.
06:45
This is what political scientists call authoritarian deliberation,
137
393000
3000
Политиколозите ова го нарекуваат аворитарно обмислување.
06:48
and it happens when governments are actually reaching out to their critics
138
396000
5000
Тоа се случува кога владите се отвораат кон своите критичари
06:53
and letting them engage with each other online.
139
401000
2000
и им дозволуваат да се поврзаат едни со други на интернет.
06:55
We tend to think
140
403000
2000
Мислиме дека
06:57
that somehow this is going to harm these dictatorships,
141
405000
3000
ова некако ќе им наштети на диктатурите,
07:00
but in many cases it only strengthens them.
142
408000
3000
но во многу случаи тоа само ги зајакнува.
07:03
And you may wonder why.
143
411000
2000
И можеби ќе се запрашате зошто.
07:05
I'll just give you a very short list of reasons
144
413000
2000
Ќе ви дадам краток список на причини зошто
07:07
why authoritarian deliberation
145
415000
3000
авторитарното обмислување
07:10
may actually help the dictators.
146
418000
2000
може да им помогне на диктаторите.
07:12
And first it's quite simple.
147
420000
2000
Првата е мошне едноставна.
07:14
Most of them operate in a complete information vacuum.
148
422000
3000
Повеќето од нив функционираат во комплетен информациски вакуум.
07:17
They don't really have the data they need
149
425000
3000
Ги немаат податоците што им требаат
07:20
in order to identify emerging threats facing the regime.
150
428000
3000
за да ги идентификуваат заканите што се појавуваат против режимот.
07:23
So encouraging people to actually go online
151
431000
3000
Па, така, тоа што ги поттикнуваат луѓето да одат на интернет
07:26
and share information and data
152
434000
2000
и да споделуваат информации и податоци
07:28
on blogs and wikis is great
153
436000
2000
на блогови и викија е супер,
07:30
because otherwise, low level apparatchiks and bureaucrats
154
438000
3000
бидејќи инаку бирократите
07:33
will continue concealing what's actually happening in the country, right?
155
441000
4000
би продолжиле да го кријат тоа што всушност се случува во државата, така?
07:37
So from this perspective, having blogs and wikis
156
445000
2000
Така, од оваа перспектива, имањето блогови и викија
07:39
produce knowledge has been great.
157
447000
2000
создава знаење, што е супер.
07:41
Secondly, involving public in any decision making
158
449000
3000
Второ, вклучувањето на јавноста во донесувањето одлуки,
07:44
is also great
159
452000
2000
исто така, е супер,
07:46
because it helps you to share the blame
160
454000
2000
бидејќи помага во делењето на одговорноста
07:48
for the policies which eventually fail.
161
456000
2000
за политиките кои на крајот ќе пропаднат.
07:50
Because they say, "Well look, we asked you,
162
458000
2000
Ќе речат: „Па, видете, ние ве прашавме,
07:52
we consulted you, you voted on it.
163
460000
2000
ве консултиравме, вие гласавте.
07:54
You put it on the front page of your blog.
164
462000
2000
Го стави тоа на главната страница на твојот блог.
07:56
Well, great. You are the one who is to blame."
165
464000
3000
Супер. Ти си тој што е виновен.“
07:59
And finally, the purpose of
166
467000
3000
И конечно, целта на
08:02
any authoritarian deliberation efforts
167
470000
2000
сите напори на авторитарно обмислување
08:04
is usually to increase the legitimacy of the regimes, both at home and abroad.
168
472000
3000
е зголемување на легитимитетот на режимот, дома и надвор.
08:07
So inviting people to all sorts of public forums,
169
475000
4000
Па така, поканувањето на луѓето на разни јавни форуми,
08:11
having them participate in decision making,
170
479000
2000
повикувајќи ги да учестуваат во донесувањето одлуки,
08:13
it's actually great.
171
481000
2000
всушност, е супер,
08:15
Because what happens is that then
172
483000
2000
затоа што тогаш можете
08:17
you can actually point to this initiative and say,
173
485000
2000
да посочите кон таа иницијатива и да речете
08:19
"Well, we are having a democracy. We are having a forum."
174
487000
3000
„Имаме демократија. Имаме форум.“
08:22
Just to give you an example,
175
490000
2000
На пример,
08:24
one of the Russian regions, for example,
176
492000
2000
еден руски регион
08:26
now involves its citizens
177
494000
2000
сега ги вклучува своите граѓани
08:28
in planning its strategy up until year 2020.
178
496000
4000
во планирањето на стратегијата до 2020-та година.
08:32
Right? So they can go online
179
500000
2000
Можат да одат на интернет
08:34
and contribute ideas on what that region would look like by the year 2020.
180
502000
4000
и да додадат идеи за тоа како да изгледа регионот до 2020-та година.
08:38
I mean, anyone who has been to Russia would know
181
506000
2000
Секој што бил во Русија знае
08:40
that there was no planning in Russia for the next month.
182
508000
3000
дека таму нема планирање ни за следниот месец.
08:43
So having people involved in planning for 2020
183
511000
3000
Тоа што луѓето се вклучени во планирање за 2020-та
08:46
is not necessarily going to change anything,
184
514000
2000
не значи дека ќе смени нешто,
08:48
because the dictators are still the ones who control the agenda.
185
516000
4000
бидејќи диктаторот е тој што ја контролира агендата.
08:52
Just to give you an example from Iran,
186
520000
2000
Да ви дадам пример и од Иран.
08:54
we all heard about the Twitter revolution
187
522000
2000
Сите слушнавме за Твитер-револуцијата
08:56
that happened there,
188
524000
2000
што се случи таму.
08:58
but if you look close enough, you'll actually see
189
526000
2000
Но, ако погледнете внимателно, ќе видите дека
09:00
that many of the networks and blogs
190
528000
2000
многу од мрежите и блоговите,
09:02
and Twitter and Facebook were actually operational.
191
530000
3000
како Твитер и Фејсбук, беа функционални.
09:05
They may have become slower,
192
533000
2000
Можеби беа побавни,
09:07
but the activists could still access it
193
535000
2000
но активистите имаа пристапат.
09:09
and actually argue that having access to them
194
537000
2000
Аргументот е дека пристапот до овие мрежи
09:11
is actually great for many authoritarian states.
195
539000
3000
е одличен за авторитарните држави.
09:14
And it's great simply because
196
542000
3000
Одличен е од проста причина што
09:17
they can gather open source intelligence.
197
545000
4000
можат да собираат отворени разузнавачки информации.
09:21
In the past it would take you weeks, if not months,
198
549000
3000
Во минатото ќе ви требаа недели, ако не и месеци,
09:24
to identify how Iranian activists connect to each other.
199
552000
3000
да утврдите како иранските активисти се поврзуваат едни со други.
09:27
Now you actually know how they connect to each other
200
555000
2000
Сега тоа едноставно може да го дознаете
09:29
by looking at their Facebook page.
201
557000
2000
преку разгледување на нивната страница на Фејсбук.
09:31
I mean KGB, and not just KGB,
202
559000
2000
КГБ, и не само КГБ, користеше
09:33
used to torture in order to actually get this data.
203
561000
3000
тортура за да ги прибере овие податоци.
09:36
Now it's all available online.
204
564000
2000
Сега сè е достапно на интернет.
09:38
(Laughter)
205
566000
2000
(Смеа)
09:40
But I think the biggest conceptual pitfall
206
568000
2000
Но, мислам дека најголемиот концепциски пропуст
09:42
that cybertopians made
207
570000
2000
што го направија сајберутопистите
09:44
is when it comes to digital natives, people who have grown up online.
208
572000
3000
е во врска со дигиталните домородци, луѓето што израснаа на интернет.
09:47
We often hear about cyber activism,
209
575000
3000
Често слушаме за сајбер-активизам,
09:50
how people are getting more active because of the Internet.
210
578000
3000
за тоа како луѓето се сè поактивни заради интернетот.
09:53
Rarely hear about cyber hedonism, for example,
211
581000
2000
Ретко слушаме за сајбер-хедонизам, на пример,
09:55
how people are becoming passive.
212
583000
2000
за тоа како луѓето стануваат пасивни.
09:57
Why? Because they somehow assume that the Internet
213
585000
2000
Зошто? Бидејќи тие претпоставуваат дека интернетот некако
09:59
is going to be the catalyst of change
214
587000
2000
ќе биде катализатор на промени,
10:01
that will push young people into the streets,
215
589000
2000
дека ќе ги извади младите на улица,
10:03
while in fact it may actually be the new opium for the masses
216
591000
3000
додека тој всушност може да биде и новиот опиум за масите,
10:06
which will keep the same people in their rooms downloading pornography.
217
594000
3000
што ќе ги тера истите луѓе да седат во соба и да симнуваат порнографија.
10:09
That's not an option being considered too strongly.
218
597000
4000
Не се размислува многу за тоа.
10:13
So for every digital renegade that is revolting in the streets of Tehran,
219
601000
3000
Така, за секој дигитален одметник, кој го искажува незадоволството на улиците на Техеран,
10:16
there may as well be two digital captives
220
604000
2000
може да има два дигитални заробеници,
10:18
who are actually rebelling only in the World of Warcraft.
221
606000
3000
кои се бунтуваат само во „World of Warcraft“.
10:21
And this is realistic. And there is nothing wrong about it
222
609000
2000
Ова е реално. И нема ништо лошо во врска со тоа,
10:23
because the Internet has greatly empowered many of these young people
223
611000
4000
бидејќи интернетот им овозможи многу на овие млади луѓе.
10:27
and it plays a completely different social role for them.
224
615000
2000
И за нив, тој има сосем поинаква општествена улога.
10:29
If you look at some of the surveys
225
617000
2000
Ако погледате некои истражувања
10:31
on how the young people actually benefit from the Internet,
226
619000
3000
за тоа каква корист, всушност, младите луѓе имаат од интернетот,
10:34
you'll see that the number of teenagers in China, for example,
227
622000
3000
ќе видите дека бројот на тинејџери во Кина, на пример,
10:37
for whom the Internet actually broadens their sex life,
228
625000
3000
на кои интернетот им го проширува сексуалниот живот,
10:40
is three times more than in the United States.
229
628000
3000
е три пати поголем од оној во Соединетите Американски Држави.
10:43
So it does play a social role,
230
631000
2000
Значи, тој игра општествена улога,
10:45
however it may not necessarily lead to political engagement.
231
633000
3000
но сепак можеби не води до политичко ангажирање.
10:48
So the way I tend to think of it
232
636000
2000
Јас за ова размислувам како
10:50
is like a hierarchy of cyber-needs in space,
233
638000
2000
хиерархија од сајбер-потреби во вселената.
10:52
a total rip-off from Abraham Maslow.
234
640000
2000
Комплетна кражба од Абрахам Маслов.
10:54
But the point here is that
235
642000
2000
Но, поентата е дека
10:56
when we get the remote Russian village online,
236
644000
3000
кога ќе го закачиме и најоддалеченото руско село на интернет,
10:59
what will get people to the Internet
237
647000
2000
она што луѓето ќе ги натера да го користат интернетот
11:01
is not going to be the reports from Human Rights Watch.
238
649000
2000
нема да бидат извештаите од Хјуман Рајтс Воч (Human Rights Watch).
11:03
It's going to be pornography, "Sex and the City,"
239
651000
3000
Ќе биде порнографија, „Сексот и градот“,
11:06
or maybe watching funny videos of cats.
240
654000
3000
или можеби смешни видеа со мачки.
11:09
So this is something you have to recognize.
241
657000
2000
Ова е нешто што мора да се признае.
11:11
So what should we do about it?
242
659000
2000
И, што треба да правиме во врска со ова?
11:13
Well I say we have to stop thinking
243
661000
2000
Јас велам дека треба да престанеме да мислиме
11:15
about the number of iPods per capita
244
663000
3000
на бројот на ајподи по глава жител
11:18
and start thinking about ways in which
245
666000
2000
и да почнеме да мислиме на начини со кои
11:20
we can empower intellectuals,
246
668000
3000
можеме да ги поттикнеме интелектуалците,
11:23
dissidents, NGOs and then the members of civil society.
247
671000
3000
дисидентите, НВО-ата и членовите на граѓанското општество.
11:26
Because even what has been happening up 'til now
248
674000
3000
Бидејќи, со оглед на тоа што се случува до сега
11:29
with the Spinternet and authoritarian deliberation,
249
677000
2000
со спинтернетот и авторитарното обмислување,
11:31
there is a great chance that those voices will not be heard.
250
679000
3000
постои голама шанса тие гласови да не бидат чуени.
11:34
So I think we should shatter some of our utopian assumptions
251
682000
3000
Затоа, мислам дека треба да разбиеме некои од нашите утописки претпоставки
11:37
and actually start doing something about it.
252
685000
2000
и, всушност, да почнеме да правиме нешто во врска со ова.
11:39
Thank you.
253
687000
2000
Благодарам.
11:41
(Applause)
254
689000
3000
(Аплауз)
Translated by Novica Nakov
Reviewed by Biljana Dijanisieva

▲Back to top

ABOUT THE SPEAKER
Evgeny Morozov - Internet scientist
Evgeny Morozov wants to know how the Internet has changed the conduct of global affairs, because it certainly has ... but perhaps not in all the ways we think.

Why you should listen

Writer Evgeny Morozov studies the political and social aspects of the Internet. Right now, he's working on a book about the Internet's role in politics -- and especially how the Web influences civic engagement and regime stability in authoritarian, closed societies or in countries "in transition."

Morozov writes the much-quoted Foreign Policy blog Net.Effect, and is known for debunking -- with facts, figures and sound research -- myths and media-bandwagon assumptions about the impact of the Internet and mobile technologies on politics and society. We all want to be cyber-optimists, assuming that free societies necessarily follow from free data. Morozov is careful to say that it's not quite that simple: yes, social change can be empowered by new tech, but so can the policies of repressive regimes. Morozov attended TEDGlobal 2009 as one of 25 TEDGlobal Fellows.

Get the slide deck from his TEDGlobal talk >>

Read his essay in design mind >>

More profile about the speaker
Evgeny Morozov | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee