TEDxCERN
Hans Block and Moritz Riesewieck: The price of a "clean" internet
Hans Block e Moritz Riesewieck: O preço de uma Internet "limpa"
Filmed:
Readability: 5.3
1,337,069 views
Milhões de imagens e vídeos são diariamente enviados para a Internet, mas raramente vemos conteúdos chocantes e perturbadores nas redes sociais. Quem mantém a Internet "limpa" para nós? Nesta palestra alertadora, os documentaristas Hans Block e Moritz Riesewieck conduzem-nos ao mundo sombrio dos moderadores de conteúdos — as pessoas contratadas pelas grandes plataformas como o Facebook, o Twitter e a Google para eliminar da Internet os conteúdos tóxicos. Saibam mais sobre o impacto psicológico deste tipo de trabalho — e como a "limpeza digital" influencia tudo o que vemos e que pensamos.
Hans Block - Filmmaker, theater director, musician
Under the label Laokoon, Hans Block develops films, theatre productions, essays, lecture performances and radio plays that deal with the question of how our idea of humans and society change or can be transformed in the digital era. Full bioMoritz Riesewieck - Author, scriptwriter, theater and film director
Under the label Laokoon, Moritz Riesewieck develops films, theatre productions, essays, lecture performances and radio plays that deal with the question of how our idea of humans and society change or can be transformed in the digital era. Full bio
Under the label Laokoon, Hans Block develops films, theatre productions, essays, lecture performances and radio plays that deal with the question of how our idea of humans and society change or can be transformed in the digital era. Full bioMoritz Riesewieck - Author, scriptwriter, theater and film director
Under the label Laokoon, Moritz Riesewieck develops films, theatre productions, essays, lecture performances and radio plays that deal with the question of how our idea of humans and society change or can be transformed in the digital era. Full bio
Double-click the English transcript below to play the video.
00:12
[This talk contains mature content]
0
360
3221
[Esta palestra contém
conteúdo para adultos]
conteúdo para adultos]
00:16
Moritz Riesewieck: On March 23, 2013,
1
4913
4452
Moritz Riesewick: Em 23 de março de 2013,
00:21
users worldwide
discovered in their news feed
discovered in their news feed
2
9389
4057
utilizadores do mundo inteiro
descobriram no seu "feed" de notícias
descobriram no seu "feed" de notícias
00:25
a video of a young girl
being raped by an older man.
being raped by an older man.
3
13470
5063
um vídeo de uma menina a ser
violada por um homem mais velho.
violada por um homem mais velho.
00:31
Before this video
was removed from Facebook,
was removed from Facebook,
4
19478
3856
Antes de esse vídeo
ser removido do Facebook,
ser removido do Facebook,
00:35
it was already shared 16,000 times,
5
23358
4616
já tinha sido partilhado 16 000 vezes
00:39
and it was even liked 4,000 times.
6
27998
3642
e tinha recebido 4000 "likes".
00:45
This video went viral
and infected the net.
and infected the net.
7
33268
3663
O vídeo tornou-se viral
e espalhou-se pela Internet.
e espalhou-se pela Internet.
00:49
Hans Block: And that was the moment
we asked ourselves
we asked ourselves
8
37873
3095
Hans Block: Foi nesse momento
que nos perguntámos:
que nos perguntámos:
00:52
how could something like this
get on Facebook?
get on Facebook?
9
40992
2778
Como algo assim
pode aparecer no Facebook?
pode aparecer no Facebook?
00:55
And at the same time,
why don't we see such content more often?
why don't we see such content more often?
10
43794
4402
Ao mesmo tempo, porque não vemos esse
tipo de conteúdo com maior frequência?
tipo de conteúdo com maior frequência?
01:00
After all, there's a lot
of revolting material online,
of revolting material online,
11
48220
3683
Afinal, há muitos conteúdos
revoltantes na Internet,
revoltantes na Internet,
01:03
but why do we so rarely see such crap
on Facebook, Twitter or Google?
on Facebook, Twitter or Google?
12
51927
4455
mas porque é raro vermos essa porcaria
no Facebook, no Twitter ou no Google?
no Facebook, no Twitter ou no Google?
01:08
MR: While image-recognition software
13
56958
2241
MR: Embora os "softwares"
de reconhecimento facial
de reconhecimento facial
01:11
can identify the outlines
of sexual organs,
of sexual organs,
14
59223
4283
possam identificar os contornos
de órgãos sexuais,
de órgãos sexuais,
01:15
blood or naked skin in images and videos,
15
63530
4928
de sangue ou de pele nua
em imagens e vídeos,
em imagens e vídeos,
01:20
it has immense difficulties
to distinguish pornographic content
to distinguish pornographic content
16
68482
5540
eles têm grande dificuldade
em distinguir conteúdo pornográfico
em distinguir conteúdo pornográfico
01:26
from holiday pictures, Adonis statues
17
74046
4348
de fotos de férias, de estátuas de Adónis
01:30
or breast-cancer screening campaigns.
18
78418
2698
ou de campanhas de combate
ao cancro da mama.
ao cancro da mama.
01:33
It can't distinguish
Romeo and Juliet dying onstage
Romeo and Juliet dying onstage
19
81140
4255
Não conseguem distinguir
Romeu e Julieta a morrer no palco
Romeu e Julieta a morrer no palco
01:37
from a real knife attack.
20
85419
2555
de um esfaqueamento real.
01:39
It can't distinguish satire
from propaganda
from propaganda
21
87998
5222
Não conseguem diferenciar
entre sátira e propaganda
entre sátira e propaganda
01:45
or irony from hatred,
and so on and so forth.
and so on and so forth.
22
93244
3968
ou entre ironia e ódio,
e assim por diante.
e assim por diante.
01:50
Therefore, humans are needed to decide
23
98077
4078
Assim sendo, as pessoas
precisam de decidir
precisam de decidir
01:54
which of the suspicious content
should be deleted,
should be deleted,
24
102179
4001
qual o conteúdo suspeito
que deve ser apagado,
que deve ser apagado,
01:58
and which should remain.
25
106204
1600
e qual o que deve permanecer.
02:00
Humans whom we know almost nothing about,
26
108909
2811
Pessoas, a respeito das quais nada sabemos
02:03
because they work in secret.
27
111744
1867
porque trabalham em segredo.
02:06
They sign nondisclosure agreements,
28
114053
1905
Assinam contratos de confidencialidade,
02:07
which prohibit them
from talking and sharing
from talking and sharing
29
115982
2953
que lhes proíbem falar e partilhar
02:10
what they see on their screens
and what this work does to them.
and what this work does to them.
30
118959
3585
o que eles veem nos ecrãs
e o que esse trabalho lhes faz.
e o que esse trabalho lhes faz.
02:14
They are forced to use code words
in order to hide who they work for.
in order to hide who they work for.
31
122887
4270
São forçados a usar códigos
para esconder para quem trabalham.
para esconder para quem trabalham.
02:19
They are monitored
by private security firms
by private security firms
32
127585
2905
São monitorados por empresas
privadas de segurança
privadas de segurança
02:22
in order to ensure
that they don't talk to journalists.
that they don't talk to journalists.
33
130514
3510
para assegurarem
que não falem com jornalistas.
que não falem com jornalistas.
02:26
And they are threatened by fines
in case they speak.
in case they speak.
34
134048
3539
E são ameaçados com multas, caso falem.
02:30
All of this sounds
like a weird crime story,
like a weird crime story,
35
138421
3762
Isso parece uma esquisita
história criminal,
história criminal,
02:34
but it's true.
36
142207
1330
mas é verdade.
02:35
These people exist,
37
143561
1492
Essas pessoas existem,
02:37
and they are called content moderators.
38
145633
4181
e chamam-se
"moderadores de conteúdos".
"moderadores de conteúdos".
02:42
HB: We are the directors of the feature
documentary film "The Cleaners,"
documentary film "The Cleaners,"
39
150942
3445
HB: Nós somos os realizadores
do documentário "The Cleaners",
do documentário "The Cleaners",
02:46
and we would like to take you
40
154411
1960
e gostaríamos de vos levar
02:48
to a world that many of you
may not know yet.
may not know yet.
41
156395
2587
a um mundo que muitos
de vocês desconhecem.
de vocês desconhecem.
02:51
Here's a short clip of our film.
42
159006
2133
Eis um pequeno excerto do nosso filme.
(Vídeo)
02:58
(Music)
43
166639
3620
03:04
(Video) Moderator: I need to be anonymous,
because we have a contract signed.
because we have a contract signed.
44
172400
3686
Tenho de ficar anónimo,
porque assinei um contrato.
porque assinei um contrato.
03:09
We are not allowed to declare
whom we are working with.
whom we are working with.
45
177784
3621
Não podemos dizer para quem trabalhamos.
03:14
The reason why I speak to you
46
182807
1763
Estou a falar com vocês
03:16
is because the world should know
that we are here.
that we are here.
47
184594
4380
porque o mundo precisa
de saber que existimos.
de saber que existimos.
03:22
There is somebody
who is checking the social media.
who is checking the social media.
48
190544
2803
Há alguém que está a vigiar
as redes sociais.
as redes sociais.
03:26
We are doing our best
to make this platform
to make this platform
49
194317
3604
Estamos a fazer o nosso melhor
para tornar esta plataforma,
para tornar esta plataforma,
03:29
safe for all of them.
50
197945
1790
segura para toda a gente.
03:42
Delete.
51
210438
1150
Apagar.
03:44
Ignore.
52
212278
1294
Ignorar.
03:45
Delete.
53
213596
1150
Apagar.
03:47
Ignore.
54
215279
1297
Ignorar.
03:48
Delete.
55
216600
1151
Apagar.
03:50
Ignore.
56
218680
1151
Ignorar.
03:51
Ignore.
57
219855
1150
Ignorar.
03:53
Delete.
58
221625
1150
Apagar.
03:58
HB: The so-called content moderators
59
226030
1977
HB: Os chamados moderadores de conteúdo
04:00
don't get their paychecks from Facebook,
Twitter or Google themselves,
Twitter or Google themselves,
60
228031
4000
não são pagos pelo Facebook,
pelo Twitter ou pelo Google.
pelo Twitter ou pelo Google.
04:04
but from outsourcing firms
around the world
around the world
61
232055
2317
mas por empresas contratadas
no mundo inteiro,
no mundo inteiro,
04:06
in order to keep the wages low.
62
234396
2067
para manter os salários baixos.
04:08
Tens of thousands of young people
63
236833
1967
Dezenas de milhares de jovens
04:10
looking at everything
we are not supposed to see.
we are not supposed to see.
64
238824
3213
que olham para todas as coisas
que não devemos ver.
que não devemos ver.
04:14
And we are talking about
decapitations, mutilations,
decapitations, mutilations,
65
242061
3548
Estamos a falar de decapitações,
de mutilações,
de mutilações,
04:17
executions, necrophilia,
torture, child abuse.
torture, child abuse.
66
245633
3696
de execuções, de necrofilia,
de tortura, de abuso infantil.
de tortura, de abuso infantil.
04:21
Thousands of images in one shift --
67
249743
2274
Milhares de imagens
num turno de trabalho
num turno de trabalho
04:24
ignore, delete, day and night.
68
252041
2915
— ignorar, apagar, dia e noite.
04:27
And much of this work is done in Manila,
69
255393
3398
Muito deste trabalho é feito em Manila,
04:30
where the analog toxic waste
from the Western world
from the Western world
70
258815
3302
para onde o lixo analógico do Ocidente
04:34
was transported for years
by container ships,
by container ships,
71
262141
2608
foi embarcado em contentores
durante anos.
durante anos.
04:36
now the digital waste is dumped there
via fiber-optic cable.
via fiber-optic cable.
72
264773
4003
Agora o lixo digital é atirado para ali,
por cabo de fibra ótica.
por cabo de fibra ótica.
04:40
And just as the so-called scavengers
73
268800
3047
Tal como os catadores de lixo
04:43
rummage through gigantic tips
on the edge of the city,
on the edge of the city,
74
271871
3476
vasculham pilhas gigantes
na periferia da cidade,
na periferia da cidade,
04:47
the content moderators click their way
through an endless toxic ocean
through an endless toxic ocean
75
275371
4833
os moderadores de conteúdo clicam
através de um oceano tóxico infinito
através de um oceano tóxico infinito
04:52
of images and videos and all manner
of intellectual garbage,
of intellectual garbage,
76
280228
4087
de imagens e vídeos
e todo o tipo de lixo intelectual,
e todo o tipo de lixo intelectual,
04:56
so that we don't have to look at it.
77
284339
2302
para não termos de olhar para isso.
04:58
MR: But unlike the wounds
of the scavengers,
of the scavengers,
78
286665
3540
MR: Mas ao contrário
das feridas dos catadores,
das feridas dos catadores,
05:02
those of the content moderators
remain invisible.
remain invisible.
79
290229
3451
as dos moderadores de conteúdo
permanecem invisíveis.
permanecem invisíveis.
05:06
Full of shocking and disturbing content,
80
294117
3080
Repletos de conteúdos
chocantes e perturbadores,
chocantes e perturbadores,
05:09
these pictures and videos
burrow into their memories
burrow into their memories
81
297221
3263
essas fotos e vídeos ficam marcadas
na memória deles,
na memória deles,
05:12
where, at any time,
they can have unpredictable effects:
they can have unpredictable effects:
82
300508
3445
onde, em qualquer momento,
podem ter efeitos imprevisíveis:
podem ter efeitos imprevisíveis:
05:15
eating disorders, loss of libido,
83
303977
3357
distúrbios alimentares, perda de líbido,
05:19
anxiety disorders, alcoholism,
84
307358
3259
ansiedade, alcoolismo,
05:22
depression, which can even
lead to suicide.
lead to suicide.
85
310641
2912
depressão, que até podem
levar ao suicídio.
levar ao suicídio.
05:26
The pictures and videos infect them,
86
314100
2445
As imagens e vídeos infetam-nos,
05:28
and often never let them go again.
87
316569
2389
e frequentemente nunca os abandonam.
05:30
If they are unlucky, they develop
post-traumatic stress disorders,
post-traumatic stress disorders,
88
318982
4841
Se não tiverem sorte, desenvolvem
"stress" pós-traumático,
"stress" pós-traumático,
05:35
like soldiers after war missions.
89
323847
2200
como soldados após missões de guerra.
05:39
In our film, we tell the story
of a young man
of a young man
90
327445
3643
No nosso filme, contamos
a história de um jovem
a história de um jovem
05:43
who had to monitor livestreams
of self-mutilations and suicide attempts,
of self-mutilations and suicide attempts,
91
331112
5198
que tinha de monitorar vídeos
de automutilações e tentativas de suicídio,
de automutilações e tentativas de suicídio,
05:48
again and again,
92
336334
1675
repetidamente,
05:50
and who eventually
committed suicide himself.
committed suicide himself.
93
338033
3066
e que acabou por se suicidar.
05:53
It's not an isolated case,
as we've been told.
as we've been told.
94
341787
2740
Não é um caso isolado,
como viemos a saber.
como viemos a saber.
05:57
This is the price all of us pay
95
345184
3980
Este é o preço que todos pagamos
06:01
for our so-called clean
and safe and "healthy"
and safe and "healthy"
96
349188
5327
para os ambientes dos "media" sociais
a que chamamos limpos,
seguros e "saudáveis".
seguros e "saudáveis".
06:06
environments on social media.
97
354539
2284
06:10
Never before in the history of mankind
98
358482
2595
Nunca na história da humanidade
06:13
has it been easier to reach
millions of people around the globe
millions of people around the globe
99
361101
3332
foi tão fácil alcançar milhares
de pessoas do globo inteiro,
de pessoas do globo inteiro,
06:16
in a few seconds.
100
364457
1667
em poucos segundos.
06:18
What is posted on social media
spreads so quickly,
spreads so quickly,
101
366148
3945
O que é publicado nas redes sociais
propaga-se muito rapidamente,
propaga-se muito rapidamente,
06:22
becomes viral and excites the minds
of people all around the globe.
of people all around the globe.
102
370117
3936
torna-se viral e excita as mentes
das pessoas no mundo inteiro.
das pessoas no mundo inteiro.
06:26
Before it is deleted,
103
374450
2064
Antes de ser eliminado
06:28
it is often already too late.
104
376538
1933
em geral, já é tarde demais.
06:30
Millions of people
have already been infected
have already been infected
105
378966
2230
Milhões de pessoas já foram infetadas
06:33
with hatred and anger,
106
381220
1857
com ódio e raiva,
06:35
and they either become active online,
107
383101
2730
e podem tornar-se ativas "online",
06:37
by spreading or amplifying hatred,
108
385855
3143
espalhando e amplificando o ódio,
06:41
or they take to the streets
and take up arms.
and take up arms.
109
389022
3793
ou invadir as ruas e pegar em armas.
HB: Um exército
de moderadores de conteúdos
de moderadores de conteúdos
06:45
HB: Therefore, an army
of content moderators
of content moderators
110
393236
2540
06:47
sit in front of a screen
to avoid new collateral damage.
to avoid new collateral damage.
111
395800
3895
sentados em frente de um ecrã
para evitar novos danos colaterais.
para evitar novos danos colaterais.
06:52
And they are deciding,
as soon as possible,
as soon as possible,
112
400434
2119
Decidem, o mais depressa possível,
06:54
whether the content
stays on the platform -- ignore;
stays on the platform -- ignore;
113
402577
4095
se o conteúdo permanece
na plataforma — ignorar —
na plataforma — ignorar —
06:58
or disappears -- delete.
114
406696
2340
ou se o conteúdo desaparece — apagar.
07:01
But not every decision is as clear
115
409823
2627
Mas nem todas as decisões são tão fáceis,
07:04
as the decision about a child-abuse video.
116
412474
2897
como a decisão sobre
um vídeo de abuso infantil.
um vídeo de abuso infantil.
07:07
What about controversial content,
ambivalent content,
ambivalent content,
117
415395
2777
O que se passa quanto ao conteúdo
controverso e ambivalente,
controverso e ambivalente,
07:10
uploaded by civil rights activists
or citizen journalists?
or citizen journalists?
118
418196
3153
publicado por ativistas
de direitos civis ou por cidadãos?
de direitos civis ou por cidadãos?
07:14
The content moderators
often decide on such cases
often decide on such cases
119
422048
3222
Os moderadores de conteúdos
decidem sobre esses casos
decidem sobre esses casos
07:17
at the same speed as the [clear] cases.
120
425294
2733
com a mesma velocidade dos casos "fáceis".
MR: Vamos mostrar um vídeo
07:21
MR: We will show you a video now,
121
429515
2659
07:24
and we would like to ask you to decide:
122
432198
3309
e pedirmos que decidam:
Vocês apagá-lo-iam?
07:27
Would you delete it,
123
435531
1690
Ou não o apagavam?
07:29
or would you not delete it?
124
437245
1801
07:31
(Video) (Air strike sounds)
125
439070
1667
(Vídeo)
(Explosão)
07:33
(Explosion)
126
441100
2550
(Pessoas a falar árabe)
07:40
(People speaking in Arabic)
127
448076
5953
07:46
MR: Yeah, we did some blurring for you.
128
454053
2230
MR: Esfumámos a imagem
para vocês.
para vocês.
Uma criança podia ficar
muito perturbada
muito perturbada
07:49
A child would potentially
be dangerously disturbed
be dangerously disturbed
129
457196
3755
e muito assustada com este conteúdo.
07:52
and extremely frightened by such content.
130
460975
2809
07:55
So, you rather delete it?
131
463808
2297
Então, vocês apagá-lo-iam?
07:59
But what if this video could help
investigate the war crimes in Syria?
investigate the war crimes in Syria?
132
467610
4639
E se este vídeo ajudasse
a investigar crimes de guerra na Síria?
a investigar crimes de guerra na Síria?
08:04
What if nobody would have heard
about this air strike,
about this air strike,
133
472717
3167
E se ninguém soubesse
deste ataque aéreo
deste ataque aéreo
porque o Facebook, o Youtube,
e o Twitter decidiram eliminá-lo?
e o Twitter decidiram eliminá-lo?
08:07
because Facebook, YouTube, Twitter
would have decided to take it down?
would have decided to take it down?
134
475908
3738
08:12
Airwars, a nongovernmental
organization based in London,
organization based in London,
135
480895
4325
A Airwars, uma ONG londrina
tenta encontrar esses vídeos
o mais depressa possível
o mais depressa possível
08:17
tries to find those videos
as quickly as possible
as quickly as possible
136
485244
2897
08:20
whenever they are uploaded
to social media,
to social media,
137
488165
2560
sempre que são publicados
nas redes sociais
nas redes sociais
08:22
in order to archive them.
138
490749
1600
para poder arquivá-los.
08:24
Because they know, sooner or later,
139
492693
2833
Porque sabem que,
mais cedo ou mais tarde,
mais cedo ou mais tarde,
08:27
Facebook, YouTube, Twitter
would take such content down.
would take such content down.
140
495550
3310
o Facebook, o YouTube, o Twitter
eliminam esse conteúdo.
eliminam esse conteúdo.
Pessoas armadas com os seus telemóveis
08:31
People armed with their mobile phones
141
499345
2208
08:33
can make visible what journalists
often do not have access to.
often do not have access to.
142
501577
4199
divulgam coisas a que os jornalistas
nem sempre têm acesso.
nem sempre têm acesso.
Grupos de ação civil em geral
não têm uma opção melhor
não têm uma opção melhor
08:37
Civil rights groups often
do not have any better option
do not have any better option
143
505800
3063
08:40
to quickly make their recordings
accessible to a large audience
accessible to a large audience
144
508887
3801
para tornarem as suas gravações
acessíveis ao grande público
acessíveis ao grande público
do que publicá-las nas redes sociais.
08:44
than by uploading them to social media.
145
512712
2600
Isto não é um potencial fator de poder
que a rede devia ter?
que a rede devia ter?
08:47
Wasn't this the empowering potential
the World Wide Web should have?
the World Wide Web should have?
146
515950
4286
Não eram esses os sonhos
08:52
Weren't these the dreams
147
520966
1960
08:54
people in its early stages had
about the World Wide Web?
about the World Wide Web?
148
522950
4111
que as pessoas tinham
sobre a Internet?
sobre a Internet?
08:59
Can't pictures and videos like these
149
527608
2795
Essas fotos e vídeos não deveriam
09:02
persuade people who have become
insensitive to facts
insensitive to facts
150
530427
5134
persuadir as pessoas que se tornaram
insensíveis aos factos
insensíveis aos factos
a repensarem?
09:07
to rethink?
151
535585
1150
09:09
HB: But instead, everything
that might be disturbing is deleted.
that might be disturbing is deleted.
152
537917
3602
HB: Mas o que pode ser incómodo é apagado.
E a sociedade está a mudar.
09:13
And there's a general shift in society.
153
541543
2058
09:15
Media, for example, more and more often
use trigger warnings
use trigger warnings
154
543625
3897
Os "media", por exemplo,
vêm usando alertas
vêm usando alertas
colocados no topo de artigos
09:19
at the top of articles
155
547546
1793
09:21
which some people may perceive
as offensive or troubling.
as offensive or troubling.
156
549363
3309
que as pessoas podem achar ofensivos
ou perturbadores.
ou perturbadores.
09:24
Or more and more students
at universities in the United States
at universities in the United States
157
552696
3914
Ou cada vez mais universitários
norte-americanos
norte-americanos
querem que sejam banidos
do programa de obras clássicas
do programa de obras clássicas
09:28
demand the banishment of antique classics
158
556634
2817
09:31
which depict sexual violence or assault
from the curriculum.
from the curriculum.
159
559475
3115
que apresentam violência
ou assédio sexual.
ou assédio sexual.
09:34
But how far should we go with that?
160
562991
2333
Mas até onde devemos levar isso?
A integridade física é um direito humano
09:37
Physical integrity is guaranteed
as a human right
as a human right
161
565875
3380
garantido nas Constituições
ao redor do mundo.
ao redor do mundo.
09:41
in constitutions worldwide.
162
569279
1800
09:43
In the Charter of Fundamental Rights
of the European Union,
of the European Union,
163
571422
3754
Entre os Direitos Fundamentais
da União Europeia,
da União Europeia,
esse direito aplica-se expressamente
à integridade mental.
à integridade mental.
09:47
this right expressly applies
to mental integrity.
to mental integrity.
164
575200
3354
Mas mesmo que o efeito
potencialmente traumático
potencialmente traumático
09:51
But even if the potentially
traumatic effect
traumatic effect
165
579347
2658
09:54
of images and videos is hard to predict,
166
582029
2826
de imagens e vídeos seja difícil de prever
09:56
do we want to become so cautious
167
584879
1957
será que queremos ser tão cautelosos
09:58
that we risk losing
social awareness of injustice?
social awareness of injustice?
168
586860
3727
que percamos a consciência da injustiça?
10:03
So what to do?
169
591203
1150
Então o que fazer?
10:04
Mark Zuckerberg recently stated
that in the future,
that in the future,
170
592942
2992
Mark Zuckerberg afirmou
que, no futuro, nós,
utilizadores, ou todo mundo
utilizadores, ou todo mundo
10:07
the users, we, or almost everybody,
171
595958
3802
10:11
will decide individually
172
599784
2261
decidiremos individualmente
o que queremos ver nas plataformas
10:14
what they would like to see
on the platform,
on the platform,
173
602069
2048
por meio de filtros pessoais.
10:16
by personal filter settings.
174
604141
2031
10:18
So everyone could easily claim
to remain undisturbed
to remain undisturbed
175
606196
3072
Poderemos optar por não nos incomodarmos
10:21
by images of war
or other violent conflicts, like ...
or other violent conflicts, like ...
176
609292
3739
com imagens de guerra e violência, como...
MR: Sou o tipo de pessoa
que não se importa de ver seios
que não se importa de ver seios
10:25
MR: I'm the type of guy
who doesn't mind seeing breasts
who doesn't mind seeing breasts
177
613849
4446
e me interesso muito
pelo aquecimento global
pelo aquecimento global
10:30
and I'm very interested in global warming,
178
618319
3766
mas não gosto muito de guerra...
10:34
but I don't like war so much.
179
622109
2564
10:37
HB: Yeah, I'm more the opposite,
180
625109
1722
HB: Pois, mas eu sou o oposto,
10:38
I have zero interest in naked breasts
or naked bodies at all.
or naked bodies at all.
181
626855
4053
zero interesse em seios e corpos nus,
mas porque não armas?
Eu gosto de armas.
Eu gosto de armas.
10:43
But why not guns? I like guns, yes.
182
631209
2911
10:46
MR: Come on, if don't share
a similar social consciousness,
a similar social consciousness,
183
634901
3745
MR: Espera aí. Se não partilharmos
uma mesma consciência social
uma mesma consciência social
10:50
how shall we discuss social problems?
184
638670
2669
como discutiremos problemas sociais?
10:53
How shall we call people to action?
185
641363
2397
Como chamaremos as pessoas a agirem?
10:55
Even more isolated bubbles would emerge.
186
643784
3285
Surgiriam bolhas ainda mais isoladas.
10:59
One of the central questions is:
"How, in the future,
"How, in the future,
187
647665
3231
Uma das questões centrais é:
"Como é que, no futuro,
a liberdade de expressão será ponderada
com a proteção individual?"
a liberdade de expressão será ponderada
com a proteção individual?"
11:02
freedom of expression will be weighed
against the people's need for protection."
against the people's need for protection."
188
650920
4903
11:08
It's a matter of principle.
189
656441
1467
É uma questão de princípios.
Vamos projetar uma sociedade
aberta ou fechada
aberta ou fechada
11:10
Do we want to design
an either open or closed society
an either open or closed society
190
658602
4248
11:14
for the digital space?
191
662874
1639
ao espaço digital?
Em suma, "liberdade ou segurança?".
11:17
At the heart of the matter
is "freedom versus security."
is "freedom versus security."
192
665054
5912
11:24
Facebook has always wanted to be
a "healthy" platform.
a "healthy" platform.
193
672388
4484
O Facebook sempre quis ser uma
plataforma "saudável".
plataforma "saudável".
11:28
Above all, users should feel
safe and secure.
safe and secure.
194
676896
3698
Acima de tudo, os utilizadores
deviam sentir-se seguros.
deviam sentir-se seguros.
11:32
It's the same choice of words
195
680618
2120
É a mesma escolha de palavras
11:34
the content moderators
in the Philippines used
in the Philippines used
196
682762
2958
que os moderadores de conteúdo
filipinos usaram
filipinos usaram
em muitas das nossas entrevistas.
11:37
in a lot of our interviews.
197
685744
1800
11:40
(Video) The world
that we are living in right now,
that we are living in right now,
198
688188
2381
[Vídeo]
Acho que o mundo em que vivemos
não é muito saudável.
não é muito saudável.
11:42
I believe, is not really healthy.
199
690593
2166
11:44
(Music)
200
692783
1548
11:46
In this world, there is really
an evil who exists.
an evil who exists.
201
694355
3158
Neste mundo existe um mal.
11:49
(Music)
202
697537
3238
Precisamos de estar atentos.
11:52
We need to watch for it.
203
700799
2063
11:54
(Music)
204
702886
1882
11:56
We need to control it -- good or bad.
205
704792
3250
Precisamos de controlá-lo
— bom ou mau.
— bom ou mau.
12:00
(Music)
206
708646
7000
12:10
[Look up, Young man! --God]
207
718193
4103
[Olhe para cima, rapaz!
— Deus]
— Deus]
12:14
MR: For the young content moderators
in the strictly Catholic Philippines,
in the strictly Catholic Philippines,
208
722952
4278
MR: Para os jovens moderadores
nas Filipinas, um país católico,
nas Filipinas, um país católico,
isto está ligado a uma missão cristã:
12:19
this is linked to a Christian mission.
209
727254
2793
12:22
To counter the sins of the world
210
730833
2966
combater os pecados do mundo
que se espalham pela Internet.
12:25
which spread across the web.
211
733823
2174
" A pureza está perto da divindade"
12:28
"Cleanliness is next to godliness,"
212
736641
3412
12:32
is a saying everybody
in the Philippines knows.
in the Philippines knows.
213
740077
3434
é um ditado que todos
os filipinos conhecem.
os filipinos conhecem.
HB: E outros encontram motivação,
12:36
HB: And others motivate themselves
214
744035
1659
comparando-se a Rodrigo Duterte.
12:37
by comparing themselves
with their president, Rodrigo Duterte.
with their president, Rodrigo Duterte.
215
745718
3731
o Presidente das Filipinas desde 2016,
12:41
He has been ruling
the Philippines since 2016,
the Philippines since 2016,
216
749837
3491
12:45
and he won the election
with the promise: "I will clean up."
with the promise: "I will clean up."
217
753352
3993
que ganhou a eleição com o lema:
"Eu limparei".
"Eu limparei".
Isso significa acabar
com todos os problemas
com todos os problemas
12:49
And what that means is eliminating
all kinds of problems
all kinds of problems
218
757892
3317
12:53
by literally killing people on the streets
219
761233
2455
literalmente matando pessoas nas ruas,
12:55
who are supposed to be criminals,
whatever that means.
whatever that means.
220
763712
2865
suspeitas de serem criminosas,
seja lá o que isso for.
seja lá o que isso for.
E desde que foi eleito,
12:58
And since he was elected,
221
766601
1270
12:59
an estimated 20,000 people
have been killed.
have been killed.
222
767895
3436
já foram mortas cerca de 20 000 pessoas.
13:03
And one moderator in our film says,
223
771655
2501
Um moderador diz no nosso filme:
"O que Duterte faz nas ruas,
13:06
"What Duterte does on the streets,
224
774180
2055
13:08
I do for the internet."
225
776259
1714
"eu faço na Internet".
13:10
And here they are,
our self-proclaimed superheroes,
our self-proclaimed superheroes,
226
778934
3564
E eis que eles, os heróis autoproclamados
garantem a lei e a ordem
no nosso mundo digital.
no nosso mundo digital.
13:14
who enforce law and order
in our digital world.
in our digital world.
227
782522
2976
13:17
They clean up,
they polish everything clean,
they polish everything clean,
228
785522
2381
Eles limpam tudo com esmero,
13:19
they free us from everything evil.
229
787927
2333
livram-nos de todo o mal.
13:22
Tasks formerly reserved
to state authorities
to state authorities
230
790284
3729
As tarefas antes reservadas
a autoridades do Estado
a autoridades do Estado
foram assumidas por universitários
com 20 anos
com 20 anos
13:26
have been taken over
by college graduates in their early 20s,
by college graduates in their early 20s,
231
794037
3675
munidos de uma formação
de três a cinco dias
de três a cinco dias
13:29
equipped with
three- to five-day training --
three- to five-day training --
232
797736
2893
13:32
this is the qualification --
233
800653
1936
— é essa a qualificação —
13:34
who work on nothing less
than the world's rescue.
than the world's rescue.
234
802613
3067
que trabalham em nada menos
do que salvar o mundo.
do que salvar o mundo.
MR: A soberania nacional
foi entregue a empresas privadas
foi entregue a empresas privadas
13:38
MR: National sovereignties
have been outsourced to private companies,
have been outsourced to private companies,
235
806756
4219
que entregam a terceiros
essa responsabilidade.
essa responsabilidade.
13:42
and they pass on their
responsibilities to third parties.
responsibilities to third parties.
236
810999
4008
13:47
It's an outsourcing of the outsourcing
of the outsourcing,
of the outsourcing,
237
815031
3063
É uma sucessão de entregas
de responsabilidade
de responsabilidade
13:50
which takes place.
238
818118
1150
o que está a ocorrer.
13:51
With social networks,
239
819618
1396
Com as redes sociais,
13:53
we are dealing with a completely
new infrastructure,
new infrastructure,
240
821038
3015
há uma infraestrutura totalmente nova
com os seus próprios mecanismos
13:56
with its own mechanisms,
241
824077
1516
13:57
its own logic of action
242
825617
1579
a sua própria lógica de ação
13:59
and therefore, also, its own new dangers,
243
827220
5245
e, assim, os seus próprios perigos,
que não existiam
na esfera pública pré-digital.
na esfera pública pré-digital.
14:04
which had not yet existed
in the predigitalized public sphere.
in the predigitalized public sphere.
244
832489
4025
14:08
HB: When Mark Zuckerberg
was at the US Congress
was at the US Congress
245
836538
2209
HB: Quando Mark Zuckerberg
foi ao Congresso dos EUA
foi ao Congresso dos EUA
14:10
or at the European Parliament,
246
838771
1770
ou ao Parlamento Europeu
14:12
he was confronted
with all kinds of critics.
with all kinds of critics.
247
840565
2635
foi confrontado com todo
o tipo de críticas.
o tipo de críticas.
14:15
And his reaction was always the same:
248
843224
2580
A sua reação foi sempre a mesma:
14:18
"We will fix that,
249
846501
1468
"Vamos consertar isso,
14:19
and I will follow up on that
with my team."
with my team."
250
847993
2551
"vou acompanhar isso com a minha equipa".
Mas tal debate não deveria ocorrer
nos bastidores do Facebook,
nos bastidores do Facebook,
14:23
But such a debate shouldn't be held
in back rooms of Facebook,
in back rooms of Facebook,
251
851167
3778
do Twitter ou do Google,
14:26
Twitter or Google --
252
854969
1285
14:28
such a debate should be openly discussed
in new, cosmopolitan parliaments,
in new, cosmopolitan parliaments,
253
856278
4816
mas sim abertamente,
em novos parlamentos cosmopolitas,
em novos parlamentos cosmopolitas,
14:33
in new institutions
that reflect the diversity of people
that reflect the diversity of people
254
861118
4860
em novas instituições que refletissem
a diversidade das pessoas,
a diversidade das pessoas,
14:38
contributing to a utopian project
of a global network.
of a global network.
255
866002
4542
contribuindo para um projeto utópico
de uma rede global.
de uma rede global.
Embora pareça impossível
levar em conta os valores
levar em conta os valores
14:42
And while it may seem impossible
to consider the values
to consider the values
256
870568
3377
14:45
of users worldwide,
257
873969
2242
dos utilizadores do mundo inteiro,
14:48
it's worth believing
258
876235
1682
vale a pena acreditar
14:49
that there's more that connects us
than separates us.
than separates us.
259
877941
3286
que há mais coisas que nos unem
do que as que nos separam.
do que as que nos separam.
MR: Sim, numa época
em que o populismo ganha força,
em que o populismo ganha força,
14:53
MR: Yeah, at a time
when populism is gaining strength,
when populism is gaining strength,
260
881624
3707
14:57
it becomes popular
to justify the symptoms,
to justify the symptoms,
261
885355
3198
tornou-se comum justificar os sintomas,
15:00
to eradicate them,
262
888577
1278
para os erradicar,
15:01
to make them invisible.
263
889879
1888
para os tornar invisíveis.
15:04
This ideology is spreading worldwide,
264
892919
3349
Esta ideologia espalha-se pelo mundo,
tanto analógico como digital,
15:08
analog as well as digital,
265
896292
2785
e é nosso dever impedi-la
15:11
and it's our duty to stop it
266
899903
3492
antes que seja tarde demais.
15:15
before it's too late.
267
903419
1626
15:17
The question of freedom and democracy
268
905665
3984
A questão da liberdade e da democracia
não pode ter somente essas duas opções.
15:21
must not only have these two options.
269
909673
2967
HB: Eliminar...
15:25
HB: Delete.
270
913053
1166
15:26
MR: Or ignore.
271
914243
2147
MR: ... ou ignorar.
HB: Muito obrigado.
15:29
HB: Thank you very much.
272
917300
1597
(Aplausos)
15:30
(Applause)
273
918921
5269
ABOUT THE SPEAKERS
Hans Block - Filmmaker, theater director, musicianUnder the label Laokoon, Hans Block develops films, theatre productions, essays, lecture performances and radio plays that deal with the question of how our idea of humans and society change or can be transformed in the digital era.
Why you should listen
Hans Block is a German theater director, filmmaker and musician. He studied music (drums) at the University of Arts in Berlin and theater directing at Ernst Busch Academy of Dramatic Arts in Berlin. His research, together with Moritz Riesewieck, about freedom of expression in the age of social media brought them international attention. Their debut film, The Cleaners, celebrated its world premiere at the Sundance Film Festival in 2018 and has since been screened at more than 70 international film festivals, in cinemas and on TV worldwide. It was nominated for an Emmy and the German Television Award and has received numerous international awards, including the "Prix Europa" for the Best European TV documentary film 2018 and the Grimme Audience Award 2019.
More profile about the speakerHans Block | Speaker | TED.com
Moritz Riesewieck - Author, scriptwriter, theater and film director
Under the label Laokoon, Moritz Riesewieck develops films, theatre productions, essays, lecture performances and radio plays that deal with the question of how our idea of humans and society change or can be transformed in the digital era.
Why you should listen
Moritz Riesewieck is a German essay author, scriptwriter, theater and film director. He studied directing at Ernst Busch Academy of Dramatic Arts in Berlin and some semesters of economics as a fellow of the German Academic Scholarship Foundation. His research, together with Hans Block, about freedom of expression in the age of social media brought them international attention. Their debut film The Cleaners celebrated its world premiere at the Sundance Film Festival in 2018 and has since been screened at more than 70 international film festivals, in cinemas and on TV worldwide. It was nominated for an Emmy and the German Television Award and has received numerous international awards, including the "Prix Europa" for the Best European TV documentary film 2018 and the Grimme Audience Award 2019. His essay "Digital Dirt Work" was published by German publishing house dtv in September 2017.
More profile about the speakerMoritz Riesewieck | Speaker | TED.com