ABOUT THE SPEAKER
Michael Patrick Lynch - Philosopher
Michael Patrick Lynch examines truth, democracy, public discourse and the ethics of technology in the age of big data.

Why you should listen

What is truth and why does it matter? Does information technology help or hinder its pursuit? And how do we encourage more productive public discourse? These are some of the questions that animate Michael Lynch's work as a philosopher.  

Lynch is a writer and professor of philosophy at the University of Connecticut, where he directs the Humanities Institute. His work concerns truth, democracy, public discourse and the ethics of technology. Lynch is the author or editor of seven books, including The Internet of Us: Knowing More and Understanding Less in the Age of Big Data, In Praise of Reason: Why Rationality Matters for Democracy, Truth as One and Many and the New York Times Sunday Book Review Editor’s pick, True to Life.

The recipient of the Medal for Research Excellence from the University of Connecticut’s College of Liberal Arts and Sciences, he is The Principal Investigator for Humility & Conviction in Public Life, a $7 million project aimed at understanding and encouraging meaningful public discourse funded by the John Templeton Foundation and the University of Connecticut. He's a frequent contributor to the New York Times "The Stone" blog.

More profile about the speaker
Michael Patrick Lynch | Speaker | TED.com
TED2017

Michael Patrick Lynch: How to see past your own perspective and find truth

Michael Patrick Lynch: Como ver além de sua própria perspectiva e encontrar a verdade

Filmed:
1,781,987 views

Quanto mais lemos e assistimos on-line, mais difícil torna-se dizer a diferença entre o que é real e o que é falso. É como se soubéssemos mais, mas entendêssemos menos, diz o filósofo Michael Patrick Lynch. Nesta palestra, ele nos desafia a tomar atitudes para romper nossas bolhas e participar da realidade comum que de fato sustenta tudo.
- Philosopher
Michael Patrick Lynch examines truth, democracy, public discourse and the ethics of technology in the age of big data. Full bio

Double-click the English transcript below to play the video.

00:12
So, imagine that you had
your smartphone miniaturized
0
740
3679
Imagine que você tivesse
seu smartphone minimizado
00:16
and hooked up directly to your brain.
1
4443
2360
e ligado diretamente ao seu cérebro.
00:19
If you had this sort of brain chip,
2
7711
1893
Se você tivesse esse chip no cérebro,
seria capaz de carregar
e descarregar na internet
00:21
you'd be able to upload
and download to the internet
3
9628
2531
00:24
at the speed of thought.
4
12183
1192
na velocidade do pensamento.
00:25
Accessing social media or Wikipedia
would be a lot like --
5
13986
3267
Acessar as redes sociais
ou a Wikipedia seria muito parecido,
00:29
well, from the inside at least --
6
17277
1640
ao menos por dentro,
00:30
like consulting your own memory.
7
18941
1750
com consultar sua própria memória.
00:33
It would be as easy
and as intimate as thinking.
8
21247
3198
Seria tão fácil e íntimo como pensar.
00:37
But would it make it easier
for you to know what's true?
9
25579
3157
Mas seria fácil para você
saber o que é verdade?
00:40
Just because a way
of accessing information is faster
10
28760
2961
Só porque um modo de acessar
informação é mais rápido
00:43
it doesn't mean it's more
reliable, of course,
11
31745
2245
não significa que ele
é mais confiável, claro,
00:46
and it doesn't mean that we would all
interpret it the same way.
12
34014
3231
e não significa que todos nós
o interpretaríamos da mesma maneira.
00:49
And it doesn't mean that you would be
any better at evaluating it.
13
37269
3594
E não significa que seríamos
melhores em avaliá-lo.
00:52
In fact, you might even be worse,
14
40887
1657
Na verdade, poderia ser até pior
00:54
because, you know, more data,
less time for evaluation.
15
42568
2782
porque, quanto mais informação,
menos tempo para avaliação.
00:58
Something like this is already
happening to us right now.
16
46378
3395
Algo parecido já está
ocorrendo conosco agora.
01:01
We already carry a world of information
around in our pockets,
17
49797
3858
Nós já carregamos um mundo
de informação em nossos bolsos.
01:05
but it seems as if the more information
we share and access online,
18
53679
4229
Porém, parece que quanto mais informação
compartilhamos e acessamos na rede,
01:09
the more difficult it can be for us
to tell the difference
19
57932
2802
mais difícil pode ser notarmos a diferença
entre o que é real e o que é falso.
01:12
between what's real and what's fake.
20
60758
2117
01:15
It's as if we know more
but understand less.
21
63507
3938
É como se soubéssemos mais,
mas entendêssemos menos.
01:20
Now, it's a feature
of modern life, I suppose,
22
68152
2937
Agora, é uma característica
da vida moderna, eu suponho,
01:23
that large swaths of the public
live in isolated information bubbles.
23
71113
3988
que uma grande faixa do público
vive em bolhas isoladas de informação.
01:27
We're polarized: not just over values,
but over the facts.
24
75849
4654
Estamos polarizados: não só
sobre os valores, mas sobre os fatos.
01:32
One reason for that is, the data
analytics that drive the internet
25
80527
3597
Uma razão para isso é:
a análise de dados que move a internet
01:36
get us not just more information,
26
84148
2399
não nos dá apenas mais informação,
01:38
but more of the information that we want.
27
86571
2186
mas nos dá mais
da informação que queremos.
01:40
Our online life is personalized;
28
88781
2390
Nossa vida na rede é personalizada;
01:43
everything from the ads we read
29
91195
1730
tudo, desde as propagandas que lemos
01:44
to the news that comes down
our Facebook feed
30
92949
2590
até as notícias que chegam
ao nosso "feed" do Facebook,
01:47
is tailored to satisfy our preferences.
31
95563
3006
é ajustado para satisfazer
nossas preferências.
01:51
And so while we get more information,
32
99279
1806
Enquanto adquirimos mais informação,
01:53
a lot of that information ends up
reflecting ourselves
33
101109
3230
muitas dessas informações resultam
num reflexo de nós mesmos,
01:56
as much as it does reality.
34
104363
2204
tanto quanto a realidade.
01:59
It ends up, I suppose,
35
107198
1639
Isso acaba, eu suponho,
02:01
inflating our bubbles
rather than bursting them.
36
109691
2533
inchando nossas bolhas
em vez de rompê-las.
02:05
And so maybe it's no surprise
37
113331
2129
Então, talvez não seja surpresa
02:07
that we're in a situation,
a paradoxical situation,
38
115484
2905
que estejamos em uma situação paradoxal,
02:10
of thinking that we know so much more,
39
118413
2131
de pensar que sabemos muito mais,
02:12
and yet not agreeing
on what it is we know.
40
120568
3010
mas não concordar sobre o que sabemos.
02:17
So how are we going to solve
this problem of knowledge polarization?
41
125259
3572
Como vamos solucionar este problema
da polarização do conhecimento?
02:20
One obvious tactic is to try
to fix our technology,
42
128855
4168
Uma tática óbvia é tentar
consertar nossa tecnologia,
02:25
to redesign our digital platforms,
43
133047
1909
redesenhar nossas plataformas digitais,
02:26
so as to make them less
susceptible to polarization.
44
134980
3143
fazendo-as menos suscetíveis
à polarização.
02:30
And I'm happy to report
45
138884
1199
Eu me alegro ao informar
02:32
that many smart people at Google
and Facebook are working on just that.
46
140107
4640
que muitos gênios no Google e no Facebook
estão trabalhando justamente nisso.
02:36
And these projects are vital.
47
144771
1589
Esses projetos são vitais.
02:39
I think that fixing technology
is obviously really important,
48
147837
3130
Acho que consertar a tecnologia
é obviamente muito importante,
02:42
but I don't think technology alone,
fixing it, is going to solve the problem
49
150991
4622
mas não acho que só consertar a tecnologia
vai resolver o problema
da polarização do conhecimento.
02:47
of knowledge polarization.
50
155637
1354
02:49
I don't think that because I don't think,
at the end of the day,
51
157015
3075
Eu não acredito nisso
porque, no final das contas,
não acho que seja um problema tecnológico.
02:52
it is a technological problem.
52
160114
1629
02:53
I think it's a human problem,
53
161767
1875
Acho que é um problema humano,
02:55
having to do with how we think
and what we value.
54
163666
3565
que tem a ver com o que pensamos
e a que damos valor.
03:00
In order to solve it, I think
we're going to need help.
55
168285
2615
Para resolver, eu acho
que nós vamos precisar de ajuda.
Precisaremos de ajuda
da psicologia e das ciências políticas.
03:02
We're going to need help
from psychology and political science.
56
170924
3005
03:05
But we're also going to need help,
I think, from philosophy.
57
173953
3250
Também precisaremos,
de ajuda, acho, da filosofia.
03:10
Because to solve the problem
of knowledge polarization,
58
178663
3528
Porque para solucionar o problema
de polarização do conhecimento,
03:15
we're going to need to reconnect
59
183522
1995
nós precisaremos reconectar
03:18
with one fundamental, philosophical idea:
60
186455
3836
com uma ideia filosófica fundamental:
03:23
that we live in a common reality.
61
191219
2397
que vivemos em uma realidade em comum.
03:26
The idea of a common reality
is like, I suppose,
62
194671
4027
A ideia de uma realidade comum, suponho,
é como muitos conceitos filosóficos:
03:30
a lot of philosophical concepts:
63
198722
1563
fácil de expor,
03:32
easy to state
64
200309
1166
mas misteriosamente difícil
de colocar em prática.
03:33
but mysteriously difficult
to put into practice.
65
201499
2635
03:37
To really accept it,
66
205003
1305
Para aceitá-la,
03:38
I think we need to do three things,
67
206332
2217
acho que precisamos fazer três coisas,
03:40
each of which is a challenge right now.
68
208573
2312
cada qual é um desafio agora.
03:44
First, we need to believe in truth.
69
212749
2564
Primeiro, precisamos acreditar na verdade.
03:48
You might have noticed
70
216267
1163
Você deve ter notado que nossa cultura
está tendo uma relação conturbada
03:49
that our culture is having
something of a troubled relationship
71
217454
3015
com esse conceito no momento.
03:52
with that concept right now.
72
220493
1401
03:55
It seems as if we disagree so much that,
73
223061
3213
Parece que discordamos tanto que,
03:58
as one political commentator
put it not long ago,
74
226298
2809
como um comentarista
político disse há tempos,
04:01
it's as if there are no facts anymore.
75
229131
2235
é como se não existissem mais fatos.
04:04
But that thought is actually an expression
76
232986
4222
Aquele pensamento é,
na realidade, uma expressão
04:09
of a sort of seductive line
of argument that's in the air.
77
237232
4009
de uma sedutora linha de discussão
que está pairando no ar.
04:13
It goes like this:
78
241668
1268
É assim:
04:16
we just can't step outside
of our own perspectives;
79
244188
2851
não podemos sair
de nossas próprias perspectivas,
04:19
we can't step outside of our biases.
80
247063
2442
não podemos sair
de nossas próprias inclinações.
04:21
Every time we try,
81
249529
1473
Toda vez que tentamos,
04:23
we just get more information
from our perspective.
82
251026
3585
recebemos mais informação
das nossas próprias perspectivas.
04:27
So, this line of thought goes,
83
255536
2250
Nessa linha de pensamento, portanto,
04:31
we might as well admit
that objective truth is an illusion,
84
259016
3762
devemos admitir que a objetividade
é uma ilusão, ou não importa,
04:34
or it doesn't matter,
85
262802
1154
04:35
because either we'll never
know what it is,
86
263980
2146
porque ou nunca saberemos o que é,
04:39
or it doesn't exist in the first place.
87
267039
2143
ou ela nem mesmo existe.
04:43
That's not a new philosophical thought --
88
271173
2996
Não é um pensamento filosófico novo,
04:46
skepticism about truth.
89
274193
1848
o ceticismo em relação à verdade.
04:49
During the end of the last century,
as some of you know,
90
277332
2881
No final do século passado,
como alguns de vocês sabem,
era muito popular em alguns
círculos acadêmicos.
04:52
it was very popular in certain
academic circles.
91
280237
2294
04:55
But it really goes back all the way
to the Greek philosopher Protagoras,
92
283317
5133
Voltemos ao filósofo grego Protágoras,
ou talvez até antes dele.
05:00
if not farther back.
93
288474
1326
05:02
Protagoras said that objective
truth was an illusion
94
290252
2449
Protágoras disse
que objetividade era uma ilusão,
05:04
because "man is the measure
of all things."
95
292725
2907
porque "o homem é a medida
de todas as coisas".
05:07
Man is the measure of all things.
96
295656
1940
O homem é a medida de todas as coisas.
05:10
That can seem like a bracing bit
of realpolitik to people,
97
298169
2823
Isso pode parecer "realpolitik"
forçada para as pessoas,
05:13
or liberating,
98
301016
1159
ou libertador,
05:14
because it allows each of us
to discover or make our own truth.
99
302199
4538
porque deixa que cada um de nós
descubra e crie a própria verdade.
05:20
But actually, I think it's a bit
of self-serving rationalization
100
308618
4162
Acho, contudo, que é um pouco
de racionalização de autoatendimento
05:24
disguised as philosophy.
101
312804
1867
disfarçado de filosofia.
05:27
It confuses the difficulty
of being certain
102
315507
2808
Confunde a dificuldade de estar certo
05:30
with the impossibility of truth.
103
318339
2645
com a impossibilidade da verdade.
05:34
Look --
104
322223
1206
Veja...
05:36
of course it's difficult
to be certain about anything;
105
324768
2940
Claro, é difícil estar certo
sobre qualquer coisa.
05:40
we might all be living in "The Matrix."
106
328908
2313
Podemos todos estar vivendo
dentro do "Matrix".
05:44
You might have a brain chip in your head
107
332018
1982
Você pode ter um chip no seu cérebro
05:46
feeding you all the wrong information.
108
334024
1964
alimentando-o com informações erradas.
05:49
But in practice, we do agree
on all sorts of facts.
109
337593
4179
Mas, na prática, concordamos
em todo tipo de fatos.
05:53
We agree that bullets can kill people.
110
341796
3239
Concordamos que balas podem matar pessoas.
05:57
We agree that you can't flap
your arms and fly.
111
345616
4383
Concordamos que não podemos
bater os braços e voar.
06:02
We agree -- or we should --
112
350023
2109
Concordamos, ou deveríamos,
06:05
that there is an external reality
113
353018
2297
que há uma realidade externa
06:07
and ignoring it can get you hurt.
114
355339
2081
e ignorá-la pode lhe prejudicar.
06:11
Nonetheless, skepticism
about truth can be tempting,
115
359205
4149
Não obstante, ceticismo
sobre a verdade pode ser tentador,
06:15
because it allows us to rationalize
away our own biases.
116
363378
3314
já que deixa que racionalizemos
fora de nossas próprias perspectivas.
06:18
When we do that, we're sort of like
the guy in the movie
117
366716
2987
Quando fazemos isso,
somos como o cara do filme,
06:21
who knew he was living in "The Matrix"
118
369727
2338
que sabia que estava vivendo no "Matrix",
06:24
but decided he liked it there, anyway.
119
372793
2725
mas decidiu que gostava
de lá de qualquer modo.
06:29
After all, getting what you
want feels good.
120
377031
2658
Afinal, conseguir o que se quer é bom.
06:32
Being right all the time feels good.
121
380271
2696
Estar certo todo tempo é bom.
06:34
So, often it's easier for us
122
382991
2782
Frequentemente é mais fácil
06:37
to wrap ourselves in our cozy
information bubbles,
123
385797
3489
nos escondermos em nossas confortáveis
bolhas de informação,
06:42
live in bad faith,
124
390049
1541
viver de má fé,
06:43
and take those bubbles
as the measure of reality.
125
391614
3751
e usar aquelas bolhas
como medidas de realidade.
06:48
An example, I think, of how
this bad faith gets into our action
126
396595
5845
Um exemplo de como a má fé
domina nossas ações
06:54
is our reaction
to the phenomenon of fake news.
127
402464
4785
é nossa reação ao fenômeno
das notícias falsas.
06:59
The fake news that spread on the internet
128
407874
2930
As notícias falsas
que se espalharam pela internet
07:02
during the American
presidential election of 2016
129
410828
4654
durante a eleição presidencial
norte-americana de 2016
07:07
was designed to feed into our biases,
130
415506
2627
foram formuladas para alimentar
nossas perspectivas,
07:10
designed to inflate our bubbles.
131
418157
2114
formuladas para inflar nossas bolhas.
07:12
But what was really striking about it
132
420295
2051
O que foi realmente notável, no entanto,
07:14
was not just that it fooled
so many people.
133
422370
2614
não foi só que enganou tantas pessoas.
07:17
What was really striking to me
about fake news,
134
425595
2841
O que para mim foi realmente notável
sobre o fenômeno das notícias falsas,
07:20
the phenomenon,
135
428460
1338
07:21
is how quickly it itself became
the subject of knowledge polarization;
136
429822
5055
foi o quão rápido ele se tornou o sujeito
da polarização do conhecimento,
07:27
so much so, that the very term --
the very term -- "fake news"
137
435582
3679
tanto que o próprio termo
"notícias falsas"
07:31
now just means: "news story I don't like."
138
439285
3404
agora só significa:
"notícias que não gosto".
07:35
That's an example of the bad faith
towards the truth that I'm talking about.
139
443367
4873
Esse é um exemplo da má fé
em relação à verdade que menciono.
07:43
But the really, I think, dangerous thing
140
451240
3474
O verdadeiro perigo
07:47
about skepticism with regard to truth
141
455981
2578
sobre o ceticismo em relação à verdade
07:51
is that it leads to despotism.
142
459476
1907
é que leva ao despotismo.
07:54
"Man is the measure of all things"
143
462350
2923
"Homens são a medida de todas as coisas"
07:57
inevitably becomes "The Man
is the measure of all things."
144
465297
3917
inevitavelmente torna-se:
"O homem é a medida de todas as coisas".
08:01
Just as "every man for himself"
145
469852
2650
Bem como "cada um por si"
08:04
always seems to turn out to be
"only the strong survive."
146
472526
2995
sempre parece virar
"só os fortes sobrevivem".
08:08
At the end of Orwell's "1984,"
147
476345
2489
No final de "1984", de Orwell,
08:12
the thought policeman O'Brien is torturing
the protagonist Winston Smith
148
480136
4259
a ideia de que o policial O'Brien está
torturando o protagonista Winston Smith
08:16
into believing two plus two equals five.
149
484419
3198
em acreditar que dois mais dois são cinco.
08:20
What O'Brien says is the point,
150
488571
2804
O que O'Brien diz é crucial,
08:25
is that he wants to convince Smith
that whatever the party says is the truth,
151
493486
4421
ele quer convencer Smith de que qualquer
coisa que o partido disser é a verdade,
08:29
and the truth is whatever the party says.
152
497931
2885
e a verdade é o que o partido diz.
08:33
And what O'Brien knows
is that once this thought is accepted,
153
501484
3520
E o que O'Brien sabe é que, uma vez
que esse pensamento é aceito,
08:38
critical dissent is impossible.
154
506387
2554
a divergência crítica é impossível.
08:41
You can't speak truth to power
155
509857
2188
Você não pode falar a verdade ao poder,
08:44
if the power speaks truth by definition.
156
512069
3155
se o poder fala a verdade por definição.
08:48
I said that in order to accept
that we really live in a common reality,
157
516880
4243
Eu disse que, para aceitar que vivemos
em uma realidade comum,
temos que fazer três coisas.
08:53
we have to do three things.
158
521147
1287
A primeira coisa é acreditar na verdade.
08:54
The first thing is to believe in truth.
159
522458
1985
A segunda coisa pode ser resumida
08:56
The second thing can be summed up
160
524467
1670
pela frase latina que Kant usou
como seu lema para o iluminismo:
08:58
by the Latin phrase that Kant took
as the motto for the Enlightenment:
161
526161
5086
09:03
"Sapere aude,"
162
531271
1637
"Sapere aude",
09:04
or "dare to know."
163
532932
1732
ou "Ouse saber".
09:06
Or as Kant wants,
"to dare to know for yourself."
164
534688
2426
Ou, como Kant quer, "Ouse saber por si".
09:10
I think in the early days of the internet,
165
538208
2042
Acho que no início da internet
muitos de nós pensamos
09:12
a lot of us thought
166
540274
1166
09:13
that information technology
was always going to make it easier
167
541464
3810
que a tecnologia da informação
sempre facilitaria
sabermos por nós mesmos,
09:17
for us to know for ourselves,
168
545298
1855
09:19
and of course in many ways, it has.
169
547177
2692
e claro, de muitas formas, isso aconteceu.
09:21
But as the internet has become
more and more a part of our lives,
170
549893
3838
Mas à medida que a internet tornou-se
mais e mais parte de nossas vidas,
09:25
our reliance on it, our use of it,
171
553755
1959
nossa dependência, ou uso dela,
09:27
has become often more passive.
172
555738
2560
tornou-se frequentemente mais passiva.
09:30
Much of what we know today we Google-know.
173
558322
2365
Muito do que sabemos hoje,
sabemos pelo Google.
09:33
We download prepackaged sets of facts
174
561299
3695
Descarregamos conjuntos
de fatos pré-embalados
09:37
and sort of shuffle them along
the assembly line of social media.
175
565018
3812
e os embaralhamos na linha
de montagem das redes sociais.
09:41
Now, Google-knowing is useful
176
569357
1430
Saber via Google é útil
09:42
precisely because it involves
a sort of intellectual outsourcing.
177
570811
3196
precisamente porque envolve meio
que uma terceirização intelectual.
09:46
We offload our effort onto a network
of others and algorithms.
178
574031
5765
Desembarcamos nossos esforços
na rede de outros e em algoritmos.
09:51
And that allows us, of course,
to not clutter our minds
179
579820
3007
E isso nos permite, claro, não desordenar
nossas mentes com todo tipo de fato.
09:54
with all sorts of facts.
180
582851
1439
09:56
We can just download them
when we need them.
181
584314
2287
Só os descarregamos quando necessitamos,
09:58
And that's awesome.
182
586625
1382
e isso é impressionante.
10:01
But there's a difference
between downloading a set of facts
183
589348
4781
Há, contudo, uma diferença entre
descarregar um conjunto de fatos
10:06
and really understanding how or why
those facts are as they are.
184
594809
4826
e realmente entender como e por que
esses fatos são como são.
10:13
Understanding why
a particular disease spreads,
185
601237
4374
Entender por que uma
doença específica se espalha,
10:17
or how a mathematical proof works,
186
605635
2059
ou como uma prova matemática funciona,
10:19
or why your friend is depressed,
187
607718
2013
ou por que seu amigo está depressivo,
10:21
involves more than just downloading.
188
609755
2465
envolve mais que só descarregar.
10:25
It's going to require, most likely,
189
613396
2081
Vai exigir, provavelmente,
10:27
doing some work for yourself:
190
615501
2102
que você faça algum trabalho por si:
10:30
having a little creative insight;
191
618503
1840
usar um pouco de criatividade,
usar sua imaginação,
10:32
using your imagination;
192
620367
1266
entrar em campo,
10:33
getting out into the field;
193
621657
1318
fazer o experimento,
10:34
doing the experiment;
194
622999
1182
buscar as provas,
10:36
working through the proof;
195
624205
1271
falar com alguém.
10:37
talking to someone.
196
625500
1444
10:43
Now, I'm not saying, of course,
that we should stop Google-knowing.
197
631533
3544
Eu não estou recomendando
que não usemos o Google.
10:48
I'm just saying
198
636402
1151
Estou apenas dizendo
que não devemos supervalorizá-lo.
10:49
we shouldn't overvalue it, either.
199
637577
1686
10:51
We need to find ways of encouraging
forms of knowing that are more active,
200
639287
4664
Devemos encontrar maneiras de encorajar
formas mais ativas de conhecimento,
10:56
and don't always involve passing off
our effort into our bubble.
201
644512
5049
para que nossos esforços não aconteçam
sempre dentro de nossas bolhas.
11:02
Because the thing about Google-knowing
is that too often it ends up
202
650242
3341
Porque o conhecimento do Google
acaba, frequentemente,
sendo o conhecimento da bolha.
11:05
being bubble-knowing.
203
653607
1364
11:07
And bubble-knowing means
always being right.
204
655581
2790
E conhecimento da bolha
significa estar sempre certo.
11:11
But daring to know,
205
659183
2197
Ousar conhecer, entretanto,
11:13
daring to understand,
206
661404
1570
ousar entender,
11:16
means risking the possibility
that you could be wrong.
207
664151
3066
significa arriscar a possibilidade
de poder estar errado.
11:19
It means risking the possibility
208
667921
2268
Significa arriscar a possibilidade
de que o que você quer
11:22
that what you want and what's true
are different things.
209
670213
4327
e o que é verdade serem coisas diferentes.
11:28
Which brings me to the third thing
that I think we need to do
210
676070
2921
O que traz a terceira coisa
que acho que precisamos fazer,
11:31
if we want to accept that we live
in a common reality.
211
679854
3032
se quisermos aceitar que vivemos
em uma realidade comum.
11:34
That third thing is:
have a little humility.
212
682910
2891
A terceira coisa é:
tenha um pouco mais de humildade.
Por humildade, quero dizer
humildade epistêmica
11:38
By humility here, I mean
epistemic humility,
213
686510
2122
11:40
which means, in a sense,
214
688656
1989
que significa, de alguma maneira,
11:43
knowing that you don't know it all.
215
691701
2403
saber que você não sabe de tudo.
11:46
But it also means something
more than that.
216
694128
2053
Também significa mais que isso.
11:48
It means seeing your worldview
as open to improvement
217
696205
4450
Significa ver sua visão de mundo
aberta para aperfeiçoamento
11:52
by the evidence and experience of others.
218
700679
2131
pela evidência e experiência de outros.
11:54
Seeing your worldview
as open to improvement
219
702834
2049
Ver sua visão global aberta para melhorias
11:56
by the evidence and experience of others.
220
704907
2123
pela evidência e experiência de outros.
É mais que estar aberto a transformação.
12:00
That's more than just
being open to change.
221
708084
2039
É mais que simplesmente
estar aberto a melhorias.
12:02
It's more than just being open
to self-improvement.
222
710147
2398
Significa ver seu conhecimento como capaz
12:04
It means seeing your knowledge
as capable of enhancing
223
712569
4285
de ser aumentado ou enriquecido
pela contribuição de outros.
12:08
or being enriched
by what others contribute.
224
716878
2526
12:12
That's part of what is involved
225
720224
2714
Isso é parte do que está envolvido
em reconhecer que há uma realidade comum:
12:14
in recognizing there's a common reality
226
722962
2133
12:18
that you, too, are responsible to.
227
726116
1853
que você também é responsável por ela.
12:21
I don't think it's much
of a stretch to say
228
729633
2205
Não acho que é muito exagero dizer
12:23
that our society is not particularly great
at enhancing or encouraging
229
731862
4955
que nossa sociedade não é muito boa
em realçar ou encorajar
esse tipo de humildade.
12:28
that sort of humility.
230
736841
1215
12:30
That's partly because,
231
738080
1579
Isso se deve, parcialmente,
12:32
well, we tend to confuse
arrogance and confidence.
232
740810
2988
por confundirmos arrogância e confiança.
12:36
And it's partly because, well, you know,
233
744263
2441
Em parte porque, bem, vocês sabem,
12:39
arrogance is just easier.
234
747341
1553
arrogância é mais fácil.
12:40
It's just easier to think of yourself
as knowing it all.
235
748918
2677
É mais fácil pensar
sobre si como um sabe-tudo.
É mais fácil pensar sobre si
como tendo tudo controlado.
12:43
It's just easier to think of yourself
as having it all figured out.
236
751619
3697
12:48
But that's another example
of the bad faith towards the truth
237
756513
2933
Mas esse é só mais um exemplo da má fé
sobre a verdade de que eu tenho falado.
12:51
that I've been talking about.
238
759470
1538
12:55
So the concept of a common reality,
239
763391
2237
Então o conceito de uma realidade comum,
12:57
like a lot of philosophical concepts,
240
765652
2690
como muitos conceitos filosóficos,
pode parecer tão óbvio,
13:00
can seem so obvious,
241
768366
1484
que pode nos passar despercebido,
13:02
that we can look right past it
242
770785
1842
13:05
and forget why it's important.
243
773945
1984
e podemos esquecer
por que ele é importante.
13:09
Democracies can't function
if their citizens don't strive,
244
777394
4944
As democracias não podem funcionar
se seus cidadãos não se esforçam,
13:14
at least some of the time,
245
782362
1370
ao menos parte do tempo,
13:15
to inhabit a common space,
246
783756
1681
por habitar um espaço comum,
13:17
a space where they can pass
ideas back and forth
247
785461
3456
um espaço onde eles possam
passar ideias de um lado ao outro
13:22
when -- and especially when --
248
790123
1786
quando, e especialmente quando,
13:23
they disagree.
249
791933
1405
eles discordam.
13:25
But you can't strive to inhabit that space
250
793749
2264
Mas você não pode habitar aquele espaço,
13:29
if you don't already accept
that you live in the same reality.
251
797560
3586
se você ainda não aceita
que vive na mesma realidade.
Para aceitá-la, precisamos
crer na verdade,
13:35
To accept that, we've got
to believe in truth,
252
803144
2171
precisamos encorajar formas
mais ativas de conhecimento.
13:37
we've got to encourage
more active ways of knowing.
253
805339
3311
13:41
And we've got to have the humility
254
809394
1738
E temos que ter a humildade
13:44
to realize that we're not
the measure of all things.
255
812271
2707
para entender que não somos
a medida de todas as coisas.
13:49
We may yet one day realize the vision
256
817049
3524
Nós um dia ainda vamos entender a visão
13:52
of having the internet in our brains.
257
820597
2673
de ter a internet em nossos cérebros.
13:56
But if we want that to be liberating
and not terrifying,
258
824545
3919
Se, contudo, quisermos que seja
liberador e não assustador,
14:00
if we want it to expand our understanding
259
828488
2762
se quisermos expandir nosso entendimento
14:03
and not just our passive knowing,
260
831274
2403
e não somente nosso conhecimento passivo,
14:06
we need to remember that our perspectives,
261
834585
3639
devemos lembrar que nossas perspectivas,
14:10
as wondrous, as beautiful as they are,
262
838248
3151
por mais incríveis e belas que sejam,
14:14
are just that --
263
842171
1280
são somente isto:
14:15
perspectives on one reality.
264
843475
2520
perspectivas sobre uma só realidade.
14:19
Thank you.
265
847096
1271
Obrigado.
14:20
(Applause)
266
848391
4826
(Aplausos)
Translated by Raquel Fernandes
Reviewed by Adriana Hollenbeck

▲Back to top

ABOUT THE SPEAKER
Michael Patrick Lynch - Philosopher
Michael Patrick Lynch examines truth, democracy, public discourse and the ethics of technology in the age of big data.

Why you should listen

What is truth and why does it matter? Does information technology help or hinder its pursuit? And how do we encourage more productive public discourse? These are some of the questions that animate Michael Lynch's work as a philosopher.  

Lynch is a writer and professor of philosophy at the University of Connecticut, where he directs the Humanities Institute. His work concerns truth, democracy, public discourse and the ethics of technology. Lynch is the author or editor of seven books, including The Internet of Us: Knowing More and Understanding Less in the Age of Big Data, In Praise of Reason: Why Rationality Matters for Democracy, Truth as One and Many and the New York Times Sunday Book Review Editor’s pick, True to Life.

The recipient of the Medal for Research Excellence from the University of Connecticut’s College of Liberal Arts and Sciences, he is The Principal Investigator for Humility & Conviction in Public Life, a $7 million project aimed at understanding and encouraging meaningful public discourse funded by the John Templeton Foundation and the University of Connecticut. He's a frequent contributor to the New York Times "The Stone" blog.

More profile about the speaker
Michael Patrick Lynch | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee