ABOUT THE SPEAKER
Adam Ostrow - Journalist
As editor in chief at Mashable, Adam Ostrow covers the tech, trends and people driving the evolution of the Web.

Why you should listen

Adam Ostrow is a new media entrepreneur and commentator. As editor in chief at Mashable, he is responsible for the editorial management and direction of one of the most widely read independent news sites in the world, covering the latest technologies, trends, and individuals driving the current evolution of the Web.

Since joining Mashable in 2007, Ostrow has contributed more than 2,500 articles, and under his leadership the site’s audience has grown more than tenfold to 13 million unique visitors per month, with more than 3.6 million followers across social media sites as of June 2011.

Ostrow has been frequently quoted by numerous mainstream media outlets including The New York Times, The Wall Street Journal, The Washington Post, USA Today and The Times of London among others. He is a frequent guest on CNN, Bloomberg and NPR.

More profile about the speaker
Adam Ostrow | Speaker | TED.com
TEDGlobal 2011

Adam Ostrow: After your final status update

Adam Ostrow: Depois da sua atualização final.

Filmed:
1,280,208 views

Muitos de nós tem uma presença em mídias sociais -- uma personalidade virtual formada de atualizações de status, tweets e conexões, armazenados na nuvem. Adam Ostrow faz uma grande pergunta: O que acontece com essa personalidade depois que você morre? Poderia essa personalidade ... continuar a viver?
- Journalist
As editor in chief at Mashable, Adam Ostrow covers the tech, trends and people driving the evolution of the Web. Full bio

Double-click the English transcript below to play the video.

00:15
By the end of this year,
0
0
2000
Até o final deste ano,
00:17
there'll be nearly a billion people on this planet
1
2000
3000
o planeta terá quase um bilhão de pessoas
00:20
that actively use social networking sites.
2
5000
2000
que usam ativamente sites de redes sociais.
00:22
The one thing that all of them have in common
3
7000
2000
A única coisa que todas estas pessoas tem em comum
00:24
is that they're going to die.
4
9000
3000
é que elas irão morrer.
00:27
While that might be a somewhat morbid thought,
5
12000
3000
Esse pode ser de alguma forma um pensamento mórbido,
00:30
I think it has some really profound implications
6
15000
2000
mas penso que isso tem profundas implicações
00:32
that are worth exploring.
7
17000
2000
que valem a pena explorar.
00:34
What first got me thinking about this
8
19000
3000
O que me fez começar a pensar sobre isso
00:37
was a blog post authored earlier this year by Derek K. Miller,
9
22000
3000
foi uma postagem do início do ano em um blog por Derek K. Miller,
00:40
who was a science and technology journalist
10
25000
3000
que era um jornalista de ciência e tecnologia
00:43
who died of cancer.
11
28000
2000
que morreu de câncer.
00:45
And what Miller did was have his family and friends write a post
12
30000
3000
E o que Miller fez foi pedir à sua família e amigos para postarem
00:48
that went out shortly after he died.
13
33000
2000
uma mensagem previamente escrita logo após sua morte.
00:50
Here's what he wrote in starting that out.
14
35000
2000
Aqui está o que ele escreveu.
00:52
He said, "Here it is. I'm dead,
15
37000
2000
Ele escreveu, "Agora acabou. Eu estou morto
00:54
and this is my last post to my blog.
16
39000
2000
e esse é o meu último "post" no meu blog.
00:56
In advance, I asked that once my body finally shut down
17
41000
3000
Antecipadamente, eu pedi que assim que meu corpo finalmente cedesse
00:59
from the punishments of my cancer,
18
44000
2000
às punições do meu câncer,
01:01
then my family and friends publish this prepared message I wrote --
19
46000
3000
que minha família e amigos publicassem essa mensagem previamente escrita por mim --
01:04
the first part of the process
20
49000
2000
a primeira parte do processo
01:06
of turning this from an active website to an archive."
21
51000
3000
de tornar essa página na internet de ativa em um arquivo."
01:09
Now, while as a journalist,
22
54000
2000
O certo é que como jornalista,
01:11
Miller's archive may have been better written
23
56000
2000
o arquivo do Miller pode ter sido melhor escrito
01:13
and more carefully curated than most,
24
58000
2000
e mais cuidadosamente organizado do que muitos dos nossos.
01:15
the fact of the matter is that all of us today
25
60000
2000
A verdade é que todos nós atualmente
01:17
are creating an archive
26
62000
2000
estamos criando arquivos.
01:19
that's something completely different
27
64000
2000
E isso é algo completamente diferente
01:21
than anything that's been created
28
66000
2000
do que qualquer coisa que já tenha sido criado
01:23
by any previous generation.
29
68000
2000
por qualquer outra geração anterior.
01:25
Consider a few stats for a moment.
30
70000
2000
Consideremos algumas estatísticas por um momento.
01:27
Right now there are 48 hours of video
31
72000
2000
Nesse momento 48 horas de vídeo
01:29
being uploaded to YouTube every single minute.
32
74000
3000
estão sendo disponibilizados no "YouTube" a cada minuto.
01:32
There are 200 million Tweets being posted every day.
33
77000
4000
200 milhões de Tweets sendo postados todos os dias.
01:36
And the average Facebook user
34
81000
3000
E um usuário comum do Facebook
01:39
is creating 90 pieces of content each month.
35
84000
4000
posta em média 90 vezes por mês.
01:43
So when you think about your parents or your grandparents,
36
88000
3000
Então quando pensamos que nossos pais e avôs,
01:46
at best they may have created
37
91000
2000
no máximo criaram
01:48
some photos or home videos,
38
93000
2000
algumas fotos ou vídeos caseiros,
01:50
or a diary that lives in a box somewhere.
39
95000
3000
ou um diário que está em uma caixa esquecida.
01:53
But today we're all creating this incredibly rich digital archive
40
98000
3000
Mas hoje nós estamos criando esse incrivelmente rico arquivo digital
01:56
that's going to live in the cloud indefinitely,
41
101000
2000
que irá sobreviver na nuvem indefinidamente,
01:58
years after we're gone.
42
103000
2000
por anos, mesmo depois de nossa morte.
02:00
And I think that's going to create some incredibly intriguing opportunities
43
105000
3000
E eu acho que isso criará algumas oportunidades incrivelmente intrigantes
02:03
for technologists.
44
108000
2000
para os tecnólogos.
02:05
Now to be clear, I'm a journalist and not a technologist,
45
110000
2000
Agora sendo claro, eu sou um jornalista e não um tecnólogo,
02:07
so what I'd like to do briefly
46
112000
2000
então o que eu gostaria de fazer rapidamente
02:09
is paint a picture
47
114000
2000
é apresentar uma imagem
02:11
of what the present and the future are going to look like.
48
116000
3000
do que o presente e o futuro deverão ser.
02:14
Now we're already seeing some services
49
119000
2000
Nós já estamos vendo alguns serviços
02:16
that are designed to let us decide
50
121000
2000
que são desenhados para nos permitirem decidir
02:18
what happens to our online profile and our social media accounts
51
123000
3000
o que acontece com o nosso perfil virtual e nossa conta nas mídias sociais
02:21
after we die.
52
126000
2000
depois que morremos.
02:23
One of them actually, fittingly enough,
53
128000
2000
Um deles na verdade, apropriadamente,
02:25
found me when I checked into a deli
54
130000
2000
me achou quando eu chequei em uma delicatessen
02:27
at a restaurant in New York
55
132000
2000
em um restaurante em Nova Iorque
02:29
on foursquare.
56
134000
3000
no foursquare.
02:32
(Recording) Adam Ostrow: Hello.
57
137000
2000
(Gravando) Adam Ostrow: Alô.
02:34
Death: Adam?
58
139000
2000
Morte: Adam?
02:36
AO: Yeah.
59
141000
2000
AO: Sim.
02:38
Death: Death can catch you anywhere, anytime,
60
143000
3000
Morte: A morte pode te alcançar em qualquer lugar, a qualquer hora,
02:41
even at the Organic.
61
146000
3000
até no orgânico.
02:44
AO: Who is this?
62
149000
2000
AO: Quem é você?
02:46
Death: Go to ifidie.net
63
151000
3000
Morte: Visite ifidie.net [se-eu-morrer.net]
02:49
before it's too late.
64
154000
2000
antes que seja tarde demais
02:51
(Laughter)
65
156000
2000
(Risos)
02:53
Adam Ostrow: Kind of creepy, right?
66
158000
2000
Adam Ostrow: Um pouco assustador, certo?
02:55
So what that service does, quite simply,
67
160000
2000
O que esse serviço faz, de forma simples,
02:57
is let you create a message or a video
68
162000
2000
é permitir que você crie uma mensagem ou um video
02:59
that can be posted to Facebook after you die.
69
164000
3000
que pode ser postado no Facebook após a sua morte.
03:02
Another service right now
70
167000
2000
Outro serviço que atualmente
03:04
is called 1,000 Memories.
71
169000
2000
é chamado 1.000 Memórias.
03:06
And what this lets you do is create an online tribute to your loved ones,
72
171000
2000
E o que ele faz é permitir a você criar tributos virtuais para as pessoas que você ama,
03:08
complete with photos and videos and stories
73
173000
3000
com fotos e videos e histórias
03:11
that they can post after you die.
74
176000
3000
que possam ser postadas após a sua morte.
03:14
But what I think comes next is far more interesting.
75
179000
3000
Mas o que eu acho que vem a seguir é ainda mais interessante.
03:17
Now a lot of you are probably familiar with Deb Roy
76
182000
3000
Muitos de vocês estão familiarizados com Deb Roy
03:20
who, back in March,
77
185000
2000
que, em março passado,
03:22
demonstrated how he was able to analyze more than 90,000 hours of home video.
78
187000
4000
demonstrou como ele era capaz de analisar mais de 90 mil horas de vídeos caseiros.
03:26
I think as machines' ability
79
191000
2000
Eu acho que com a capacidade das máquinas
03:28
to understand human language and process vast amounts of data
80
193000
2000
de entender a linguagem humana e como o processo de análise de vastas quantidades
03:30
continues to improve,
81
195000
2000
de dados continua a melhorar,
03:32
it's going to become possible
82
197000
2000
será possivel
03:34
to analyze an entire life's worth of content --
83
199000
2000
analisar o conteúdo de uma vida toda --
03:36
the Tweets, the photos, the videos, the blog posts --
84
201000
3000
os Tweets, as fotos, os vídeos, as postagens em blogs --
03:39
that we're producing in such massive numbers.
85
204000
2000
tudo que estamos produzindo em tão grande quantidade.
03:41
And I think as that happens,
86
206000
2000
E penso que assim que isso acontecer,
03:43
it's going to become possible for our digital personas
87
208000
3000
será possível para a nossa persona digital
03:46
to continue to interact in the real world long after we're gone
88
211000
3000
continuar interagindo no mundo real por muito tempo depois que morrermos
03:49
thanks to the vastness of the amount of content we're creating
89
214000
3000
graças à quantidade de conteúdo que estamos criando
03:52
and technology's ability to make sense of it all.
90
217000
3000
e a capacidade da tecnologia de dar sentido a tudo isso.
03:55
Now we're already starting to see some experiments here.
91
220000
3000
Agora já estamos começando a ver algumas experiências aqui.
03:58
One service called My Next Tweet
92
223000
2000
Um serviço chamado Meu Próximo Tweet
04:00
analyzes your entire Twitter stream, everything you've posted onto Twitter,
93
225000
3000
analisa todas as suas mensagens no Twitter, tudo o que você postou no Twitter,
04:03
to make some predictions as to what you might say next.
94
228000
3000
para fazer algumas previsões a respeito do que você irá dizer a seguir.
04:06
Well right now, as you can see,
95
231000
2000
Como vocês podem ver,
04:08
the results can be somewhat comical.
96
233000
2000
os resultados podem ser um tanto cômicos.
04:10
You can imagine what something like this might look like
97
235000
2000
Você pode imaginar aonde chegaremos com coisas desse tipo,
04:12
five, 10 or 20 years from now
98
237000
2000
daqui a 5, 10 ou 20 anos
04:14
as our technical capabilities improve.
99
239000
3000
levando em conta que nossa capacidade técnica irá melhorar.
04:17
Taking it a step further,
100
242000
2000
Indo um passo adiante,
04:19
MIT's media lab is working on robots
101
244000
2000
o media Lab do MIT está trabalhando em robôs
04:21
that can interact more like humans.
102
246000
3000
com capacidade de interação semelhante aos humanos.
04:24
But what if those robots were able to interact
103
249000
2000
Mas e se os robôs forem capaz de interagir
04:26
based on the unique characteristics of a specific person
104
251000
3000
basedos nas características únicas de uma pessoa específica
04:29
based on the hundreds of thousands of pieces of content
105
254000
2000
basedo em centenas de milhares de peças de conteúdo
04:31
that person produces in their lifetime?
106
256000
3000
que a pessoa produziu durante sua vida?
04:34
Finally, think back to this famous scene
107
259000
2000
Finalmente, voltemos no tempo à famosa reportagem
04:36
from election night 2008
108
261000
2000
da noite da eleição de 2008
04:38
back in the United States,
109
263000
2000
nos Estados Unidos,
04:40
where CNN beamed a live hologram
110
265000
2000
onde a CNN transmitiu um holograma ao vivo
04:42
of hip hop artist will.i.am into their studio
111
267000
2000
do artista de hip hop, will.i.am, em seu estúdio
04:44
for an interview with Anderson Cooper.
112
269000
3000
para uma entrevista com Anderson Cooper.
04:47
What if we were able to use that same type of technology
113
272000
2000
E se fossemos capazes de usar esse mesmo tipo de tecnologia
04:49
to beam a representation of our loved ones into our living rooms --
114
274000
4000
para transmitir uma representação de nossos entes queridos em nossas salas de estar --
04:53
interacting in a very lifelike way
115
278000
2000
interagindo de uma forma quase real
04:55
based on all the content they created while they were alive?
116
280000
3000
baseado em todo o conteúdo que foram por eles criados, enquanto vivos.
04:58
I think that's going to become completely possible
117
283000
3000
Penso que poderá tornar-se completamente possível
05:01
as the amount of data we're producing
118
286000
2000
com a quantidade de dados que estamos usando
05:03
and technology's ability to understand it
119
288000
2000
e a capacidade da tecnologia para compreendê-los
05:05
both expand exponentially.
120
290000
3000
e expandi-los ambos, exponencialmente.
05:08
Now in closing, I think what we all need to be thinking about
121
293000
2000
Finalizando: o que todos nós precisamos refletir,
05:10
is if we want that to become our reality --
122
295000
2000
é se queremos que isso se torne a nossa realidade - -
05:12
and if so,
123
297000
2000
a
05:14
what it means for a definition of life and everything that comes after it.
124
299000
3000
o que isto significa para uma definição da vida e de tudo o que vem depois dela.
05:17
Thank you very much.
125
302000
2000
Muito obrigado.
05:19
(Applause)
126
304000
4000
(Aplausos)
Translated by Talulah Machado
Reviewed by Volney Faustini

▲Back to top

ABOUT THE SPEAKER
Adam Ostrow - Journalist
As editor in chief at Mashable, Adam Ostrow covers the tech, trends and people driving the evolution of the Web.

Why you should listen

Adam Ostrow is a new media entrepreneur and commentator. As editor in chief at Mashable, he is responsible for the editorial management and direction of one of the most widely read independent news sites in the world, covering the latest technologies, trends, and individuals driving the current evolution of the Web.

Since joining Mashable in 2007, Ostrow has contributed more than 2,500 articles, and under his leadership the site’s audience has grown more than tenfold to 13 million unique visitors per month, with more than 3.6 million followers across social media sites as of June 2011.

Ostrow has been frequently quoted by numerous mainstream media outlets including The New York Times, The Wall Street Journal, The Washington Post, USA Today and The Times of London among others. He is a frequent guest on CNN, Bloomberg and NPR.

More profile about the speaker
Adam Ostrow | Speaker | TED.com