ABOUT THE SPEAKER
Adam Ostrow - Journalist
As editor in chief at Mashable, Adam Ostrow covers the tech, trends and people driving the evolution of the Web.

Why you should listen

Adam Ostrow is a new media entrepreneur and commentator. As editor in chief at Mashable, he is responsible for the editorial management and direction of one of the most widely read independent news sites in the world, covering the latest technologies, trends, and individuals driving the current evolution of the Web.

Since joining Mashable in 2007, Ostrow has contributed more than 2,500 articles, and under his leadership the site’s audience has grown more than tenfold to 13 million unique visitors per month, with more than 3.6 million followers across social media sites as of June 2011.

Ostrow has been frequently quoted by numerous mainstream media outlets including The New York Times, The Wall Street Journal, The Washington Post, USA Today and The Times of London among others. He is a frequent guest on CNN, Bloomberg and NPR.

More profile about the speaker
Adam Ostrow | Speaker | TED.com
TEDGlobal 2011

Adam Ostrow: After your final status update

Ադամ Օսթրոու. Ձեր վերջին ստատուսի թարմացումից հետո

Filmed:
1,280,208 views

Մեզանից շատերն ներկա են սոցիալական մեդիայի աշխարհում` մի վիրտուալ անձնավորության տեսքով, որը կազմված է ստատուսի թարմացումներից, թվիթերից և կապերից, որոնք պահվում են «ամպում»: Ադամ Օստրոուն մի մեծ հարց է բարձրացնում` ի՞նչ է լինում այդ անձնավորության հետ ձեր մահից հետո: Կարո՞ղ է այն արդյոք... շարունակել ապրել:
- Journalist
As editor in chief at Mashable, Adam Ostrow covers the tech, trends and people driving the evolution of the Web. Full bio

Double-click the English transcript below to play the video.

00:15
By the end of this year,
0
0
2000
Մինչև տարեվերջ
00:17
there'll be nearly a billion people on this planet
1
2000
3000
այս մոլորակում ապրող մոտ միլիարդ մարդ
00:20
that actively use social networking sites.
2
5000
2000
ակտիվորեն կգործածի սոցիալական ցանցեր:
00:22
The one thing that all of them have in common
3
7000
2000
Նրանք բոլորը մի ընդհանուր բան ունեն`
00:24
is that they're going to die.
4
9000
3000
բոլորն էլ մի օր մահանալու են:
00:27
While that might be a somewhat morbid thought,
5
12000
3000
Ու չնայած դա ինչ-որ տեղ ճնշող միտք է,
00:30
I think it has some really profound implications
6
15000
2000
կարծում եմ, որ այն որոշակի բավականին խորը հետևանքներ ունի,
00:32
that are worth exploring.
7
17000
2000
և դրանք արժե ուսումնասիրել:
00:34
What first got me thinking about this
8
19000
3000
Ահա թե ինչը ստիպեց ինձ մտածել սրա մասին.
00:37
was a blog post authored earlier this year by Derek K. Miller,
9
22000
3000
սա այս տարվա սկզբում Դերեկ Միլլերի կողմից արված բլոգի գրառումն է.
00:40
who was a science and technology journalist
10
25000
3000
նա գիտության և տեխնոլոգիաների գծով լրագրող էր,
00:43
who died of cancer.
11
28000
2000
ով մահացավ քաղցկեղից:
00:45
And what Miller did was have his family and friends write a post
12
30000
3000
Նա իր ընտանիքին և ընկերներին ասել էր, որ այդպիսի գրառում անեն,
00:48
that went out shortly after he died.
13
33000
2000
և հրապարակեն իր մահվանից հետո:
00:50
Here's what he wrote in starting that out.
14
35000
2000
Ահա թե ինչ էր նա գրել.
00:52
He said, "Here it is. I'm dead,
15
37000
2000
«Ահա, ես մահացել եմ,
00:54
and this is my last post to my blog.
16
39000
2000
և սա իմ բլոգի վերջին գրառումն է:
00:56
In advance, I asked that once my body finally shut down
17
41000
3000
Ես նախապես խնդրել էի, որ երբ իմ մարմինը վերջնականապես մահանա
00:59
from the punishments of my cancer,
18
44000
2000
քաղցկեղի պատիժներից,
01:01
then my family and friends publish this prepared message I wrote --
19
46000
3000
իմ ընտանիքը և ընկերները հրապարակեն իմ գրած այս հաղորդագրությունը,
01:04
the first part of the process
20
49000
2000
և այս ակտիվ վեբ կայքը
01:06
of turning this from an active website to an archive."
21
51000
3000
արխիվ դարձնեն»:
01:09
Now, while as a journalist,
22
54000
2000
Քանի որ Միլլերը լրագրող էր,
01:11
Miller's archive may have been better written
23
56000
2000
նրա արխիվը հավանաբար լավ էր գրված
01:13
and more carefully curated than most,
24
58000
2000
և առավել զգուշորեն համակարգված,
01:15
the fact of the matter is that all of us today
25
60000
2000
սակայն փաստացիորեն, մեզանից բոլորը
01:17
are creating an archive
26
62000
2000
ստեղծում են մի արխիվ,
01:19
that's something completely different
27
64000
2000
որը լիովին տարբեր է այն բաներից,
01:21
than anything that's been created
28
66000
2000
որ երբևէ ստեղծվել է,
01:23
by any previous generation.
29
68000
2000
նախկին որևէ սերնդի կողմից:
01:25
Consider a few stats for a moment.
30
70000
2000
Մի պահ անցնենք վիճակագրության:
01:27
Right now there are 48 hours of video
31
72000
2000
Ներկայումս, յուրաքանչյուր րոպեի ընթացքում
01:29
being uploaded to YouTube every single minute.
32
74000
3000
YouTube են վերբեռնվում 48 ժամ տևողությամբ տեսագրություններ:
01:32
There are 200 million Tweets being posted every day.
33
77000
4000
Յուրաքանչյուր օր 200 միլիոն թվիթեր են գրվում:
01:36
And the average Facebook user
34
81000
3000
Միջին Ֆեյսբուք օգտագործողը
01:39
is creating 90 pieces of content each month.
35
84000
4000
ամսական 90 կտոր պարունակություն է ստեղծում:
01:43
So when you think about your parents or your grandparents,
36
88000
3000
Այսպես, երբ մտածեք ձեր ծնողների և նրանց ծնողների մասին,
01:46
at best they may have created
37
91000
2000
լավագույն դեպքում նրանք ստեղծած կլինեն
01:48
some photos or home videos,
38
93000
2000
որոշ լուսանկարներ և տնային տեսագրություններ,
01:50
or a diary that lives in a box somewhere.
39
95000
3000
կամ մի օրագիր որն ինչ-որ մի տուփում դրված է:
01:53
But today we're all creating this incredibly rich digital archive
40
98000
3000
Իսկ այսօր մենք բոլորս ստեղծում ենք այսպիսի մի հրաշալի հարուստ թվային արխիվ,
01:56
that's going to live in the cloud indefinitely,
41
101000
2000
որը հավերժ կմնա «ամպում»,
01:58
years after we're gone.
42
103000
2000
մեր մահվանից բազմաթիվ տարիներ անց:
02:00
And I think that's going to create some incredibly intriguing opportunities
43
105000
3000
Կարծում եմ, որ տեխնոլոգների համար սա ստեղծելու է որոշ
02:03
for technologists.
44
108000
2000
անհավանականորեն հետաքրքիր հնարավորություններ:
02:05
Now to be clear, I'm a journalist and not a technologist,
45
110000
2000
Պարզ դարձնելու համար նշեմ, որ ես լրագրող եմ և ոչ տեխնոլոգ,
02:07
so what I'd like to do briefly
46
112000
2000
և հիմա ես ցանկանում եմ
02:09
is paint a picture
47
114000
2000
մի պատկեր ուրվագծել,
02:11
of what the present and the future are going to look like.
48
116000
3000
թե ինչպիսին են լինելու ներկան և ապագան:
02:14
Now we're already seeing some services
49
119000
2000
Այժմ մենք արդեն որոշ ծառայություններ գիտենք,
02:16
that are designed to let us decide
50
121000
2000
որոնք ստեղծված են օգնելու մեզ որոշել,
02:18
what happens to our online profile and our social media accounts
51
123000
3000
թե ինչ կլինի մեր առցանց պրոֆիլների և սոցիալական մեդիայի հաշիվների հետ
02:21
after we die.
52
126000
2000
մեր մահվանից հետո:
02:23
One of them actually, fittingly enough,
53
128000
2000
Դրանցից մեկը, բավականին տեղին
02:25
found me when I checked into a deli
54
130000
2000
ինձ գտավ երբ ես նշում էի Foursquare-ում,
02:27
at a restaurant in New York
55
132000
2000
որ գտնվում եմ Նյու Յորքի
02:29
on foursquare.
56
134000
3000
մի ռեստորանում:
02:32
(Recording) Adam Ostrow: Hello.
57
137000
2000
(Ձայնագրություն) Ադամ Օսթրոու` Բարև:
02:34
Death: Adam?
58
139000
2000
Մահ` Ադա՞մ:
02:36
AO: Yeah.
59
141000
2000
ԱՕ` Այո:
02:38
Death: Death can catch you anywhere, anytime,
60
143000
3000
Մահ` մահը կարող է գտնել քեզ ամենուր, ամեն ժամ...
02:41
even at the Organic.
61
146000
3000
նույնիսկ օրգանական սննդի մոտ:
02:44
AO: Who is this?
62
149000
2000
ԱՕ` Ո՞վ է խոսում:
02:46
Death: Go to ifidie.net
63
151000
3000
Մահ` հավաքիր idifie.net
02:49
before it's too late.
64
154000
2000
քանի դեռ շատ ուշ չէ:
02:51
(Laughter)
65
156000
2000
(Ծիծաղ)
02:53
Adam Ostrow: Kind of creepy, right?
66
158000
2000
ԱՕ` Մի քիչ սարսռեցնող է, չէ՞:
02:55
So what that service does, quite simply,
67
160000
2000
Այդ ծառայությունն ուղղակի
02:57
is let you create a message or a video
68
162000
2000
թույլ է տալիս ստեղծել հաղորդագրություն կամ տեսագրություն,
02:59
that can be posted to Facebook after you die.
69
164000
3000
որը կարող է տեղադրվել ձեր Ֆեյսբուքի էջում, ձեր մահվանից հետո:
03:02
Another service right now
70
167000
2000
Մեկ այլ ծառայություն էլ կա,
03:04
is called 1,000 Memories.
71
169000
2000
կոչվում է 1000 Հիշողություններ:
03:06
And what this lets you do is create an online tribute to your loved ones,
72
171000
2000
Այն թույլ է տալիս ձեր սիրելիների համար ստեղծել առցանց տուրք մատուցելու վայր,
03:08
complete with photos and videos and stories
73
173000
3000
համալրված տեսագրություններով, լուսանկարներով և պատմություններով,
03:11
that they can post after you die.
74
176000
3000
որոնք կարող են տեղադրվել ձեր մահվանից հետո:
03:14
But what I think comes next is far more interesting.
75
179000
3000
Սակայն ապագայում տեղի ունենալիք բաները ինձ ավելի հետաքրքիր են թվում:
03:17
Now a lot of you are probably familiar with Deb Roy
76
182000
3000
Ձեզանից շատերը հավանաբար ծանոթ են Դեբ Ռոյին,
03:20
who, back in March,
77
185000
2000
ով, դեռևս մարտ ամսին
03:22
demonstrated how he was able to analyze more than 90,000 hours of home video.
78
187000
4000
ցուցադրեց, որ կարողացել էր վերլուծել ավելի քան 90.000 ժամ տնային տեսագրություններ:
03:26
I think as machines' ability
79
191000
2000
Այնքանով որքանով, որ մեքենաների հնարավորությունը
03:28
to understand human language and process vast amounts of data
80
193000
2000
հասկանալ մարդկային լեզուն և մշակել տվյալների մեծ ծավալներ
03:30
continues to improve,
81
195000
2000
շարունակում է բարելավվել,
03:32
it's going to become possible
82
197000
2000
հնարավոր է դառնալու
03:34
to analyze an entire life's worth of content --
83
199000
2000
վերլուծել մի ամբողջ կյանք տևողությամբ պարունակություն,
03:36
the Tweets, the photos, the videos, the blog posts --
84
201000
3000
թվիթեր, լուսանկարներ, տեսագրություններ, բլոգի գրառումներ...
03:39
that we're producing in such massive numbers.
85
204000
2000
որ մենք ստեղծում ենք այդպիսի մեծ քանակներով:
03:41
And I think as that happens,
86
206000
2000
Ես մտածում եմ, որ որոշ ժամանակ հետո
03:43
it's going to become possible for our digital personas
87
208000
3000
մեր թվային անձնավորությունները կարողանալու են
03:46
to continue to interact in the real world long after we're gone
88
211000
3000
շարունակել հաղորդակցվել իրական աշխարհի հետ մեր մահվանից շատ անց
03:49
thanks to the vastness of the amount of content we're creating
89
214000
3000
շնորհիվ այն ամբողջ պարունակության, որ մենք ստեղծում ենք,
03:52
and technology's ability to make sense of it all.
90
217000
3000
և շնորհիվ տեխնոլոգիաների` դրա իմաստավորելու հնարավորության:
03:55
Now we're already starting to see some experiments here.
91
220000
3000
Այժմ մենք որոշ փորձեր տեսնում ենք:
03:58
One service called My Next Tweet
92
223000
2000
Մի ծառայություն կոչվում է «Իմ հաջորդ թվիթը»,
04:00
analyzes your entire Twitter stream, everything you've posted onto Twitter,
93
225000
3000
այն վերլուծում է ձեր բոլոր գրառումները Թվիթերում, այն ամենն ինչ դուք գրել եք,
04:03
to make some predictions as to what you might say next.
94
228000
3000
որպեսզի որոշ կանխատեսումներ անի, թե ինչ կասեք հաջորդ գրառմանը:
04:06
Well right now, as you can see,
95
231000
2000
Այս պահին, ինչպես տեսնում եք,
04:08
the results can be somewhat comical.
96
233000
2000
արդյունքները կարող են երգիծական լինել:
04:10
You can imagine what something like this might look like
97
235000
2000
Կարող եք պատկերացնել, թե ինչ տեսք կունենա այսպիսի մի բանը
04:12
five, 10 or 20 years from now
98
237000
2000
հինգ, տասը, քսան տարի հետո
04:14
as our technical capabilities improve.
99
239000
3000
մեր տեխնիկական ունակությունների բարելավմանը համընթաց:
04:17
Taking it a step further,
100
242000
2000
Քայլ առաջ կատարելով,
04:19
MIT's media lab is working on robots
101
244000
2000
Մասաչուսեթսի Տեխնոլոգիական Համալսարանի մեդիա լաբը աշխատում է այնպիսի ռոբոտների վրա,
04:21
that can interact more like humans.
102
246000
3000
որոնք կարող են հաղորդակցվել ինչպես մարդիկ:
04:24
But what if those robots were able to interact
103
249000
2000
Սակայն ի՞նչ եթե այդ ռոբոտները կարող են հաղորդակցվել
04:26
based on the unique characteristics of a specific person
104
251000
3000
հիմնված որոշակի մարդու եզակի հատկանիշների վրա,
04:29
based on the hundreds of thousands of pieces of content
105
254000
2000
որոնք հիմնված են այն հարյուր հազարավոր կտորներից բաղկացած պարունակության վրա,
04:31
that person produces in their lifetime?
106
256000
3000
որը մարդը ստեղծում է իր կյանքի ընթացքում:
04:34
Finally, think back to this famous scene
107
259000
2000
Վերջապես, վերադառնանք այս հայտնի տեսարանին,
04:36
from election night 2008
108
261000
2000
որը 2008-ի ընտրությունների գիշերն էր,
04:38
back in the United States,
109
263000
2000
ԱՄՆ-ում,
04:40
where CNN beamed a live hologram
110
265000
2000
երբ CNN-ը հիփ-հոփ երաժիշտ will.i.am-ի
04:42
of hip hop artist will.i.am into their studio
111
267000
2000
հոլոգրամը ցուցադրեց իրենց ստուդիայում,
04:44
for an interview with Anderson Cooper.
112
269000
3000
Անդերսոն Կուպերի հետ հարցազրույցի համար:
04:47
What if we were able to use that same type of technology
113
272000
2000
Իսկ ի՞նչ, եթե մենք կարողանայինք օգտագործել նմանատիպ տեխնոլոգիա
04:49
to beam a representation of our loved ones into our living rooms --
114
274000
4000
մեր սիրելիների ներկայությունը պրոյեկտելով մեր հյուրասենյակներում,
04:53
interacting in a very lifelike way
115
278000
2000
որոնք իրականին բավականին նման կերպով հաղորդակցվեն
04:55
based on all the content they created while they were alive?
116
280000
3000
հիմնված այն ամբողջ պարունակության վրա, որ նրանք ստեղծել են իրենց կյանքի ընթացքում:
04:58
I think that's going to become completely possible
117
283000
3000
Կարծում եմ, որ սա լիովին հնարավոր է դառնալու
05:01
as the amount of data we're producing
118
286000
2000
քանի որ և մեր կողմից օգտագործվող տվյալների ծավալները
05:03
and technology's ability to understand it
119
288000
2000
և տեխնոլոգիաների հնարավորությունը դրանք հասկանալ,
05:05
both expand exponentially.
120
290000
3000
արագընթաց կերպով ընդլայնվում են:
05:08
Now in closing, I think what we all need to be thinking about
121
293000
2000
Այժմ, փակելով, ասեմ թե ինչի մասին մենք բոլորս պետք է մտածենք.
05:10
is if we want that to become our reality --
122
295000
2000
արդյո՞ք մենք ցանկանում ենք որ սա դառնա մեր իրականությունը,
05:12
and if so,
123
297000
2000
և եթե այդպես, ապա
05:14
what it means for a definition of life and everything that comes after it.
124
299000
3000
ի՞նչ է դա նշանակում կյանքի սահմանման և դրա հետ կապված ամեն ինչի համար:
05:17
Thank you very much.
125
302000
2000
Շատ շնորհակալություն:
05:19
(Applause)
126
304000
4000
(Ծափահարություններ)
Translated by Arpiné Grigoryan
Reviewed by Gohar Khachatryan

▲Back to top

ABOUT THE SPEAKER
Adam Ostrow - Journalist
As editor in chief at Mashable, Adam Ostrow covers the tech, trends and people driving the evolution of the Web.

Why you should listen

Adam Ostrow is a new media entrepreneur and commentator. As editor in chief at Mashable, he is responsible for the editorial management and direction of one of the most widely read independent news sites in the world, covering the latest technologies, trends, and individuals driving the current evolution of the Web.

Since joining Mashable in 2007, Ostrow has contributed more than 2,500 articles, and under his leadership the site’s audience has grown more than tenfold to 13 million unique visitors per month, with more than 3.6 million followers across social media sites as of June 2011.

Ostrow has been frequently quoted by numerous mainstream media outlets including The New York Times, The Wall Street Journal, The Washington Post, USA Today and The Times of London among others. He is a frequent guest on CNN, Bloomberg and NPR.

More profile about the speaker
Adam Ostrow | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee