TEDxSkoll
Yvette Alberdingk Thijm: The power of citizen video to create undeniable truths
ایوت آلبردینگ تایم: قدرت ویدئوهای شهروندی برای خلق حقایق غیرقابل انکار
Filmed:
Readability: 5.2
1,134,924 views
آیا تلفنهای هوشمند و دوربینها قویترین سلاحهای ما برای عدالت اجتماعی هستند؟ ایوت آلبردینگ تایم از طریق موسسه خود بنام شاهد، راهکارها و فناوریهایی را ارائه میکند که به فعالان در استفاده از ویدیو برای محافظت و دفاع از حقوق بشر کمک میکند. او داستانهایی از رشد قدرت شاهدان راه دور را به اشتراک میگذارد -- و به ما یادآوری میکند از ابزار قدرتمندی که در اختیار داریم در جهت ثبت موارد بیعدالتی استفاده کنیم.
Yvette Alberdingk Thijm - Human rights activist
Yvette Alberdingk Thijm helps activists use video and technology to protect and defend human rights. Full bio
Yvette Alberdingk Thijm helps activists use video and technology to protect and defend human rights. Full bio
Double-click the English transcript below to play the video.
00:12
It's 1996
0
760
1856
سال ۱۹۹۶ است
00:14
in Uvira in eastern Congo.
1
2640
2016
در یوویرا واقع در کنگو شرقی.
00:16
This is Bukeni.
2
4680
1336
این بوکنی است.
00:18
Militia commanders walk into his village,
3
6040
2696
فرماندههان شبه نظامی پا به
روستای او میگذارند،
روستای او میگذارند،
00:20
knock on his neighbors' doors
4
8760
1776
درب همسایگانش را میزنند
00:22
and whisk their children away
to training camps.
to training camps.
5
10560
3160
و کودکان آنها را با زور به
اردوگاههای آموزشی میبرند.
اردوگاههای آموزشی میبرند.
00:26
Bukeni borrows a video camera
from a local wedding photographer,
from a local wedding photographer,
6
14320
4256
بوکنی دوربین عکاس عروسیهای روستا
را قرض میکند،
را قرض میکند،
00:30
he disguises as a journalist
7
18600
1776
خود را به پوشش خبرنگار درآورده
00:32
and he walks into the camps
to negotiate the release of the children.
to negotiate the release of the children.
8
20400
3560
و به این اردوگاهها میرود تا
رهایی این کودکان را مذاکره کند.
رهایی این کودکان را مذاکره کند.
00:36
He filmed footage of the children
being trained as soldiers.
being trained as soldiers.
9
24560
3960
او از بچه ها در حین آموزش دیدن
برای سرباز شدن فیلم گرفته است.
برای سرباز شدن فیلم گرفته است.
00:40
[Soldiers don't worry!]
10
28568
2590
[سربازان نگران نباشید!]
00:43
[You'll wear uniforms!]
11
31202
1478
[ شما یونیفرم خواهید پوشید!.]
00:45
[You'll have free cars!]
12
33220
1670
[اتومبیل رایگان خواهید داشت!]
00:46
[Free beans!]
13
34920
740
[لوبیای مجانی!]
00:47
Many of these children
are under 15 years old,
are under 15 years old,
14
35680
3536
خیلی از این کودکان زیر ۱۵ سال هستند،
00:51
and that is a war crime.
15
39240
1970
و این جنایت جنگی است.
00:53
[Free!]
16
41270
1140
[آزاد!]
00:55
But you don't have to go to eastern Congo
to find human rights abuses.
to find human rights abuses.
17
43280
3760
اما شما به کنگو شرقی نمیروید تا
تجاوزات حقوق بشری را بیابید.
تجاوزات حقوق بشری را بیابید.
00:59
In America, a country
with a rapidly aging population,
with a rapidly aging population,
18
47760
3776
در آمریکا، کشوری که جمعیت
سالخورده آن رو به رشد است،
سالخورده آن رو به رشد است،
01:03
experts estimate
that one in 10 people over 60
that one in 10 people over 60
19
51560
4376
کارشناسان تخمین میزنند
که یکی از ۱۰ نفر شخص بالای ۶۰ سال
که یکی از ۱۰ نفر شخص بالای ۶۰ سال
01:07
will experience abuse.
20
55960
2000
بدرفتاری را تجربه خواهد کرد.
01:10
It's a hidden epidemic,
21
58640
2336
این یک اپیدمی پنهان است
01:13
and most of that abuse
actually happens at the hands
actually happens at the hands
22
61000
2776
و اغلب آن بدرفتاریها درواقع بدست
01:15
of close caretakers or family.
23
63800
2080
خانواده یا مراقبان نزدیک میافتد.
01:19
This is Vicky.
24
67200
1336
این ویکی است.
01:20
Vicky put an iron gate on her bedroom door
25
68560
4456
ویکی یک درب آهنی برای اتاقش نصب کرده
01:25
and she became a prisoner,
in fact, in her own house,
in fact, in her own house,
26
73040
3096
و در واقع در خانه خودش زندانی شده،
01:28
out of fear for her nephew
who had taken over her home as a drug den.
who had taken over her home as a drug den.
27
76160
4360
از ترس برادرزادهاش که خانه او
را به پاتوغ متعادها تبدیل کرده است.
را به پاتوغ متعادها تبدیل کرده است.
01:33
And this is Mary.
28
81760
1296
و این مری است.
01:35
Mary picked up a video camera
for the first time in her life
for the first time in her life
29
83080
3136
مری برای اولین بار در خانهاش
دوربین فیلمبرداری دست میگیرد،
دوربین فیلمبرداری دست میگیرد،
01:38
when she was 65 years old,
30
86240
1936
در سن ۶۵ سالگی
01:40
and she asked Vicky
and 99 other older people
and 99 other older people
31
88200
4416
و از ویکی و ۹۹ سالمند دیگری که
تجربه بدرفتاری دارند
تجربه بدرفتاری دارند
01:44
who had experienced abuse
to tell their stories on camera.
to tell their stories on camera.
32
92640
3600
میخواهد که داستانشان را
جلوی دوربین بازگو کنند.
جلوی دوربین بازگو کنند.
01:50
And I am Dutch,
33
98160
1856
و من هلندی هستم،
01:52
so in the Netherlands
we are obsessed with the truth.
we are obsessed with the truth.
34
100040
2976
و ما در هلند وسواس حقیقت را داریم.
01:55
Now, when you are a child,
that's a great thing,
that's a great thing,
35
103040
2456
خب وقتی بچه باشی،
این موضوع فوق العادهای است،
این موضوع فوق العادهای است،
01:57
because you can basically
get away with anything,
get away with anything,
36
105520
2616
چون اساسا از همه چیز قصر در میروی،
02:00
like "Yes, Mama,
it was me who smoked the cigars."
it was me who smoked the cigars."
37
108160
3296
مثلا« بله، مامان، من بودم که سیگار کشیدم.»
02:03
(Laughter)
38
111480
1640
(خنده)
02:05
But I think this is why
I have dedicated my life
I have dedicated my life
39
113920
3976
اما فکر میکنم بهمین خاطر است
که زندگیام را وقف تبلیغ
که زندگیام را وقف تبلیغ
02:09
to promoting citizen video
to expose human rights violations,
to expose human rights violations,
40
117920
4256
ویدئوی شهروندی برای به معرض قرار دادن
تخئطیهای حقوق بشری کردهام،
تخئطیهای حقوق بشری کردهام،
02:14
because I believe in the power of video
to create undeniable truths.
to create undeniable truths.
41
122200
4320
زیرا به قدرت ویدیو برای آفرینش
حقایق غیر قبال انکار متعقدم.
حقایق غیر قبال انکار متعقدم.
02:19
And my organization, WITNESS,
42
127400
1696
و سازمان من، شاهد،
02:21
helped use the Congolese videos
43
129120
2736
در استفاده از ویدیوهای کنگویی کمک کرد تا
02:23
to help convict and send a notorious
warlord called Thomas Lubanga to jail.
warlord called Thomas Lubanga to jail.
44
131880
6480
در محکومیت و فرستادن یک ارباب جنگی بدنام
به لسم توماس لوبانگا به زندان موفق گردد.
به لسم توماس لوبانگا به زندان موفق گردد.
02:31
And the videos that Mary shot,
45
139440
2456
و ویدئوهایی که مری گرفت،
02:33
we trained Mary and many other
elder justice advocates,
elder justice advocates,
46
141920
2976
ما مری و دیگر سالمندان حامی
عدالت را آموزش دادیم
عدالت را آموزش دادیم
02:36
to make sure that
the stories of elder abuse
the stories of elder abuse
47
144920
2816
تا اطمینان حاصل کنند که
داستانهای بدرفتاری سالمندان
داستانهای بدرفتاری سالمندان
02:39
reached lawmakers,
48
147760
1616
به گوش قانونگذاران برسد
02:41
and those stories
helped convince lawmakers
helped convince lawmakers
49
149400
3856
و آن داستانها به متقاعد کردن
قانونگذاران کمک کرد
قانونگذاران کمک کرد
02:45
to pass landmark legislation
to protect older Americans.
to protect older Americans.
50
153280
3160
تا مقررات قاطعی را جهت حفاظت
از سالمندان آمریکایی تصویب کنند.
از سالمندان آمریکایی تصویب کنند.
02:50
So I wonder,
51
158280
1936
بنابراین با خودم میگویم،
02:52
billions of us now have this powerful tool
right at our fingertips.
right at our fingertips.
52
160240
4656
میلیاردها نفر از مان این ابزار قدرتمند
را دم دست خود داریم.
را دم دست خود داریم.
02:56
It's a camera.
53
164920
1496
که دوربین است.
02:58
So why are all of us not a more
powerful army of civic witnesses,
powerful army of civic witnesses,
54
166440
4816
پس چرا همه ما مثل مری و بوکنی
بخشی از یک
بخشی از یک
03:03
like Mary and Bukeni?
55
171280
2056
ارتش قدرتمند از شاهدان مدنی نباشیم؟
03:05
Why is it that so much more video
56
173360
2856
چرا ویدیوهای از این دست که میتوانند منتهی
03:08
is not leading to more rights
and more justice?
and more justice?
57
176240
3520
به عدالت یا حقوق بیشتر شوند بیشتر نیست؟
03:13
And I think it is because
being an eyewitness is hard.
being an eyewitness is hard.
58
181000
4536
چون فکر میکنم شاهد عینی بودن دشوار است.
03:17
Your story will get denied,
59
185560
2456
داستان شما انکار میشود،
03:20
your video will get lost
in a sea of images,
in a sea of images,
60
188040
2856
ویدئوی شما در دریایی از
تصاویر گم خواهد شد،
تصاویر گم خواهد شد،
03:22
your story will not be trusted,
and you will be targeted.
and you will be targeted.
61
190920
3680
داستان شما مورد باور قرار نمیگیرد
و هدف قرار میگیرد.
و هدف قرار میگیرد.
03:27
So how do we help witnesses?
62
195920
2000
خب ما چطور به شاهدان کمک میکنیم؟
03:31
In Oaxaca, in Mexico,
63
199560
1696
در اوکساکا در مکزیکو،
03:33
the teachers' movement organized a protest
64
201280
2576
جنبش معلمان، بعد از این که رییسجمهور
اصلاحات بسیار
اصلاحات بسیار
03:35
after the president pushed down
very undemocratic reforms.
very undemocratic reforms.
65
203880
3520
غیردمکراتیک را انجام داد،
اعتراضی را صورت داد.
اعتراضی را صورت داد.
03:40
The federal police came down in buses
and started shooting at the protesters.
and started shooting at the protesters.
66
208160
3800
نیروی پلیس فدرال از اتوبوسها پیاده شدند
و به معترضان آتش گشودند.
و به معترضان آتش گشودند.
03:44
At least seven people died
and many, many more were wounded.
and many, many more were wounded.
67
212640
3616
حداقل هفت نفر مردند
و شمار زیادی هم مجروح شدند.
و شمار زیادی هم مجروح شدند.
03:48
Images started circulating
of the shootings,
of the shootings,
68
216280
3376
تصاویر تیراندازیها پخش شد.
03:51
and the Mexican government
did what it always does.
did what it always does.
69
219680
2416
و دولت مکزیک همان کار
همیشگی خود را تکرار کرد.
همیشگی خود را تکرار کرد.
03:54
It issued a formal statement,
70
222120
1416
یک بیانیه رسمی صادر کرد
03:55
and the statement basically
accused the independent media
accused the independent media
71
223560
3376
و دولت، رسانههای مستقل را متهم به
03:58
of creating fake news.
72
226960
2056
نشر اخبار دروغین کرد.
04:01
It said, "We were not there,
73
229040
1776
در بیانیه آمده بود« ما آنجا نبودیم،
04:02
that was not us doing the shooting,
74
230840
2736
تیراندازی کار ما نبود،
04:05
this did not happen."
75
233600
1360
چنین اتفاقی نیفتاد.»
04:08
But we had just trained
activists in Mexico
activists in Mexico
76
236760
3216
اما ما فعالان آموزش دیدهای
در مکزیکو داشتیم
در مکزیکو داشتیم
04:12
to use metadata strategically
with their images.
with their images.
77
240000
3776
که مدبرانه از دادهنماها در
تصاویرشان استفاده کنند.
تصاویرشان استفاده کنند.
04:15
Now, metadata is the kind of information
that your camera captures
that your camera captures
78
243800
3736
الان، دادهنماها نوعی از اطلاعات هستند که
دوربینهای شما میگیرند
دوربینهای شما میگیرند
04:19
that shows the date, the location,
79
247560
3016
که دادهها، محل،
04:22
the temperature, the weather.
80
250600
1736
دما و آب و هوا را نشان میدهد.
04:24
It can even show the very unique way
you hold your camera
you hold your camera
81
252360
3416
حتی قادر است نشان دهد که دوربین را هنگام
04:27
when you capture something.
82
255800
1736
ثبت تصویر چطوری نگه داشتید.
04:29
So the images started recirculating,
83
257560
2096
بنابراین تصاویر مجدوا منتشر شدند،
04:31
and this time with the very verifying,
84
259680
3096
و این بار با تایید صحت،
04:34
validating information on top of them.
85
262800
2080
تایید صحت اطلاعات در راس آنها.
04:37
And the federal government
had to retract their statement.
had to retract their statement.
86
265960
2720
و حکومت فدرال مجبور به
تکذیب بیانیه خود شد.
تکذیب بیانیه خود شد.
04:41
Now, justice for the people for Oaxaca
87
269520
3576
هرچند هنوز عداالت برای مردم در اوکساکا
04:45
is still far off,
88
273120
1416
اجرا نشده اما
04:46
but their stories, their truths,
can no longer be denied.
can no longer be denied.
89
274560
3480
داستانهایشان، حقایقشان را دیگر
نمیتوان انکار کرد.
نمیتوان انکار کرد.
04:51
So we started thinking:
90
279240
1776
پس شروع به فکر کردن کردیم:
04:53
What if you had "Proof Mode?"
91
281040
1696
چطور میشد اگر «حالت اثبات » داشتیم؟
04:54
What if everybody had
a camera in their hands
a camera in their hands
92
282760
2136
چطور میشد اگر همه دوربینی در دست داشتند
04:56
and all the platforms
had that kind of validating ability.
had that kind of validating ability.
93
284920
3496
و همه آن سکوها دارای آن نوع
از قابلیت تایید صحت بودند.
از قابلیت تایید صحت بودند.
05:00
So we developed --
94
288440
1256
پس دست بکار شدیم--
05:01
together with amazing Android developers
called the Guardian Project,
called the Guardian Project,
95
289720
4456
به همکاری برنامه سازهای اندرویدی معروف به
پروژه گاردین
پروژه گاردین
05:06
we developed something called
a technology that's called Proof Mode,
a technology that's called Proof Mode,
96
294200
3296
فناوری را ساختیم به اسم حالت اثبات
05:09
that marries those metadata
together with your image,
together with your image,
97
297520
3176
که دادهنماها را به عقد تصویر شما درمیاورد،
05:12
and it validates
and it verifies your video.
and it verifies your video.
98
300720
2720
و صحت تصویر شما را تایید میکند.
05:16
Now, imagine there is a deluge of images
99
304520
4016
حال، انبوهی از تصاویر را در نظر بگیرید
05:20
coming from the world's camera phones.
100
308560
2400
که از تلفنهای دوربین جهان بیرون میاید.
05:23
Imagine if that information
could be trusted just a little bit more,
could be trusted just a little bit more,
101
311640
4000
آن اطلاعاتی را تصور کنید که
کمی بیشتر به آنها اعتماد کرد،
کمی بیشتر به آنها اعتماد کرد،
05:28
what the potential
would be for journalists,
would be for journalists,
102
316520
2336
چه پتانسیلی برای خبرنگاران خواهد داشت،
05:30
for human rights investigators,
103
318880
1816
برای بازرسان حقوق بشر،
05:32
for human rights lawyers.
104
320720
1440
برای وکلای حقوق بشر.
05:35
So we started sharing Proof Mode
with our partners in Brazil
with our partners in Brazil
105
323440
3576
پس شروع به اشتراک گذاشتن حالت اثبات
با شرکای خود در برزیل نمودیم
با شرکای خود در برزیل نمودیم
05:39
who are an amazing media collective
called Coletivo Papo Reto.
called Coletivo Papo Reto.
106
327040
3280
اعضای یک رسانه جمعی شگفت انگیز
بنام کلئتیوو پاپو رئتو.
بنام کلئتیوو پاپو رئتو.
05:44
Brazil is a tough place for human rights.
107
332280
2840
در زمینه حقوق بشر برزیل کشور دشواری است.
05:47
The Brazilian police
kills thousands of people every year.
kills thousands of people every year.
108
335680
3960
پلیس برزیل سالانه هزاران نفر را میکشد.
05:52
The only time that
there's an investigation,
there's an investigation,
109
340400
2320
تنها یک در زمان تحقیقات انجام میشود.
05:55
guess when?
110
343920
1200
حدس بزنید چه وقت؟
05:57
When there's video.
111
345440
1200
در صورت وجود ویدئو.
06:00
Seventeen-year-old Eduardo
was killed in broad daylight
was killed in broad daylight
112
348240
3440
ادواردو ۱۷ ساله روز روشن بدست
06:04
by the Rio police,
113
352640
1576
پلیس ریو کشته شد،
06:06
and look what happens after they kill him.
114
354240
2280
و ببینید بعد از این که اورا کشتند
چه شد.
چه شد.
06:10
They put a gun in the dead boy's hand,
115
358320
2000
اسلحه را توی دست پسر مرده میگذارند،
06:12
they shoot the gun twice --
116
360880
1720
اسلحه را دو بار شلیک میکنند--
06:15
(Shot)
117
363840
1200
(شلیک)
06:17
to fabricate their story of self-defense.
118
365600
4120
تا داستان خود درباره دفاع شخصی را ببافند.
06:22
The woman who filmed this
was a very, very courageous eyewitness,
was a very, very courageous eyewitness,
119
370440
3456
زنی که از ماجرا فیلم گرفته شاهد
خیلی خیلی شجاعی بود،
خیلی خیلی شجاعی بود،
06:25
and she had to go into hiding
after she posted her video
after she posted her video
120
373920
3376
و مجبور شد که از ترس جان خود
بعد از انتشار ویدئو
بعد از انتشار ویدئو
06:29
for fear of her life.
121
377320
1280
مخفی شود.
06:31
But people are filming,
and they're not going to stop filming,
and they're not going to stop filming,
122
379240
3456
اما مردم همچنان فیلم میگیرند،
و از دست فیلم گرفتن هم بر نمیدارند،
و از دست فیلم گرفتن هم بر نمیدارند،
06:34
so we're now working together
with media collectives
with media collectives
123
382720
3016
پس الان مشغول همکاری
با رسانههای جمعی هستیم
با رسانههای جمعی هستیم
06:37
so the residents on their WhatsApp
124
385760
2496
طوریکه اهلی از طریق واتس اپ
06:40
frequently get guidance and tips,
125
388280
2736
مکررا دستورالعمل و راهنمایی دریافت میکنند،
06:43
how to film safely,
126
391040
1736
چطور فیلم بگیرند،
06:44
how to upload the video
that you shoot safely,
that you shoot safely,
127
392800
2936
چطور ویدیوئی را با حفظ امنیت
در زمان گرفتن آن، اپلود کنند،
در زمان گرفتن آن، اپلود کنند،
06:47
how to capture a scene
so that it can actually count as evidence.
so that it can actually count as evidence.
128
395760
3800
چطور صحنه ای را بگیرند که مدرک محسوب شود.
06:52
And here is an inspiration
129
400360
2096
و در اینجا گروهی به اسم مدیا نینجا
06:54
from a group called Mídia Ninja in Brazil.
130
402480
2840
در برزیل الهامبخش است.
06:58
The man on left is a heavily armed
military policeman.
military policeman.
131
406480
3840
مرد سمت چپی پلیس نظامی تا دندان مسلح است.
07:04
He walks up to a protester --
132
412000
1496
به سمت معترضی گام برمیدارد--
07:05
when you protest in Brazil,
you can be arrested or worse --
you can be arrested or worse --
133
413520
3216
اگر در برزیل اعتراض کنی،
میتوانی دستگیر شوی یا بدتر--
میتوانی دستگیر شوی یا بدتر--
07:08
and he says to the protester, "Watch me,
134
416760
2576
و پلیس به معترض میگوید، «ببین،
07:11
I am going to search you right now."
135
419360
2520
الان میخوام تو را بگردم.»
07:15
And the protester
is a live-streaming activist --
is a live-streaming activist --
136
423080
3320
و معترض یک فعال پخش زنده است--
07:18
he wears a little camera --
137
426840
1456
دوربینی کوچک در
لباسش دارد--
لباسش دارد--
07:20
and he says to the military policeman,
he says, "I am watching you,
he says, "I am watching you,
138
428320
3936
و به پلیس نظامی میگوید، «تو هم منو ببین،
07:24
and there are 5,000 people
watching you with me."
watching you with me."
139
432280
3080
و ۵،۰۰۰ نفر دیگر هم دارند تو را میبییند.»
07:28
Now, the tables are turned.
140
436400
2456
حالا ورق برمیگردد.
07:30
The distant witnesses,
the watching audience, they matter.
the watching audience, they matter.
141
438880
3280
شاهدان راه دور، این تماشاچیان مهم هستند.
07:35
So we started thinking,
142
443240
1656
پس فکر کردیم
07:36
what if you could tap into that power,
143
444920
2576
چطور میشد اگر آن قدرت
07:39
the power of distant witnesses?
144
447520
2176
قدرت شاهد از راه دور را؟
07:41
What if you could pull in
their expertise, their leverage,
their expertise, their leverage,
145
449720
2736
چطور میشود اگر بتوانید مهارت، نفوذ،
همبستگی
همبستگی
07:44
their solidarity, their skills
146
452480
2136
و مهارتهایشان را دور هم جمع کنید
07:46
when a frontline community
needs them to be there?
needs them to be there?
147
454640
3040
وقتی جامعهای در خط مقدم به آنها نیاز دارد
که آنجا باشند؟
که آنجا باشند؟
07:50
And we started developing
a project that's called Mobilize Us,
a project that's called Mobilize Us,
148
458960
5336
و شروع کردیم به تولید پروژهای به اسم
Mobilize Us( ما را مجهز کن)،
Mobilize Us( ما را مجهز کن)،
07:56
because many of us, I would assume,
149
464320
3216
چون خیلی از ما، به گمان من
07:59
want to help
150
467560
1656
میخواهند کمک کنیم
08:01
and lend our skills and our expertise,
151
469240
2616
و مهارت و تخصص مان را قرض دهیم،
08:03
but we are often not there
when a frontline community
when a frontline community
152
471880
2856
اما ما اغلب آنجا نیستیم وقتی یک جامعه
در خط مقدم یا شخصی
در خط مقدم یا شخصی
08:06
or a single individual faces an abuse.
153
474760
2760
به تنهایی با سوءرفتار مواجه میشود.
08:10
And it could be as simple
as this little app that we created
as this little app that we created
154
478760
3656
و این میتواند به کوچکی این
اپی باشد که ما خلق کردیم
اپی باشد که ما خلق کردیم
08:14
that just shows the perpetrator
on the other side of the phone
on the other side of the phone
155
482440
3056
که تنها به شریک جرم را در آنسوی
تلفن نشان میدهد
تلفن نشان میدهد
08:17
how many people are watching him.
156
485520
2320
چند نفر او را تماشا میکنند.
08:20
But now, imagine that you could put
a layer of computer task routing
a layer of computer task routing
157
488880
4336
اما الان، تصور کنید که میتوانستید تفکیک
وضایف کامپیوتری را
وضایف کامپیوتری را
08:25
on top of that.
158
493240
1416
در راس آن دنبال کنید.
08:26
Imagine that you're a community
facing an immigration raid,
facing an immigration raid,
159
494680
4040
تصور کنید محلهای هستید
که با حمله مهاجرتی مواجه است
که با حمله مهاجرتی مواجه است
08:31
and at that very moment,
at that right moment, via livestream,
at that right moment, via livestream,
160
499520
3736
و سر بزنگاه و در آن لحظه از طریق پخش زنده
08:35
you could pull in
a hundred legal observers.
a hundred legal observers.
161
503280
2480
تا بتوانید یکصد ناظر قانونی
را گر هم بیاوری.
را گر هم بیاوری.
08:38
How would that change the situation?
162
506400
1920
چطور شرایط را تغییر میداد؟
08:41
So we started piloting this
with our partner communities in Brazil.
with our partner communities in Brazil.
163
509320
3695
پس شروع به اجرای آزمایشی آن
با شرکای محلی خود در برزیل کردیم.
با شرکای محلی خود در برزیل کردیم.
08:45
This is a woman called Camilla,
164
513039
2137
این زن کاملیا است،
08:47
and she was able -- she's the leader
in a favela called Favela Skol --
in a favela called Favela Skol --
165
515200
3800
و او قادر بود-- او رهبر یک گدامحله
به اسم فاوئلا اسکول است--
به اسم فاوئلا اسکول است--
08:51
she was able to pull in distant witnesses
166
519919
4137
او قادر به جلب شاهدان عینی از راه دور بود،
08:56
via livestream
167
524080
2056
از طریق پخش زنده
08:58
to help translation,
168
526160
1736
در کمک به ترجمه،
08:59
to help distribution,
169
527920
1616
در کمک به توزیع،
09:01
to help amplify her story
170
529560
2776
در کمک به تقویت صدای داستان او،
09:04
after her community was forcibly evicted
171
532360
2696
بعد از این که محله آنها را بزور
تخیله کردند
تخیله کردند
09:07
to make room for a very glossy
Olympic event last summer.
Olympic event last summer.
172
535080
3880
تا در تابستان گذشته فضا برای
یک رویداد المپیکی پرزرق و برق باز شود.
یک رویداد المپیکی پرزرق و برق باز شود.
09:12
So we're talking about good witnessing,
173
540920
2040
پس صحبت ما درباره شاهد خوب بودن است،
09:15
but what happens
if the perpetrators are filming?
if the perpetrators are filming?
174
543920
3176
چه اتفاقی میفتد اگر شرکای جرم فیلم بگیرند؟
09:19
What happens if a bystander films
and doesn't do anything?
and doesn't do anything?
175
547120
3360
چه اتفاقی میفتد اگر رهگذر فیلم بگیرد
و کاری نکند؟
و کاری نکند؟
09:23
This is the story of Chrissy.
176
551680
2216
این داستان کریسی است.
09:25
Chrissy is a transgender woman
177
553920
2336
کریسی یک زن ترنسجندر است
09:28
who walked into a McDonald's in Maryland
178
556280
2616
که به شعبه ای از مک دونادز در مریلند رفت
09:30
to use the women's bathroom.
179
558920
1440
تا از دستشویی زنانه استفاده کند.
09:32
Two teens viciously beat her
for using that woman's bathroom,
for using that woman's bathroom,
180
560960
5416
دو نوجوان او را با شرارت بخاطر
استفاده از دستشویی زنانه کتک زدند
استفاده از دستشویی زنانه کتک زدند
09:38
and the McDonald's employee
filmed this on his mobile phone.
filmed this on his mobile phone.
181
566400
3120
و کارگر مک دونادز با موبایل خود
از صحنه فیلمبرداری کرده است.
از صحنه فیلمبرداری کرده است.
09:42
And he posted his video,
182
570760
1440
و او این ویدیو را پست کرد،
09:44
and it has garnered
183
572920
1696
و هزاران نظر نژادپرستانه
09:46
thousands of racist
and transphobic comments.
and transphobic comments.
184
574640
3840
ترنس هراسی زیر آن جمع شده است.
09:52
So we started a project
that's called Capturing Hate.
that's called Capturing Hate.
185
580920
2880
پس پروژهای بنام ضبط
انزجار را شروع کردیم.
انزجار را شروع کردیم.
09:56
We took a very, very small sample
of eyewitness videos
of eyewitness videos
186
584840
3936
ما نمونه خیلی کوچکی از
ویدیوهای شاهدان عینی را برداشتیم
ویدیوهای شاهدان عینی را برداشتیم
10:00
that showed abuse against transgender
and gender-nonconforming people.
and gender-nonconforming people.
187
588800
5376
که خشنونت علیه ترنسها و آدمهای با هویت
جنسی ناسازگار با عرف جامعه را نشان میدهد.
جنسی ناسازگار با عرف جامعه را نشان میدهد.
10:06
We searched two words,
"tranny fight" and "stud fight."
"tranny fight" and "stud fight."
188
594200
4000
دو واژه "tranny fight" و "stud fight"
را جستجو کردیم،
را جستجو کردیم،
10:11
And those 329 videos were watched
and are still being watched
and are still being watched
189
599240
5056
وآن ۳۲۹ ویدیو را تماشا کردیم
و هنوز تماشا میکنیم
و هنوز تماشا میکنیم
10:16
as we sit here in this theater,
190
604320
2296
همانطور که اینجا نشستیم،
10:18
a stunning almost 90 million times,
191
606640
3536
۹۰ میلیون بار شگفتانگیز،
10:22
and there are hundreds of thousands
of comments with these videos,
of comments with these videos,
192
610200
3216
و صدها هزار نظر همراه این ویدیوها هستند
10:25
egging on to more violence and more hate.
193
613440
2880
که به خشونت و تنفر بیشتری دامن میزد.
10:30
So we started developing a methodology
194
618240
2416
پس شیوه ای را مدون کردیم
10:32
that took all that
unquantified visual evidence
unquantified visual evidence
195
620680
4296
که همه آن ادله بصری وسیع را بردارد
10:37
and turned it into data,
turning video into data,
turning video into data,
196
625000
4416
و به دادهها تبدیل کند،
تیدیل ویدیو به داده
تیدیل ویدیو به داده
10:41
and with that tool,
197
629440
1256
و با آن ابزار،
10:42
LGBT organizations are now using that data
198
630720
4416
نهادهای LGBT اکنون در مبارزه
برای حقوق خویش
برای حقوق خویش
10:47
to fight for rights.
199
635160
1560
از آن دادهها استفاده میکنند.
10:49
And we take that data
and we take it back to Silicon Valley,
and we take it back to Silicon Valley,
200
637400
3216
و دادهها را میگیریم و به
سیلیکون ولی میبریم،
سیلیکون ولی میبریم،
10:52
and we say to them:
201
640640
1496
و به آنها میگویم:
10:54
"How is it possible
202
642160
1600
«چطور ممکن است
10:56
that these videos are still out there
203
644600
3976
که این ویدیوهای با فضای تنفرآمیز هنوز
11:00
in a climate of hate
204
648600
1896
آن بیرون هستند
11:02
egging on more hate,
205
650520
1856
که نفرت بیشتری را دامن میزنند و
11:04
summoning more violence,
206
652400
2016
طالب خشونت بیشتری هستند.
11:06
when you have policies that actually say
207
654440
2416
درحالیکه سیاستهایی دارید که در واقع میگویند
11:08
you do not allow this kind of content? --
208
656880
3216
که چنین محتوی مجاز نیست؟__
11:12
urging them to change their policies.
209
660120
2520
به آنها فشار میاوریم
سیاستهایشان را تغییر دهند.
سیاستهایشان را تغییر دهند.
11:16
So I have hope.
210
664480
2656
بنابراین امیدوارم.
11:19
I have hope that we can turn more video
into more rights and more justice.
into more rights and more justice.
211
667160
4400
امیدوارم که قادر باشیم ویدیوهای بیشتری
به حقوق و عدالت بیشتر تبدیل کنیم.
به حقوق و عدالت بیشتر تبدیل کنیم.
11:24
Ten billion video views
on Snapchat,
on Snapchat,
212
672360
5280
تماشای ده میلیارد میلیارد ویدیو
روی اسنپ چت،
روی اسنپ چت،
11:30
per day.
213
678760
1536
روزانه.
11:32
So what if we could turn
that Snapchat generation
that Snapchat generation
214
680320
3296
چطور میشود اگر بتوانیم این نسل اسنپ چتی را
11:35
into effective and safe civic witnesses?
215
683640
3216
به شاهدان مدنی موثر و ایمن تبدیل کنیم؟
11:38
What if they could become
the Bukenis of this new generation?
the Bukenis of this new generation?
216
686880
3640
چطور میشود اگر آنها بوکئنیهای
این نسل جدید شوند؟
این نسل جدید شوند؟
11:44
In India, women have already
started using Snapchat filters
started using Snapchat filters
217
692920
4016
در هند زنان الان شروع به استفاده از
فیلترهای اسنپ چت کردند
فیلترهای اسنپ چت کردند
11:48
to protect their identity when they
speak out about domestic violence.
speak out about domestic violence.
218
696960
3880
تا هویت آنها را حفظ کند وقتی صدای خود
را علیه خشنونت خانگی بلند میکنند.
را علیه خشنونت خانگی بلند میکنند.
11:52
[They tortured me at home
and never let me go out.]
and never let me go out.]
219
700860
2940
[من شکنجه میشدم و
اجازه بیرون رفتن از خانه را نداشتم.]
اجازه بیرون رفتن از خانه را نداشتم.]
11:55
The truth is, the real truth, the truth
that doesn't fit into any TED Talk,
that doesn't fit into any TED Talk,
220
703840
3576
واقعیت این است که حقیقت واقعی
در هیچ سخنرانی TED نمیگنجد،
در هیچ سخنرانی TED نمیگنجد،
11:59
is fighting human rights abuse is hard.
221
707440
2856
این که مبارزه با تجاوز به
حقوق بشر دشوار است.
حقوق بشر دشوار است.
12:02
There are no easy solutions
for human rights abuse.
for human rights abuse.
222
710320
3056
راهحلهای آسانی برای تجاوز به
حقوق بشر وجود ندارد.
حقوق بشر وجود ندارد.
12:05
And there's not a single
piece of technology
piece of technology
223
713400
2736
و حتی یک فناوری هم نداریم
12:08
that can ever stop the perpetrators.
224
716160
1880
که بتواند جلوی جناینکاران را بگیرد.
12:11
But for the survivors,
225
719400
1440
برای بازماندهها،
12:13
for the victims,
226
721920
1616
برای قربانیها،
12:15
for the marginalized communities,
227
723560
1800
برای جوامع در حاشیه،
12:18
their stories, their truths, matter.
228
726160
4456
قصههایشان، حقایقشان اهمیت دارد.
12:22
And that is where justice begins.
229
730640
2816
و اینجاست که عدالت شروع میشود.
12:25
Thank you.
230
733480
1216
متشکرم.
12:26
(Applause)
231
734720
2920
(تشویق)
ABOUT THE SPEAKER
Yvette Alberdingk Thijm - Human rights activistYvette Alberdingk Thijm helps activists use video and technology to protect and defend human rights.
Why you should listen
Yvette Alberdingk Thijm leads WITNESS.org, a global team of human rights activists who help anyone use video and technology to protect and defend human rights. WITNESS supports marginalized and vulnerable communities to expose their truths, counter harmful and abusive narratives, and mobilize their communities to build a just world. Yvette believes that right and power to tell your own story is where dignity, justice, and equality begins.
More profile about the speakerYvette Alberdingk Thijm | Speaker | TED.com