ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com
TED2017

Cathy O'Neil: The era of blind faith in big data must end

ক্যাথি ও নিল: 'বিগ ডাটা' এ অন্ধ বিশ্বাস শেষ করার যুগ এসে গেছে

Filmed:
1,391,460 views

অ্যালগরিদম সিদ্ধান্ত নেয় কে ঋণ নিতে পারবে, কে একটি চাকরী ইন্টারভিউ পাবে, যারা বীমা পাবে এবং আরো অনেক কিছু - কিন্তু তাদের এই সিদ্ধান্ত তা ন্যায্য নয় | গণিতবিদ এবং তথ্য বিজ্ঞানী ক্যাথি ও নিল সেই সকল আলগোরিদিমগুলি যা গোপন, গুরুত্বপূর্ণ ও ক্ষতিকর তাদের জন্য একটি শব্দ উদ্ভাবন করেছেন : "গণিতের ধ্বংসযজ্ঞের অস্ত্র।" সূত্রের পিছনে গোপন বিষয়সূচিগুলির সম্পর্কে আরও জানুন।
- Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias. Full bio

Double-click the English transcript below to play the video.

00:12
Algorithmsঅ্যালগোরিদম are everywhereসর্বত্র.
0
975
1596
অ্যালগরিদম সব জায়গায় উপস্থিত|
00:16
They sortসাজান and separateআলাদা
the winnersবিজয়ীদের from the losersক্ষতিগ্রস্ত.
1
4111
3125
তারা পরাজিতদের বিজয়ীদের থেকে আলাদা করে|
00:20
The winnersবিজয়ীদের get the jobকাজ
2
8019
2264

বিজয়ীরা একটি ভালো চাকরি
00:22
or a good creditধার cardকার্ড offerপ্রদান.
3
10307
1743
বা ক্রেডিট কার্ড অফার পায়|
00:24
The losersক্ষতিগ্রস্ত don't even get an interviewসাক্ষাত্কার
4
12074
2651
ক্ষতিগ্রস্তরা একটা সাক্ষাৎকারও পায়না বা
00:27
or they payবেতন more for insuranceবীমা.
5
15590
1777
তাদের বীমার জন্য বেশি টাকা দিতে হয়|
00:30
We're beingহচ্ছে scoredগোল with secretগোপন formulasসূত্র
that we don't understandবোঝা
6
18197
3549
আমাদের গোপন সূত্র দিয়ে মাপা হচ্ছে
যা আমরা বুঝতে পারিনা
00:34
that oftenপ্রায়ই don't have systemsসিস্টেম of appealআবেদন.
7
22675
3217
এবং যার বিরুদ্ধে আবেদন করার ব্যবস্থা নেই |
00:39
That begsনিয়ত the questionপ্রশ্ন:
8
27240
1296
তাই এই প্রশ্নটা ওঠে:
00:40
What if the algorithmsআলগোরিদিম are wrongভুল?
9
28560
2913
যদি অ্যালগরিদম গুলো ভুল হয়ে তাহলে কি হবে?
00:45
To buildনির্মাণ করা an algorithmগাণিতিক সূত্র you need two things:
10
33100
2040
অ্যালগরিদম নির্মাণের জন্য দুটি জিনিসের
00:47
you need dataউপাত্ত, what happenedঘটেছিলো in the pastগত,
11
35164
1981
প্রয়োজন: আপনার দরকার তথ্য,অতীতে কি ঘটেছে,
00:49
and a definitionসংজ্ঞা of successসাফল্য,
12
37169
1561
এবং সাফল্যের একটি সংজ্ঞা,
00:50
the thing you're looking for
and oftenপ্রায়ই hopingপ্রত্যাশী for.
13
38754
2457
আপনি কি খুঁজছেন এবং কিসের জন্য প্রত্যাশী |
00:53
You trainরেলগাড়ি an algorithmগাণিতিক সূত্র
by looking, figuringfiguring out.
14
41235
5037
আপনি দেখে এবং বিবেচনা করে একটি
অ্যালগরিদম কে শেখান |
00:58
The algorithmগাণিতিক সূত্র figuresপরিসংখ্যান out
what is associatedযুক্ত with successসাফল্য.
15
46296
3419
অ্যালগরিদমটি সাফল্যের সাথে কি
যুক্ত তা প্রকাশ করে।
01:01
What situationঅবস্থা leadsবিশালাকার to successসাফল্য?
16
49739
2463
কোন পরিস্থিতি সফলতার দিকে
এগিয়ে নিয়ে যায়?
01:04
Actuallyআসলে, everyoneসবাই usesব্যবহারসমূহ algorithmsআলগোরিদিম.
17
52881
1762
বাস্তবে সবাই অ্যালগরিদম ব্যবহার করে।
01:06
They just don't formalizeformalize them
in writtenলিখিত codeকোড.
18
54667
2718
তারা লিখিত কোডে তা প্রকাশ করেনা |
01:09
Let me give you an exampleউদাহরণ.
19
57409
1348
একটি উদাহরণ নিন |
01:10
I use an algorithmগাণিতিক সূত্র everyপ্রতি day
to make a mealখাবার for my familyপরিবার.
20
58781
3316
আমি প্রতিদিন এক অ্যালগরিদম ব্যবহার
করে আমার পরিবারের জন্য খাবার বানাই|
01:14
The dataউপাত্ত I use
21
62121
1476
আমার জন্য তথ্য হল
01:16
is the ingredientsউপাদানগুলো in my kitchenরান্নাঘর,
22
64394
1659
রান্নাঘরের সকল উপাদানগুলি,
01:18
the time I have,
23
66077
1527
আমার সময়,
01:19
the ambitionউচ্চাকাঙ্ক্ষা I have,
24
67628
1233
আমার উচ্চাকাঙ্খা,
01:20
and I curateসাহায্য সংস্থা that dataউপাত্ত.
25
68885
1709
এবং আমি সেই তথ্যগুলি সংগঠিত করি |
01:22
I don't countগণনা those little packagesপ্যাকেজ
of ramenরামেন noodlesনুডলস as foodখাদ্য.
26
70618
4251
আমি খাবার হিসাবে রামেন নুডলস এর
প্যাকেজগুলো গণনা করিনা |
01:26
(Laughterহাসি)
27
74893
1869
(হাসি )
01:28
My definitionসংজ্ঞা of successসাফল্য is:
28
76786
1845
আমার কাছে সাফল্যের বর্ণনা হল:
01:30
a mealখাবার is successfulসফল
if my kidsকিডস eatখাওয়া vegetablesশাকসবজি.
29
78655
2659
আমার বাচ্চারা সবজি খেলে একটি আহার সফল হয় |
01:34
It's very differentবিভিন্ন
from if my youngestকনিষ্ঠ sonপুত্র were in chargeঅভিযোগ.
30
82181
2854
এটা আলাদা হত যদি আমার ছোট ছেলে
এই কাজের কর্মকর্তা হত |
01:37
He'dতিনি যদি say successসাফল্য is if
he getsপায় to eatখাওয়া lots of NutellaNutella.
31
85059
2788
সে বলত আহার সফল তখনি হবে যখন
সে অনেক নিউটেলা খেতে পারবে |
01:41
But I get to chooseপছন্দ successসাফল্য.
32
89179
2226
কিন্তু এ ক্ষেত্রে আমি সফলতার বর্ণনা ঠিক করে দিচ্ছি|
01:43
I am in chargeঅভিযোগ. My opinionঅভিমত mattersবিষয়.
33
91429
2707
আমি কর্মকর্তা | আমার মতামত গুরুত্বপূর্ণ |
01:46
That's the first ruleনিয়ম of algorithmsআলগোরিদিম.
34
94160
2675
এটা অ্যালগরিদমের প্রথম নিয়ম।
01:48
Algorithmsঅ্যালগোরিদম are opinionsমতামত embeddedএম্বেড করা in codeকোড.
35
96859
3180
অ্যালগরিদম কিছু মতামত যা কোডের
মধ্যে উদ্ভিত করা থাকে|
01:53
It's really differentবিভিন্ন from what you think
mostসবচেয়ে people think of algorithmsআলগোরিদিম.
36
101562
3663
এটি অধিকাংশ মানুষ যা ভাবে এর
সম্পর্কে তার চেয়ে ভিন্ন|
01:57
They think algorithmsআলগোরিদিম are objectiveউদ্দেশ্য
and trueসত্য and scientificবৈজ্ঞানিক.
37
105249
4504
তারা মনে করেন অ্যালগরিদমগুলি উদ্ধেষপূর্ণ
এবং সত্য এবং বৈজ্ঞানিক।
02:02
That's a marketingমার্কেটিং trickকৌতুক.
38
110387
1699
এটি একটি বিজ্ঞাপনের কৌশল|
02:05
It's alsoএছাড়াও a marketingমার্কেটিং trickকৌতুক
39
113269
2125
একটি বিজ্ঞাপনের কৌশলের মতন
02:07
to intimidateভয় দেখান you with algorithmsআলগোরিদিম,
40
115418
3154
অ্যালগরিদমের দ্বারা আপনাদের ভীতি বাড়ানো হয়,
02:10
to make you trustআস্থা and fearভয় algorithmsআলগোরিদিম
41
118596
3661
যাতে আপনারা অ্যালগরিদমকে বিশ্বাস করেন
এবং ভয় পান
02:14
because you trustআস্থা and fearভয় mathematicsঅংক.
42
122281
2018
কারণ আপনারা অঙ্ককে বিশ্বাস করেন
এবং ভয় পান|
02:17
A lot can go wrongভুল when we put
blindঅন্ধ faithবিশ্বাস in bigবড় dataউপাত্ত.
43
125567
4830
বিগ ডাটা এ অন্ধ বিশ্বাস করলে অনেক
ভুল হতে পারে|
02:23
This is KiriKiri Soaresসোয়ারেস.
She's a highউচ্চ schoolস্কুল principalঅধ্যক্ষ in Brooklynব্রুকলিনের.
44
131684
3373
ইনি কিরি সোয়ার্স|তিনি ব্রুক্লিনের এক
উচ্চ বিদ্যালয়ের প্রধান|
02:27
In 2011, she told me
her teachersশিক্ষক were beingহচ্ছে scoredগোল
45
135081
2586
২0১১ সালে, তিনি আমাকে বলেছিলেন
যে তার শিক্ষকদের
02:29
with a complexজটিল, secretগোপন algorithmগাণিতিক সূত্র
46
137691
2727
একটি জটিল, গোপন অ্যালগরিদম
দিয়ে অবহিত করা হচ্ছে
02:32
calledনামক the "value-addedvalue-added modelমডেল."
47
140442
1489
জাকে বলা হয় "মূল্য-সংযোজন মডেল।"
02:34
I told her, "Well, figureব্যক্তিত্ব out
what the formulaসূত্র is, showপ্রদর্শনী it to me.
48
142505
3092
আমি তাকে বলেছিলাম, "আচ্ছা, সূত্রটা কী,
তা আমাকে দেখিয়ে দাও।
02:37
I'm going to explainব্যাখ্যা করা it to you."
49
145621
1541
আমি আপনাকে এটা ব্যাখ্যা করব|"
02:39
She said, "Well, I triedচেষ্টা
to get the formulaসূত্র,
50
147186
2141
তিনি বলেন, "আমি সূত্রটি পেতে
চেষ্টা করেছি,
02:41
but my Departmentবিভাগ of Educationশিক্ষা contactযোগাযোগ
told me it was mathগণিত
51
149351
2772
কিন্তু আমাদের শিক্ষা বিভাগ আমাকে বলল এটি
02:44
and I wouldn'tহবে না understandবোঝা it."
52
152147
1546
গণিত এবং আমি তা বুঝতে পারবনা|"
02:47
It getsপায় worseখারাপ.
53
155266
1338
আরো খারাপ হতে পারে|
02:48
The Newনতুন Yorkইয়র্ক Postপোস্ট filedমামলা দায়ের
a Freedomস্বাধীনতা of Informationতথ্য Actআইন requestঅনুরোধ,
54
156628
3530
নিউইয়র্ক পোস্ট তথ্য অধিকারের স্বাধীনতা
02:52
got all the teachers'শিক্ষক namesনাম
and all theirতাদের scoresস্কোর
55
160182
2959
আইন অনুযায়ী আবেদন করে সমস্ত শিক্ষকের নাম
02:55
and they publishedপ্রকাশিত them
as an actআইন of teacher-shamingশিক্ষক-লজ্জা.
56
163165
2782
এবং নম্বরের ও সেগুলি শিক্ষক-শিষ্টাচারের
রূপে প্রকাশ করে।
02:59
When I triedচেষ্টা to get the formulasসূত্র,
the sourceউৎস codeকোড, throughমাধ্যমে the sameএকই meansমানে,
57
167084
3860
যখন আমি সূত্রগুলো পাওয়ার চেষ্টা করি,
সোর্স কোড গুলো, একই পথে,
03:02
I was told I couldn'tনা পারা.
58
170968
2149
আমায় বলা হয়ে যে আমায় তা দেওয়া হবেনা|
03:05
I was deniedঅস্বীকৃত.
59
173141
1236
আমায় বাধা দেওয়া হয়|
03:06
I laterপরে foundপাওয়া out
60
174401
1174
আমি পরে জানতে পারলাম
03:07
that nobodyকেউ কিছু in Newনতুন Yorkইয়র্ক Cityশহর
had accessপ্রবেশ to that formulaসূত্র.
61
175599
2866
নিউ ইয়র্কে কারোই সেই কোড জানা নেই|
03:10
No one understoodবোঝা it.
62
178489
1305
কেউ তা বুঝতোনা |
03:13
Then someoneকেউ really smartস্মার্ট
got involvedজড়িত, Garyগ্যারি RubensteinRubenstein.
63
181929
3224
তারপর একদিন এক শিক্ষিত মানুষ জড়িয়ে পড়লেন,
গ্যারি রুবিনস্টাইন|
03:17
He foundপাওয়া 665 teachersশিক্ষক
from that Newনতুন Yorkইয়র্ক Postপোস্ট dataউপাত্ত
64
185177
3621
তিনি লক্ষ্য করলেন নিউ ইয়র্ক পোস্টের
তথ্যে
03:20
that actuallyপ্রকৃতপক্ষে had two scoresস্কোর.
65
188822
1866
৬৬৫ শিক্ষকের দুটি নম্বর ছিল|
03:22
That could happenঘটা if they were teachingশিক্ষাদান
66
190712
1881
এটা তখনই সম্ভব যদি তারা সপ্তম
03:24
seventhসপ্তম gradeশ্রেণী mathগণিত and eighthঅষ্টম gradeশ্রেণী mathগণিত.
67
192617
2439
এবং অষ্টম দুই শ্রেণীতেই অঙ্ক পড়ান|
03:27
He decidedসিদ্ধান্ত নিয়েছে to plotচক্রান্ত them.
68
195080
1538
তিনি এগুলি চিত্র লেখন করেন।
03:28
Eachপ্রতিটি dotডট representsপ্রতিনিধিত্ব করে a teacherশিক্ষক.
69
196642
1993
একটি দাগ একটি শিক্ষককে বোঝায়|
03:31
(Laughterহাসি)
70
199104
2379
(হাসি )
03:33
What is that?
71
201507
1521
এটা কি?
03:35
(Laughterহাসি)
72
203052
1277
(হাসি)
03:36
That should never have been used
for individualস্বতন্ত্র assessmentমূল্যায়ন.
73
204353
3446
এরকম ব্যক্তিগতভাবে মূল্যায়ন করা সঠিক না।
03:39
It's almostপ্রায় a randomএলোমেলো numberসংখ্যা generatorউত্পাদক.
74
207823
1926
এটি প্রায় একটি এলোমেলো সংখ্যা উৎপাদক।
03:41
(Applauseহাত তালি)
75
209773
2946
(তালি)
03:44
But it was.
76
212743
1162
কিন্তু তাই ছিল|
03:45
This is Sarahসারাহ WysockiWysocki.
77
213929
1176
ইনি সারা ওয়াসকি |
03:47
She got firedবহিস্কার, alongবরাবর
with 205 other teachersশিক্ষক,
78
215129
2175
তাকে ওয়াশিংটনে,ডিসি স্কুল জেলার ২০৫ জন
03:49
from the Washingtonওয়াশিংটন, DCডিসি schoolস্কুল districtজেলা,
79
217328
2662
অন্যান্য শিক্ষকের সাথে বহিষ্কার করা হয়,
03:52
even thoughযদিও she had great
recommendationsসুপারিশ from her principalঅধ্যক্ষ
80
220014
2909
যদিও তার স্কুলের প্রধান ও বাচ্চাদের
পিতামাতাদের
03:54
and the parentsবাবা of her kidsকিডস.
81
222947
1428
থেকে ভালো সুপারিশ ছিল।
03:57
I know what a lot
of you guys are thinkingচিন্তা,
82
225390
2032
আমি জানি আপনারা এখানে কি ভাবছেন, বিশেষত
03:59
especiallyবিশেষত the dataউপাত্ত scientistsবিজ্ঞানীরা,
the AIঅয় expertsবিশেষজ্ঞদের here.
83
227446
2487
যারা তথ্য বৈজ্ঞানিক এবং এ.আই বিশেষজ্ঞ|
04:01
You're thinkingচিন্তা, "Well, I would never make
an algorithmগাণিতিক সূত্র that inconsistentঅসঙ্গত."
84
229957
4226
আপনারা ভাবছেন,"আমরা কখনো এরকম অসঙ্গত
অ্যালগরিদম তৈরী করবোনা|"
04:06
But algorithmsআলগোরিদিম can go wrongভুল,
85
234853
1683
কিন্তু অ্যালগরিদমে ভুল হতে পারে,
04:08
even have deeplyগভীরভাবে destructiveনাশক effectsপ্রভাব
with good intentionsঅভিপ্রেত.
86
236560
4598
এমনকি ভাল উদ্দেশ্যর সঙ্গে গভীরভাবে
ধ্বংসাত্মক প্রভাব থাকতে পারে।
04:14
And whereasযেহেতু an airplaneবিমান
that's designedপরিকল্পিত badlyখারাপভাবে
87
242531
2379
ঠিক যেভাবে খারাপ ভাবে নকশা করা
04:16
crashesবিপর্যস্ত to the earthপৃথিবী and everyoneসবাই seesদেখেন it,
88
244934
2001
একটি বিমান যেমন মাটিতে ভেঙে পড়তে পারে,
04:18
an algorithmগাণিতিক সূত্র designedপরিকল্পিত badlyখারাপভাবে
89
246959
1850
একটি খারাপ ভাবে পরিকল্পিত অ্যালগরিদমও
04:22
can go on for a long time,
silentlyনীরবে wreakingwreaking havocক্ষিতি.
90
250245
3865
দীর্ঘ সময় ধরে চলে, ক্ষয় করতে পারে|
04:27
This is Rogerরজার AilesAiles.
91
255748
1570
ইনি রজার আইলেস |
04:29
(Laughterহাসি)
92
257342
2000
(হাসি )
04:32
He foundedউদিত Foxশিয়াল Newsসংবাদ in 1996.
93
260524
2388
তিনি ১৯৯৬ সালে ফক্স নিউজ প্রতিষ্ঠা করেন।
04:35
More than 20 womenনারী complainedঅভিযোগ
about sexualযৌন harassmentহয়রানি/হ্যারাসমেন্ট করা.
94
263436
2581
২0 জনের বেশি মহিলা যৌন হয়রানি
সম্পর্কে অভিযোগ করেছে।
04:38
They said they weren'tছিল না allowedঅনুমতি
to succeedসফল at Foxশিয়াল Newsসংবাদ.
95
266041
3235
তারা জানিয়েছে যে তাদের ফক্স নাউসে
সফলতা হাসিল করতে দেওয়া হয়নি|
04:41
He was oustedক্ষমতাচ্যুত last yearবছর,
but we'veআমাদের আছে seenদেখা recentlyসম্প্রতি
96
269300
2520
গত বছর তিনি ক্ষমতাচ্যুত হন
04:43
that the problemsসমস্যার have persistedদিয়েছি.
97
271844
2670
কিন্তু আমরা দেখছি সমস্যাগুলি অব্যাহত।
04:47
That begsনিয়ত the questionপ্রশ্ন:
98
275654
1400
তাই প্রশ্নটি ওঠে:
04:49
What should Foxশিয়াল Newsসংবাদ do
to turnপালা over anotherঅন্য leafগাছের পাতা?
99
277078
2884
পাল্টানোর জন্য ফক্স নিউজের কি করণীয়?
04:53
Well, what if they replacedপ্রতিস্থাপিত
theirতাদের hiringনিয়োগের processপ্রক্রিয়া
100
281245
3041
কি হবে তারা যদি নিয়োগের
প্রক্রিয়াটি একটি মেশিন-লার্নিং
04:56
with a machine-learningমেশিন লার্নিং algorithmগাণিতিক সূত্র?
101
284310
1654
অ্যালগরিদম দিয়ে প্রতিস্থাপন করে?
04:57
That soundsশব্দ good, right?
102
285988
1595
তা শুনতে ভালো লাগে তাইনা?
04:59
Think about it.
103
287607
1300
এ বিষয় ভাবুন।
05:00
The dataউপাত্ত, what would the dataউপাত্ত be?
104
288931
2105
তথ্যটি কি হবে?
05:03
A reasonableযৌক্তিক choiceপছন্দ would be the last
21 yearsবছর of applicationsঅ্যাপ্লিকেশন to Foxশিয়াল Newsসংবাদ.
105
291060
4947
একটি যুক্তিসঙ্গত পছন্দ হল ফক্স নিউজের
সর্বশেষ ২১ বছরের অ্যাপ্লিকেশন।
05:08
Reasonableযৌক্তিক.
106
296031
1502
যৌক্তিক।
05:09
What about the definitionসংজ্ঞা of successসাফল্য?
107
297557
1938
এবং সাফল্যের বর্ণনাটি কি হবে?
05:11
Reasonableযৌক্তিক choiceপছন্দ would be,
108
299921
1324
একটি যৌক্তিক উত্তর হল,
05:13
well, who is successfulসফল at Foxশিয়াল Newsসংবাদ?
109
301269
1778
ফক্স নিউজে কারা সফলতা লাভ করেছে?
05:15
I guessঅনুমান someoneকেউ who, say,
stayedথাকুন there for fourচার yearsবছর
110
303071
3580
ধরুন যে চার বছর কাজ করেছে এবং
05:18
and was promotedউন্নীত at leastঅন্তত onceএকদা.
111
306675
1654
অন্তত যার একবার পদোন্নতি হযেছে।
05:20
Soundsশব্দ reasonableযৌক্তিক.
112
308816
1561
যৌক্তিক শোনাচ্ছে।
05:22
And then the algorithmগাণিতিক সূত্র would be trainedপ্রশিক্ষিত.
113
310401
2354
এবং তারপর অ্যালগরিদমটিকে শেখানো হবে।
05:24
It would be trainedপ্রশিক্ষিত to look for people
to learnশেখা what led to successসাফল্য,
114
312779
3877
এটা কীভাবে সাফল্যের দিকে পরিচালিত হবে
তা জানতে লোকেদের সন্ধান করতে
05:29
what kindসদয় of applicationsঅ্যাপ্লিকেশন
historicallyঐতিহাসিকভাবে led to successসাফল্য
115
317219
4318
প্রশিক্ষণ করা হবে, ঐতিহ্যগত ভাবে
কোন অ্যাপ্লিকেশন সাফল্যলাভ
05:33
by that definitionসংজ্ঞা.
116
321561
1294
করেছে সেই বর্ণনার দ্বারা।
05:36
Now think about what would happenঘটা
117
324200
1775
এবার ভাবুন কি হবে
05:37
if we appliedফলিত that
to a currentবর্তমান poolপুকুর of applicantsআবেদনকারী.
118
325999
2555
আমরা যদি এটা বর্তমানে একদল আবেদনকারীদের
05:41
It would filterছাঁকনি out womenনারী
119
329119
1629
উপর প্রয়োগ করি। তাহলে তা
05:43
because they do not look like people
who were successfulসফল in the pastগত.
120
331663
3930
নারীদের বাদ দিয়ে দেবে কারণ নারীরা
এক সময় সফল ছিলনা।
05:51
Algorithmsঅ্যালগোরিদম don't make things fairন্যায্য
121
339752
2537
অন্ধের মতন অ্যালগরিদম প্রয়োগ
05:54
if you just blithelyblithely,
blindlyঅন্ধভাবে applyপ্রয়োগ করা algorithmsআলগোরিদিম.
122
342313
2694
করলে তা যৌক্তিক হয়না
05:57
They don't make things fairন্যায্য.
123
345031
1482
তা ন্যায্য হয়না।
05:58
They repeatপুনরাবৃত্তি our pastগত practicesঅনুশীলন,
124
346537
2128
তা আমাদের অতীতের ব্যবহারগুলো,
06:00
our patternsনিদর্শন.
125
348689
1183
পুনরায় অনুসরণ করে।
06:01
They automateস্বয়ংক্রিয় the statusঅবস্থা quoচাচ্ছি.
126
349896
1939
তারা স্থিতাবস্তায় স্বয়ংক্রিয় পদ্ধতি
06:04
That would be great
if we had a perfectনির্ভুল worldবিশ্ব,
127
352718
2389
প্রয়োগ করে। যদি পৃথিবীতে সবাই নিখুঁত
হত তাহলে তা
06:07
but we don't.
128
355905
1312
ঠিক ছিল,কিন্তু তা নয়।
06:09
And I'll addযোগ that mostসবচেয়ে companiesকোম্পানি
don't have embarrassingএগুলোর কিছু বিব্রতকর lawsuitsমামলার,
129
357241
4102
এবং বেশিরভাগ সংস্থায় লজ্জাজনক
কোন মামলা হয় না,
06:14
but the dataউপাত্ত scientistsবিজ্ঞানীরা in those companiesকোম্পানি
130
362446
2588
তবে সেখানকার তথ্য বিজ্ঞানীদের
তথ্যগুলি অনুসরণ
06:17
are told to followঅনুসরণ করা the dataউপাত্ত,
131
365058
2189
করতে বলা হয়,
06:19
to focusকেন্দ্রবিন্দু on accuracyসঠিকতা.
132
367271
2143
সঠিকতায় গুরুত্ব দিতে বলা হয়।
06:22
Think about what that meansমানে.
133
370273
1381
ভাবুন তার মানে কি।
06:23
Because we all have biasপক্ষপাত,
it meansমানে they could be codifyingসংকলন sexismস্ক্রিম
134
371678
4027
যেহেতু আমাদের সকলের মধ্যে পক্ষপাতিত্ব
রয়েছে,এর মানে তা কোন রকমের প্রাধান্য
06:27
or any other kindসদয় of bigotryধর্মান্ধতা.
135
375729
1836
বা ধর্মানুশাসনকে শ্রেণীবদ্ধ করে।
06:31
Thought experimentপরীক্ষা,
136
379488
1421
চিন্তাশীল পরীক্ষা নিরীক্ষা,
06:32
because I like them:
137
380933
1509
কারণ আমার তা ভাল লাগে:
06:35
an entirelyসম্পূর্ণরূপে segregatedপৃথকীকৃত societyসমাজ --
138
383574
2975
একটি সম্পূর্ণ পৃথকীকৃত সমাজ --
06:40
raciallyবর্ন segregatedপৃথকীকৃত, all townsশহরগুলির,
all neighborhoodsএলাকাগুলোর
139
388247
3328
জাতিগতভাবে পৃথকিত, সমস্ত শহর, সমস্ত এলাকা
06:43
and where we sendপাঠান the policeপুলিশ
only to the minorityসংখ্যালঘু সম্প্রদায় neighborhoodsএলাকাগুলোর
140
391599
3037
এবং যেখানে আমরা পুলিশকে সংখ্যালঘু
প্রতিবেশীদের
06:46
to look for crimeঅপরাধ.
141
394660
1193
অপরাধের খোঁজে পাঠাই।
06:48
The arrestগ্রেফতার dataউপাত্ত would be very biasedপক্ষপাতদুষ্ট.
142
396451
2219

গ্রেপ্তারের তথ্য খুব পক্ষপাতদুষ্ট হবে।
06:51
What if, on topশীর্ষ of that,
we foundপাওয়া the dataউপাত্ত scientistsবিজ্ঞানীরা
143
399851
2575
তা ছাড়া,আমরা যদি তথ্য বৈজ্ঞানিদের
খুঁজে বার করে
06:54
and paidঅর্থ প্রদান the dataউপাত্ত scientistsবিজ্ঞানীরা to predictভবিষ্যদ্বাণী করা
where the nextপরবর্তী crimeঅপরাধ would occurঘটা?
144
402450
4161
তাদের টাকা দিয়ে ভবিষ্যতে কোন জায়গায়
অপরাধ ঘটবে তা জানার জন্য তাহলে কি হবে?
06:59
Minorityসংখ্যালঘু সম্প্রদায় neighborhoodআশপাশ.
145
407275
1487
সংখ্যালঘুদের পরিবেশে।
07:01
Or to predictভবিষ্যদ্বাণী করা who the nextপরবর্তী
criminalঅপরাধী would be?
146
409285
3125
বা এটা জানতে পরের অপরাধীটি কে হবে?
07:04
A minorityসংখ্যালঘু সম্প্রদায়.
147
412888
1395
একজন সংখ্যালঘু ব্যাক্তি।
07:07
The dataউপাত্ত scientistsবিজ্ঞানীরা would bragকুঁদ
about how great and how accurateসঠিক
148
415949
3541
তথ্য বিজ্ঞানীরা তাদের মডেলের সঠিকতার
07:11
theirতাদের modelমডেল would be,
149
419514
1297
সম্পর্কে প্রশংসা করবে,
07:12
and they'dতারা চাই be right.
150
420835
1299
এবং তারা সঠিক।
07:15
Now, realityবাস্তবতা isn't that drasticআমূল,
but we do have severeতীব্র segregationssegregations
151
423951
4615
কিন্তু,বাস্তবতটা অতটা তীব্র নয় কিন্তু,
07:20
in manyঅনেক citiesশহর and townsশহরগুলির,
152
428590
1287
অনেক শহরে পৃথকীকরণ বিরাজমান
07:21
and we have plentyপ্রচুর of evidenceপ্রমান
153
429901
1893
এবং আমাদের কাছে প্রমান আছে সেই
07:23
of biasedপক্ষপাতদুষ্ট policingকর্মকান্ড
and justiceবিচার systemপদ্ধতি dataউপাত্ত.
154
431818
2688
পক্ষপাতমূলক বিষয় এবং
07:27
And we actuallyপ্রকৃতপক্ষে do predictভবিষ্যদ্বাণী করা hotspotsসবচেয়ে আলোচিত জায়গাগুলোকেও,
155
435632
2815
আমরা সে সব হটস্পটগুলির উপস্থিতি আন্দাজ করি
07:30
placesজায়গা where crimesঅপরাধ will occurঘটা.
156
438471
1530
যেখানে পরের অপরাধটি ঘটবে।
07:32
And we do predictভবিষ্যদ্বাণী করা, in factসত্য,
the individualস্বতন্ত্র criminalityচেষ্টা,
157
440401
3866
এবং আমরা পূর্বাভাস করি এক একটি অপরাধ,
07:36
the criminalityচেষ্টা of individualsব্যক্তি.
158
444291
1770
ব্যক্তিদের অপরাধ।
07:38
The newsখবর organizationসংগঠন ProPublicaProPublica
recentlyসম্প্রতি lookedতাকিয়ে into
159
446972
3963
সংবাদ সংস্থা প্রোপাবলিকা সম্প্রতি একটি
07:42
one of those "recidivismrecidivism riskঝুঁকি" algorithmsআলগোরিদিম,
160
450959
2024
"অপরাধপ্রবণতা ঝুঁকি" অ্যালগোরিদমের দিকে
07:45
as they're calledনামক,
161
453007
1163
তাকিয়ে দেখেছে, যা
07:46
beingহচ্ছে used in Floridaফ্লোরিডা
duringসময় sentencingঅন্য কোন বেনিফিট দরকার by judgesবিচারকদের.
162
454194
3194
ফ্লোরিডায় ব্যাবহার করা হয় বিচারকদের দ্বারা
শাস্তি প্রদানের সময়।
07:50
Bernardবার্নার্ড, on the left, the blackকালো man,
was scoredগোল a 10 out of 10.
163
458411
3585
বার্নার্ড,বাঁদিকের কালো মানুষটিকে ১০
এ ১০ নম্বর দেওয়া হয়।
07:55
Dylanডিলান, on the right, 3 out of 10.
164
463179
2007
ডাইলান, ডান দিকে,পায় ১০ এ ৩।
07:57
10 out of 10, highউচ্চ riskঝুঁকি.
3 out of 10, lowকম riskঝুঁকি.
165
465210
2501
১০ এ ১০,অর্থাৎ উচ্চ ঝুঁকি।
১০ এ ৩,অর্থাৎ নিম্ন ঝুঁকি।
08:00
They were bothউভয় broughtআনীত in
for drugড্রাগ possessionদখল.
166
468598
2385
তাদের দুজনের কাছেই নেশার পদার্থ
পাওয়া যায়। দুজনেরই
08:03
They bothউভয় had recordsরেকর্ড,
167
471007
1154
অপরাধের তালিকায় নাম,
08:04
but Dylanডিলান had a felonyfelony
168
472185
2806
ডাইলান আগে এক গুরুতর অপরাধে জড়িত ছিল
08:07
but Bernardবার্নার্ড didn't.
169
475015
1176
কিন্তু বার্নার্ড তা নয়।
08:09
This mattersবিষয়, because
the higherঊর্ধ্বতন scoreস্কোর you are,
170
477818
3066
এটি গুরুত্বপূর্ণ, কারণ আপনার যত
উচ্চতর নম্বর,
08:12
the more likelyসম্ভবত you're beingহচ্ছে givenপ্রদত্ত
a longerআর sentenceসাজা.
171
480908
3473
আপনার লম্বা শাস্তি পাওয়ার
সম্ভবনাটাও অতটা বেশি।
08:18
What's going on?
172
486294
1294
কি হচ্ছে এটা?
08:20
Dataতথ্য launderingজুয়াচুরি.
173
488526
1332
তথ্য পাচার।
08:22
It's a processপ্রক্রিয়া by whichযেটি
technologistsপ্রযুক্তিবিদ hideলুকান uglyঅরুপ truthsসত্য
174
490930
4427
এই প্রক্রিয়ার দ্বারা প্রযুক্তিবিজ্ঞানীরা
কালো বক্স অ্যালগোরিদমগুলির
08:27
insideভিতরে blackকালো boxবক্স algorithmsআলগোরিদিম
175
495381
1821
মধ্যে কুশ্রী সত্য লুকিয়ে রাখে
08:29
and call them objectiveউদ্দেশ্য;
176
497226
1290
এবং তাদের উদ্দেশ্য বলে;
08:31
call them meritocraticগুণতান্ত্রিক.
177
499320
1568
কল্যাণকামী বলে।
08:35
When they're secretগোপন,
importantগুরুত্বপূর্ণ and destructiveনাশক,
178
503118
2385
যখন তারা গুপ্ত, গুরুত্বপূর্ণ এবং
ধ্বংসাত্মক হয়,
08:37
I've coinedনামকরণ a termমেয়াদ for these algorithmsআলগোরিদিম:
179
505527
2487
আমি এই অ্যালগোরিদমগুলির এক নামকরণ করেছি:
08:40
"weaponsঅস্ত্রশস্ত্র of mathগণিত destructionধ্বংস."
180
508038
1999
"গণিতের দ্বারা ধ্বংসের অস্ত্র।"
08:42
(Laughterহাসি)
181
510061
1564
(হাসি )
08:43
(Applauseহাত তালি)
182
511649
3054
(হাততালি)
08:46
They're everywhereসর্বত্র,
and it's not a mistakeভুল.
183
514727
2354
তারা সব জায়গায় উপস্থিত,
এবং এটা কোন ভুল নয়।
08:49
These are privateব্যক্তিগত companiesকোম্পানি
buildingভবন privateব্যক্তিগত algorithmsআলগোরিদিম
184
517695
3723
এগুলি কিছু বেসরকারি সংস্থা যা তাদের
ব্যক্তিগত প্রয়োজনে কিছু ব্যক্তিগত
08:53
for privateব্যক্তিগত endsপ্রান্ত.
185
521442
1392
অ্যালগোরিদম বানাচ্ছে।
08:55
Even the onesবেশী I talkedবললাম about
for teachersশিক্ষক and the publicপ্রকাশ্য policeপুলিশ,
186
523214
3214
এমনকি যেগুলোর বিষয় আমি আলোচনা করলাম
শিক্ষক ও সরকারি পুলিশের বিষয়ে,
08:58
those were builtনির্মিত by privateব্যক্তিগত companiesকোম্পানি
187
526452
1869
সেগুলো কিছু বেসরকারি সংস্থা তৈরী করে
09:00
and soldবিক্রীত to the governmentসরকার institutionsপ্রতিষ্ঠান.
188
528345
2231
তা সরকারি সংস্থাদের কাছে বিক্রি করেছে।
09:02
They call it theirতাদের "secretগোপন sauceসস" --
189
530600
1873
তারা এটাকে তাদের "গোপন সস" বলে--
09:04
that's why they can't tell us about it.
190
532497
2128
তাই আমাদের সেই বিষয়ে জানতে দিতে চায়না।
09:06
It's alsoএছাড়াও privateব্যক্তিগত powerক্ষমতা.
191
534649
2220
এটি বেসরকারি ক্ষমতা।
09:09
They are profitingলাভবান for wieldingভালোবাসা
the authorityকর্তৃত্ব of the inscrutableঅবর্ণনীয় হয়.
192
537924
4695
তারা অবর্ণনীয় কিছু ব্যক্তিদের হাতে ক্ষমতা
তুলে দিয়ে লাভ করছে।
09:17
Now you mightহতে পারে think,
sinceথেকে all this stuffকাপড় is privateব্যক্তিগত
193
545114
2934
আপনারা হয়তো ভাবছেন, যেহুতু
এইগুলো বেসরকারি বিষয়ে
09:20
and there's competitionপ্রতিযোগিতা,
194
548072
1158
এবং প্রতিযোগিতা রয়েছে,
09:21
maybe the freeবিনামূল্যে marketবাজার
will solveসমাধান this problemসমস্যা.
195
549254
2306
তাহলে হয়তো স্বাধীন বাজার এই
সমস্যার সমাধান করবে।
09:23
It won'tনা করবে না.
196
551584
1249
তা হবেনা।
09:24
There's a lot of moneyটাকা
to be madeপ্রণীত in unfairnessসোচ্চার.
197
552857
3120
অসৎ পথে অনেক টাকা আয় হয়।
09:29
Alsoএছাড়া, we're not economicঅর্থনৈতিক rationalমূলদ agentsএজেন্ট.
198
557127
3369
এছাড়া,আমরা অর্থনৈতিক যুক্তিসঙ্গত
প্রতিনিধি নই।
09:33
We all are biasedপক্ষপাতদুষ্ট.
199
561031
1292
আমরা সকলে পক্ষপাতদুষ্ট।
09:34
We're all racistবর্ণবাদী and bigotedগোড়া
in waysউপায় that we wishকামনা we weren'tছিল না,
200
562960
3377
আমরা সবাই বর্ণবাদী সে সকল রূপে যা হয়তো
আমরা চাইনা,
09:38
in waysউপায় that we don't even know.
201
566361
2019
বা হয়তো জানিনা,
09:41
We know this, thoughযদিও, in aggregateথোক,
202
569352
3081
কিন্তু আমরা জানি, সামগ্রিকভাবে,
09:44
because sociologistsসমাজবিজ্ঞানীরা
have consistentlyক্রমাগত demonstratedপ্রদর্শিত this
203
572457
3220
কারণ সমাজতাত্ত্বিকরা বারবার
তাদের পরীক্ষার
09:47
with these experimentsপরীক্ষা-নিরীক্ষা they buildনির্মাণ করা,
204
575701
1665
দ্বারা তা উল্লেখ করেছেন,
09:49
where they sendপাঠান a bunchগুচ্ছ
of applicationsঅ্যাপ্লিকেশন to jobsকাজ out,
205
577390
2568
যেখানে তারা একগুচ্ছ চাকরির
আবেদনপত্র পাঠায়,
09:51
equallyসমানভাবে qualifiedযোগ্য but some
have white-soundingসাদা-পচা namesনাম
206
579982
2501
সকলের সমান যোগ্যতা থাকে
কিন্তু তার মধ্যে কারো
09:54
and some have black-soundingকালো-পচা namesনাম,
207
582507
1706
নাম ভাল শোনায় কারো শোনায় না,
09:56
and it's always disappointingহতাশাজনক,
the resultsফলাফল -- always.
208
584237
2694
এবং এটা সবসময় হতাশাজনক,
ফলাফলটা - সবসময়।
09:59
So we are the onesবেশী that are biasedপক্ষপাতদুষ্ট,
209
587510
1771
কাজেই আমরাই পক্ষপাতদুষ্ট,
10:01
and we are injectingইনজেকশন নেওয়া those biasesগোঁড়ামির
into the algorithmsআলগোরিদিম
210
589305
3429
এবং আমরা সেই দোষটা অ্যালগোরিদম
মধ্যে প্রদান করি
10:04
by choosingনির্বাচন করা what dataউপাত্ত to collectসংগ্রহ করা,
211
592758
1812
কোন তথ্য সংগ্রহ করা হবে তা বলে দিয়ে,
10:06
like I choseবেছে নেওয়া হয়েছে not to think
about ramenরামেন noodlesনুডলস --
212
594594
2743
ঠিক যেমন আমি রামেন নুডলস সম্পর্কে
ভাবতে পছন্দ করিনা--
10:09
I decidedসিদ্ধান্ত নিয়েছে it was irrelevantঅপ্রাসঙ্গিক.
213
597361
1625
আমি মনে করি এটি অপ্রাসঙ্গিক।
10:11
But by trustingবিশ্বাস the dataউপাত্ত that's actuallyপ্রকৃতপক্ষে
pickingঅবচয় up on pastগত practicesঅনুশীলন
214
599010
5684
কিন্তু অতীতের প্রথাগুলির উপর নির্ভর থেকে
10:16
and by choosingনির্বাচন করা the definitionসংজ্ঞা of successসাফল্য,
215
604718
2014
এবং সফলতার সংজ্ঞা বেছে নিয়ে,আমরা
10:18
how can we expectআশা করা the algorithmsআলগোরিদিম
to emergeউত্থান করা unscathedথেকে?
216
606756
3983
অ্যালগোরিদমগুলিকে ত্রুটিহীন মেনে নিতে
পারি কি?
10:22
We can't. We have to checkচেক them.
217
610763
2356
আমরা পারিনা। আমাদের উচিত তা যাচাই করা ।
10:26
We have to checkচেক them for fairnessসততা.
218
614165
1709
আমাদের ন্যায্যতা যাচাই করতে হবে।
10:27
The good newsখবর is,
we can checkচেক them for fairnessসততা.
219
615898
2711
ভাল খবর হল,আমরা তাদের ন্যায্যতা
পরীক্ষা করতে পারি।
10:30
Algorithmsঅ্যালগোরিদম can be interrogatedজিজ্ঞাসাবাদ,
220
618633
3352
অ্যালগরিদমগুলিকে জেরা করা যেতে পারে,
10:34
and they will tell us
the truthসত্য everyপ্রতি time.
221
622009
2034
এবং তারা প্রত্যেকবার সত্যিটাই বলবে।
10:36
And we can fixঠিক করা them.
We can make them better.
222
624067
2493
আমরা তা ঠিক করতে পারি।আমরা
তাদের ভাল করে তুলতে পারি।
10:38
I call this an algorithmic-আই-ডি auditহিসাব-পরীক্ষণ,
223
626584
2375
আমি এটাকে বলি অ্যালগরিদমিক নিরীক্ষা,
10:40
and I'll walkপদব্রজে ভ্রমণ you throughমাধ্যমে it.
224
628983
1679
এবং আমি এ বিষয়টি আপনাদের বোঝাবো।
10:42
First, dataউপাত্ত integrityঅখণ্ডতা checkচেক.
225
630686
2196
প্রথম, তথ্য অখণ্ডতা পরীক্ষা।
10:46
For the recidivismrecidivism riskঝুঁকি
algorithmগাণিতিক সূত্র I talkedবললাম about,
226
634132
2657
যে অপরাধপ্রবণতা ঝুঁকি অ্যালগরিদমগুলির
সম্পর্কে বললাম,
10:49
a dataউপাত্ত integrityঅখণ্ডতা checkচেক would mean
we'dআমরা চাই have to come to termsপদ with the factসত্য
227
637582
3573
একটি তথ্য অখণ্ডতা পরীক্ষার অর্থ
হবে আমরা এটা শিকার করি যে
10:53
that in the US, whitesসাদা and blacksকালো
smokeধোঁয়া potপাত্র at the sameএকই rateহার
228
641179
3526
মার্কিন যুক্তরাষ্ট্রে, সাদা এবং কালো
দুজনরাই একই পরিমানে নেশা করে
10:56
but blacksকালো are farএ পর্যন্ত more likelyসম্ভবত
to be arrestedধরা --
229
644729
2485
অথচ একটি কালো মানুষের গ্রেফতার হওয়ার
সম্ভবনা বেশি--
10:59
fourচার or fiveপাঁচ timesবার more likelyসম্ভবত,
dependingনির্ভর করে on the areaএলাকায়.
230
647238
3184
এলাকার উপর নির্ভর করে সম্ভবত চার বা
পাঁচ গুণ বেশি।
11:03
What is that biasপক্ষপাত looking like
in other crimeঅপরাধ categoriesবিভাগ,
231
651317
2826
অন্য ধরণের অপরাধের মধ্যে এই
পক্ষপাতিত্ব কিরকম রয়েছে,
11:06
and how do we accountহিসাব for it?
232
654167
1451
এবং কীভাবে আমরা এর জন্য দায়ী?
11:08
Secondসেকেন্ড, we should think about
the definitionসংজ্ঞা of successসাফল্য,
233
656162
3039
দ্বিতীয়ত, আমাদের সাফল্যের সংজ্ঞা
সম্পর্কে ভাবা উচিত,
11:11
auditহিসাব-পরীক্ষণ that.
234
659225
1381
তা নিরীক্ষা করা দরকার।
11:12
Rememberস্মরণ করো! -- with the hiringনিয়োগের
algorithmগাণিতিক সূত্র? We talkedবললাম about it.
235
660630
2752
মনে আছে-সেই নিয়োগের অ্যালগরিদমের
কথা যা আমি আলোচনা করলাম।
11:15
Someoneকেউ একজন who staysথাকার বিষয়টি মতেই for fourচার yearsবছর
and is promotedউন্নীত onceএকদা?
236
663406
3165
কাউর চার বছর পর যদি একবার
পদোন্নতি হয়?
11:18
Well, that is a successfulসফল employeeকর্মচারী,
237
666595
1769
সে এক সফল কর্মী, কিন্তু এটি একটি
11:20
but it's alsoএছাড়াও an employeeকর্মচারী
that is supportedসমর্থিত by theirতাদের cultureসংস্কৃতি.
238
668388
3079
এমন কর্মী যে তার সংস্কৃতির
দ্বারা সমর্থন পায়।
11:24
That said, alsoএছাড়াও it can be quiteপুরোপুরি biasedপক্ষপাতদুষ্ট.
239
672089
1926
এটিও খুব পক্ষপাতদুষ্ট হতে পারে।
11:26
We need to separateআলাদা those two things.
240
674039
2065
আমাদের সেই দুটি জিনিস আলাদা করা উচিত।
11:28
We should look to
the blindঅন্ধ orchestraঅর্কেস্ট্রা auditionঅডিশন
241
676128
2426
আমরা উদাহরণ হিসাবে একটি অন্ধ
অর্কেস্ট্রা শ্রুতি
11:30
as an exampleউদাহরণ.
242
678578
1196
কল্পনা করতে পারি।
11:31
That's where the people auditioningauditioning
are behindপিছনে a sheetচাদর.
243
679798
2756
যারা নিজেদের শিল্প পেশ করছে
তারা একটি চাদরের পিছনে।
11:34
What I want to think about there
244
682946
1931
আমি ভাবতে চাই
11:36
is the people who are listeningশ্রবণ
have decidedসিদ্ধান্ত নিয়েছে what's importantগুরুত্বপূর্ণ
245
684901
3417
এক দল মানুষ যারা তা শুনছে তারা নির্ণয় নিয়ে
নিয়েছে যে তারা কি শুনতে চায়
11:40
and they'veতারা করেছি decidedসিদ্ধান্ত নিয়েছে what's not importantগুরুত্বপূর্ণ,
246
688342
2029
এবং কোনটা প্রয়োজনী এবং কোনটা অপ্রয়োজনী,
11:42
and they're not gettingপেয়ে
distractedবিভ্রান্ত by that.
247
690395
2059
এবং তারা এর দ্বারা
বিভ্রান্ত হচ্ছেনা।
11:44
When the blindঅন্ধ orchestraঅর্কেস্ট্রা
auditionsauditions startedশুরু,
248
692961
2749
যখন এরূপ অন্ধ অর্কেস্ট্রা অডিশন শুরু হয়,
11:47
the numberসংখ্যা of womenনারী in orchestrasঅর্কেষ্ট্রা বাজিয়ে
wentগিয়েছিলাম up by a factorগুণক of fiveপাঁচ.
249
695734
3444
অর্কেস্ট্রায় মহিলাদের সংখ্যা পাঁচগুন্ বেড়ে
উঠতে দেখা যায়।
11:52
Nextআগামী, we have to considerবিবেচনা accuracyসঠিকতা.
250
700253
2015
আমাদের পরবর্তী কাজ, সঠিকতা বিবেচনা করা।
11:55
This is where the value-addedvalue-added modelমডেল
for teachersশিক্ষক would failব্যর্থ immediatelyঅবিলম্বে.
251
703233
3734
এই জায়গায় শিক্ষকদের জন্য তৈরী মূল্য-যুক্ত
মডেলটি অবিলম্বে নিষ্ফল হবে।
11:59
No algorithmগাণিতিক সূত্র is perfectনির্ভুল, of courseপথ,
252
707578
2162
কোন এলগোরিদমই সম্পূর্ণ নিখুঁত নয় অবশ্য,
12:02
so we have to considerবিবেচনা
the errorsত্রুটি of everyপ্রতি algorithmগাণিতিক সূত্র.
253
710620
3605
তাই আমাদের উচিত প্রতিটি আলগোরিদমের
ত্রুটি বিবেচনা করা।
12:06
How oftenপ্রায়ই are there errorsত্রুটি,
and for whomযাদের does this modelমডেল failব্যর্থ?
254
714836
4359
এতে ভুল কতটা সাধারণ,
এবং কাদের বিষয় এই মডেল ব্যর্থ হয়?
12:11
What is the costমূল্য of that failureব্যর্থতা?
255
719850
1718
এই ব্যর্থতার খরচ কি?
12:14
And finallyপরিশেষে, we have to considerবিবেচনা
256
722434
2207
এবং অবশেষে, আমাদের অ্যালগরিদমের
12:17
the long-termদীর্ঘ মেয়াদী effectsপ্রভাব of algorithmsআলগোরিদিম,
257
725973
2186
দীর্ঘমেয়াদী প্রভাব বিবেচনা করতে হবে,
12:20
the feedbackপ্রতিক্রিয়া loopsচক্র that are engenderingengendering.
258
728866
2207
প্রতিক্রিয়ার বৃত্তমান পথগুলি প্ররোচিত করে।
12:23
That soundsশব্দ abstractবিমূর্ত,
259
731586
1236
এটি বিমূর্ত শোনায় ,
12:24
but imagineকল্পনা করা if Facebookফেসবুক engineersইঞ্জিনিয়ারদের
had consideredবিবেচিত that
260
732846
2664
ভাবুন যদি ফেইসবুকের প্রকৌশলীরা এটি
ভেবে থাকতেন
12:28
before they decidedসিদ্ধান্ত নিয়েছে to showপ্রদর্শনী us
only things that our friendsবন্ধুদের had postedপোস্ট.
261
736270
4855
আমাদের বন্ধুদের পোস্ট গুলো আমাদের
দেখানোর আগে।
12:33
I have two more messagesবার্তা,
one for the dataউপাত্ত scientistsবিজ্ঞানীরা out there.
262
741761
3234
আমার আরও দুটি বার্তা আছে, এক
তথ্য বিজ্ঞানীদের জন্য।
12:37
Dataতথ্য scientistsবিজ্ঞানীরা: we should
not be the arbitersমিটমাট of truthসত্য.
263
745450
3409
তথ্য বিজ্ঞানীরা: আমাদের সত্যের
সালিশ হতে হবেনা।
12:41
We should be translatorsঅনুবাদক
of ethicalনৈতিক discussionsআলোচনা that happenঘটা
264
749520
3783
আমাদের এই বৃহত্তর সমাজে নৈতিক আলোচনাগুলির
12:45
in largerবৃহত্তর societyসমাজ.
265
753327
1294
অনুবাদক হওয়া উচিত।
12:47
(Applauseহাত তালি)
266
755579
2133
(হাততালি)
12:49
And the restবিশ্রাম of you,
267
757736
1556
এবং বাকিদের জন্য, যারা
12:52
the non-data-ডাটা scientistsবিজ্ঞানীরা:
268
760011
1396
তথ্য বৈজ্ঞানিক নন:
12:53
this is not a mathগণিত testপরীক্ষা.
269
761431
1498
এটি অংকের পরীক্ষা নয়।
12:55
This is a politicalরাজনৈতিক fightযুদ্ধ.
270
763632
1348
এটি একটি রাজনৈতিক যুদ্ধ।
12:58
We need to demandচাহিদা accountabilityদায়িত্ব
for our algorithmic-আই-ডি overlordsoverlords.
271
766587
3907
আমাদের অ্যালগরিদমের জমিদারির বিরুদ্ধে
দায়বদ্ধতা দাবি করতে হবে।
13:04
(Applauseহাত তালি)
272
772118
1499
(হাততালি)
13:05
The eraযুগ of blindঅন্ধ faithবিশ্বাস
in bigবড় dataউপাত্ত mustঅবশ্যই endশেষ.
273
773641
4225
'বিগ ডাটা' এ অন্ধবিশ্বাসের যুগ
শেষ করতে হবে|
13:09
Thank you very much.
274
777890
1167
13:11
(Applauseহাত তালি)
275
779081
5303
ধন্যবাদ |
(হাততালি)
Translated by URJOSHI SINHA
Reviewed by Palash Ranjan Sanyal

▲Back to top

ABOUT THE SPEAKER
Cathy O'Neil - Mathematician, data scientist
Data skeptic Cathy O’Neil uncovers the dark secrets of big data, showing how our "objective" algorithms could in fact reinforce human bias.

Why you should listen

In 2008, as a hedge-fund quant, mathematician Cathy O’Neil saw firsthand how really really bad math could lead to financial disaster. Disillusioned, O’Neil became a data scientist and eventually joined Occupy Wall Street’s Alternative Banking Group.

With her popular blog mathbabe.org, O’Neil emerged as an investigative journalist. Her acclaimed book Weapons of Math Destruction details how opaque, black-box algorithms rely on biased historical data to do everything from sentence defendants to hire workers. In 2017, O’Neil founded consulting firm ORCAA to audit algorithms for racial, gender and economic inequality.

More profile about the speaker
Cathy O'Neil | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee