ABOUT THE SPEAKER
Priyanka Jain - Technologist
Priyanka Jain heads up product for pymetrics, an NYC-based startup that uses neuroscience and AI to make hiring more diverse and effective.

Why you should listen

Passionate about using technology to create a fairer workplace and global economy, Priyanka Jain is a spokesperson for the United Nations Foundation's Girl Up Campaign, Chair of the Acumen Fund's Junior Council and on the Innovation Board for the XPrize Foundation. She received her B.S. from Stanford University, where she was President of Stanford Women in Business and one of 12 Mayfield Entrepreneurship Fellows. Her previous experience includes internships at IBM Watson, Shift Technologies, Canvas Ventures and the Institute for Learning and Brain Sciences. Outside of work, she loves playing tennis and eating anything covered in dark chocolate.

More profile about the speaker
Priyanka Jain | Speaker | TED.com
The Way We Work

Priyanka Jain: How to make applying for jobs less painful

پریانکا جین: چطور درخواست برای یک شغل کردن را کمتر دردناک کنیم

Filmed:
548,985 views

شغل‌یابی قبلا با فرستادن رزومه به کاریابی ها شروع می‌شد و هیچوقت هم از اغلب آنها جوابی دریافت نمی‌شد. اما شرکتهای بیشتر و بیشتری حالا از روشهای متکی به فناوری پیشرفته برای شناسایی کاندیداها استفاده می‌کنند. اگر هوش مصنوعی آینده استخدام کردن است، این اتفاق چه معنایی برای شما خواهد داشت؟ پریانکا جین متخصص فناوری ما را با این چشم‌انداز جدید در دنیای استخدام آشنا می‌سازد.
- Technologist
Priyanka Jain heads up product for pymetrics, an NYC-based startup that uses neuroscience and AI to make hiring more diverse and effective. Full bio

Double-click the English transcript below to play the video.

00:00
Applyingاستفاده for jobsشغل ها onlineآنلاین
0
548
1416
درخواست شغل به صورت آنلاین
00:01
is one of the worstبدترین
digitalدیجیتال experiencesتجربیات of our time.
1
1988
2616
یکی از بدترین تجربه‌های دیجیتال
دوران ما است.
00:04
And applyingاعمال for jobsشغل ها in personفرد
really isn't much better.
2
4628
2696
و انجام آن به صورت شخصی هم واقعا چندان
بهتر نیستند.
00:07
[The Way We Work]
3
7349
1720
[طریقی که ما کار می‌کنیم]
00:11
Hiringاستخدام as we know it
is brokenشکسته شده on manyبسیاری frontsجبهه ها.
4
11588
2456
استخدام کردن می‌دانیم در خیلی
جبهه‌ها شکست خورده.
00:14
It's a terribleوحشتناک experienceتجربه for people.
5
14068
1856
تجربه وحشتناکی برای مردم است.
00:15
About 75 percentدرصد of people
6
15948
1816
در حدود ۷۵ درصد آدمهایی که با
00:17
who appliedکاربردی to jobsشغل ها
usingاستفاده كردن variousمختلف methodsمواد و روش ها in the pastگذشته yearسال
7
17788
2856
استفاده از روشهای متنوع در سال
گذشته درخواست شغل کردند
00:20
said they never heardشنیدم anything back
from the employerکارفرما.
8
20668
2656
گفتند که هرگز از کارفرما پاسخی نشنیدند.
00:23
And at the companyشرکت levelسطح
it's not much better.
9
23348
2176
و در سطح شرکتی هم اوضاع بهتر نبوده است.
00:25
46 percentدرصد of people get firedاخراج شد or quitترک
10
25548
2776
۴۶ درصد کارکنان ظرف یک‌ سال اول
شروع کارشان
00:28
withinدر داخل the first yearسال
of startingراه افتادن theirخودشان jobsشغل ها.
11
28348
2176
استعفا دادند یا اخراج شده‌اند.
00:30
It's prettyبسیار mind-blowingدیوانه کننده.
12
30548
1216
کاملا عجیب است.
00:31
It's alsoهمچنین badبد for the economyاقتصاد.
13
31788
1456
برای اقتصاد هم خوب نیست.
00:33
For the first time in historyتاریخ,
14
33268
1456
برای اولین بار در تاریخ،
00:34
we have more openباز کن jobsشغل ها
than we have unemployedبیکار people,
15
34748
2856
در قیاس با آدمهای بیکار،
فرصتهای شغلی بیشتری داریم،
00:37
and to me that screamsفریاد می زند
that we have a problemمسئله.
16
37628
2176
و به نظرم خبر از وجود
مشکلی دارد.
00:39
I believe that at the cruxکرم of all of this
is a singleتنها pieceقطعه of paperکاغذ: the résumمجموعé.
17
39828
3976
باور دارم که مسبب اصلی همه اینها
وجود یک تکه کاغذ به اسم رزومه است.
00:43
A résumمجموعé definitelyقطعا has
some usefulمفید است piecesقطعات in it:
18
43828
2336
قطعا یک رزومه حاوی نکات مفیدی است:
00:46
what rolesنقش ها people have had,
computerکامپیوتر skillsمهارت ها,
19
46188
2096
مهارتهای رایانه‌ای،‌ نقشهایی
که شخص داشته،
00:48
what languagesزبان ها they speakصحبت,
20
48308
1256
زبانهایی که صحبت می‌کند،
00:49
but what it missesاز دست رفته is
what they have the potentialپتانسیل to do
21
49588
3056
اما آنچه ندارد اشاره به
پتانسیل‌هایی است که برای انجام دارد
00:52
that they mightممکن not have had
the opportunityفرصت to do in the pastگذشته.
22
52668
2976
که احتمالا در گذشته فرصتی برای
انجامشان را نداشته است.
00:55
And with suchچنین a quicklyبه سرعت changingتغییر دادن economyاقتصاد
where jobsشغل ها are comingآینده onlineآنلاین
23
55668
3256
و با چنین اقتصاد به سرعت در حال تغییری
در جایی که شغلها آنلاین هستند
00:58
that mightممکن requireنیاز skillsمهارت ها that nobodyهيچ كس has,
24
58948
2056
احتمالا مهارتهایی لازمند که کسی ندارد،
01:01
if we only look at what someoneکسی
has doneانجام شده in the pastگذشته,
25
61028
2776
اگر فقط به کارهایی که فرد در
گذشته انجام داده نگاه کنیم،
01:03
we're not going to be ableتوانایی
to matchهمخوانی داشتن people to the jobsشغل ها of the futureآینده.
26
63828
3256
قادر به مطابقت دادن آنها با شغلهای
آینده نخواهیم بود.
01:07
So this is where I think technologyتکنولوژی
can be really helpfulمفید است.
27
67108
2736
بنابراین اینجاست که به نظرم
فناوری باید به کمک بیاید.
01:09
You've probablyشاید seenمشاهده گردید
that algorithmsالگوریتم ها have gottenدریافت کردم prettyبسیار good
28
69868
2856
احتمالا دیده‌اید که الگوریتم‌ها چطور
در تطبیق دادن آدمها با
01:12
at matchingتطابق people to things,
29
72748
1536
چیزها عملکرد نسبتا خوبی داشتند،
01:14
but what if we could use
that sameیکسان technologyتکنولوژی
30
74308
2256
اما اگر از همین فناوری استفاده کنیم
جهت کمک
01:16
to actuallyدر واقع help us find jobsشغل ها
that we're really well-suitedمناسب for?
31
76588
3096
واقعی به ما در یافتن شغلهایی
که ما واقعا برای آنها مناسب هستیم؟
01:19
But I know what you're thinkingفكر كردن.
32
79708
1576
اما می‌دانم به چه فکر می‌کنید.
01:21
Algorithmsالگوریتم ها pickingچیدن your nextبعد jobکار
soundsبرای تلفن های موبایل a little bitبیت scaryترسناک,
33
81308
2776
گزینش شغل بعدی شما توسط
الگوریتم‌ها کمی ترسناک است،
01:24
but there is one thing that has been shownنشان داده شده
34
84108
2056
اما یک جیزی هست که نشان داده
01:26
to be really predictiveپیش بینی
of someone'sکسی هست futureآینده successموفقیت in a jobکار,
35
86188
2896
برای موفقیت آینده شخص در یک شخص
واقعا متضمن پیشگویی باشد.
01:29
and that's what's calledبه نام
a multimeasureچندسنجیدن testتست.
36
89108
2136
و به آن آزمونهای چندسنجشی می‌گویند.
01:31
Multimeasureچندسنجیدن testsآزمایشات
really aren'tنه anything newجدید,
37
91268
2176
این آزمونها واقعا چیز جدیدی نیستند،
01:33
but they used to be really expensiveگران
38
93468
1736
اما قدیم خیلی گران بودند
01:35
and requiredضروری a PhDدکترا sittingنشسته acrossدر سراسر from you
39
95228
2016
وباید یک نفر با مدرک
دکتری روبریتان بنشیند
01:37
and answeringپاسخ دادن lots of questionsسوالات
and writingنوشتن reportsگزارش ها.
40
97268
2456
و کلی پرسش و پاسخ و گزارش‌نویسی
در کار بود.
01:39
Multimeasureچندسنجیدن testsآزمایشات are a way
41
99748
1696
آزمونهای چند سنجشی روشی هستند
01:41
to understandفهمیدن someone'sکسی هست inherentذاتی traitsصفات --
42
101468
2456
برای فهم خصایص ذاتی فرد--
01:43
your memoryحافظه, your attentivenessتوجه.
43
103948
1776
حافظه و توجه شما.
01:46
What if we could take multimeasureچندسنجیدن testsآزمایشات
44
106662
1942
چطور می‌شود اگر این آزمونهای چندسنجشی را
01:48
and make them scalableمقیاس پذیر and accessibleدر دسترس,
45
108628
2536
برداریم و درجه‌بندی کرده و در دسترس
قرار دهیم
01:51
and provideفراهم کند dataداده ها to employersکارفرمایان
about really what the traitsصفات are
46
111188
3376
و داده‌هایی را در اختیار کارفرمایان
قرار دهیم که درباره خصایص است
01:54
of someoneکسی who can make
them a good fitمناسب for a jobکار?
47
114588
2896
که آن فرد را مناسب داشتن آن شغل می‌کند؟
01:57
This all soundsبرای تلفن های موبایل abstractچکیده.
48
117508
1296
ناملموس به نظر می‌رسد.
01:58
Let's try one of the gamesبازی ها togetherبا یکدیگر.
49
118828
1735
بیایید یک بازی با هم انجام دهیم.
02:00
You're about to see a flashingچشمک زدن circleدایره,
50
120587
1857
یک دایره‌ای جلوی شما ظاهر می شود،
02:02
and your jobکار is going to be
to clapکف زدن when the circleدایره is redقرمز
51
122468
2960
شغل شما این است که اگر قرمز بود
دست بزنید
02:06
and do nothing when it's greenسبز.
52
126285
1496
و وقتی سبز است کاری نکنید.
02:07
[Readyآماده?]
53
127806
1376
[آماده‌؟]
02:09
[Beginشروع!]
54
129207
1360
[شروع!]
02:11
[Greenسبز circleدایره]
55
131708
1000
[دایره سبز]
02:13
[Greenسبز circleدایره]
56
133708
1040
[دایره سبز]
02:15
[Redسرخ circleدایره]
57
135708
1000
[دایره قرمز]
02:17
[Greenسبز circleدایره]
58
137708
1080
[دایره سبز]
02:19
[Redسرخ circleدایره]
59
139708
1000
[دایره قرمز]
02:21
Maybe you're the typeتایپ کنید of personفرد
60
141928
1596
شاید از آن دست افرادی باشید که
02:23
who clapsکلاه the millisecondمیلی ثانیه
after a redقرمز circleدایره appearsظاهر می شود.
61
143548
2496
۱ هزارم ثانیه بعد از ظاهر شدن
دایره قرمز دست می‌زنند.
02:26
Or maybe you're the typeتایپ کنید of personفرد
62
146068
1656
یا از آن نوع آدمها باشید که
02:27
who takes just a little bitبیت longerطولانی تر
to be 100 percentدرصد sure.
63
147748
2735
کمی بیشتر درنگ می‌کنند تا۱۰۰٪ مطمئن شوند.
02:30
Or maybe you clapکف زدن on greenسبز
even thoughگرچه you're not supposedقرار است to.
64
150508
2936
یا حتی با دیدن سبز هم دست می‌زنید
با این که قرار نیست.
02:33
The coolسرد thing here is that
this isn't like a standardizedاستاندارد شده testتست
65
153468
2976
نکته باحال این است این یک آزمون
استاندارد نیست
02:36
where some people are employableاستخدام
and some people aren'tنه.
66
156468
2656
که برخی آدمها قابل استخدام
هستند و برخی نیستند.
02:39
Insteadبجای it's about understandingدرك كردن
the fitمناسب betweenبین your characteristicsمشخصات
67
159148
3256
در عوض درباره فهم تناسبی است
بین ویژگیهای شما
02:42
and what would make you
good a certainمسلم - قطعی jobکار.
68
162428
2016
و آنچه شما را برای یک شغل خاص
خوب می‌کند.
02:44
We foundپیدا شد that if you clapکف زدن lateدیر است on redقرمز
and you never clapکف زدن on the greenسبز,
69
164468
3736
متوجه شدیم که اگر شما با دیدن
قرمز دیرتر دست بزنید و بیخیال سبز شوید
02:48
you mightممکن be highبالا in attentivenessتوجه
and highبالا in restraintخویشتن داری - خودداری - پرهیز.
70
168228
3176
احتمالا بالاترین دقت و محدودیت دارند.
02:51
People in that quadrantربع tendگرایش داشتن to be
great studentsدانش آموزان, great test-takersتست-جویند,
71
171428
3576
آدمها در آن چهارگوش تمایل دارند
بهترین دانش ‌آموزان، ممتحن‌ها باشند،
02:55
great at projectپروژه managementمدیریت or accountingحسابداری.
72
175028
2136
عالی در مدیریت پروژه یا حسابداری.
02:57
But if you clapکف زدن immediatelyبلافاصله on redقرمز
and sometimesگاه گاهی clapکف زدن on greenسبز,
73
177188
3336
اما اگر فوری با دیدن قرمز
یا گاهی با دیدن سبز دست بزنید
03:00
that mightممکن mean that
you're more impulsiveتحریک کننده and creativeخلاقانه,
74
180548
2656
به این معناست که خلاقیت یا
بی‌پروایی شما بیشتر است،
03:03
and we'veما هستیم foundپیدا شد that top-performingبالا عملکرد
salespeopleفروشندگان oftenغالبا embodyتجسم these traitsصفات.
75
183228
3875
و ما آن فروشندگانی با بالاترین عملکرد را
پیدا کردیم که این خصایص را دارند.
03:07
The way we actuallyدر واقع use this in hiringاستخدام
76
187128
2016
روشی که درواقع در
استخدام استفاده می‌کنیم
03:09
is we have topبالا performersهنرمندان in a roleنقش
go throughاز طریق neuroscienceعلوم اعصاب exercisesتمرینات
77
189168
3696
این است که بهترین عوامل تمرینات
علم عصب شناسی مثل
03:12
like this one.
78
192888
1216
این یکی را پشت سر بگذارند
03:14
Then we developتوسعه an algorithmالگوریتم
79
194128
1376
بعد الگوریتمی را می‌سازیم
03:15
that understandsدرک می کند what makesباعث می شود
those topبالا performersهنرمندان uniqueمنحصر بفرد.
80
195528
2656
که می‌فهمد چه چیزی باعث
منحصربه فرد عملکرد آنها می‌شود.
03:18
And then when people applyدرخواست to the jobکار,
81
198208
1936
و وقتی افراد برای آن شغلها
درخواست دادند،
03:20
we're ableتوانایی to surfaceسطح the candidatesنامزدهای
who mightممکن be bestبهترین suitedمناسب for that jobکار.
82
200168
4136
قادریم کاندیداهای که از همه برای آن
شغلها مناسبترند را بیابیم.
03:24
So you mightممکن be thinkingفكر كردن
there's a dangerخطر in this.
83
204328
2376
خب شاید فکر کنید این کار
با خطر همراه است.
03:26
The work worldجهان todayامروز
is not the mostاکثر diverseمتنوع
84
206728
2136
دنیای کار امروز متنوع‌ترین نیست
03:28
and if we're buildingساختمان algorithmsالگوریتم ها
basedمستقر on currentجاری topبالا performersهنرمندان,
85
208888
3096
و اگر الگوریتم‌هایی بسازیم بر پایه
عملکرد بهترینهای حال حاضر،
03:32
how do we make sure
86
212008
1216
از کجا یقین حاصل کنیم
03:33
that we're not just perpetuatingادامه دادن
the biasesتعصب ها that alreadyقبلا existوجود دارد?
87
213248
2976
که صرفا تداوم بخشیدن جانبداری‌هایی
نباشد که الان وجود دارند.
03:36
For exampleمثال, if we were buildingساختمان
an algorithmالگوریتم basedمستقر on topبالا performingاجرای CEOsمدیران اجرایی
88
216248
4056
برای مثال، اگر الگوریتمی بسازیم
که بر مبنای عملکرد بهترین مدیرعامل‌ها باشد
03:40
and use the S&ampتقویت کننده;P 500 as a trainingآموزش setتنظیم,
89
220328
3216
و S&P 500 معیار آموزش ما باشد،
03:43
you would actuallyدر واقع find
90
223568
1256
درواقع پی خواهید برد که
03:44
that you're more likelyاحتمال دارد to hireاستخدام
a whiteسفید man namedتحت عنوان Johnجان than any womanزن.
91
224848
3816
احتمال استخدام یک مرد سفید پوست
به نام جان از هر زنی بیشتر است.
03:48
And that's the realityواقعیت
of who'sچه کسی است in those rolesنقش ها right now.
92
228688
2696
و این واقعیت کسانی است که اینک
در آن نقشها هستند.
03:51
But technologyتکنولوژی actuallyدر واقع posesقرار می دهد
a really interestingجالب هست opportunityفرصت.
93
231408
3376
اما فناوری درواقع فرصت واقعا
جالبی را در اختیار می‌گذارد.
03:54
We can createايجاد كردن algorithmsالگوریتم ها
that are more equitableعادلانه
94
234808
2256
الگوریتم‌هایی را فراهم می‌کنیم
که عادلانه‌تر
03:57
and more fairنمایشگاه than humanانسان beingsموجودات
have ever been.
95
237088
2256
و منصفاته‌تر از قبل برای بشریت است.
03:59
Everyهرکدام algorithmالگوریتم that we put
into productionتولید has been pretestedپیش آزمایش
96
239368
3696
هر الگوریتمی که معرفی می‌کنیم قبلا
تست شده تا
04:03
to ensureاطمینان حاصل کنید that it doesn't favorلطف
any genderجنسیت or ethnicityقومیت.
97
243088
3096
مطمئن باشم به نفع قومیت یا جنسیت
خاصی عمل نمی‌کند.
04:06
And if there's any populationجمعیت
that's beingبودن overfavoredبیش از حد مورد علاقه,
98
246208
2736
و اگر هم جمعیتی باشد که که زیادی
مورد لطف قرار بگیرد،
04:08
we can actuallyدر واقع alterتغییر دادن the algorithmالگوریتم
untilتا زمان that's no longerطولانی تر trueدرست است.
99
248968
3120
در واقع قادریم آن الگوریتم را تغییر دهیم
تا دیگر آنطور عمل نکند.
04:12
When we focusتمرکز on the inherentذاتی
characteristicsمشخصات
100
252448
2216
وقتی روی ویژگیهای درونی متمرکز می‌شویم
04:14
that can make somebodyکسی
a good fitمناسب for a jobکار,
101
254688
2096
که باعث می‌شود شخص برای شغلی
شایسته باشد،
04:16
we can transcendفراتر رفتن racismنژاد پرستی,
classismکلاسیک, sexismجنس گرایی, ageismسناریویسم --
102
256808
3576
ما می‌توانیم نژادپرستی، طبقه‌گرایی،
جنسیت‌گرایی و سن‌گرایی و حتی
04:20
even good schoolismمدرسه گرایی.
103
260408
1416
دانشگاه خوب را بالاتر بدانیم.
04:21
Our bestبهترین technologyتکنولوژی and algorithmsالگوریتم ها
shouldn'tنباید just be used
104
261848
2896
بهترین فناوری و الگوریتم‌های ما تنها
نباید برای پیشنهاد
04:24
for helpingکمک us find our nextبعد movieفیلم سینما bingeنوشیدنی
or newجدید favoriteمورد علاقه Justinجاستین Bieberبیبر songترانه.
105
264768
3736
تماشای فیلم بعدی ما یا جدیدترین آهنگ
محبوب ما از جاستین بیبر استفاده شود.
04:28
Imagineتصور کن if we could harnessمهار کردن
the powerقدرت of technologyتکنولوژی
106
268528
2656
فکر کنید چه می‌شود وقتی بتوانیم
با مهار نیروی فناوری
04:31
to get realواقعی guidanceراهنمایی
on what we should be doing
107
271208
2296
رهنمودی واقعی بگیریم تا
چه کاری را بر اساس آنچه
04:33
basedمستقر on who we are at a deeperعمیق تر levelسطح.
108
273528
1936
در سطح عمیق‌ترمان
هستیم باید انجام دهیم.
Translated by Leila Ataei
Reviewed by Masoud Motamedifar

▲Back to top

ABOUT THE SPEAKER
Priyanka Jain - Technologist
Priyanka Jain heads up product for pymetrics, an NYC-based startup that uses neuroscience and AI to make hiring more diverse and effective.

Why you should listen

Passionate about using technology to create a fairer workplace and global economy, Priyanka Jain is a spokesperson for the United Nations Foundation's Girl Up Campaign, Chair of the Acumen Fund's Junior Council and on the Innovation Board for the XPrize Foundation. She received her B.S. from Stanford University, where she was President of Stanford Women in Business and one of 12 Mayfield Entrepreneurship Fellows. Her previous experience includes internships at IBM Watson, Shift Technologies, Canvas Ventures and the Institute for Learning and Brain Sciences. Outside of work, she loves playing tennis and eating anything covered in dark chocolate.

More profile about the speaker
Priyanka Jain | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee