ABOUT THE SPEAKER
Janelle Shane - AI researcher
While moonlighting as a research scientist, Janelle Shane found fame documenting the often hilarious antics of AI algorithms.

Why you should listen

Janelle Shane's humor blog, AIweirdness.com, looks at, as she tells it, "the strange side of artificial intelligence." Her upcoming book, You Look Like a Thing and I Love You: How AI Works and Why It's Making the World a Weirder Place, uses cartoons and humorous pop-culture experiments to look inside the minds of the algorithms that run our world, making artificial intelligence and machine learning both accessible and entertaining.

According to Shane, she has only made a neural network-written recipe once -- and discovered that horseradish brownies are about as terrible as you might imagine.

More profile about the speaker
Janelle Shane | Speaker | TED.com
TED2019

Janelle Shane: The danger of AI is weirder than you think

جانل شِین: خطر هوش مصنوعی عجیب‌تر از آنی است که فکرش را کنید

Filmed:
376,501 views

جانل شِین، محقق هوش مصنوعی می‌گوید: «خطر هوش مصنوعی این نیست که قرار است علیه ما انقلاب کند، بلکه قرار است دقیقاً کاری را انجام دهد که ما می‌خواهیم.» به اشتراک گذاشتن شِین با نشان دادن جنبه‌های عجیب و گاه خطرناک الگوریتم‌های هوش مصنوعی مانند خلق مزه‌های جدید بستنی، یا شناسایی خودروها در جاده، به ما نشان می‌دهد که هوش مصنوعی فاصله زیادی با مغز واقعی انسان دارد.
- AI researcher
While moonlighting as a research scientist, Janelle Shane found fame documenting the often hilarious antics of AI algorithms. Full bio

Double-click the English transcript below to play the video.

خب، هوش مصنوعی
00:13
So, artificialمصنوعی intelligenceهوش
0
1765
3000
00:16
is knownشناخته شده for disruptingاختلال
all kindsانواع of industriesصنایع.
1
4789
3529
به مختل کردن تمامی صنایع مشهور است.
00:20
What about iceیخ creamکرم رنگ?
2
8961
2043
صنعت بستنی سازی چطور؟
00:23
What kindنوع of mind-blowingدیوانه کننده
newجدید flavorsطعم could we generateتولید کنید
3
11879
3639
چه نوع مزه های جدید و جالب را می توانیم
00:27
with the powerقدرت of an advancedپیشرفته
artificialمصنوعی intelligenceهوش?
4
15542
2976
با قدرت هوش مصنوعی پیشرفته تولید کنیم؟
00:31
So I teamedتیمی up with a groupگروه of codersبرنامه نویسان
from KealingKealing Middleمیانه Schoolمدرسه
5
19011
4161
خب، من با گروهی از برنامه نویسان از
مدرسه متوسطه کیلینگ تیم شدیم
00:35
to find out the answerپاسخ to this questionسوال.
6
23196
2241
تا پاسخ این سوال را پیدا کنیم.
00:37
They collectedجمع آوری شده over 1,600
existingموجود است iceیخ creamکرم رنگ flavorsطعم,
7
25461
5081
آنها بیش از ۱,۶۰۰ نوع مزه بستنی یافتند،
00:42
and togetherبا یکدیگر, we fedتغذیه شده them to an algorithmالگوریتم
to see what it would generateتولید کنید.
8
30566
5522
و ما با هم، آنها در الگوریتمی قرار دادیم
تا ببینیم جه چیزی تولید می شود.
00:48
And here are some of the flavorsطعم
that the AIAI cameآمد up with.
9
36112
3753
و اینها برخی از مزه هایی است که
هوش مصنوعی آنها را تولید کرده است.
00:52
[Pumpkinکدو تنبل Trashزباله ها Breakزنگ تفريح]
10
40444
1471
[آشغال کدو تنبل]
00:53
(Laughterخنده)
11
41939
1402
(صدای خنده)
00:55
[Peanutبادام زمینی Butterکره Slimeلاغر]
12
43365
2469
[لجنِ کره بادام زمینی]
00:58
[Strawberryتوت فرنگی Creamکرم رنگ Diseaseمرض]
13
46822
1343
[مرض خامه توت فرنگی]
01:00
(Laughterخنده)
14
48189
2126
(صدای خنده)
01:02
These flavorsطعم are not deliciousخوشمزه - لذیذ,
as we mightممکن have hopedامیدوار بودم they would be.
15
50339
4597
این طعم ها اصلا خوشمزه نیستند در حالی که
ما انتظار خوشمزه بودن آنها را داشتیم.
01:06
So the questionسوال is: What happenedاتفاق افتاد?
16
54960
1864
سوال اینجاست که: چه اتفاقی افتاد؟
01:08
What wentرفتی wrongاشتباه?
17
56848
1394
اشتباه از کجا بود؟
01:10
Is the AIAI tryingتلاش کن to killکشتن us?
18
58266
1959
آیا هوش مصنوعی سعی در کشتن ما را دارد؟
01:13
Or is it tryingتلاش کن to do what we askedپرسید:,
and there was a problemمسئله?
19
61027
4310
یا که سعی دارد آن کاری که ما خواستیم را
انجام دهد، و سپس مشکل پیش آمده است؟
01:18
In moviesفیلم ها, when something
goesمی رود wrongاشتباه with AIAI,
20
66567
2464
در فیلم ها، زمانی که مشکلی برای
هوش مصنوعی رخ می دهد
01:21
it's usuallyمعمولا because the AIAI has decidedقرار بر این شد
21
69055
2712
معمولاً به این خاطر است که هوش مصنوعی
تصمیم داشته
01:23
that it doesn't want to obeyاطاعت کنید
the humansانسان anymoreدیگر,
22
71791
2272
که از دستورات انسان ها دیگر پیروی نکند،
01:26
and it's got its ownخودت goalsاهداف,
thank you very much.
23
74087
2623
و هدفهای خودش را دارد،
خیلی ممنون.
01:29
In realواقعی life, thoughگرچه,
the AIAI that we actuallyدر واقع have
24
77266
3216
اما در زندگی واقعی، هوش مصنوعی که
ما در اختیار داریم
01:32
is not nearlyتقریبا smartهوشمندانه enoughکافی for that.
25
80506
1863
هنوز برای آن کارها آنقدر باهوش نیست.
01:34
It has the approximateتقریبی computingمحاسبه powerقدرت
26
82781
2982
هوش مصنوعی ما قدرت محاسباتی نزدیک به
01:37
of an earthwormکرم خاکی,
27
85787
1276
یک کرم خاکی،
01:39
or maybe at mostاکثر a singleتنها honeybeeزنبور عسل,
28
87087
3403
یا حداکثر یک زنبور عسل را دارد،
01:42
and actuallyدر واقع, probablyشاید maybe lessکمتر.
29
90514
2215
و در واقع حتی کمتر از آن.
01:44
Like, we're constantlyبه طور مداوم learningیادگیری
newجدید things about brainsمغز
30
92753
2594
ما مدام در حال یادگیری جنبه های جدیدی از
مغز هستیم که
01:47
that make it clearروشن است how much our AIsAIs
don't measureاندازه گرفتن up to realواقعی brainsمغز.
31
95371
4360
مشخص می کند هوشهای مصنوعی ما
هنوز نزدیک به مغزهای واقعی نیستند.
01:51
So today'sامروزه AIAI can do a taskوظیفه
like identifyشناسایی a pedestrianعابر پیاده in a pictureعکس,
32
99755
5663
خب، امروزه هوش های مصنوعی می توانند
وظیفه ای مثل تشخیص پیاده رو در یک عکس را
01:57
but it doesn't have a conceptمفهوم
of what the pedestrianعابر پیاده is
33
105442
2983
انجام دهند اما آنها از مفهوم پیاده رو چیزی
جز یک سری
02:00
beyondفراتر that it's a collectionمجموعه
of linesخطوط and texturesبافت and things.
34
108449
4824
خطوط و بافت نمی دانند.
02:05
It doesn't know what a humanانسان actuallyدر واقع is.
35
113792
2521
آنها حتی نمی دانند انسان چیست.
02:08
So will today'sامروزه AIAI
do what we askپرسیدن it to do?
36
116822
3282
پس آیا هوش های مصنوعی امروزه کاری که
می خواهیم را انجام می دهند؟
02:12
It will if it can,
37
120128
1594
در صورتی که بتوانند انجام می دهند
02:13
but it mightممکن not do what we actuallyدر واقع want.
38
121746
2726
اما ممکن است کاری که ما می خواهیم نباشد.
02:16
So let's say that you
were tryingتلاش کن to get an AIAI
39
124496
2415
خب بگذارید فرض کنیم که شما می خواهید
یک هوش مصنوعی
02:18
to take this collectionمجموعه of robotربات partsقطعات
40
126935
2619
مجموعه ای از بخشهای یک روبات را بگیرد
02:21
and assembleجمع کن them into some kindنوع of robotربات
to get from Pointنقطه A to Pointنقطه B.
41
129578
4197
و آن را به رباتی تبدیل کند که از نقطه A
به نقطه B می رود.
02:25
Now, if you were going to try
and solveحل this problemمسئله
42
133799
2481
حالا، اگر شما می خواستید این مسئله را با
02:28
by writingنوشتن a traditional-styleسبک سنتی
computerکامپیوتر programبرنامه,
43
136304
2351
نوشتن یک برنامه سنتی کامپیوتری حل کنید،
02:30
you would give the programبرنامه
step-by-stepگام به گام instructionsدستورالعمل ها
44
138679
3417
شما به برنامه دستورالعملهای
پله پله می دادید
02:34
on how to take these partsقطعات,
45
142120
1329
که چطور این بخش را برداشته،
02:35
how to assembleجمع کن them
into a robotربات with legsپاها
46
143473
2407
به هم بچسباند تا رباتی دو پا بسازد
02:37
and then how to use those legsپاها
to walkراه رفتن to Pointنقطه B.
47
145904
2942
و سپس به وسیله آن پاها به نقطه B
برود.
02:41
But when you're usingاستفاده كردن AIAI
to solveحل the problemمسئله,
48
149441
2340
اما زمانی که در حال استفاده از
هوش مصنوعی هستید
02:43
it goesمی رود differentlyمتفاوت است.
49
151805
1174
مسئله متفاوت است.
02:45
You don't tell it
how to solveحل the problemمسئله,
50
153003
2382
شما به آن نمی گویید چطور مسئله را حال کند،
02:47
you just give it the goalهدف,
51
155409
1479
شما تنها به آن هدف را می دهید،
02:48
and it has to figureشکل out for itselfخودش
viaاز طريق trialآزمایش and errorخطا
52
156912
3262
و او می بایست از طریق آزمایش و خطا
02:52
how to reachنائل شدن that goalهدف.
53
160198
1484
خودش به هدف برسد.
02:54
And it turnsچرخش out that the way AIAI tendsتمایل دارد
to solveحل this particularخاص problemمسئله
54
162254
4102
و اینطور به نظر می رسد که هوش مصنوعی
این مسئله خاص را
02:58
is by doing this:
55
166380
1484
بدین گونه حل می کند:
02:59
it assemblesمونتاژ می کند itselfخودش into a towerبرج
and then fallsسقوط over
56
167888
3367
ابتدا خودش را به یک برج تبدیل می کند
و سپس سقوط می کند
03:03
and landsزمین ها at Pointنقطه B.
57
171279
1827
و در نقطه B به زمین می خورد.
03:05
And technicallyاز لحاظ فنی, this solvesحل می کند the problemمسئله.
58
173130
2829
و از لحاظ تکنیکی مسئله حل شده است.
از لحاظ تکنیکی به نقطه B
رسیده است.
03:07
Technicallyاز لحاظ فنی, it got to Pointنقطه B.
59
175983
1639
03:09
The dangerخطر of AIAI is not that
it's going to rebelشورشی againstدر برابر us,
60
177646
4265
خطر هوش مصنوعی این نیست که
او قرار است علیه ما شورش کند،
03:13
it's that it's going to do
exactlyدقیقا what we askپرسیدن it to do.
61
181935
4274
خطر این است که او دقیقاً کاری که ما
بخواهیم را انجام می دهد.
03:18
So then the trickترفند
of workingکار کردن with AIAI becomesتبدیل می شود:
62
186876
2498
پس ترفند استفاده از هوش مصنوعی این است که:
03:21
How do we setتنظیم up the problemمسئله
so that it actuallyدر واقع does what we want?
63
189398
3828
ما چطور مسئله را طرح کنیم که در واقع کاری
که می خواهیم را انجام دهد؟
03:26
So this little robotربات here
is beingبودن controlledکنترل شده است by an AIAI.
64
194726
3306
این ربات کوچک در اینجا
توسط یک هوش مصنوعی کنترل می شود.
03:30
The AIAI cameآمد up with a designطرح
for the robotربات legsپاها
65
198056
2814
هوش مصنوعی به طرحی برای پاهای ربات
رسیده است
03:32
and then figuredشکل گرفته out how to use them
to get pastگذشته all these obstaclesموانع.
66
200894
4078
و چگونگی استفاده از این پاها را برای
گذشتن از این موانع را فهمیده است.
03:36
But when Davidدیوید Haولز setتنظیم up this experimentآزمایشی,
67
204996
2741
اما زمانی که دیوید ها این آزمایش را
ساخته است،
03:39
he had to setتنظیم it up
with very, very strictسخت گیرانه limitsمحدودیت ها
68
207761
2856
محدودیتهای بسیار زیادی در رابطه با
03:42
on how bigبزرگ the AIAI
was allowedمجاز to make the legsپاها,
69
210641
3292
اندازه مجاز پاها گذاشته است.
03:45
because otherwiseدر غیر این صورت ...
70
213957
1550
زیرا در غیر این صورت ...
03:55
(Laughterخنده)
71
223058
3931
(صدای خنده)
04:00
And technicallyاز لحاظ فنی, it got
to the endپایان of that obstacleمانع courseدوره.
72
228563
3745
و از لحاظ تکنیکی،
به انتهای موانع رسیده است.
04:04
So you see how hardسخت it is to get AIAI
to do something as simpleساده as just walkراه رفتن.
73
232332
4942
پس می بینید که یک کار ساده مانند
به راه انداختن هوش مصنوعی چقدر سخت است.
04:09
So seeingدیدن the AIAI do this,
you mayممکن است say, OK, no fairنمایشگاه,
74
237298
3820
خب، با دیدن انجام این کار از هوش مصنوعی
شما ممکن است بگویید، عادلانه نیست،
04:13
you can't just be
a tallبلند قد towerبرج and fallسقوط over,
75
241142
2580
شما نمی توانی یک برج بلند باشی و فقط
سقوط کنی
04:15
you have to actuallyدر واقع, like,
use legsپاها to walkراه رفتن.
76
243746
3435
شما باید از پاهایت برای راه رفتن
استفاده کنی.
04:19
And it turnsچرخش out,
that doesn't always work, eitherیا.
77
247205
2759
اینطور که معلوم است،
این نظر همیشه صادق نیست.
04:21
This AI'sهوش مصنوعی است jobکار was to moveحرکت fastسریع.
78
249988
2759
کار این هوش مصنوعی این بوده است که
سریع حرکت کند.
04:25
They didn't tell it that it had
to runاجرا کن facingروبرو شدن forwardرو به جلو
79
253115
3593
آنها نگفتند که باید رو به جلو حرکت کند
04:28
or that it couldn'tنمی توانستم use its armsبازوها.
80
256732
2258
یا نمی تواند از دست هایش استفاده کند.
04:31
So this is what you get
when you trainقطار AIAI to moveحرکت fastسریع,
81
259487
4618
پس زمانی که از یک هوش مصنوعی می خواهیم که
سریع حرکت کند،
04:36
you get things like somersaultingخرد کردن
and sillyاحمقانه walksپیاده روی می کند.
82
264129
3534
چیزی شبیه پُشتک زدن و ابلهانه راه رفتن
می گیرید.
04:39
It's really commonمشترک.
83
267687
1400
کاملاً معمول است.
04:41
So is twitchingتکان دادن alongدر امتداد the floorکف in a heapپشته.
84
269667
3179
همینطور پیچ خوردن روی زمین.
04:44
(Laughterخنده)
85
272870
1150
(صدای خنده)
04:47
So in my opinionنظر, you know what
should have been a wholeکل lot weirderخنده دار
86
275241
3254
پس به عقیده من، چیزی که می بایست
خیلی عجیب تر باشد
04:50
is the "Terminatorنابود کننده" robotsروبات ها.
87
278519
1396
ربات های فیلم ترمیناتور است.
هک کردن «ماتریکس» نیز کار دیگر ایست که
هوش مصنوعی اگر شانسش را داشت انجام می داد.
04:52
Hackingهک کردن "The Matrixماتریکس" is anotherیکی دیگر thing
that AIAI will do if you give it a chanceشانس.
88
280256
3755
04:56
So if you trainقطار an AIAI in a simulationشبیه سازی,
89
284035
2517
پس اگر یک هوش مصنوعی را در یک
شبیه سازی آموزش دهید
04:58
it will learnیاد گرفتن how to do things like
hackهک کردن into the simulation'sشبیه سازی شده است mathریاضی errorsاشتباهات
90
286576
4113
یاد میگیرد که کارهایی چون استفاده از
خطاهای ریاضی شبیه سازی
05:02
and harvestمحصول them for energyانرژی.
91
290713
2207
و استفاده از آنها برای انرژی را انجام دهد.
05:04
Or it will figureشکل out how to moveحرکت fasterسریعتر
by glitchingglitching repeatedlyبارها و بارها into the floorکف.
92
292944
5475
یا اینکه چگونه با پیچیدن به زمین
سریع تر حرکت کند.
زمانیکه شما در حال کار
با هوش مصنوعی هستید
05:10
When you're workingکار کردن with AIAI,
93
298443
1585
05:12
it's lessکمتر like workingکار کردن with anotherیکی دیگر humanانسان
94
300052
2389
کمتر شبیه به کار با انسانی دیگر است
05:14
and a lot more like workingکار کردن
with some kindنوع of weirdعجیب و غریب forceزور of natureطبیعت.
95
302465
3629
و بیشتر شبیه به کار با نیروی عجیبی
از طبیعت است.
05:18
And it's really easyآسان to accidentallyبه طور تصادفی
give AIAI the wrongاشتباه problemمسئله to solveحل,
96
306562
4623
و به صورت اتفاقی دادن مسئله اشتباه برای
حل به هوش مصنوعی آسان است،
05:23
and oftenغالبا we don't realizeتحقق بخشیدن that
untilتا زمان something has actuallyدر واقع goneرفته wrongاشتباه.
97
311209
4538
و اغلب ما متوجه نمی شویم تا زمانی که
اشتباهی رخ دهد.
05:28
So here'sاینجاست an experimentآزمایشی I did,
98
316242
2080
خب، این یک آزمایش است که من انجام داده ام
05:30
where I wanted the AIAI
to copyکپی کنید paintرنگ colorsرنگ ها,
99
318346
3182
که در آن از هوش مصنوعی خواستم تا
رنگ ها را تکثیر کند
05:33
to inventاختراع کردن newجدید paintرنگ colorsرنگ ها,
100
321552
1746
تا به رنگ های جدیدی برسد،
05:35
givenداده شده the listفهرست like the onesآنهایی که
here on the left.
101
323322
2987
با دادن لیستی که در سمت چپ می بینید.
05:38
And here'sاینجاست what the AIAI
actuallyدر واقع cameآمد up with.
102
326798
3004
و این چیزی است که هوش مصنوعی به
آن رسیده است.
05:41
[SindisSindis Poopپوپ, TurdlyTurdly, Sufferدچار, Grayخاکستری Pubicناحیه تناسلی]
103
329826
3143
[ساندیس مدفوع، پشکل، زجر، موی قهوه ای]
05:44
(Laughterخنده)
104
332993
4230
(صدای خنده)
05:51
So technicallyاز لحاظ فنی,
105
339177
1886
از لحاظ تکنیکی،
05:53
it did what I askedپرسید: it to.
106
341087
1864
او کاری را که من خواسته بودم انجام داد.
05:54
I thought I was askingدرخواست it for,
like, niceخوب paintرنگ colorرنگ namesنام ها,
107
342975
3308
من فکر کردم که از او نام رنگ های
زیبا می خواهم
05:58
but what I was actuallyدر واقع askingدرخواست it to do
108
346307
2307
اما در واقع از او می خواستم که
06:00
was just imitateتقلید کردن the kindsانواع
of letterنامه combinationsترکیبات
109
348638
3086
ترکیب حروف را تقلید کند
06:03
that it had seenمشاهده گردید in the originalاصلی.
110
351748
1905
که در نسخه اصلی دیده است.
06:05
And I didn't tell it anything
about what wordsکلمات mean,
111
353677
3098
و من چیزی در رابطه با معنای کلمات
به او نگفتم،
06:08
or that there are maybe some wordsکلمات
112
356799
2560
یا اینکه ممکن است کلماتی وجود داشته باشند
که او می بایست از استفاده آنها
برای این رنگ ها خودداری کند.
06:11
that it should avoidاجتناب کردن usingاستفاده كردن
in these paintرنگ colorsرنگ ها.
113
359383
2889
06:15
So its entireکل worldجهان
is the dataداده ها that I gaveداد it.
114
363141
3494
بنابراین تمام دنیای او داده هایی است که من
به او داده ام.
06:18
Like with the iceیخ creamکرم رنگ flavorsطعم,
it doesn't know about anything elseچیز دیگری.
115
366659
4028
همانند طعم بستنی ها،
او از هیچ چیز دیگر باخبر نیست.
06:24
So it is throughاز طریق the dataداده ها
116
372491
1638
پس از طریق داده است که
06:26
that we oftenغالبا accidentallyبه طور تصادفی tell AIAI
to do the wrongاشتباه thing.
117
374153
4044
ما اغلب به اشتباه به هوش مصنوعی می گوییم
کاری را انجام دهد.
06:30
This is a fishماهی calledبه نام a tenchtench.
118
378694
3032
این یک ماهی به نام «تنچ» است.
06:33
And there was a groupگروه of researchersمحققان
119
381750
1815
گروهی از محققان
06:35
who trainedآموزش دیده an AIAI to identifyشناسایی
this tenchtench in picturesتصاویر.
120
383589
3874
هوش مصنوعی را پرورش دادند تا این ماهی
را در تصاویر تشخیص دهد.
06:39
But then when they askedپرسید: it
121
387487
1296
اما زمانی که از او پرسیدند
06:40
what partبخشی of the pictureعکس it was actuallyدر واقع
usingاستفاده كردن to identifyشناسایی the fishماهی,
122
388807
3426
که از طریق کدام بخش عکس این شناسایی را
انجام داده است
06:44
here'sاینجاست what it highlightedبرجسته شده.
123
392257
1358
او این قسمت را نشان داده است.
06:47
Yes, those are humanانسان fingersانگشتان.
124
395203
2189
بله، آنها انگشت انسان هستند.
06:49
Why would it be looking for humanانسان fingersانگشتان
125
397416
2059
چرا او باید به دنبال انگشت انسانها باشد
06:51
if it's tryingتلاش کن to identifyشناسایی a fishماهی?
126
399499
1921
اگر هدف یافتن ماهی است؟
06:54
Well, it turnsچرخش out that the tenchtench
is a trophyجایزه fishماهی,
127
402126
3164
خب، اینطور که معلوم است ماهی تنچ
یک نوع جایزه است،
06:57
and so in a lot of picturesتصاویر
that the AIAI had seenمشاهده گردید of this fishماهی
128
405314
3811
بنابراین در تصاویر زیادی که هوش مصنوعی
در طول آموزش
07:01
duringدر حین trainingآموزش,
129
409149
1151
مشاهد کرده است،
07:02
the fishماهی lookedنگاه کرد like this.
130
410324
1490
ماهی بدین صورت بوده است.
07:03
(Laughterخنده)
131
411838
1635
(صدای خنده)
07:05
And it didn't know that the fingersانگشتان
aren'tنه partبخشی of the fishماهی.
132
413497
3330
هوش مصنوعی از این حقیقت مطلع نبوده است
که انگشت ها عضوی از ماهی نیستند.
07:10
So you see why it is so hardسخت
to designطرح an AIAI
133
418808
4120
بنابراین شما می بینید که چرا طراحی
یک هوش مصنوعی که
07:14
that actuallyدر واقع can understandفهمیدن
what it's looking at.
134
422952
3319
تشخیص دهد به چه چیزی می نگرد
دشوار است.
07:18
And this is why designingطراحی
the imageتصویر recognitionبه رسمیت شناختن
135
426295
2862
و به همین دلیل طراحی دوربین های
تشخیص چهره
07:21
in self-drivingخود رانندگی carsماشین ها is so hardسخت,
136
429181
2067
در خودروهای بدون سرنشین بسیار دشوار است،
07:23
and why so manyبسیاری self-drivingخود رانندگی carماشین failuresخرابی
137
431272
2205
و علت بسیاری از مشکلات
خودروهای بدون سرنشین
07:25
are because the AIAI got confusedسردرگم.
138
433501
2885
گیچ شدن هوش مصنوعی است.
07:28
I want to talk about an exampleمثال from 2016.
139
436410
4008
می خواهم در رابطه با مثالی در سال ۲۰۱۶
صحبت کنم.
07:32
There was a fatalکشنده accidentتصادف when somebodyکسی
was usingاستفاده كردن Tesla'sتسلا autopilotautopilot AIAI,
140
440442
4455
فردی با استفاده از راننده خودکار تسلا
وارد تصادفی خطرناک شده بود.
07:36
but insteadبجای of usingاستفاده كردن it on the highwayبزرگراه
like it was designedطراحی شده for,
141
444921
3414
او بجای استفاده از این تکنولوژی بر اساس
طراحی آن در بزرگراه
07:40
they used it on cityشهر streetsخیابان ها.
142
448359
2205
آن را در خیابان های شهر استفاده کرده بود.
07:43
And what happenedاتفاق افتاد was,
143
451239
1175
اتفاقی که رخ داد
چنین بود
07:44
a truckکامیون droveرانندگی کرد out in frontجلوی of the carماشین
and the carماشین failedناموفق to brakeترمز.
144
452438
3396
کامیونی جلوی خودرو آمد و خودرو نتوانست
ترمز بگیرد.
07:48
Now, the AIAI definitelyقطعا was trainedآموزش دیده
to recognizeتشخیص trucksکامیون ها in picturesتصاویر.
145
456507
4762
خب، هوش مصنوعی کاملاً آموزش دیده بود تا
کامیون ها را در عکس تشخیص دهد
07:53
But what it looksبه نظر می رسد like happenedاتفاق افتاد is
146
461293
2145
اما اتفاقی که افتاد چنین بود که
07:55
the AIAI was trainedآموزش دیده to recognizeتشخیص
trucksکامیون ها on highwayبزرگراه drivingرانندگی,
147
463462
2931
هوش مصنوعی آموزش دیده بود تا کامیون ها را
در بزرگراه تشخیص دهد
07:58
where you would expectانتظار
to see trucksکامیون ها from behindپشت.
148
466417
2899
که شما انتظار دارید کامیون ها
را پشت سرتان ببینید.
08:01
Trucksکامیون on the sideسمت is not supposedقرار است
to happenبه وقوع پیوستن on a highwayبزرگراه,
149
469340
3420
کامیون های کناری قرار نیست
در بزرگراه ها باشند،
08:04
and so when the AIAI saw this truckکامیون,
150
472784
3455
پس زمانی که هوش مصنوعی این کامیون را دیده،
08:08
it looksبه نظر می رسد like the AIAI recognizedشناسایی شده it
as mostاکثر likelyاحتمال دارد to be a roadجاده signامضا کردن
151
476263
4827
به احتمال زیاد آن را یکی از علائم خیابانی
دیده است
08:13
and thereforeاز این رو, safeبی خطر to driveراندن underneathدر زیر.
152
481114
2273
و به همین دلیل، رفتن به سمت آن امن بوده.
08:16
Here'sاینجاست an AIAI misstepاشتباه
from a differentناهمسان fieldرشته.
153
484114
2580
این یک اشتباه دیگر از هوش مصنوعی
در زمینه ای دیگر است.
08:18
Amazonآمازون recentlyبه تازگی had to give up
on a résumمجموعé-sorting-مرتب سازی algorithmالگوریتم
154
486718
3460
اخیراً شرکت آمازون مجبور شد الگوریتمی
که طبقه بندی رزومه ها را
08:22
that they were workingکار کردن on
155
490202
1220
انجام می داد کنار بگذارد
08:23
when they discoveredکشف شده that the algorithmالگوریتم
had learnedیاد گرفتم to discriminateتبعیض قائل شدن againstدر برابر womenزنان.
156
491446
3908
زیرا آنها دریافتند که آن الگوریتم تمایزهای
ضد زن داشته است.
08:27
What happenedاتفاق افتاد is they had trainedآموزش دیده it
on exampleمثالsumمجموعés
157
495378
2716
اتفاقی که افتاد به این صورت بود که آن ها
هوش مصنوعی را بر
08:30
of people who they had hiredاستخدام شده in the pastگذشته.
158
498118
2242
رزومه های نمونه افرادی که از قبل
می شناختند آموزش داده بودند
08:32
And from these examplesمثال ها, the AIAI learnedیاد گرفتم
to avoidاجتناب کردن the résumمجموعés of people
159
500384
4023
و از این نمونه ها، هوش مصنوعی یاد گرفته
بود که از رزومه افرادی
08:36
who had goneرفته to women'sزنان collegesکالج ها
160
504431
2026
که به کالج های زنانه رفته اند یا
08:38
or who had the wordکلمه "womenزنان"
somewhereجایی in theirخودشان resumeخلاصه,
161
506481
2806
کلمه «زن» در هر جای رزومه آنها بوده،
دوری کند،
08:41
as in, "women'sزنان soccerفوتبال teamتیم"
or "Societyجامعه of Womenزنان Engineersمهندسین."
162
509311
4576
مانند، «تیم فوتبال زنان»،
«جامعه مهندسان زن».
08:45
The AIAI didn't know that it wasn'tنبود supposedقرار است
to copyکپی کنید this particularخاص thing
163
513911
3974
هوش مصنوعی نمی دانسته
که نباید این مورد خاص را
08:49
that it had seenمشاهده گردید the humansانسان do.
164
517909
1978
که انسان ها انجام می دهند کپی کند.
08:51
And technicallyاز لحاظ فنی, it did
what they askedپرسید: it to do.
165
519911
3177
و از لحاظ تکنیکی هوش مصنوعی کاری را انجام
داده که از او خواسته اند.
08:55
They just accidentallyبه طور تصادفی askedپرسید: it
to do the wrongاشتباه thing.
166
523112
2797
آنها به طور اتفاقی از او خواسته بودند که
کار اشتباهی را انجام دهد.
08:58
And this happensاتفاق می افتد all the time with AIAI.
167
526653
2895
این مسئله برای تمام هوش های مصنوعی
رخ می دهد.
09:02
AIAI can be really destructiveمخرب
and not know it.
168
530120
3591
هوش مصنوعی می تواند بدون آنکه بداند
بسیار مخرب باشد.
09:05
So the AIsAIs that recommendتوصیه
newجدید contentمحتوا in Facebookفیس بوک, in YouTubeیوتیوب,
169
533735
5078
پس هوش مصنوعی که محتوای جدید در فیسبوک
و یوتیوب پیشنهاد می کند،
09:10
they're optimizedبهینه شده to increaseافزایش دادن
the numberعدد of clicksکلیک کنید and viewsنمایش ها.
170
538837
3539
طوری برنامه ریزی شده است که تعداد بیننده
و کلیک ها را افزایش دهد.
09:14
And unfortunatelyمتاسفانه, one way
that they have foundپیدا شد of doing this
171
542400
3436
و متاسفانه، راهی که هوش مصنوعی برای انجام
اینکار یافته این است که
09:17
is to recommendتوصیه the contentمحتوا
of conspiracyتوطئه theoriesنظریه ها or bigotryتعصب.
172
545860
4503
محتوای متعصابه و تئوری های توطئه را
پیشنهاد کند.
09:22
The AIsAIs themselvesخودشان don't have any conceptمفهوم
of what this contentمحتوا actuallyدر واقع is,
173
550902
5302
هوش مصنوعی خودش نمی داند که این محتوا
چه معنایی دارد
09:28
and they don't have any conceptمفهوم
of what the consequencesعواقب mightممکن be
174
556228
3395
و از عواقب پیشنهاد کردن آن
09:31
of recommendingتوصیه this contentمحتوا.
175
559647
2109
هیچ اطلاعی ندارد.
09:34
So, when we're workingکار کردن with AIAI,
176
562296
2011
پس، زمانی که ما با هوش مصنوعی کار می کنیم،
09:36
it's up to us to avoidاجتناب کردن problemsمشکلات.
177
564331
4182
دوری کردن از مشکلات به خود ما
بستگی دارد.
09:40
And avoidingپرهیز کردن things going wrongاشتباه,
178
568537
2323
و همچنین دوری کردن از مسادلی که
به خطا می روند
09:42
that mayممکن است come down to
the age-oldساله problemمسئله of communicationارتباطات,
179
570884
4526
و منجر به مشکلات قدیمی ارتباطات
می شود
09:47
where we as humansانسان have to learnیاد گرفتن
how to communicateبرقراری ارتباط with AIAI.
180
575434
3745
که ما می بایست به عنوان انسان چگونگی
تعامل با هوش مصنوعی را بیاموزیم.
09:51
We have to learnیاد گرفتن what AIAI
is capableقادر به of doing and what it's not,
181
579203
4039
ما باید بدانیم که هوش مصنوعی قادر به
انجام چه کارهایی می باشد
09:55
and to understandفهمیدن that,
with its tinyکوچک little wormکرم brainمغز,
182
583266
3086
و برای فهمیدن هوش مصنوعی،
و مغز کوچک آن
09:58
AIAI doesn't really understandفهمیدن
what we're tryingتلاش کن to askپرسیدن it to do.
183
586376
4013
باید بدانیم که هوش مصنوعی از کاری که ما از
آن می خواهیم چیزی نمی داند.
10:03
So in other wordsکلمات, we have
to be preparedآماده شده to work with AIAI
184
591148
3321
به بیان دیگر، ما باید آماده باشیم تا
با هوش مصنوعی کار کنیم که
10:06
that's not the super-competentفوق العاده صالح,
all-knowingهمه دانستن AIAI of scienceعلوم پایه fictionداستان.
185
594493
5258
قادر مطلق یا عالم مطلق، آن طور که در
فیلم های تخیلی دیده می شود نیست.
10:11
We have to preparedآماده شده to work with an AIAI
186
599775
2862
ما باید آماده باشیم تا با هوش مصنوعی
کار کنیم که
10:14
that's the one that we actuallyدر واقع have
in the presentحاضر day.
187
602661
2938
در حال حاضر در دسترس داریم
10:17
And present-dayامروز AIAI is plentyفراوانی weirdعجیب و غریب enoughکافی.
188
605623
4205
و هوش مصنوعی در دسترس ما
به اندازه کافی عجیب است.
10:21
Thank you.
189
609852
1190
ممنونم.
10:23
(Applauseتشویق و تمجید)
190
611066
5225
(تشویق حضار)
Translated by Mehdi Fz
Reviewed by Masoud Motamedifar

▲Back to top

ABOUT THE SPEAKER
Janelle Shane - AI researcher
While moonlighting as a research scientist, Janelle Shane found fame documenting the often hilarious antics of AI algorithms.

Why you should listen

Janelle Shane's humor blog, AIweirdness.com, looks at, as she tells it, "the strange side of artificial intelligence." Her upcoming book, You Look Like a Thing and I Love You: How AI Works and Why It's Making the World a Weirder Place, uses cartoons and humorous pop-culture experiments to look inside the minds of the algorithms that run our world, making artificial intelligence and machine learning both accessible and entertaining.

According to Shane, she has only made a neural network-written recipe once -- and discovered that horseradish brownies are about as terrible as you might imagine.

More profile about the speaker
Janelle Shane | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee