ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com
TED@IBM

Grady Booch: Don't fear superintelligent AI

گردی بوچ: از ابرهوش مصنوعی نترسید

Filmed:
2,866,438 views

گردی بوچ، دانشمند و فیلسوف می گوید: فناوری جدید، اضطرابهای جدید بهمراه دارد، اما لازم نیست از ابرهوش مصنوعی بی‌احساس و قدرتمند واهمه داشته باشیم. بوچ بدترین به نگرانیهای ما (از جمله موارد علمی تخیلی) درباره کامپیوترهای ابرهوشمند تسلی می‌دهد. با این توضیح که چطور با آموزش و نه برنامه‌ریزی‌ کردن‌شان، ارزشهای خود را با آنها برنامه‌ریزی خواهیم کرد. بجای نگرانی درباره یک تهدید غیرمحتمل مخرب، وی تاکید دارد این را در نظر بگیریم که چطور هوش مصنوعی زندگی بشر را بهبود خواهد بخشید.
- Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn. Full bio

Double-click the English transcript below to play the video.

00:12
When I was a kidبچه,
I was the quintessentialنکته مهم nerdnerd.
0
760
3840
وقتی بچه بودم،‌
اصل درسخوان بودم.
00:17
I think some of you were, too.
1
5320
2176
فکر کنم بعضی از شما همینطوری بودید.
00:19
(Laughterخنده)
2
7520
1216
(خنده)
00:20
And you, sirآقا, who laughedخندید the loudestبا صدای بلند,
you probablyشاید still are.
3
8760
3216
و شما آقا که از همه بلندتر خندیدی،
احتمالا هنوز هم هستی.
00:24
(Laughterخنده)
4
12000
2256
(خنده)
00:26
I grewرشد کرد up in a smallکوچک townشهر
in the dustyگرد و خاکی plainsدشت ها of northشمال Texasتگزاس,
5
14280
3496
در شهری کوچک در دشتهای غبارآلود
شما تگزاس بزرگ شدم،
00:29
the sonفرزند پسر of a sheriffکلانتر
who was the sonفرزند پسر of a pastorکشیش.
6
17800
3336
پسر یک کلانتر که خودش
پسر یک کشیش بود.
00:33
Gettingگرفتن into troubleمشکل was not an optionگزینه.
7
21160
1920
پس جایی برای خرابکاری نمیماند.
00:36
And so I startedآغاز شده readingخواندن
calculusحسابداری booksکتاب ها for funسرگرم کننده.
8
24040
3256
و من محض تفریح کتابهای حساب
میخواندم.
00:39
(Laughterخنده)
9
27320
1536
(خنده)
00:40
You did, too.
10
28880
1696
شما هم اینطور بودید.
00:42
That led me to buildingساختمان a laserلیزر
and a computerکامپیوتر and modelمدل rocketsموشک,
11
30600
3736
که باعث شد یک لیزر و کامپیوتر
و مدل موشکی بسازم،
00:46
and that led me to makingساخت
rocketموشک fuelسوخت in my bedroomاتاق خواب.
12
34360
3000
و این که باعث شد در اتاق خوابم
سوخت موشک بسازم.
00:49
Now, in scientificعلمی termsاصطلاحات,
13
37960
3656
الان در عبارات علمی
00:53
we call this a very badبد ideaاندیشه.
14
41640
3256
این را یک ایده بد میخوانیم.
00:56
(Laughterخنده)
15
44920
1216
(خنده)
00:58
Around that sameیکسان time,
16
46160
2176
و هم زمان
01:00
Stanleyاستنلی Kubrick'sکوبریک "2001: A Spaceفضا Odysseyاودیسه"
cameآمد to the theatersتئاتر ها,
17
48360
3216
فیلم « ۲۰۰۱: یک ادیسه فضایی»
استنلی کوبریک به روی پرده آمد،
01:03
and my life was foreverبرای همیشه changedتغییر کرد.
18
51600
2200
و زندگی من برای همیشه تغییر کرد.
01:06
I lovedدوست داشتنی everything about that movieفیلم سینما,
19
54280
2056
از همه چیز فیلم خوشم میامد
01:08
especiallyبه خصوص the HALهال 9000.
20
56360
2536
بخصوص اچ‌ای‌ال ۹۰۰۰.
01:10
Now, HALهال was a sentientذهنی computerکامپیوتر
21
58920
2056
این اچ‌ای‌ال یک کامپیوتر احساسی بود
01:13
designedطراحی شده to guideراهنما the Discoveryکشف spacecraftفضاپیمای
22
61000
2456
که جهت راهنمایی سفینه فضایی
دیسکاوری در رفتن از زمین
01:15
from the Earthزمین to Jupiterسیاره مشتری.
23
63480
2536
به مشتری طراحی شده بود.
01:18
HALهال was alsoهمچنین a flawedناقص characterشخصیت,
24
66040
2056
ای‌اچ‌ال همینطور یک شخصیت معیوب بود.
01:20
for in the endپایان he choseانتخاب کرد
to valueارزش the missionماموریت over humanانسان life.
25
68120
4280
چون در آخر ماموریت را بجای جان بشر
انتخاب کرد.
01:24
Now, HALهال was a fictionalتخیلی characterشخصیت,
26
72840
2096
ای‌اچ ال یک شخصیت تخیلی بود
01:26
but nonethelessبا این وجود he speaksصحبت می کند to our fearsترس,
27
74960
2656
اما با این وجود
درباره ترسهای ما حرف می‌زد،
01:29
our fearsترس of beingبودن subjugatedتحت تعقیب
28
77640
2096
ترسمان از مقهور شدن از سوی یک
01:31
by some unfeelingاحساس ناخوشایند, artificialمصنوعی intelligenceهوش
29
79760
3016
هوش مصنوعی بی‌احساس
01:34
who is indifferentبي تفاوت to our humanityبشریت.
30
82800
1960
که به بشریت بی‌اعتناست.
01:37
I believe that suchچنین fearsترس are unfoundedبی اساس.
31
85880
2576
به باور من این ترسها بی‌اساس است.
01:40
Indeedدر واقع, we standایستادن at a remarkableقابل توجه time
32
88480
2696
ما در واقع در برهه قابل توجهی
از تاریخ بشر
01:43
in humanانسان historyتاریخ,
33
91200
1536
بسر می‌بریم،
01:44
where, drivenرانده by refusalامتناع to acceptقبول کردن
the limitsمحدودیت ها of our bodiesبدن and our mindsذهنها,
34
92760
4976
جاییکه با نگیزش انکار در پذیرش
محدودیتهای ذهنی و جسمی خود
01:49
we are buildingساختمان machinesماشین آلات
35
97760
1696
ماشینهایی را می سزیم
01:51
of exquisiteنفیس, beautifulخوشگل
complexityپیچیدگی and graceرحمت
36
99480
3616
که با پیچیدگی زیبا، منحصربفرد و
زیبندگی
01:55
that will extendگسترش the humanانسان experienceتجربه
37
103120
2056
تجربه بشری را تا ورای تصورات ما
01:57
in waysراه ها beyondفراتر our imaginingتصور کردن.
38
105200
1680
گسترش خواهند داد.
01:59
After a careerحرفه that led me
from the Airهوا Forceزور Academyآکادمی
39
107720
2576
بعد از مسیر حرفه‌ای که من
را از آکادمی نیروی هوایی
02:02
to Spaceفضا Commandفرماندهی to now,
40
110320
1936
به فرماندهی فضایی و الان
02:04
I becameتبدیل شد a systemsسیستم های engineerمهندس,
41
112280
1696
به این مهندس سیستمی که شدم کشاند،
02:06
and recentlyبه تازگی I was drawnکشیده شده
into an engineeringمهندسی problemمسئله
42
114000
2736
و تازگی درگیر مشکل مهندسی شده‌ام
02:08
associatedهمراه with NASA'sناسا missionماموریت to Marsمریخ.
43
116760
2576
که مرتبط با ماموریت ناسا به مریخ است.
02:11
Now, in spaceفضا flightsپرواز to the Moonماه,
44
119360
2496
الان در سفرهای فضایی به ماه
02:13
we can relyتکیه uponبر
missionماموریت controlکنترل in Houstonهوستون
45
121880
3136
می‌توانیم به کنترل ماموریت
در هوستون تکیه کنیم
02:17
to watch over all aspectsجنبه های of a flightپرواز.
46
125040
1976
تا کلیه جوانب یک پرواز را نظارت کند.
02:19
Howeverبا این حال, Marsمریخ is 200 timesبار furtherبیشتر away,
47
127040
3536
هرچند، مریخ ۲۰۰ بار دورتر است،
02:22
and as a resultنتيجه it takes
on averageمیانگین 13 minutesدقایق
48
130600
3216
و در نتیجه بطور متوسط ۱۳ دقیقه
طول می‌کشد
02:25
for a signalسیگنال to travelمسافرت رفتن
from the Earthزمین to Marsمریخ.
49
133840
3136
تا یک سیگنال از زمین به ماه برسد.
02:29
If there's troubleمشکل,
there's not enoughکافی time.
50
137000
3400
اگر مشکلی باشد
زمان کافی نداریم.
02:32
And so a reasonableمعقول engineeringمهندسی solutionراه حل
51
140840
2496
و برای یک راه‌حل مهندسی منطقی
02:35
callsتماس می گیرد for us to put missionماموریت controlکنترل
52
143360
2576
از ما این را طلب می‌کند
که کنترل گر ماموریت
02:37
insideداخل the wallsدیوارها of the Orionاوریون spacecraftفضاپیمای.
53
145960
3016
داخل دیوارهای فضای پیمای اوریون باشد.
02:41
Anotherیکی دیگر fascinatingشگفت انگیز ideaاندیشه
in the missionماموریت profileمشخصات
54
149000
2896
یک ایده جذاب دیگر در روند ماموریت
02:43
placesمکان ها humanoidانسان شناسی robotsروبات ها
on the surfaceسطح of Marsمریخ
55
151920
2896
استفاده از روباتهای انسانی در سطح مریخ است
02:46
before the humansانسان themselvesخودشان arriveرسیدن,
56
154840
1856
پیش از رسیدن انسانه،
02:48
first to buildساختن facilitiesامکانات
57
156720
1656
اول این که امکاناتی را برپا کنند
02:50
and laterبعد to serveخدمت as collaborativeمشارکتی
membersاعضا of the scienceعلوم پایه teamتیم.
58
158400
3360
و بعد بعنوان اعضای همکار
تیم علمی خدمت کنند.
02:55
Now, as I lookedنگاه کرد at this
from an engineeringمهندسی perspectiveچشم انداز,
59
163400
2736
الان که از دید مهندسی به این نگاه می‌کنم
02:58
it becameتبدیل شد very clearروشن است to me
that what I neededمورد نیاز است to architectمعمار
60
166160
3176
برایم کاملا روش می‌شود
که آنچه بعنوان معمار لازم داشتم
03:01
was a smartهوشمندانه, collaborativeمشارکتی,
61
169360
2176
یک هوش مصنوعی زیرک،
03:03
sociallyاجتماعی intelligentباهوش - هوشمند
artificialمصنوعی intelligenceهوش.
62
171560
2376
همکاری کننده و دارای هوش اجتماعی بود.
03:05
In other wordsکلمات, I neededمورد نیاز است to buildساختن
something very much like a HALهال
63
173960
4296
بعبارتی چیزی به اچ‌ای‌ال بسازم
03:10
but withoutبدون the homicidalقاتل tendenciesتمایلات.
64
178280
2416
اما بدون گرایشات انتحاری.
03:12
(Laughterخنده)
65
180720
1360
(خنده)
03:14
Let's pauseمکث for a momentلحظه.
66
182920
1816
برای لحظه‌ای بیایید مکث کنیم.
03:16
Is it really possibleامکان پذیر است to buildساختن
an artificialمصنوعی intelligenceهوش like that?
67
184760
3896
آیا امکان سک هوش مصنوعی مثل آن وجود دارد؟
03:20
Actuallyدر واقع, it is.
68
188680
1456
راستش هست.
03:22
In manyبسیاری waysراه ها,
69
190160
1256
از بسیاری جهات
03:23
this is a hardسخت engineeringمهندسی problemمسئله
70
191440
1976
این یک مشکل سخت مهندسی با اجزای
03:25
with elementsعناصر of AIAI,
71
193440
1456
ماشین ابر هوشمند است،
03:26
not some wetمرطوب hairمو ballتوپ of an AIAI problemمسئله
that needsنیاز دارد to be engineeredمهندسی شده.
72
194920
4696
نه یک جور گوی مودار خیس از
یک مساله ابرهوشمند که نیاز به مهندسی دارد.
03:31
To paraphraseتفسیر Alanآلن Turingتورینگ,
73
199640
2656
بگذارید از آلن تورینگ جور دیگر
نقل قول کنم،
03:34
I'm not interestedعلاقه مند
in buildingساختمان a sentientذهنی machineدستگاه.
74
202320
2376
من علاقه‌ای به ساخت یک
ماشین احساسی ندارم.
03:36
I'm not buildingساختمان a HALهال.
75
204720
1576
من اچ‌ای‌ال نمیسازم.
03:38
All I'm after is a simpleساده brainمغز,
76
206320
2416
تمام انچه دنبالشم یک مغز ساده است،
03:40
something that offersارائه می دهد
the illusionتوهم of intelligenceهوش.
77
208760
3120
چیزی که شبحی از هوش را ارائه کند.
03:45
The artهنر and the scienceعلوم پایه of computingمحاسبه
have come a long way
78
213000
3136
هنر و علم محاسبات کامپیوتری
از زمان ای اچ‌ال بر روی پرده
03:48
sinceاز آنجا که HALهال was onscreenروی صفحه,
79
216160
1496
روزهای زیادی را پشت سر گذاشته
03:49
and I'd imagineتصور کن if his inventorمخترع
Drدکتر. Chandraچاندرا were here todayامروز,
80
217680
3216
ومن تصور می کنم اگر مخترع آن
دکتر چاندرا امروز اینجا بود،
03:52
he'dاو می خواهد have a wholeکل lot of questionsسوالات for us.
81
220920
2336
کلی پرسش برای ما داشت.
03:55
Is it really possibleامکان پذیر است for us
82
223280
2096
آیا واقعا برای ما امکان دارد
03:57
to take a systemسیستم of millionsمیلیون ها نفر
uponبر millionsمیلیون ها نفر of devicesدستگاه ها,
83
225400
4016
یک سیستم چند میلیونی را بنابر
میلیونها دستگاه در اختیار بگیریم
04:01
to readخواندن in theirخودشان dataداده ها streamsجریان ها,
84
229440
1456
تا جریان داده‌های آنها را بخواند،
04:02
to predictپیش بینی theirخودشان failuresخرابی
and actعمل کن in advanceپیشرفت?
85
230920
2256
تا ایراداتشان را پیش‌بینی کند
و پیشاپیش عمل کند.
04:05
Yes.
86
233200
1216
بله.
04:06
Can we buildساختن systemsسیستم های that converseصحبت کردن
with humansانسان in naturalطبیعی است languageزبان?
87
234440
3176
آیا می‌توان سیستمهایی ساخت که
با انسانها به زبان عادی صحبت کنند؟
04:09
Yes.
88
237640
1216
بله.
04:10
Can we buildساختن systemsسیستم های
that recognizeتشخیص objectsاشیاء, identifyشناسایی emotionsاحساسات,
89
238880
2976
آیا می‌توان سیستمهایی ساخت که
اشیا و احساست را بشناسند،
04:13
emoteترساندن themselvesخودشان,
playبازی gamesبازی ها and even readخواندن lipsلب ها?
90
241880
3376
در احساسات خود اغراق کنند،
بازی کنند و حتی لب خوانی انجام دهند؟
04:17
Yes.
91
245280
1216
بله.
04:18
Can we buildساختن a systemسیستم that setsمجموعه ها goalsاهداف,
92
246520
2136
آیا می‌توان سیستمهای ساخت که هدف
تعیین کنند،
04:20
that carriesحمل می کند out plansبرنامه ها againstدر برابر those goalsاهداف
and learnsیاد میگیرد alongدر امتداد the way?
93
248680
3616
که طرحهایی را علیه آن اهداف انجام دهند
و در طول مسیر به یاد گرفتن بپردازند؟
04:24
Yes.
94
252320
1216
بله.
04:25
Can we buildساختن systemsسیستم های
that have a theoryتئوری of mindذهن?
95
253560
3336
آیا می‌توان سیستمهای ساخت
که دارای نظریه ذهنی باشند؟
04:28
This we are learningیادگیری to do.
96
256920
1496
کاری که الان داریم
میاموزیم.
04:30
Can we buildساختن systemsسیستم های that have
an ethicalاخلاقی and moralاخلاقی foundationپایه?
97
258440
3480
آیا می‌توان سیستمهای ساخت
که پایه اخلاقی و وجدانی دارند؟
04:34
This we mustباید learnیاد گرفتن how to do.
98
262480
2040
چیزی که باید انجامش را بیاموزیم.
04:37
So let's acceptقبول کردن for a momentلحظه
99
265360
1376
خب بگذارید برای
لحظه‌ای بپذیریم
04:38
that it's possibleامکان پذیر است to buildساختن
suchچنین an artificialمصنوعی intelligenceهوش
100
266760
2896
که امکان ساخت چنین هوش مصنوعی
04:41
for this kindنوع of missionماموریت and othersدیگران.
101
269680
2136
برای چنین ماموریتهایی وجود دارد.
04:43
The nextبعد questionسوال
you mustباید askپرسیدن yourselfخودت is,
102
271840
2536
این سوال بعدی که باید از خودتان بپرسید،
04:46
should we fearترس it?
103
274400
1456
آیا باید از آن ترسید؟
04:47
Now, everyهرکدام newجدید technologyتکنولوژی
104
275880
1976
خب با آمدن هر فناوری جدیدی
04:49
bringsبه ارمغان می آورد with it
some measureاندازه گرفتن of trepidationهیجان.
105
277880
2896
دلهره و واهمه‌ای هم همراهش میاید.
04:52
When we first saw carsماشین ها,
106
280800
1696
وقتی برای بار اول ماشینها را دیدیم،
04:54
people lamentedمرده است that we would see
the destructionتخریب of the familyخانواده.
107
282520
4016
مردم تاسف می‌خورند که ما شاهد
از دست رفتن خانواده خواهیم بود.
04:58
When we first saw telephonesتلفن ها come in,
108
286560
2696
وقتی برای اول تلفن آمد،
05:01
people were worriedنگران it would destroyاز بین رفتن
all civilمدنی conversationگفتگو.
109
289280
2896
مردم نگران بودند که نکند اثری از
مکالمه مدنی نماند.
05:04
At a pointنقطه in time we saw
the writtenنوشته شده است wordکلمه becomeتبدیل شدن به pervasiveفراگیر,
110
292200
3936
در مرحله‌ای از زمان که ما شاهد بودیم
کلام نوشتاری فراگیر شد،
05:08
people thought we would loseاز دست دادن
our abilityتوانایی to memorizeحفظ کردن.
111
296160
2496
مردم فکر می کردند توانایی خود
برای بخاطر سپردن را از دست می دهیم.
05:10
These things are all trueدرست است to a degreeدرجه,
112
298680
2056
این چیزها تا حدی درست هستند،
05:12
but it's alsoهمچنین the caseمورد
that these technologiesفن آوری ها
113
300760
2416
اما همچنین این مورد هم هست
که این فناوریها
05:15
broughtآورده شده to us things
that extendedتمدید شده the humanانسان experienceتجربه
114
303200
3376
برای چیزهایی را آورده‌اند که
که تجربیات بشری را عمیقا
05:18
in some profoundعمیق waysراه ها.
115
306600
1880
گسترش داده است.
05:21
So let's take this a little furtherبیشتر.
116
309840
2280
پس بیاید کمی این را جلوتر ببریم.
05:25
I do not fearترس the creationایجاد
of an AIAI like this,
117
313120
4736
من از آفرینش یک ابرهوش مصنوعی
مثل این واهمه ندارم،
05:29
because it will eventuallyدر نهایت
embodyتجسم some of our valuesارزش های.
118
317880
3816
چون سرانجام برخی از
ارزشهای ما را دربر خواهد گرفت.
05:33
Considerدر نظر گرفتن this: buildingساختمان a cognitiveشناختی systemسیستم
is fundamentallyاساسا differentناهمسان
119
321720
3496
این را تصور کنید: ساخت یک سیستم ادراکی
که اساسا متفاوت است
05:37
than buildingساختمان a traditionalسنتی
software-intensiveنرم افزار فشرده systemسیستم of the pastگذشته.
120
325240
3296
از ساخت یک نظام فشرده- نرم‌افزاری
سنتی از گذشته.
05:40
We don't programبرنامه them. We teachتدریس کنید them.
121
328560
2456
آنها را برنامه ریزی نمی‌کنیم.
به آنه موزش می دهیم.
05:43
In orderسفارش to teachتدریس کنید a systemسیستم
how to recognizeتشخیص flowersگل ها,
122
331040
2656
برای آموزش به یک سیستم
که چطور گلها را تشخیص دهد،
05:45
I showنشان بده it thousandsهزاران نفر of flowersگل ها
of the kindsانواع I like.
123
333720
3016
هزارن گل از انواعی که دوست دارم
را نشان می دهم.
05:48
In orderسفارش to teachتدریس کنید a systemسیستم
how to playبازی a gameبازی --
124
336760
2256
برای این که سیستم نحوه
انجام بازیی را بیاموزد.
05:51
Well, I would. You would, too.
125
339040
1960
خب این را می کنم. شما هم همینطور.
05:54
I like flowersگل ها. Come on.
126
342600
2040
گلها را دوست دارم. یالا.
05:57
To teachتدریس کنید a systemسیستم
how to playبازی a gameبازی like Go,
127
345440
2856
برای آموزش به سیستمی که بتواند
بازی مثل Go را انجام دهد،
06:00
I'd have it playبازی thousandsهزاران نفر of gamesبازی ها of Go,
128
348320
2056
هزاران بار گذاشتم که
بازیهای Go را انجام دهد
06:02
but in the processروند I alsoهمچنین teachتدریس کنید it
129
350400
1656
اما در این روند
آن را آموزش هم می‌دهم.
06:04
how to discernتشخیص دهید
a good gameبازی from a badبد gameبازی.
130
352080
2416
چطور یک بازی خوب را از بد
تشخیص دهد.
06:06
If I want to createايجاد كردن an artificiallyمصنوعی
intelligentباهوش - هوشمند legalقانونی assistantدستیار,
131
354520
3696
اکر بخواهم یک دستیار حقوقی
باهوش مصنوعی خلق کنم،
06:10
I will teachتدریس کنید it some corpusکپسول of lawقانون
132
358240
1776
کمی از مجموعه قانون را خواهم آموخت
06:12
but at the sameیکسان time I am fusingهمجوشی with it
133
360040
2856
البته هم زمان با آن مفاهیم
06:14
the senseاحساس of mercyرحمت and justiceعدالت
that is partبخشی of that lawقانون.
134
362920
2880
عدالت و بخشش را که بخشی از قانون
هستند را خواهم آموخت.
06:18
In scientificعلمی termsاصطلاحات,
this is what we call groundزمینی truthحقیقت,
135
366560
2976
در عبارات علمی،
این را حقیقت مبنا مینامیم
06:21
and here'sاینجاست the importantمهم pointنقطه:
136
369560
2016
و نکته مهم این است:
06:23
in producingتولید these machinesماشین آلات,
137
371600
1456
در تولید چنین ماشینهایی
06:25
we are thereforeاز این رو teachingدرس دادن them
a senseاحساس of our valuesارزش های.
138
373080
3416
درواقع به آنها مفهوم
ارزشهایمان را میاموزیم.
06:28
To that endپایان, I trustاعتماد
an artificialمصنوعی intelligenceهوش
139
376520
3136
به همین ترتیب، به هوش مصنوعی
همان اندازه‌ای باور دارم
06:31
the sameیکسان, if not more,
as a humanانسان who is well-trainedخوب آموزش دیده است.
140
379680
3640
که به یک انسانی که بخوبی
آموزش دیده.
06:36
But, you mayممکن است askپرسیدن,
141
384080
1216
اما ممکن است سوال کنید،
06:37
what about rogueسرکش agentsعاملان,
142
385320
2616
ماموران زیرک چطور،
06:39
some well-fundedخوب بودجه
nongovernmentغیر دولتی organizationسازمان?
143
387960
3336
یک سازمانه غیردولتی پولدار؟
06:43
I do not fearترس an artificialمصنوعی intelligenceهوش
in the handدست of a loneتنها wolfگرگ.
144
391320
3816
من ازاین که هوش مصنوعی در اختیار
یک گرگ تنها باشد نمی‌ترسم.
06:47
Clearlyبه وضوح, we cannotنمی توان protectمحافظت ourselvesخودمان
againstدر برابر all randomتصادفی actsعمل می کند of violenceخشونت,
145
395160
4536
معلوم است که ما نمی‌توانیم از خودمان
در مقابل تمامی اعمال خشونت‌امیز تصادفی حمایت کنیم
06:51
but the realityواقعیت is suchچنین a systemسیستم
146
399720
2136
اما حقیقت این است که چنین سیستمی
06:53
requiresنیاز دارد substantialقابل توجه است trainingآموزش
and subtleنامحسوس trainingآموزش
147
401880
3096
نیازمند آموزش مفصل و موشکفانه‌ای دارد
06:57
farدور beyondفراتر the resourcesمنابع of an individualفردی.
148
405000
2296
که فرای منابع فردی است.
06:59
And furthermoreعلاوه بر این,
149
407320
1216
و علاوه براین
07:00
it's farدور more than just injectingتزریق
an internetاینترنت virusویروس to the worldجهان,
150
408560
3256
بسیار فراتر از ویروس اینترنتی
وارد کردن به جهان است
07:03
where you pushفشار دادن a buttonدکمه,
all of a suddenناگهانی it's in a millionمیلیون placesمکان ها
151
411840
3096
جاییکه با یک کلیک، به یکباره ویروس
در میلیونها جا پراکنده شده
07:06
and laptopsلپ تاپ ها startشروع کن blowingدمیدن up
all over the placeمحل.
152
414960
2456
و لپ تاپ ها در همه جا شروع
به ترکیدن می کنند.
07:09
Now, these kindsانواع of substancesمواد
are much largerبزرگتر,
153
417440
2816
خب مفاهیمی این چنینی بسیار بزرگترند
07:12
and we'llخوب certainlyقطعا see them comingآینده.
154
420280
1715
و ما بی شک شاهد این اتفاقات
خواهیم بود.
07:14
Do I fearترس that suchچنین
an artificialمصنوعی intelligenceهوش
155
422520
3056
آیا از یک چنین هوش مصنوعی می‌ترسم
07:17
mightممکن threatenتهدید کن all of humanityبشریت?
156
425600
1960
که ممکن است تهدیدی برای بشریت باشد؟
07:20
If you look at moviesفیلم ها
suchچنین as "The Matrixماتریکس," "Metropolisکلانشهر,"
157
428280
4376
اگر به فیلمهایی مثل ماتریکس، متروپلیس،
ترمیناتور یا
07:24
"The Terminatorنابود کننده,"
showsنشان می دهد suchچنین as "WestworldWestworld,"
158
432680
3176
سریالی مثل وست ورلد نگاه کنید،
07:27
they all speakصحبت of this kindنوع of fearترس.
159
435880
2136
تمامی از از چنین ترسی حرف می‌زنند.
07:30
Indeedدر واقع, in the bookکتاب "Superintelligenceسوپر intelligence"
by the philosopherفیلسوف Nickنیک Bostromبوستروم,
160
438040
4296
درواقع، در کتاب «ابرهوش صنوعی»
نوشته نیکو بوستروم فیلسوف،
07:34
he picksمی بیند up on this themeموضوع
161
442360
1536
او با این موضوع پیش می‌رود
07:35
and observesمشاهده می شود that a superintelligenceسوپر هوش
mightممکن not only be dangerousخطرناک است,
162
443920
4016
و مشاهده‌اش این است که یک ابرهوش مصنوعی
نه تنها شاید خطرناک بشد
07:39
it could representنمایندگی an existentialوجودی threatتهدید
to all of humanityبشریت.
163
447960
3856
بلکه نماینده تهدیدی نابودگر
برای کل بشریت باشد.
07:43
Drدکتر. Bostrom'sبوستروم basicپایه ای argumentبحث و جدل
164
451840
2216
استدلال اولیه دکتر بوستروم
07:46
is that suchچنین systemsسیستم های will eventuallyدر نهایت
165
454080
2736
این است که چنین سیستم‌هایی عاقبت
07:48
have suchچنین an insatiableسیر نشدنی
thirstتشنگی for informationاطلاعات
166
456840
3256
چنان عطش سیری‌ناپذیری
برای اطلاعات خواهند داشت
07:52
that they will perhapsشاید learnیاد گرفتن how to learnیاد گرفتن
167
460120
2896
که شاید نحوه یادگرفتن را یاد بگشیرند
07:55
and eventuallyدر نهایت discoverكشف كردن
that they mayممکن است have goalsاهداف
168
463040
2616
و سرانجام کشف کنند که اهدافی دارند
07:57
that are contraryمخالف to humanانسان needsنیاز دارد.
169
465680
2296
که مغایر با نیازهای بشر است.
08:00
Drدکتر. Bostromبوستروم has a numberعدد of followersپیروان.
170
468000
1856
دکتر بوستروم کلی دنبال کننده دارد.
08:01
He is supportedپشتیبانی by people
suchچنین as Elonالون Muskمسک and Stephenاستفان Hawkingهاوکینگ.
171
469880
4320
او از سوی کسانی مثل الون موسک
و استفن هاوکینگ حمایت می‌شود.
08:06
With all dueناشی از respectتوجه
172
474880
2400
با تمامی احترامی که برای این
08:10
to these brilliantدرخشان mindsذهنها,
173
478160
2016
ذهنهای بی‌نظیر قائل هستم،
08:12
I believe that they
are fundamentallyاساسا wrongاشتباه.
174
480200
2256
اعتقاد دارم که آنها
از پایه اشتباه می کنند.
08:14
Now, there are a lot of piecesقطعات
of Drدکتر. Bostrom'sبوستروم argumentبحث و جدل to unpackباز کردن,
175
482480
3176
اکنون قسمتهای زیادیاز استدلال دکتر بوستروم است
که باید از چمدان خارج شود
08:17
and I don't have time to unpackباز کردن them all,
176
485680
2136
و من زمان کافی را برای همه آنها ندارم،
08:19
but very brieflyبه طور خلاصه, considerدر نظر گرفتن this:
177
487840
2696
فقط خلاصه این را بگویم:
08:22
superفوق العاده knowingدانستن is very differentناهمسان
than superفوق العاده doing.
178
490560
3736
مدعی العلوم با همه کاره بودن
خیلی فرق دارد.
08:26
HALهال was a threatتهدید to the Discoveryکشف crewخدمه
179
494320
1896
ای‌اچ ال تهدیدی برای خدمه دیسکاوری بود
08:28
only insofarتا به حال as HALهال commandedفرمان داد
all aspectsجنبه های of the Discoveryکشف.
180
496240
4416
تنها جاییکه ای‌اچ ال همه جوانب
را در دیسکاوری فرماندهی می‌کرد.
08:32
So it would have to be
with a superintelligenceسوپر هوش.
181
500680
2496
بریا این کار باید ابرهوشمند بود.
08:35
It would have to have dominionسلطه
over all of our worldجهان.
182
503200
2496
باید بر همه دنیای ما سلطه داشته باشد.
08:37
This is the stuffچیز of SkynetSkynet
from the movieفیلم سینما "The Terminatorنابود کننده"
183
505720
2816
اینها از ویژگیهای اسکای‌نت در فیلم
ترمیناتور(نابودگر) است
08:40
in whichکه we had a superintelligenceسوپر هوش
184
508560
1856
که درآن یک ابرهوش مصنوعی داشتیم
08:42
that commandedفرمان داد humanانسان will,
185
510440
1376
که بر اراده بشر حک می‌راند،
08:43
that directedجهت دار everyهرکدام deviceدستگاه
that was in everyهرکدام cornerگوشه of the worldجهان.
186
511840
3856
همه چیز و همه جا را در زمین هدایت می‌کرد.
08:47
Practicallyعملا speakingصحبت كردن,
187
515720
1456
اما در عالم واقعیت
08:49
it ain'tنه gonna happenبه وقوع پیوستن.
188
517200
2096
این اتفاق نخواهد افتاد.
08:51
We are not buildingساختمان AIsAIs
that controlکنترل the weatherهوا,
189
519320
3056
ما ماشینهای ابرهوشمندی را نمی‌سازیم
که هوا را کنترل کنند،
08:54
that directمستقیم the tidesجزر و مد,
190
522400
1336
که جزر و مد را جهت‌ دهند،
08:55
that commandفرمان us
capriciousفریبنده, chaoticبی نظم humansانسان.
191
523760
3376
که به ما انسانهای دمدمی‌مزاج
و بی‌نظم فرمان دهند.
08:59
And furthermoreعلاوه بر این, if suchچنین
an artificialمصنوعی intelligenceهوش existedوجود داشت,
192
527160
3896
و علاوه بر آن، اگر چنین هوش مصنوعی
وجود داشته باشد،
09:03
it would have to competeرقابت کن
with humanانسان economiesاقتصادها,
193
531080
2936
باید با اقتصادهای بشری رقابت کند،
09:06
and therebyدر نتیجه competeرقابت کن for resourcesمنابع with us.
194
534040
2520
و به این وسیله برای منابع با ما رقابت کند.
09:09
And in the endپایان --
195
537200
1216
و در آخر--
09:10
don't tell Siriسیری this --
196
538440
1240
به «سیری» این را نگویید--
09:12
we can always unplugجدا کردن them.
197
540440
1376
همیشه می توانیم از
برق آنها را بکشیم.
09:13
(Laughterخنده)
198
541840
2120
(خنده)
09:17
We are on an incredibleباور نکردنی journeyسفر
199
545360
2456
ما در یک سفر باورنکردنی از
09:19
of coevolutionهماهنگی with our machinesماشین آلات.
200
547840
2496
هم‌فرگشتی با ماشینهای خود
بسر می‌بریم.
09:22
The humansانسان we are todayامروز
201
550360
2496
این آدمهایی که امروز هستیم
09:24
are not the humansانسان we will be then.
202
552880
2536
آن آدمهایی که بعدا خواهیم شد نیستم.
09:27
To worryنگرانی now about the riseبالا آمدن
of a superintelligenceسوپر هوش
203
555440
3136
الان نگران بودن درباره خیزش یک ابرهوشمند
09:30
is in manyبسیاری waysراه ها a dangerousخطرناک است distractionحواس پرتی
204
558600
3056
از بسیاری جهات انحرافی خطرناک است
09:33
because the riseبالا آمدن of computingمحاسبه itselfخودش
205
561680
2336
چون خیزش محاسبات کامپیوتری خودش
09:36
bringsبه ارمغان می آورد to us a numberعدد
of humanانسان and societalاجتماعی issuesمسائل
206
564040
3016
کلی مسائل اجتماعی و انسانی را برایمان
به ارمغان می‌اورد
09:39
to whichکه we mustباید now attendمراجعه كردن.
207
567080
1640
که باید به آنها رسیدگی کنیم.
09:41
How shallباید I bestبهترین organizeسازمان دادن societyجامعه
208
569360
2816
چطور به بهترین نحو جامعه‌ای
را برنامه ریزی کنم
09:44
when the need for humanانسان laborنیروی کار diminishesکاهش می یابد?
209
572200
2336
وقتی نیاز به نیروی کار بشری نمی‌ماند؟
09:46
How can I bringآوردن understandingدرك كردن
and educationتحصیلات throughoutدر سراسر the globeجهان
210
574560
3816
چطور می‌توانم تفاهم و تعلیم
را به جهان بیاورم
09:50
and still respectتوجه our differencesتفاوت ها?
211
578400
1776
و هنوز احترام به تفاوتها
هم باشد.
09:52
How mightممکن I extendگسترش and enhanceافزایش دادن humanانسان life
throughاز طریق cognitiveشناختی healthcareمراقبت های بهداشتی?
212
580200
4256
چطور
09:56
How mightممکن I use computingمحاسبه
213
584480
2856
چطور شاید از محاسبات کامپیوتری
در کمک به
09:59
to help take us to the starsستاره ها?
214
587360
1760
رسیدن به
ستاره‌ها استفاده کنم؟
10:01
And that's the excitingهیجان انگیز thing.
215
589760
2040
و همین هیجان‌انگیزه است.
10:04
The opportunitiesفرصت ها to use computingمحاسبه
216
592400
2336
فرصتهایی برای استقاده از
محاسبات کامپیوتری
10:06
to advanceپیشرفت the humanانسان experienceتجربه
217
594760
1536
برای پیشرفت تجربه بشر
10:08
are withinدر داخل our reachنائل شدن,
218
596320
1416
اینجا و الان
10:09
here and now,
219
597760
1856
در دسترس ما است.
10:11
and we are just beginningشروع.
220
599640
1680
و تازه اول راه هستیم.
10:14
Thank you very much.
221
602280
1216
خیلی متشکرم.
10:15
(Applauseتشویق و تمجید)
222
603520
4286
(تشویق)
Translated by Leila Ataei
Reviewed by soheila Jafari

▲Back to top

ABOUT THE SPEAKER
Grady Booch - Scientist, philosopher
IBM's Grady Booch is shaping the future of cognitive computing by building intelligent systems that can reason and learn.

Why you should listen

When he was 13, Grady Booch saw 2001: A Space Odyssey in the theaters for the first time. Ever since, he's been trying to build Hal (albeit one without the homicidal tendencies). A scientist, storyteller and philosopher, Booch is Chief Scientist for Software Engineering as well as Chief Scientist for Watson/M at IBM Research, where he leads IBM's research and development for embodied cognition. Having originated the term and the practice of object-oriented design, he is best known for his work in advancing the fields of software engineering and software architecture.

A co-author of the Unified Modeling Language (UML), a founding member of the Agile Allianc, and a founding member of the Hillside Group, Booch has published six books and several hundred technical articles, including an ongoing column for IEEE Software. He's also a trustee for the Computer History Museum, an IBM Fellow, an ACM Fellow and IEEE Fellow. He has been awarded the Lovelace Medal and has given the Turing Lecture for the BCS, and was recently named an IEEE Computer Pioneer.

Booch is currently deeply involved in the development of cognitive systems and is also developing a major trans-media documentary for public broadcast on the intersection of computing and the human experience.

More profile about the speaker
Grady Booch | Speaker | TED.com