ABOUT THE SPEAKER
Bill Joy - Technologist and futurist
The co-founder of Sun Microsystems, Bill Joy has, in recent years, turned his attention to the biggest questions facing humanity: Where are we going? What could go wrong? What's the next great thing?

Why you should listen

In 2003, Bill Joy left Sun Microsystems, the computer company he cofounded, with no definite plans. He'd spent the late 1970s and early 1980s working on Berkeley UNIX (he wrote the vi editor), and the next decades building beautiful high-performance workstations at Sun. Always, he'd been a kind of polite engineer-gadfly -- refusing to settle for subpar code or muddled thinking.

In 2000, with a landmark cover story in Wired called "Why the Future Doesn't Need Us," Joy began to share his larger concerns with the world. A careful observer of the nanotech industry that was growing up around his own industry, Joy saw a way forward that, frankly, frightened him. He saw a very plausible future in which our own creations supplanted us -- if not out and out killed us (e.g., the gray goo problem). His proposed solution: Proceed with caution.

Joy's now a partner at KPMG, where he reviews business plans in education, environmental improvement and pandemic defense.

More profile about the speaker
Bill Joy | Speaker | TED.com
TED2006

Bill Joy: What I'm worried about, what I'm excited about

Бил Джой размишлява за това какво следва

Filmed:
553,237 views

Технологът и футурист Бил Джой говори за няколко големи притеснения за човечеството - и няколко големи надежди в областта на здравеопазването, образованието и бъдещите технологии
- Technologist and futurist
The co-founder of Sun Microsystems, Bill Joy has, in recent years, turned his attention to the biggest questions facing humanity: Where are we going? What could go wrong? What's the next great thing? Full bio

Double-click the English transcript below to play the video.

00:18
What technologyтехнология can we really applyПриложи to reducingнамаляване на globalв световен мащаб povertyбедност?
0
0
6000
Каква технология всъщност можем да приложим за намаляване на глобалната бедност?
00:24
And what I foundнамерено was quiteсъвсем surprisingизненадващ.
1
6000
4000
Онова, което открих, беше доста изненадващо.
00:28
We startedзапочна looking at things like deathсмърт ratesпроценти in the 20thтата centuryвек,
2
10000
3000
Започнахме да разглеждаме неща като нивата на смъртност през ХХ век
00:31
and how they'dте биха been improvedподобрен, and very simpleпрост things turnedоказа out.
3
13000
3000
и как са се подобрили, и излязоха много прости неща.
00:34
You'dВие бихте think maybe antibioticsантибиотици madeизработен more differenceразлика than cleanчист waterвода,
4
16000
3000
Човек би си помислил, че може би антибиотиците са променили повече, отколкото чистата вода,
00:37
but it's actuallyвсъщност the oppositeпротивоположен.
5
19000
3000
но всъщност е обратното.
00:40
And so very simpleпрост things -- off-the-shelfшелф technologiesтехнологии
6
22000
3000
И така, много прости неща - съвсем достъпни технологии,
00:43
that we could easilyлесно find on the then-earlyтогава началото WebУеб --
7
25000
5000
които лесно сме могли да открием в ранната тогава Мрежа -
00:48
would clearlyясно make a hugeогромен differenceразлика to that problemпроблем.
8
30000
5000
явно биха били от огромно значение за решаване на този проблем.
00:53
But I alsoсъщо, in looking at more powerfulмощен technologiesтехнологии
9
35000
4000
Но също, при разглеждане на по-мощни технологии -
00:57
and nanotechnologyнанотехнологиите and geneticгенетичен engineeringинженерство and other newнов emergingнововъзникващите
10
39000
5000
нанотехнологии, генетично инженерство
01:02
kindмил of digitalдигитален technologiesтехнологии, becameстана very concernedобезпокоен
11
44000
4000
и други новопоявяващи се, един вид дигитални технологии, бях много загрижен
01:06
about the potentialпотенциал for abuseзлоупотреба.
12
48000
4000
заради потенциала за злоупотреба.
01:10
If you think about it, in historyистория, a long, long time agoпреди
13
52000
5000
Като се замислите - в историята много, много отдавна
01:15
we dealtсправиха with the problemпроблем of an individualиндивидуален abusingзлоупотребява anotherоще individualиндивидуален.
14
57000
3000
сме се занимавали с проблема за това как индивид злоупотребява с друг индивид.
01:18
We cameдойде up with something -- the TenДесет CommandmentsЗаповеди: ThouТи си shaltще бъдеш not killубивам.
15
60000
3000
Измислили сме нещо - Десетте заповеди: Не убивай.
01:21
That's a, kindмил of a one-on-oneедин по един thing.
16
63000
2000
Това е нещо от типа един към един.
01:23
We organizedорганизиран into citiesградове. We had manyмного people.
17
65000
4000
Организирали сме се в градове. Имали сме много хора.
01:27
And to keep the manyмного from tyrannizingтиранията the one,
18
69000
4000
А за да предпазим единия от тиранията на многото,
01:31
we cameдойде up with conceptsконцепции like individualиндивидуален libertyсвобода.
19
73000
4000
сме измислили понятия като индивидуалната свобода.
01:35
And then, to have to dealсделка with largeголям groupsгрупи,
20
77000
1000
А после, за справяне с големи групи,
01:36
say, at the nation-stateнационалната държава levelниво,
21
78000
3000
да кажем, на ниво нация-държава,
01:39
and we had to have mutualвзаимен non-aggressionне-агресия,
22
81000
2000
е трябвало да имаме взаимна не-агресия
01:41
or throughпрез a seriesсерия of conflictsконфликти, we eventuallyв крайна сметка cameдойде to
23
83000
4000
или чрез серия конфликти в крайна сметка сме стигнали
01:45
a roughгруб internationalмеждународен bargainсделка to largelyдо голяма степен keep the peaceмир.
24
87000
6000
до груба международна сделка за цялостно поддържане на мира.
01:51
But now we have a newнов situationситуация, really what people call
25
93000
5000
А сега имаме нова ситуация, всъщност онова, което хората наричат
01:56
an asymmetricасиметрична situationситуация, where technologyтехнология is so powerfulмощен
26
98000
3000
асиметрична ситуация, при която технологията е толкова мощна,
01:59
that it extendsпростира beyondотвъд a nation-stateнационалната държава.
27
101000
4000
че се простира отвъд една нация-държава.
02:03
It's not the nation-statesнационални държави that have potentialпотенциал accessдостъп
28
105000
3000
Не нации-държави имат потенциален достъп
02:06
to massмаса destructionунищожаване, but individualsиндивиди.
29
108000
5000
до масово унищожение, а индивиди.
02:11
And this is a consequenceследствие of the factфакт that these newнов technologiesтехнологии tendсклонен to be digitalдигитален.
30
113000
5000
Това е последица от факта, че има тенденция тези нови технологии да са дигитални.
02:16
We saw genomeгеном sequencesпоследователности.
31
118000
4000
Видяхме геномните последователности.
02:20
You can downloadИзтегли the geneген sequencesпоследователности
32
122000
1000
Можеш да изтеглиш генните последователности на патогени
02:21
of pathogensпатогени off the InternetИнтернет if you want to,
33
123000
4000
от Интернет, ако искаш,
02:25
and clearlyясно someoneнякой recentlyнаскоро -- I saw in a scienceнаука magazineсписание --
34
127000
5000
и явно някой наскоро... видях в едно научно списание...
02:30
they said, well, the 1918 fluгрип is too dangerousопасно to FedExFedEx around.
35
132000
5000
казват, е, грпът от 1918-та е твърде опасен, за да се изпраща наоколо с "Федерал Експрес".
02:35
If people want to use it in theirтехен labsлаборатории for workingработа on researchизследване,
36
137000
3000
Ако хората искат да го използват в лабораториите си за работа по изследвания,
02:38
just reconstructвъзстанови it yourselfсебе си,
37
140000
3000
просто го реконструирайте сами,
02:41
because, you know, it mightбиха могли, може breakпочивка in FedExFedEx.
38
143000
4000
защото, разбирате ли, от ФедЕкс може да се разпространи.
02:45
So that this is possibleвъзможен to do this is not deniableотрече.
39
147000
5000
Това е възможно да се направи, не е опровержимо.
02:50
So individualsиндивиди in smallмалък groupsгрупи super-empoweredсупер-упълномощени by accessдостъп to these
40
152000
5000
Индивиди в малки групи, супер-упълномощени чрез достъп до тези
02:55
kindsвидове of self-replicatingсамовъзпроизвеждащ technologiesтехнологии, whetherдали it be biologicalбиологичен
41
157000
5000
един вид саморепликиращи се технологии, били те биологични
03:00
or other, are clearlyясно a dangerопасност in our worldсвят.
42
162000
3000
или други, явно са опасност в нашия свят.
03:03
And the dangerопасност is that they can causeкауза roughlyприблизително what's a pandemicпандемия.
43
165000
4000
Опасността е, че те могат да причинят, грубо казано, пандемия.
03:07
And we really don't have experienceопит with pandemicsпандемии,
44
169000
3000
Ние наистина нямаме опит с пандемии,
03:10
and we're alsoсъщо not very good as a societyобщество at actingактьорско майсторство
45
172000
3000
а също не сме и много добри като общество в действие
03:13
to things we don't have directдиректен and sortвид of gut-levelниво на червата experienceопит with.
46
175000
4000
към неща, с които нямаме пряк и естествен опит.
03:17
So it's not in our natureприрода to pre-actпредварително закона.
47
179000
4000
Така че не е в природата ни да действаме предварително.
03:21
And in this caseслучай, pilingнабиване на пилоти on more technologyтехнология doesn't solveрешавам the problemпроблем,
48
183000
5000
А в този случай натрупването на още технология не разрешава проблема,
03:26
because it only super-empowersсупер-упълномощава people more.
49
188000
3000
защото само супер-упълномощава хората още повече.
03:29
So the solutionрешение has to be, as people like RussellРъсел and EinsteinАйнщайн
50
191000
4000
Така че решението трябва да е, както си представят хора като Ръсел, Айнщайн и други
03:33
and othersдруги imagineПредставете си in a conversationразговор that existedсъществувало
51
195000
2000
в един разговор, съществувал
03:35
in a much strongerпо-силен formформа, I think, earlyрано in the 20thтата centuryвек,
52
197000
4000
мисля, в много по-силна роля в началото на ХХ век,
03:39
that the solutionрешение had to be not just the headглава but the heartсърце.
53
201000
3000
че решението трябва да е не само главата, а и сърцето.
03:42
You know, publicобществен policyполитика and moralморален progressпрогрес.
54
204000
5000
Разбирате ли, обществена политика и морален напредък.
03:47
The bargainсделка that givesдава us civilizationцивилизация is a bargainсделка to not use powerмощност.
55
209000
6000
Сделката, която ни дава цивилизация, е сделка за неупотреба на сила.
03:53
We get our individualиндивидуален rightsправа by societyобщество protectingзащита us from othersдруги
56
215000
3000
Получаваме индивидуалните си права чрез обществото, закрилящо ни от други
03:56
not doing everything they can do but largelyдо голяма степен doing only what is legalправен.
57
218000
5000
да не правят всичко, което могат да направят, а като цяло да правят само онова, което е законно.
04:01
And so to limitлимит the dangerопасност of these newнов things, we have to limitлимит,
58
223000
5000
И така, за да ограничим опасността от тези нови неща,
04:06
ultimatelyв края на краищата, the abilityспособност of individualsиндивиди
59
228000
2000
в крайна сметка трябва да ограничим способността на индивиди
04:08
to have accessдостъп, essentiallyпо същество, to pandemicпандемия powerмощност.
60
230000
3000
по същество да имат достъп до пандемична мощ.
04:11
We alsoсъщо have to have sensibleразумен defenseотбрана, because no limitationограничение
61
233000
4000
Трябва също да имаме разумна защита, защото никакво ограничение
04:15
is going to preventпредотвратявам a crazyлуд personчовек from doing something.
62
237000
3000
няма да попречи на един луд да не стори нещо.
04:18
And you know, and the troublingтревожно thing is that
63
240000
2000
Разбирате ли, тревожното е,
04:20
it's much easierпо-лесно to do something badлошо than to defendзащитавам
64
242000
2000
че е много по-лесно да се стори нещо лошо,
04:22
againstсрещу all possibleвъзможен badлошо things,
65
244000
2000
отколкото защитата срещу всички възможни лоши неща,
04:24
so the offensiveофанзива usesупотреби really have an asymmetricасиметрична advantageпредимство.
66
246000
4000
така че офанзивните употреби всъщност имат едно асиметрично предимство.
04:28
So these are the kindмил of thoughtsмисли I was thinkingмислене in 1999 and 2000,
67
250000
4000
По такъв начин мислех през 1999 и 2000 г.,
04:32
and my friendsприятели told me I was gettingполучаване на really depressedподтиснат,
68
254000
2000
а приятелите ми ми казаха, че наистина се депресирам
04:34
and they were really worriedразтревожен about me.
69
256000
2000
и бяха сериозно притеснени за мен.
04:36
And then I signedподписан a bookКнига contractдоговор to writeпиша more gloomyмрачен thoughtsмисли about this
70
258000
3000
Тогава подписах договор за книга, за да пиша още мрачни мисли за това,
04:39
and movedпреместен into a hotelхотел roomстая in NewНов YorkЙорк
71
261000
2000
и се преместих в една хотелска стая в Ню Йорк
04:41
with one roomстая fullпълен of booksкниги on the PlagueЧумата,
72
263000
4000
с една стая, пълна с книги за Чумата,
04:45
and you know, nuclearядрен bombsбомби explodingексплодираща in NewНов YorkЙорк
73
267000
3000
и, разбирате ли, ядрени бомби, експлодиращи в Ню Йорк,
04:48
where I would be withinв рамките на the circleкръг, and so on.
74
270000
3000
при което аз щях да съм вътре в кръга, и така нататък.
04:51
And then I was there on SeptemberСептември 11thтата,
75
273000
4000
А после бях там на 11-ти септември
04:55
and I stoodстоеше in the streetsулици with everyoneвсеки.
76
277000
1000
и стоях по улиците с всички.
04:56
And it was quiteсъвсем an experienceопит to be there.
77
278000
2000
Беше страхотно преживяване да си там.
04:58
I got up the nextследващия morningсутрин and walkedвървеше out of the cityград,
78
280000
3000
Станах на следващата сутрин и излязох от града,
05:01
and all the sanitationканализация trucksкамиони were parkedпаркиран on HoustonХюстън StreetУлица
79
283000
3000
а всички камиони за почистване бяха паркирани на улица "Хюстън",
05:04
and readyготов to go down and startначало takingприемате the rubbleчакъл away.
80
286000
2000
готови да отидат и да започнат да разчистват развалините.
05:06
And I walkedвървеше down the middleсреден, up to the trainвлак stationстанция,
81
288000
2000
Отидох към средата, нагоре към станцията на метрото,
05:08
and everything belowПо-долу 14thтата StreetУлица was closedзатворен.
82
290000
3000
и всичко под 14-та улица беше затворено.
05:11
It was quiteсъвсем a compellingнепреодолими experienceопит, but not really, I supposeпредполагам,
83
293000
4000
Беше доста убедително преживяване, но предполагам, всъщност
05:15
a surpriseизненада to someoneнякой who'dкой би had his roomстая fullпълен of the booksкниги.
84
297000
3000
не и изненада за някого, който бе напълнил стаята си с книгите.
05:18
It was always a surpriseизненада that it happenedсе случи then and there,
85
300000
4000
Винаги беше изненада, че се е случило тогава и там,
05:22
but it wasn'tне е a surpriseизненада that it happenedсе случи at all.
86
304000
4000
но не беше изненада, че изобщо се е случило.
05:26
And everyoneвсеки then startedзапочна writingписане about this.
87
308000
2000
Тогава всички започнаха да пишат за това.
05:28
ThousandsХиляди of people startedзапочна writingписане about this.
88
310000
1000
Хиляди хора започнаха да пишат за това.
05:29
And I eventuallyв крайна сметка abandonedизоставен the bookКнига, and then ChrisКрис calledНаречен me
89
311000
2000
В крайна сметка изоставих книгата, и тогава Крис ми се обади,
05:31
to talk at the conferenceконференция. I really don't talk about this anymoreвече
90
313000
3000
за да говоря на конференцията. Всъщност вече не говоря за това,
05:34
because, you know, there's enoughдостатъчно frustratingпропадане and depressingгнетящ things going on.
91
316000
5000
защото, разбирате ли, стават достатъчно обезсърчаващи и подтискащи неща.
05:39
But I agreedсъгласуван to come and say a fewмалцина things about this.
92
321000
3000
Но се съгласих да дойда и да кажа няколко неща за това.
05:42
And I would say that we can't give up the ruleправило of lawзакон
93
324000
3000
Бих казал, че не можем да се откажем от правилото на закона
05:45
to fightбитка an asymmetricасиметрична threatзаплаха, whichкойто is what we seemИзглежда to be doing
94
327000
4000
за борба с една асиметрична заплаха, което като че ли правим
05:49
because of the presentнастояще, the people that are in powerмощност,
95
331000
5000
заради настоящето - хората, които са на власт,
05:54
because that's to give up the thing that makesправи civilizationцивилизация.
96
336000
5000
защото това значи да се откажем от онова, което прави цивилизацията.
05:59
And we can't fightбитка the threatзаплаха in the kindмил of stupidтъп way we're doing,
97
341000
3000
И не можем да се борим със заплахата по някак глупавия начин, който използваме,
06:02
because a million-dollarедин милион долара actакт
98
344000
2000
защото един акт за милион долара
06:04
causesкаузи a billionмилиард dollarsдолара of damageщета, causesкаузи a trillionтрилион dollarдолар responseотговор
99
346000
3000
причинява щети за милиард долара, причинява отклик за трилион долара,
06:07
whichкойто is largelyдо голяма степен ineffectiveнеефективно and arguablyможе да се каже, probablyвероятно almostпочти certainlyразбира се,
100
349000
3000
който е като цяло неефективен и спорно, вероятно почти сигурно,
06:10
has madeизработен the problemпроблем worseпо-лошо.
101
352000
2000
е влошил проблема.
06:12
So we can't fightбитка the thing with a million-to-oneмилиона към едно costцена,
102
354000
5000
Значи не можем да се борим с това на стойност милион към едно,
06:17
one-to-a-millionда-а-милион cost-benefitразходите и ползите ratioсъотношение.
103
359000
6000
полезен коефициент едно към един милион.
06:24
So after givingдавайки up on the bookКнига -- and I had the great honorчест
104
366000
5000
И така, след като се отказах от книгата... имах огромната чест
06:29
to be ableспособен to joinприсъедините KleinerКлайнер PerkinsПъркинс about a yearгодина agoпреди,
105
371000
4000
да се присъединя към Клайнър Пъркинс преди около година,
06:33
and to work throughпрез ventureвенчър capitalкапитал on the innovativeиновативен sideстрана,
106
375000
7000
да работя откъм иновативната страна на рисковия капитал
06:40
and to try to find some innovationsиновации that could addressадрес what I saw as
107
382000
4000
и да се опитам да открия някои иновации, които биха могли
06:44
some of these bigголям problemsпроблеми.
108
386000
2000
да насочат онова, което виждах като някои големи проблеми.
06:46
Things where, you know, a factorфактор of 10 differenceразлика
109
388000
3000
Неща, при които десетичен фактор
06:49
can make a factorфактор of 1,000 differenceразлика in the outcomeизход.
110
391000
4000
може да предизвика промяна с хилядократен фактор в резултата.
06:53
I've been amazedизумени in the last yearгодина at the incredibleневероятен qualityкачество
111
395000
3000
Бях изумен през последната година от невероятното качество
06:56
and excitementвълнение of the innovationsиновации that have come acrossпрез my deskбюро.
112
398000
5000
и вълнение от иновациите, преминали през бюрото ми.
07:01
It's overwhelmingпоразителен at timesпъти. I'm very thankfulблагодарен for GoogleGoogle and WikipediaУикипедия
113
403000
3000
Понякога е съкрушително. Много съм благодарен за Гугъл и Уикипедия,
07:04
so I can understandразбирам at leastнай-малко a little of what people are talkingговорим about
114
406000
4000
за да мога да разбера поне малко от това, за което говорят хората,
07:08
who come throughпрез the doorsврати.
115
410000
2000
влизащи през вратите.
07:10
But I wanted to shareдял with you threeтри areasобласти
116
412000
3000
Но исках да споделя с вас три области,
07:13
that I'm particularlyособено excitedвъзбуден about and that relateотнасят to the problemsпроблеми
117
415000
3000
от които съм особено развълнуван и които се свързват с проблемите,
07:16
that I was talkingговорим about in the WiredКабелен articleстатия.
118
418000
5000
за които говорих в статията в "Уайърд".
07:21
The first is this wholeцяло area■ площ of educationобразование,
119
423000
2000
Първата е цялата тази област от образованието,
07:23
and it really relatesсе отнася to what NicholasНикълъс was talkingговорим about with a $100 computerкомпютър.
120
425000
4000
която наистина се свързва с онова, за което говореше Никълъс с един стодоларов компютър.
07:27
And that is to say that there's a lot of legsкрака left in Moore'sМур LawЗакон.
121
429000
4000
Това ще рече, че от закона на Мур са останали много фази.
07:31
The mostнай-много advancedнапреднал transistorsтранзистори todayднес are at 65 nanometersнанометра,
122
433000
4000
Най-напредналите транзистори днес са на 65 нанометъра,
07:35
and we'veние имаме seenвидян, and I've had the pleasureудоволствие to investинвестирам
123
437000
3000
а ние сме виждали и аз имах удоволствието да инвестирам
07:38
in, companiesкомпании that give me great confidenceувереност that we'llдобре extendразшири Moore'sМур LawЗакон
124
440000
6000
във фирми, които ми дават огромна увереност, че ще разширим закона на Мур
07:44
all the way down to roughlyприблизително the 10 nanometerнанометър scaleмащаб.
125
446000
3000
чак до близо десет нанометрова скала.
07:47
AnotherДруг factorфактор of, say, sixшест in dimensionalтриизмерна reductionнамаление,
126
449000
6000
Друг фактор от, да кажем, шест в измерима редукция,
07:53
whichкойто should give us about anotherоще factorфактор of 100 in rawсуров improvementподобрение
127
455000
5000
който трябва да ни даде около друг фактор от 100 в сурово подобрение
07:58
in what the chipsчипс can do. And so, to put that in practicalпрактичен termsусловия,
128
460000
5000
е онова, което могат да направят чиповете. В практическо изражение,
08:03
if something costsразходи about 1,000 dollarsдолара todayднес,
129
465000
4000
ако нещо струва около 1000 долара днес,
08:07
say, the bestнай-доброто personalперсонален computerкомпютър you can buyКупувам, that mightбиха могли, може be its costцена,
130
469000
5000
да кажем, най-добрият персонален компютър, който може да се купи, това може да е стойността му,
08:12
I think we can have that in 2020 for 10 dollarsдолара. Okay?
131
474000
6000
мисля, че можем да го имаме през 2020-та за 10 долара. Нали?
08:18
Now, just imagineПредставете си what that $100 computerкомпютър will be in 2020
132
480000
5000
А сега просто си представете какъв ще е един стодоларов компютър през 2020-та
08:23
as a toolинструмент for educationобразование.
133
485000
2000
като инструмент за образование.
08:25
I think the challengeпредизвикателство for us is --
134
487000
2000
Мисля, че предизвикателството за нас е...
08:27
I'm very certainопределен that that will happenстава, the challengeпредизвикателство is,
135
489000
2000
твърде сигурен съм, че това ще се случи - предизвикателството е,
08:29
will we developразвият the kindмил of educationalобразователен toolsинструменти and things with the netнето
136
491000
5000
дали ще развием вида образователни инструменти и неща в мрежата,
08:34
to let us take advantageпредимство of that deviceприспособление?
137
496000
3000
които да ни разрешат да се възползваме от това устройство?
08:37
I'd argueспоря todayднес that we have incrediblyневероятно powerfulмощен computersкомпютри,
138
499000
4000
Днес бих твърдял, че имаме невероятно мощни компютри,
08:41
but we don't have very good softwareсофтуер for them.
139
503000
2000
но нямаме много добър софтуер за тях.
08:43
And it's only in retrospectретроспекция, after the better softwareсофтуер comesидва alongзаедно,
140
505000
3000
И само в ретроспекция, след като дойде по-добрият софтуер,
08:46
and you take it and you runтичам it on a ten-year-oldдесет-година-стар machineмашина, you say,
141
508000
2000
щом го вземеш и пуснеш на десетгодишна машина, ще кажеш:
08:48
God, the machineмашина was that fastбърз?
142
510000
2000
Боже, толкова ли е била бърза тази машина?
08:50
I rememberпомня when they tookвзеха the AppleЯбълка MacMac interfaceинтерфейс
143
512000
2000
Помня, когато взеха интерфейса на "Епъл Мак"
08:52
and they put it back on the AppleЯбълка IIII.
144
514000
3000
и го сложиха обратно на "Епъл II".
08:55
The AppleЯбълка IIII was perfectlyсъвършено capableспособен of runningбягане that kindмил of interfaceинтерфейс,
145
517000
3000
"Епъл ІІ" беше напълно способен да работи с този вид интерфейс,
08:58
we just didn't know how to do it at the time.
146
520000
3000
просто не знаехме как да го правим по онова време.
09:01
So givenдаден that we know and should believe --
147
523000
2000
Като се има предвид, че знаем и трябва да вярваме...
09:03
because Moore'sМур Law'sЗакон на been, like, a constantпостоянен,
148
525000
3000
защото законът на Мур беше един вид константа,
09:06
I mean, it's just been very predictableпредсказуем progressпрогрес
149
528000
3000
искам да кажа, просто имаше много предсказуем напредък
09:09
over the last 40 yearsгодини or whateverкакто и да е.
150
531000
3000
през последните 40 години, или там някъде.
09:12
We can know what the computersкомпютри are going to be like in 2020.
151
534000
4000
Можем да знаем какви ще бъдат компютрите през 2020-та.
09:16
It's great that we have initiativesинициативи to say,
152
538000
2000
Страхотно е, че имаме инициативите да кажем,
09:18
let's go createсъздавам the educationобразование and educateобразовам people in the worldсвят,
153
540000
3000
да отидем да създаваме образование и да образоваме хората по света,
09:21
because that's a great forceсила for peaceмир.
154
543000
2000
защото това е огромна сила за мира.
09:23
And we can give everyoneвсеки in the worldсвят a $100 computerкомпютър
155
545000
3000
Можем да дадем на всеки по света един стодоларов компютър
09:26
or a $10 computerкомпютър in the nextследващия 15 yearsгодини.
156
548000
5000
или 10-доларов компютър през следващите 15 години.
09:31
The secondвтори area■ площ that I'm focusingфокусиране on is the environmentalна околната среда problemпроблем,
157
553000
5000
Втората област, върху която се съсредоточавам, е проблемът с околната среда,
09:36
because that's clearlyясно going to put a lot of pressureналягане on this worldсвят.
158
558000
4000
защото това явно ще подложи този свят на голям натиск.
09:40
We'llНие ще hearчувам a lot more about that from AlАл GoreГор very shortlyскоро.
159
562000
4000
Ще чуем много повече за това от Ал Гор много скоро.
09:44
The thing that we see as the kindмил of Moore'sМур LawЗакон trendтенденция
160
566000
3000
Онова, което виждаме като типа тенденция от закона на Мур,
09:47
that's drivingшофиране improvementподобрение in our abilityспособност to addressадрес
161
569000
3000
което движи подобрението в нашата способност да се насочваме
09:50
the environmentalна околната среда problemпроблем is newнов materialsматериали.
162
572000
4000
към проблема с околната среда, са нови материали.
09:54
We have a challengeпредизвикателство, because the urbanградски populationнаселение is growingнарастващ
163
576000
4000
Имаме предизврикателство, защото градското население расте
09:58
in this centuryвек from two billionмилиард to sixшест billionмилиард
164
580000
3000
през този век от два милиарда на шест милиарда
10:01
in a very shortнисък amountколичество of time. People are movingдвижещ to the citiesградове.
165
583000
2000
за много кратък период от време. Хората се местят в градовете.
10:03
They all need cleanчист waterвода, they need energyенергия, they need transportationтранспорт,
166
585000
3000
Всички те имат нужда от чиста вода, имат нужда от енергия, имат нужда от транспорт
10:06
and we want them to developразвият in a greenзелен way.
167
588000
4000
и искаме да се развиват по зелен начин.
10:10
We're reasonablyразумно efficientефикасен in the industrialиндустриален sectorsсектори.
168
592000
2000
Ние сме разумно ефикасни в индустриалните сектори.
10:12
We'veНие сме madeизработен improvementsподобрения in energyенергия and resourceсредство efficiencyефективност,
169
594000
3000
Направили сме подобрения в енергийната и ресурсна ефикасност,
10:15
but the consumerконсуматор sectorсектор, especiallyособено in AmericaАмерика, is very inefficientнеефикасен.
170
597000
4000
но потребителският сектор, особено в Америка, е много неефикасен.
10:19
But these newнов materialsматериали bringвъвеждат suchтакъв incredibleневероятен innovationsиновации
171
601000
4000
Тези нови материали обаче внасят такива невероятни иновации,
10:23
that there's a strongсилен basisоснова for hopeнадявам се that these things
172
605000
4000
че има силна основа за надежда тези неща
10:27
will be so profitableдоходен that they can be broughtдонесе to the marketпазар.
173
609000
2000
да са толкова доходни, че да могат да бъдат изнесени на пазара.
10:29
And I want to give you a specificспецифичен exampleпример of a newнов materialматериал
174
611000
3000
Искам да ви дам определен пример за един нов материал,
10:32
that was discoveredоткрит 15 yearsгодини agoпреди.
175
614000
3000
който е бил открит преди 15 години.
10:35
If we take carbonвъглероден nanotubesнанотръби, you know, IijimaИджима discoveredоткрит them in 1991,
176
617000
5000
Ако вземем карбоновите нанотръби, нали знаете, Иджима ги е открил през 1991-ва,
10:40
they just have incredibleневероятен propertiesсвойства.
177
622000
2000
те просто имат невероятни свойства.
10:42
And these are the kindsвидове of things we're going to discoverоткривам
178
624000
1000
Това са типовете неща, които ще откриваме,
10:43
as we startначало to engineerинженер at the nanoНано scaleмащаб.
179
625000
3000
докато започваме да проектираме в нано мащаб.
10:46
TheirИм strengthсила: they're almostпочти the strongest-силната materialматериал,
180
628000
3000
Тяхната здравина: те са почти най-здравият
10:49
tensileопън strengthсила materialматериал knownизвестен.
181
631000
2000
известен твърд материал.
10:52
They're very, very stiffтвърд. They stretchопъвам, разтягам very, very little.
182
634000
5000
Те са много, много твърди. Разтягат се много, много малко.
10:57
In two dimensionsразмери, if you make, like, a fabricплат out of them,
183
639000
3000
В две измерения, ако направите например тъкан от тях,
11:00
they're 30 timesпъти strongerпо-силен than KevlarКевлар.
184
642000
3000
те са 30 пъти по-здрави от кевлар.
11:03
And if you make a three-dimensionalтриизмерен structureструктура, like a buckyballмагнитна топка,
185
645000
3000
А ако направите триизмерна структура, като магнитна топка,
11:06
they have all sortsвидове of incredibleневероятен propertiesсвойства.
186
648000
2000
имат всякакви невероятни свойства.
11:08
If you shootстрелям a particleчастица at them and knockчук a holeдупка in them,
187
650000
3000
Ако изстреляте частица към тях и пробиете дупка в тях,
11:11
they repairремонт themselvesсебе си; they go zipцип and they repairремонт the holeдупка
188
653000
3000
те се поправят сами; затварят се и поправят дупката
11:14
in femtosecondsfemtoseconds, whichкойто is not -- is really quickбърз.
189
656000
3000
за фемтосекунди, което не е... е наистина бързо.
11:17
(LaughterСмях)
190
659000
3000
(Смях)
11:20
If you shineблясък a lightсветлина on them, they produceпродукция electricityелектричество.
191
662000
4000
Ако ги осветите със светлина, произвеждат електричество.
11:24
In factфакт, if you flashфлаш them with a cameraкамера they catchулов on fireпожар.
192
666000
3000
Всъщност, ако ги снимате с фотоапарат със светкавица, се запалват.
11:27
If you put electricityелектричество on them, they emitизлъчват lightсветлина.
193
669000
4000
Ако поставите електричество върху тях, излъчват светлина.
11:31
If you runтичам currentтекущ throughпрез them, you can runтичам 1,000 timesпъти more currentтекущ
194
673000
3000
Ако прекарате ток през тях, може да прекарате 1000 пъти повече ток
11:34
throughпрез one of these than throughпрез a pieceпарче of metalметал.
195
676000
4000
през една от тях, отколкото през парче метал.
11:38
You can make bothи двете p-p- and n-typen тип semiconductorsполупроводници,
196
680000
3000
Може да правите както p-, така и n- тип полупроводници,
11:41
whichкойто meansсредства you can make transistorsтранзистори out of them.
197
683000
2000
което означава, че от тях може да се правят транзистори.
11:43
They conductповедение heatтоплина alongзаедно theirтехен lengthдължина but not acrossпрез --
198
685000
3000
Те провеждат топлина по дължината си, но не напряко...
11:46
well, there is no widthширочина, but not in the other directionпосока
199
688000
2000
е, няма ширина, но не в другата посока,
11:48
if you stackкупчина them up; that's a propertyИмот of carbonвъглероден fiberвлакно alsoсъщо.
200
690000
6000
ако ги натрупате на купчина; това е също и свойство на въглеродното влакно.
11:54
If you put particlesчастици in them, and they go shootingстрелба out the tipбакшиш --
201
696000
3000
Ако поставите частици в тях и те се изстрелят от върха -
11:57
they're like miniatureминиатюрни linearлинеен acceleratorsускорители or electronелектрон gunsпистолети.
202
699000
3000
те са като миниатюрни линеарни ускорители или електронни оръдия.
12:00
The insideвътре of the nanotubesнанотръби is so smallмалък --
203
702000
3000
Вътрешността на нанотръбите е толкова малка -
12:03
the smallestнай-малките onesтакива are 0.7 nanometersнанометра --
204
705000
2000
най-малките са 0,7 нанометъра -
12:05
that it's basicallyв основата си a quantumквант worldсвят.
205
707000
2000
това по същество е квантов свят.
12:07
It's a strangeстранен placeмясто insideвътре a nanotubeнанотръба.
206
709000
3000
Вътре в нанотръбата е странно място.
12:10
And so we beginзапочвам to see, and we'veние имаме seenвидян businessбизнес plansпланове alreadyвече,
207
712000
3000
И така, започваме да виждаме, и вече сме виждали бизнес планове,
12:13
where the kindмил of things LisaЛиза Randall'sНа Рандал talkingговорим about are in there.
208
715000
3000
вътре в които ги има вида неща, за които говори Линда Рандъл.
12:16
I had one businessбизнес planплан where I was tryingопитвайки to learnуча more about
209
718000
2000
Имах един бизнес план, при който се опитвах да науча повече
12:18
Witten'sНа измерения на Уитън cosmicкосмически dimensionизмерение stringsструни to try to understandразбирам
210
720000
3000
за космическите струни на измерения на Уитън, за да се опитам да разбера
12:21
what the phenomenonфеномен was going on in this proposedпредложената nanomaterialнаноматериал.
211
723000
3000
какъв феномен се е случва в този предложен наноматериал.
12:24
So insideвътре of a nanotubeнанотръба, we're really at the limitлимит here.
212
726000
6000
Вътре в една нанотръба - тук сме наистина на границата.
12:30
So what we see is with these and other newнов materialsматериали
213
732000
4000
Онова, което виждаме с тези и други нови материали,
12:34
that we can do things with differentразличен propertiesсвойства -- lighterзапалка, strongerпо-силен --
214
736000
4000
е, че можем да правим неща с различни свойства - по-леки, по-здрави -
12:38
and applyПриложи these newнов materialsматериали to the environmentalна околната среда problemsпроблеми.
215
740000
6000
и да прилагаме тези нови материали към проблемите с околната среда.
12:44
NewНов materialsматериали that can make waterвода,
216
746000
1000
Нови материали, които могат да правят вода,
12:45
newнов materialsматериали that can make fuelгориво cellsклетки work better,
217
747000
2000
нови материали, които могат да накарат горивните клетки да работят по-добре,
12:47
newнов materialsматериали that catalyzeкатализират chemicalхимически reactionsреакции,
218
749000
4000
нови материали, които катализират химични реакции,
12:51
that cutразрез pollutionзамърсяване and so on.
219
753000
3000
които ограничават замърсяването, и така нататък.
12:54
EthanolЕтанол -- newнов waysначини of makingприготвяне ethanolетанол.
220
756000
3000
Етанол - нови начини да се прави етанол.
12:57
NewНов waysначини of makingприготвяне electricелектрически transportationтранспорт.
221
759000
3000
Нови начини за електрически транспорт.
13:00
The wholeцяло greenзелен dreamмечта -- because it can be profitableдоходен.
222
762000
4000
Цялата зелена мечта - защото тя може да бъде доходоносна.
13:04
And we'veние имаме dedicatedпосветен -- we'veние имаме just raisedувеличен a newнов fundфонд,
223
766000
2000
И сме се посветили... току-що събрахме един нов фонд,
13:06
we dedicatedпосветен 100 millionмилион dollarsдолара to these kindsвидове of investmentsинвестиции.
224
768000
3000
посветихме 100 милиона долара на този вид инвестиции.
13:09
We believe that GenentechGenentech, the CompaqCompaq, the LotusLotus, the SunСлънце,
225
771000
4000
Вярваме, че "Генентех", "Компак", "Лотус", "Сън",
13:13
the NetscapeNetscape, the AmazonАмазонка, the GoogleGoogle in these fieldsполета
226
775000
4000
Нетскейп, Амазон, Гугъл в тези области
13:17
are yetоще to be foundнамерено, because this materialsматериали revolutionреволюция
227
779000
3000
все още предстои да бъдат открити, защото тази революция на материалите
13:20
will driveпът these things forwardнапред.
228
782000
3000
ще тласка тези неща напред.
13:24
The thirdтрета area■ площ that we're workingработа on,
229
786000
2000
Третата област, в която работим
13:26
and we just announcedоповестен last weekседмица -- we were all in NewНов YorkЙорк.
230
788000
4000
и тъкмо обявихме миналата седмица - всички бяхме в Ню Йорк.
13:30
We raisedувеличен 200 millionмилион dollarsдолара in a specialtyспециалност fundфонд
231
792000
6000
Набрахме 200 милиона долара в специализиран фонд
13:36
to work on a pandemicпандемия in biodefensebiodefense.
232
798000
4000
за работа по пандемия в биозащита.
13:40
And to give you an ideaидея of the last fundфонд that KleinerКлайнер raisedувеличен
233
802000
3000
За да ви дам представа за последния фонд, който набра Клайнер,
13:43
was a $400 millionмилион fundфонд, so this for us is a very substantialсъществен fundфонд.
234
805000
5000
това бе фонд от 400 милиона долара, така че за нас това е много значителен фонд.
13:48
And what we did, over the last fewмалцина monthsмесеца -- well, a fewмалцина monthsмесеца agoпреди,
235
810000
4000
Онова, което правихме в течение на последните няколко месеца... е, преди няколко месеца,
13:52
RayРей KurzweilKurzweil and I wroteнаписах an op-edоп-ЕД in the NewНов YorkЙорк TimesПъти
236
814000
3000
с Рей Кърцуайл написахме една статия в "Ню Йорк Таймс"
13:55
about how publishingиздаване the 1918 genomeгеном was very dangerousопасно.
237
817000
3000
за това как публикуването на генома от 1918-та беше много опасно.
13:58
And JohnДжон DoerrDoerr and BrookБрук and othersдруги got concernedобезпокоен, [unclearнеясен],
238
820000
4000
Джон Дор, Брук и други бяха загрижени, [неясно],
14:02
and we startedзапочна looking around at what the worldсвят was doing
239
824000
4000
и зпочнахме да се оглеждаме какво прави светът,
14:06
about beingсъщество preparedприготвен for a pandemicпандемия. And we saw a lot of gapsпропуски.
240
828000
5000
за да е подготвен за пандемия. Видяхме много празноти.
14:11
And so we askedпопитах ourselvesсебе си, you know, can we find innovativeиновативен things
241
833000
4000
И затова се запитахме: можем ли да открием иновативни неща,
14:15
that will go fillзапълни these gapsпропуски? And BrooksБрукс told me in a breakпочивка here,
242
837000
4000
които да запълнят тези празноти? А Брукс ми каза в една почивка тук,
14:19
he said he's foundнамерено so much stuffматерия he can't sleepсън,
243
841000
2000
каза, че е открил толкова неща, че не може да спи,
14:21
because there's so manyмного great technologiesтехнологии out there,
244
843000
3000
защото има толкова много страхотни технологии,
14:24
we're essentiallyпо същество buriedпогребан. And we need them, you know.
245
846000
3000
че направо сме заровени в тях. А имаме нужда от тях, разбирате ли.
14:27
We have one antiviralантивирусен that people are talkingговорим about stockpilingскладирането
246
849000
3000
Имаме един антивирусен препарат, който хората са се заели да трупат,
14:30
that still worksвърши работа, roughlyприблизително. That's TamifluTamiflu.
247
852000
3000
който, общо взето, още действа. Това е "Тамифлу".
14:33
But TamifluTamiflu -- the virusвирус is resistantустойчив. It is resistantустойчив to TamifluTamiflu.
248
855000
5000
Но "Тамифлу"... вирусът е резистентен. Резистентен е към "Тамифлу".
14:38
We'veНие сме discoveredоткрит with AIDSСПИН we need cocktailsкоктейли to work well
249
860000
4000
Открихме със СПИН, че са ни нужни коктейли, за да действат добре,
14:42
so that the viralвирусни resistanceсъпротивление -- we need severalняколко anti-viralsАнти-virals.
250
864000
3000
така че вирусната резистентност... нужни са ни няколко антивирусни препарата.
14:45
We need better surveillanceнаблюдение.
251
867000
2000
Нужен ни е по-добър надзор.
14:47
We need networksмрежи that can find out what's going on.
252
869000
3000
Нужни са ни мрежи, които могат да открият какво става.
14:50
We need rapidбърз diagnosticsдиагностика so that we can tell if somebodyнякой has
253
872000
4000
Нужна ни е бърза диагностика, така че да можем да разберем дали
14:54
a strainдеформация of fluгрип whichкойто we have only identifiedидентифициран very recentlyнаскоро.
254
876000
4000
някой има грипна разновидност, която сме идентифицирали едва много наскоро.
14:58
We'veНие сме got to be ableспособен to make the rapidбърз diagnosticsдиагностика quicklyбързо.
255
880000
2000
Трябва да сме в състояние да правим бърза диагностика.
15:00
We need newнов anti-viralsАнти-virals and cocktailsкоктейли. We need newнов kindsвидове of vaccinesваксини.
256
882000
3000
Нужни са ни нови антивирусни препарати и коктейли. Нужни са ни нови видове ваксини.
15:03
VaccinesВаксини that are broadширок spectrumспектър.
257
885000
2000
Ваксини, които са широк спектър.
15:05
VaccinesВаксини that we can manufactureпроизводство quicklyбързо.
258
887000
4000
Ваксини, които можем да произвеждаме бързо.
15:09
CocktailsКоктейли, more polyvalentполивалентна vaccinesваксини.
259
891000
2000
Коктейли, по-поливалентни ваксини.
15:11
You normallyнормално get a trivalentтривалентна vaccineваксина againstсрещу threeтри possibleвъзможен strainsщамове.
260
893000
3000
Обикновено има тривалентна ваксина срещу три възможни разновидности.
15:14
We need -- we don't know where this thing is going.
261
896000
3000
Нужно ни е... не знаем накъде върви това.
15:17
We believe that if we could fillзапълни these 10 gapsпропуски,
262
899000
3000
Вярваме, че ако успеем да запълним тези 10 празнини,
15:20
we have a chanceшанс to help really reduceнамаляване на the riskриск of a pandemicпандемия.
263
902000
6000
имаме шанс наистина да помогнем за понижаване риска от пандемия.
15:26
And the differenceразлика betweenмежду a normalнормален fluгрип seasonсезон and a pandemicпандемия
264
908000
4000
А разликата между нормален грипен сезон и пандемия
15:30
is about a factorфактор of 1,000 in deathsсмъртни случаи
265
912000
3000
е приблизително хилядократна по отношение на смъртните случаи
15:33
and certainlyразбира се enormousогромен economicикономически impactвъздействие.
266
915000
3000
и със сигурност огромен икономически ефект.
15:36
So we're very excitedвъзбуден because we think we can fundфонд 10,
267
918000
3000
Затова много се вълнуваме, защото смятаме, че можем да финансираме 10,
15:39
or speedскорост up 10 projectsпроекти and see them come to marketпазар
268
921000
4000
или да ускорим 10 проекта и да ги видим да излизат на пазара
15:43
in the nextследващия coupleдвойка yearsгодини that will addressадрес this.
269
925000
3000
през следващите две години, които да бъдат насочени към това.
15:46
So if we can addressадрес, use technologyтехнология, help addressадрес educationобразование,
270
928000
3000
Ако можем да насочваме, да използваме технология, да помагаме за насочване към образованието,
15:49
help addressадрес the environmentзаобикаляща среда, help addressадрес the pandemicпандемия,
271
931000
3000
да помагаме за насочване към околната среда, да помагаме за насочване към пандемията,
15:52
does that solveрешавам the largerпо-голям problemпроблем that I was talkingговорим about
272
934000
4000
разрешава ли това по-голямия проблем, за който говорех
15:56
in the WiredКабелен articleстатия? And I'm afraidуплашен the answerотговор is really no,
273
938000
5000
в статията в "Уайърд"? Боя се, че всъщност отговорът е "не",
16:01
because you can't solveрешавам a problemпроблем with the managementуправление of technologyтехнология
274
943000
4000
защото не може да се разреши един проблем с управлението на технологията
16:05
with more technologyтехнология.
275
947000
3000
с още повече технология.
16:08
If we let an unlimitedнеограничен amountколичество of powerмощност looseхлабав, then we will --
276
950000
5000
Ако оставим неограничено количество власт, ще изгубим...
16:13
a very smallмалък numberномер of people will be ableспособен to abuseзлоупотреба it.
277
955000
2000
много малък брой хора ще са в състояние да злоупотребяват с нея.
16:15
We can't fightбитка at a million-to-oneмилиона към едно disadvantageнедостатък.
278
957000
4000
Не можем да се борим при неблагоприятни шансове милион към едно.
16:19
So what we need to do is, we need better policyполитика.
279
961000
3000
Онова, което трябва да направим, е - нужна ни е по-добра политика.
16:22
And for exampleпример, some things we could do
280
964000
3000
Например, някои неща, които можем да направим,
16:25
that would be policyполитика solutionsрешения whichкойто are not really in the politicalполитически airвъздух right now
281
967000
4000
това биха били политически решения, които всъщност не са в духа на политиката в момента,
16:29
but perhapsможе би with the changeпромяна of administrationадминистрация would be -- use marketsпазари.
282
971000
4000
но вероятно с промяната на администрацията биха били... да използваме пазари.
16:33
MarketsПазари are a very strongсилен forceсила.
283
975000
2000
Пазарите са много мощна сила.
16:35
For exampleпример, ratherпо-скоро than tryingопитвайки to regulateрегулира away problemsпроблеми,
284
977000
3000
Например, вместо да се опитваме да отстраняваме проблеми чрез регулация,
16:38
whichкойто probablyвероятно won'tняма да work, if we could priceцена
285
980000
2000
която вероятно няма да подейства, ако можехме да ценообразуваме
16:40
into the costцена of doing businessбизнес, the costцена of catastropheкатастрофа,
286
982000
5000
стойността на правенето на бизнес, стойността на катастрофата,
16:45
so that people who are doing things that had a higherпо-висок costцена of catastropheкатастрофа
287
987000
3000
така че хората, които правят неща с по-висока цена за катастрофа,
16:48
would have to take insuranceзастраховка againstсрещу that riskриск.
288
990000
3000
да трябва да се застраховат срещу този риск.
16:51
So if you wanted to put a drugлекарство on the marketпазар you could put it on.
289
993000
2000
Ако искате да изнесете едно лекарство на пазара, може да го сторите.
16:53
But it wouldn'tне би have to be approvedодобрен by regulatorsрегулатори;
290
995000
2000
Но няма да е нужно да е одобрено от регулатори;
16:55
you'dти можеш have to convinceубеждавам an actuaryактюер that it would be safeсейф.
291
997000
4000
ще трябва да убедите статистик, че ще бъде безопасно.
16:59
And if you applyПриложи the notionпонятие of insuranceзастраховка more broadlyнай-общо,
292
1001000
3000
А ако се по-широко приложи понятието застраховка,
17:02
you can use a more powerfulмощен forceсила, a marketпазар forceсила,
293
1004000
3000
може да се използва по-мощна сила, пазарна сила,
17:05
to provideпредоставяне feedbackобратна връзка.
294
1007000
2000
за осигуряване на обратна връзка.
17:07
How could you keep the lawзакон?
295
1009000
1000
Как може да се запази законът?
17:08
I think the lawзакон would be a really good thing to keep.
296
1010000
2000
Мисля, че законът би бил наистина добро нещо за запазване.
17:10
Well, you have to holdдържа people accountableотговорен.
297
1012000
2000
Е, хората трябва да носят отговорност.
17:12
The lawзакон requiresизисква accountabilityотговорност.
298
1014000
2000
Законът изисква отговорност.
17:14
TodayДнес scientistsучени, technologistsтехнолози, businessmenбизнесмени, engineersинженери
299
1016000
3000
Днес учените, технолозите, бизнесмените, инженерите
17:17
don't have any personalперсонален responsibilityотговорност
300
1019000
2000
нямат никаква лична отговорност
17:19
for the consequencesпоследствия of theirтехен actionsмерки.
301
1021000
2000
за последиците от своите действия.
17:21
So if you tieвратовръзка that -- you have to tieвратовръзка that back with the lawзакон.
302
1023000
4000
Затова, ако вържеш това - трябва да свържеш това със закона.
17:25
And finallyнакрая, I think we have to do something that's not really --
303
1027000
4000
И накрая - мисля, че трябва да направим нещо, което всъщност не е...
17:29
it's almostпочти unacceptableнеприемлив to say this -- whichкойто,
304
1031000
1000
почти неприемливо е да се каже това...
17:30
we have to beginзапочвам to designдизайн the futureбъдеще.
305
1032000
3000
с което трябва да започнем да проектираме бъдещето.
17:33
We can't pickизбирам the futureбъдеще, but we can steerчелни the futureбъдеще.
306
1035000
4000
Не можем да поемем бъдещето, но можем да насочим бъдещето.
17:37
Our investmentинвестиция in tryingопитвайки to preventпредотвратявам pandemicпандемия fluгрип
307
1039000
2000
Нашата инвестиция в опита да се предотврати пандемичен грип
17:39
is affectingзасягащи the distributionразпределение of possibleвъзможен outcomesрезултати.
308
1041000
4000
засяга разпространението на възможните резултати.
17:43
We mayможе not be ableспособен to stop it, but the likelihoodвероятност
309
1045000
2000
Може да не успеем да го спрем, но вероятността
17:45
that it will get pastминало us is lowerнисък if we focusфокус on that problemпроблем.
310
1047000
4000
той да ни се изплъзне е по-ниска, ако се съсредоточим върху този проблем.
17:49
So we can designдизайн the futureбъдеще if we chooseизбирам what kindмил of things
311
1051000
4000
Можем да проектираме бъдещето, ако избираме какъв вид неща
17:53
we want to have happenстава and not have happenстава,
312
1055000
3000
искаме да се случват и да не се случват,
17:56
and steerчелни us to a lower-riskумерен риск placeмясто.
313
1058000
3000
и да се насочим към място с по-нисък риск.
17:59
ViceЗаместник PresidentПредседател GoreГор will talk about how we could steerчелни the climateклимат trajectoryтраектория
314
1061000
6000
Вицепрезидентът Гор ще говори за това как бихме могли да насочим траекторията на климата
18:05
into a lowerнисък probabilityвероятност of catastrophicкатастрофален riskриск.
315
1067000
3000
към по-ниска вероятност от катастрофален риск.
18:08
But aboveпо-горе all, what we have to do is we have to help the good guys,
316
1070000
3000
Но онова, което най-вече тябва да сторим, е, че трябва да помогнем на добрите,
18:11
the people on the defensiveотбранителен sideстрана,
317
1073000
2000
на хората от страна на защитата,
18:13
have an advantageпредимство over the people who want to abuseзлоупотреба things.
318
1075000
4000
да имат предимство над хората, които искат да злоупотребяват.
18:17
And what we have to do to do that
319
1079000
2000
Всичко, което трябва да направим,
18:19
is we have to limitлимит accessдостъп to certainопределен informationинформация.
320
1081000
3000
е, че трябва да ограничим достъпа до определена информация.
18:22
And growingнарастващ up as we have, and holdingдържеше very highВисоко
321
1084000
3000
Със сегашното ни израстване и високо издигане
18:25
the valueстойност of freeБезплатно speechреч, this is a hardтвърд thing for us to acceptприемам --
322
1087000
4000
ценността на свободното слово, това е нещо, трудно за приемане от нас -
18:29
for all of us to acceptприемам.
323
1091000
1000
трудно за приемане от всички нас.
18:30
It's especiallyособено hardтвърд for the scientistsучени to acceptприемам who still rememberпомня,
324
1092000
5000
Особено трудно за приемане е за учените, които все още помнят,
18:35
you know, Galileo"Галилео" essentiallyпо същество lockedзаключен up,
325
1097000
2000
разбирате ли, по същество как Галилео бил затворен
18:37
and who are still fightingборба this battleбитка againstсрещу the churchцърква.
326
1099000
4000
и които все още водят тази битка срещу църквата.
18:41
But that's the priceцена of havingкато a civilizationцивилизация.
327
1103000
5000
Но това е цената на това да имаш цивилизация.
18:46
The priceцена of retainingзапазване на the ruleправило of lawзакон
328
1108000
2000
Цената на това да се запази управлението на закона
18:48
is to limitлимит the accessдостъп to the great and kindмил of unbridledнеобуздан powerмощност.
329
1110000
5000
е да се ограничи достъпът до огромната и някак необуздана власт.
18:53
Thank you.
330
1115000
1000
Благодаря.
18:54
(ApplauseАплодисменти)
331
1116000
2000
(Аплодисменти)
Translated by MaYoMo com
Reviewed by Mihail Stoychev

▲Back to top

ABOUT THE SPEAKER
Bill Joy - Technologist and futurist
The co-founder of Sun Microsystems, Bill Joy has, in recent years, turned his attention to the biggest questions facing humanity: Where are we going? What could go wrong? What's the next great thing?

Why you should listen

In 2003, Bill Joy left Sun Microsystems, the computer company he cofounded, with no definite plans. He'd spent the late 1970s and early 1980s working on Berkeley UNIX (he wrote the vi editor), and the next decades building beautiful high-performance workstations at Sun. Always, he'd been a kind of polite engineer-gadfly -- refusing to settle for subpar code or muddled thinking.

In 2000, with a landmark cover story in Wired called "Why the Future Doesn't Need Us," Joy began to share his larger concerns with the world. A careful observer of the nanotech industry that was growing up around his own industry, Joy saw a way forward that, frankly, frightened him. He saw a very plausible future in which our own creations supplanted us -- if not out and out killed us (e.g., the gray goo problem). His proposed solution: Proceed with caution.

Joy's now a partner at KPMG, where he reviews business plans in education, environmental improvement and pandemic defense.

More profile about the speaker
Bill Joy | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee