ABOUT THE SPEAKER
Chris Urmson - Roboticist
Chris Umson is the Director of Self-Driving Cars at Google[x].

Why you should listen

Since 2009, Chris Urmson has headed up Google’s self-driving car program. So far, the team’s vehicles have driven over three quarters of a million miles. While early models included a driverless Prius that TEDsters got to test- ... um, -not-drive in 2011, more and more the team is building vehicles from the ground up, custom-made to go driverless.

Prior to joining Google, Umson was on the faculty of the Robotics Institute at Carnegie Mellon University, where his research focused on motion planning and perception for robotic vehicles. During his time at Carnegie Mellon, he served as Director of Technology for the team that won the 2007 DARPA Urban Challenge.

More profile about the speaker
Chris Urmson | Speaker | TED.com
TED2015

Chris Urmson: How a driverless car sees the road

克里斯·厄姆森: 無人車如何認路?

Filmed:
2,536,355 views

依統計資料,車輛中最不可靠的部分為駕駛者。克里斯·厄姆森所負責的谷歌無人車專案,是眾多方式中的其中一個嘗試把人從駕駛座移除的專案。他提到目前專案的進度,並且分享一些連續鏡頭畫面可以讓大家了解車輛如何辯識路況以及自主性的決定下一步該怎麼做。
- Roboticist
Chris Umson is the Director of Self-Driving Cars at Google[x]. Full bio

Double-click the English transcript below to play the video.

00:12
So in 1885, Karl卡爾 Benz奔馳
invented發明 the automobile汽車.
0
528
3949
1885年,卡爾·賓士發明汽車。
00:16
Later後來 that year, he took it out
for the first public上市 test測試 drive駕駛,
1
4707
3762
那年底,
他開著那台車做了第一次公開試駕,
00:20
and -- true真正 story故事 --
crashed墜毀 into a wall.
2
8469
3375
結果,撞毀了。
00:24
For the last 130 years年份,
3
12184
2043
過去 130 年來,
00:26
we've我們已經 been working加工 around that least最小
reliable可靠 part部分 of the car汽車, the driver司機.
4
14227
4319
我們一直致力於改進
車裡最不可靠的部分,駕駛。
00:30
We've我們已經 made製作 the car汽車 stronger.
5
18546
1354
我們讓車子更堅固。
00:32
We've我們已經 added添加 seat座位 belts皮帶,
we've我們已經 added添加 air空氣 bags包裝袋,
6
20200
2548
我們加上安全帶和安全氣囊,
00:34
and in the last decade, we've我們已經 actually其實
started開始 trying to make the car汽車 smarter聰明
7
22748
3971
過去十年,
我們想辦法讓車子變得更聰明
00:38
to fix固定 that bug竊聽器, the driver司機.
8
26719
2938
來修正駕駛這個問題。
00:41
Now, today今天 I'm going to talk to you
a little bit about the difference區別
9
29657
3261
現在,我要告訴你
00:44
between之間 patching修補 around the problem問題
with driver司機 assistance幫助 systems系統
10
32918
3808
使用駕駛輔助系統來修正這問題,
00:48
and actually其實 having fully充分
self-driving自駕車 cars汽車
11
36726
2564
和完全自動化駕駛其中的差異
00:51
and what they can do for the world世界.
12
39290
1880
以及在世界上所產生的影響。
00:53
I'm also going to talk to you
a little bit about our car汽車
13
41170
2995
我也將告訴你
關於我們車子的一些細節
00:56
and allow允許 you to see how it sees看到 the world世界
and how it reacts發生反應 and what it does,
14
44165
3999
讓你可以了解它所看到的世界
以及如何對外界做出反應,
01:00
but first I'm going to talk
a little bit about the problem問題.
15
48164
3187
首先我先來探討一個問題。
01:03
And it's a big problem問題:
16
51651
1648
是一個大問題:
01:05
1.2 million百萬 people are killed殺害
on the world's世界 roads道路 every一切 year.
17
53299
3089
全世界每年有 120 萬人
死於交通事故。
01:08
In America美國 alone單獨, 33,000 people
are killed殺害 each year.
18
56388
3784
僅僅美國,
每年就佔了 33,000 人。
01:12
To put that in perspective透視,
19
60172
2028
依此數據與飛機事故比較,
01:14
that's the same相同 as a 737
falling落下 out of the sky天空 every一切 working加工 day.
20
62200
4797
等於每個上班日,
都有一台 737 從空中掉下。
01:19
It's kind of unbelievable難以置信的.
21
67342
1786
有點讓人無法置信。
01:21
Cars汽車 are sold出售 to us like this,
22
69548
2298
車輛以這種模式賣給我們,
01:23
but really, this is what driving's駕駛的 like.
23
71846
2717
但實際上,
這才是我們開車所遇到的狀況,
01:26
Right? It's not sunny晴朗, it's rainy多雨的,
24
74563
2159
對吧?不是晴天,而是雨天,
01:28
and you want to do anything
other than drive駕駛.
25
76722
2488
除了開車外你還想要做其他事。
01:31
And the reason原因 why is this:
26
79210
1622
就是這個原因:
01:32
Traffic交通 is getting得到 worse更差.
27
80832
1858
交通變得更糟糕了。
01:34
In America美國, between之間 1990 and 2010,
28
82690
3506
在美國,1990 年到 2010 年間,
01:38
the vehicle車輛 miles英里 traveled旅行
increased增加 by 38 percent百分.
29
86196
3504
汽車行駛哩程數增加百分之三十八,
01:42
We grew成長 by six percent百分 of roads道路,
30
90213
2749
但是道路只增加百分之六,
01:44
so it's not in your brains大腦.
31
92962
1602
所以不是錯覺。
01:46
Traffic交通 really is substantially基本上 worse更差
than it was not very long ago.
32
94564
4276
跟幾年前比起來
交通其實是變差。
01:50
And all of this has a very human人的 cost成本.
33
98840
2409
所有這一切都代表大量的人力成本。
01:53
So if you take the average平均 commute改判 time
in America美國, which哪一個 is about 50 minutes分鐘,
34
101529
3948
以美國平均通勤時間來看,
大約 50 分鐘,
01:57
you multiply that by the 120 million百萬
workers工人 we have,
35
105477
3649
乘以目前約一億兩千萬工作人口,
02:01
that turns out to be
about six billion十億 minutes分鐘
36
109126
2225
將會是六十億分鐘的時間
02:03
wasted浪費 in commuting上下班 every一切 day.
37
111351
2026
浪費在每天的通勤上。
02:05
Now, that's a big number,
so let's put it in perspective透視.
38
113377
2827
這是個很大的數值,
這個數據,相當於
02:08
You take that six billion十億 minutes分鐘
39
116204
1774
把六十億分鐘的時間
02:09
and you divide劃分 it by the average平均
life expectancy期待 of a person,
40
117978
3784
除以一般人的平均壽命,
02:13
that turns out to be 162 lifetimes壽命
41
121762
3135
將會是 162 個人一生的時間
02:16
spent花費 every一切 day, wasted浪費,
42
124897
2925
每天浪費在這交通上面,
02:19
just getting得到 from A to B.
43
127822
2044
只是要從 A 點移動到 B 點。
02:21
It's unbelievable難以置信的.
44
129866
1730
讓人無法置信。
02:23
And then, there are those of us
who don't have the privilege特權
45
131596
2844
而且,有些在交通上
02:26
of sitting坐在 in traffic交通.
46
134440
1672
弱勢的人,
02:28
So this is Steve史蒂夫.
47
136112
1578
這是史蒂夫。
02:29
He's an incredibly令人難以置信 capable guy,
48
137690
1765
一個非常有才能力的人,
02:31
but he just happens發生 to be blind,
49
139455
2516
但是他卻是眼睛失明,
02:33
and that means手段 instead代替 of a 30-minute-分鐘
drive駕駛 to work in the morning早上,
50
141971
3217
他不是每天早上
花 30 分鐘開車上班,
02:37
it's a two-hour兩小時 ordeal考驗
of piecing接頭 together一起 bits of public上市 transit過境
51
145188
3979
而是要痛苦的花兩個時
轉搭大眾運輸工具
02:41
or asking friends朋友 and family家庭 for a ride.
52
149167
2385
或請求朋友或親人接送。
02:43
He doesn't have that same相同 freedom自由
that you and I have to get around.
53
151552
3669
他無法像你我一樣
有到處走動的自由。
02:47
We should do something about that.
54
155221
2460
我們應該做一些事情。
02:49
Now, conventional常規 wisdom智慧 would say
55
157891
1757
在現在傳統的思慮會提到
02:51
that we'll just take
these driver司機 assistance幫助 systems系統
56
159648
2492
我們可以使用一些駕駛輔助系統
02:54
and we'll kind of push them
and incrementally增量 improve提高 them,
57
162140
3750
我們則持續的推動及改善整個系統,
02:57
and over time, they'll他們會 turn
into self-driving自駕車 cars汽車.
58
165890
2542
隨著時間演進,
轉變為自動駕駛系統。
03:00
Well, I'm here to tell you
that's like me saying
59
168432
2409
在這我要告訴你們就像我所說的
03:02
that if I work really hard at jumping跳躍,
one day I'll be able能夠 to fly.
60
170841
4057
如果我可以很努力的跳躍,
有一天我可以飛上天
03:06
We actually其實 need to do
something a little different不同.
61
174898
2728
我們確實需要
用一些不同的方式去做事情。
03:09
And so I'm going to talk to you
about three different不同 ways方法
62
177626
2711
我將告訴你
在自動駕駛系統
03:12
that self-driving自駕車 systems系統 are different不同
than driver司機 assistance幫助 systems系統.
63
180337
3346
與駕駛輔助系統之間,
有三個不同點。
03:15
And I'm going to start開始
with some of our own擁有 experience經驗.
64
183683
2651
從我們本身的經驗開始談起。
03:18
So back in 2013,
65
186334
2253
2013 年。
03:20
we had the first test測試
of a self-driving自駕車 car汽車
66
188587
2663
我們第一次做自動駕駛車的測試
03:23
where we let regular定期 people use it.
67
191250
2027
我們讓一般大眾人去開它。
03:25
Well, almost幾乎 regular定期 --
they were 100 GooglersGoogle員工,
68
193277
2202
嗯,幾乎算是 --
他們是 100 位谷歌的員工,
03:27
but they weren't working加工 on the project項目.
69
195479
2003
但他們的工作都不屬於這個專案,
03:29
And we gave them the car汽車 and we allowed允許
them to use it in their daily日常 lives生活.
70
197482
3621
我們提供車輛
並允許在每天的日常生活中使用。
03:33
But unlike不像 a real真實 self-driving自駕車 car汽車,
this one had a big asterisk星號 with it:
71
201103
3719
但這不像是自動駕駛的車,
上頭有一個大大的星號在車上,
03:36
They had to pay工資 attention注意,
72
204822
1504
他們必須集中注意力開車,
03:38
because this was an experimental試驗 vehicle車輛.
73
206326
2633
因為這些只是實驗車輛。
03:40
We tested測試 it a lot,
but it could still fail失敗.
74
208959
3525
我們測試很多,
但仍有失敗狀況發生。
03:44
And so we gave them two hours小時 of training訓練,
75
212484
2059
所以我們給車主 2 個小時的訓練,
03:46
we put them in the car汽車,
we let them use it,
76
214543
2092
再讓他們進入車內使用它,
03:48
and what we heard聽說 back
was something awesome真棒,
77
216635
2127
我們所收到的回覆讓人感到驚訝,
03:50
as someone有人 trying
to bring帶來 a product產品 into the world世界.
78
218762
2524
當一個新產品嘗試進入這個世界。
03:53
Every一切 one of them told us they loved喜愛 it.
79
221286
1925
每一個人都跟我們說他們愛上了它。
03:55
In fact事實, we had a Porsche保時捷 driver司機
who came來了 in and told us on the first day,
80
223211
3566
事實上,第一天有一個
開保時捷的駕駛跟我們說,
03:58
"This is completely全然 stupid.
What are we thinking思維?"
81
226777
2663
「這完全是件愚蠢的事情,
不知道我們在想些什麼?」
04:01
But at the end結束 of it, he said,
"Not only should I have it,
82
229850
2840
但是在他測試結束後,他說
「不該只有我可以使用它,
04:04
everyone大家 else其他 should have it,
because people are terrible可怕 drivers司機."
83
232690
3175
每個人都該使用它,
因為許多人都是個糟糕的駕駛。」
04:09
So this was music音樂 to our ears耳朵,
84
237135
1735
這對我們來說有很大的鼓勵,
04:10
but then we started開始 to look at what
the people inside the car汽車 were doing,
85
238870
3803
然後我們開始研究
人們在車裡做些什麼,
04:14
and this was eye-opening大開眼界.
86
242673
1579
真讓人大開眼界。
04:16
Now, my favorite喜愛 story故事 is this gentleman紳士
87
244252
2438
我最喜歡的故事裡有一位男士
04:18
who looks容貌 down at his phone電話
and realizes實現 the battery電池 is low,
88
246690
3829
他低頭看手機
發現電池快沒電了,
04:22
so he turns around like this in the car汽車
and digs around in his backpack背包,
89
250519
4548
然後在車裡像這樣轉過身來,
並且在背包裡找尋東西,
04:27
pulls out his laptop筆記本電腦,
90
255067
2153
拿出一台筆記型電腦,
04:29
puts看跌期權 it on the seat座位,
91
257220
1567
放在前座,
04:30
goes in the back again,
92
258787
1764
再回頭一次,
04:32
digs around, pulls out
the charging充電 cable電纜 for his phone電話,
93
260551
3367
繼續搜尋,拿出手機的充電線,
04:35
futzesfutzes around, puts看跌期權 it into the laptop筆記本電腦,
puts看跌期權 it on the phone電話.
94
263918
3367
轉身回來,
把電源線接上筆電跟手機。
04:39
Sure enough足夠, the phone電話 is charging充電.
95
267285
2043
當然他的手機已經開始充電了。
04:41
All the time he's been doing
65 miles英里 per hour小時 down the freeway高速公路.
96
269328
3994
同時他以 65 英哩的速度
在高速公路上行駛。
04:45
Right? Unbelievable難以置信的.
97
273322
2484
讓人無法置信。
04:47
So we thought about this and we said,
it's kind of obvious明顯, right?
98
275806
3121
我們思考這整件事情,
有明顯的結論
04:50
The better the technology技術 gets得到,
99
278927
2263
有更好的科技輔助,
04:53
the less reliable可靠
the driver司機 is going to get.
100
281190
2121
駕駛就越不可靠。
04:55
So by just making製造 the cars汽車
incrementally增量 smarter聰明,
101
283311
2396
若只讓車子變得更聰明,
04:57
we're probably大概 not going to see
the wins we really need.
102
285707
2902
那就和我們希望達到的結果不同。
05:00
Let me talk about something
a little technical技術 for a moment時刻 here.
103
288609
3901
讓我來談論有關技術的部分。
05:04
So we're looking at this graph圖形,
and along沿 the bottom底部
104
292510
2438
我們來看這圖型,底部的部分,
05:06
is how often經常 does the car汽車
apply應用 the brakes剎車 when it shouldn't不能.
105
294948
3051
是在不該踩煞車的情況下
卻踩煞車的頻率,
05:09
You can ignore忽視 most of that axis,
106
297999
1621
你可以忽略大部分的 X 軸,
05:11
because if you're driving主動 around town,
and the car汽車 starts啟動 stopping停止 randomly隨機,
107
299620
3719
因為如果在你開車到鎮上的路程中,
隨時煞車的話,
05:15
you're never going to buy購買 that car汽車.
108
303339
1701
你將不會買這部車。
05:17
And the vertical垂直 axis is how often經常
the car汽車 is going to apply應用 the brakes剎車
109
305040
3375
從垂直軸上
可以看到當車輛踩煞車後
05:20
when it's supposed應該 to
to help you avoid避免 an accident事故.
110
308415
3049
可以幫助你避免意外的頻率。
05:23
Now, if we look at
the bottom底部 left corner here,
111
311464
2221
現在,我們看到左下角這個點,
05:25
this is your classic經典 car汽車.
112
313685
1845
這是我們一般的車輛。
05:27
It doesn't apply應用 the brakes剎車 for you,
it doesn't do anything goofy高飛,
113
315530
3133
他不會幫忙煞車
傻傻的也不會幫忙任何事,
05:30
but it also doesn't get you
out of an accident事故.
114
318663
2779
當然也無法幫你避免意外。
05:33
Now, if we want to bring帶來
a driver司機 assistance幫助 system系統 into a car汽車,
115
321442
3018
現在,
如果我們想要引進駕駛輔助系統,
05:36
say with collision碰撞 mitigation減輕 braking制動,
116
324460
1828
如碰撞減輕煞車系統。
05:38
we're going to put some package
of technology技術 on there,
117
326288
2612
我們將在這上面導入一些技術方案,
05:40
and that's this curve曲線, and it's going
to have some operating操作 properties性能,
118
328900
3418
由這個曲線得知,
這系統可以發揮一些功效,
05:44
but it's never going to avoid避免
all of the accidents事故,
119
332318
2490
但仍不可能避免所有的意外,
05:46
because it doesn't have that capability能力.
120
334808
2059
因為尚未有足夠的能力。
05:48
But we'll pick some place地點
along沿 the curve曲線 here,
121
336867
2249
但我們可以在這個曲線中挑一點,
05:51
and maybe it avoids避免 half of accidents事故
that the human人的 driver司機 misses錯過,
122
339116
3254
它也許就足夠避免掉一半
人為疏失所造成的意外,
05:54
and that's amazing驚人, right?
123
342370
1297
非常神奇,對吧?
05:55
We just reduced減少 accidents事故 on our roads道路
by a factor因子 of two.
124
343667
2727
我們改變一、兩個因素
就可以把路上的意外事故減少一半。
05:58
There are now 17,000 less people
dying垂死 every一切 year in America美國.
125
346394
3987
在美國每年有接近 一萬七千人
死於交通事故。
06:02
But if we want a self-driving自駕車 car汽車,
126
350381
2020
但如果我們想要有自動駕駛車輛,
06:04
we need a technology技術 curve曲線
that looks容貌 like this.
127
352401
2307
我們需要像這條的技術曲線。
06:06
We're going to have to put
more sensors傳感器 in the vehicle車輛,
128
354708
2599
需要將更多的感測器放在車上,
06:09
and we'll pick some
operating操作 point up here
129
357307
2021
將功能調整在曲線上這一點
06:11
where it basically基本上 never
gets得到 into a crash緊急.
130
359328
2019
基本上這點不會導致車禍發生。
06:13
They'll他們會 happen發生, but very low frequency頻率.
131
361347
2443
就算是有,也是個很低的機率。
06:15
Now you and I could look at this
and we could argue爭論
132
363790
2461
當然你可以跟我辯論這一部分
06:18
about whether是否 it's incremental增加的, and
I could say something like "80-20 rule規則,"
133
366251
3605
曲線是否有增量性,我只能說
有些事情就像「80-20 法則」,
06:21
and it's really hard to move移動 up
to that new curve曲線.
134
369856
2568
向上移動成為一個新的曲線
是非常困難的。
06:24
But let's look at it
from a different不同 direction方向 for a moment時刻.
135
372424
2934
我們暫時由另一個方向來看這件事。
06:27
So let's look at how often經常
the technology技術 has to do the right thing.
136
375358
3512
可以發現科技
做正出確的判斷有多高。
06:30
And so this green綠色 dot up here
is a driver司機 assistance幫助 system系統.
137
378870
3506
這條綠線代表的是駕駛輔助系統。
06:34
It turns out that human人的 drivers司機
138
382376
2485
結果說明了一般駕駛
06:36
make mistakes錯誤 that lead
to traffic交通 accidents事故
139
384861
2647
的錯誤行為而導致意外發生
06:39
about once一旦 every一切 100,000 miles英里 in America美國.
140
387508
3172
在美國約每十萬英哩發生一次。
06:42
In contrast對比, a self-driving自駕車 system系統
is probably大概 making製造 decisions決定
141
390680
3167
相對的,自動駕駛系統做出決定
06:45
about 10 times per second第二,
142
393847
3663
每秒大約 10 次,
06:49
so order訂購 of magnitude大小,
143
397510
1422
在這個數量級,
06:50
that's about 1,000 times per mile英里.
144
398932
2832
大約每英哩 1,000 次。
06:53
So if you compare比較 the distance距離
between之間 these two,
145
401764
2485
所以如果你比較這兩個的距離,
06:56
it's about 10 to the eighth第八, right?
146
404249
2600
大約是 10 的 8 次方,對吧?
06:58
Eight orders命令 of magnitude大小.
147
406849
1765
8 次方的數量級。
07:00
That's like comparing比較 how fast快速 I run
148
408614
2809
這個對比有點像是
以我跑步的速度
07:03
to the speed速度 of light.
149
411423
2206
與光速作比較。
07:05
It doesn't matter how hard I train培養,
I'm never actually其實 going to get there.
150
413629
3785
所以不管我如何努力訓練,
都不可能實際達到那個程度。
07:09
So there's a pretty漂亮 big gap間隙 there.
151
417414
2438
他們之間有一個很大的差距。
07:11
And then finally最後, there's how
the system系統 can handle處理 uncertainty不確定.
152
419852
3729
最後的部分,
這個系統可以處理一些突發狀況。
07:15
So this pedestrian行人 here might威力 be
stepping步進 into the road, might威力 not be.
153
423581
3323
這個人有可能是走在馬路上,
也有可能不是。
07:18
I can't tell,
nor也不 can any of our algorithms算法,
154
426904
3395
我不能預測,
我們的演算法也無法預測,
07:22
but in the case案件 of
a driver司機 assistance幫助 system系統,
155
430310
2284
但是駕駛輔助系統在這情況下,
07:24
that means手段 it can't take action行動,
because again,
156
432594
2806
無法採取任何行動,
07:27
if it presses印刷機 the brakes剎車 unexpectedly不料,
that's completely全然 unacceptable不可接受.
157
435400
3339
如果無預期的踩煞車
是完全無法被接受的。
07:30
Whereas a self-driving自駕車 system系統
can look at that pedestrian行人 and say,
158
438739
3133
當自動駕駛系統發現這位行人會說,
07:33
I don't know what they're about to do,
159
441872
1890
我不知道他們打算做什麼,
07:35
slow down, take a better look,
and then react應對 appropriately適當 after that.
160
443762
3762
減慢速度,仔細觀察,
之後再採取更適當的回應。
07:39
So it can be much safer更安全 than
a driver司機 assistance幫助 system系統 can ever be.
161
447524
3702
比起駕駛輔助系統它將會更為安全。
07:43
So that's enough足夠 about
the differences分歧 between之間 the two.
162
451226
2730
這是兩個不同系統之間的差別。
07:45
Let's spend some time talking about
how the car汽車 sees看到 the world世界.
163
453956
3484
我們花點時間來探討
車輛所看到的世界。
07:49
So this is our vehicle車輛.
164
457440
1252
這是我們的測試車。
07:50
It starts啟動 by understanding理解
where it is in the world世界,
165
458692
2438
從理解目前所在的位置開始,
07:53
by taking服用 a map地圖 and its sensor傳感器 data數據
and aligning調心 the two,
166
461130
2787
比對地圖與感應到的訊息,
07:55
and then we layer on top最佳 of that
what it sees看到 in the moment時刻.
167
463917
2948
然後把當下所看到的訊息
再加上另一訊息。
07:58
So here, all the purple紫色 boxes盒子 you can see
are other vehicles汽車 on the road,
168
466865
3655
在裏頭,你所看到的所有紫色方框
都是路上的其他車輛,
08:02
and the red thing on the side
over there is a cyclist騎車人,
169
470520
2528
旁邊的紅色部分則是自行車,
08:05
and up in the distance距離,
if you look really closely密切,
170
473048
2402
如果你仔細看
上方較遠處,
08:07
you can see some cones.
171
475450
1794
可以看到一些三角錐。
08:09
Then we know where the car汽車
is in the moment時刻,
172
477244
2773
然後就可以知道車輛當時的位置,
08:12
but we have to do better than that:
we have to predict預測 what's going to happen發生.
173
480017
3833
但是我們需要做得更好:
要能夠預測出將會發生的事情,
08:15
So here the pickup撿起 truck卡車 in top最佳 right
is about to make a left lane車道 change更改
174
483850
3488
右上角有一輛小貨卡
將會切換到左邊車道
08:19
because the road in front面前 of it is closed關閉,
175
487338
2223
因為前方的路段將會關閉,
08:21
so it needs需求 to get out of the way.
176
489561
1731
所以需要變更車道
08:23
Knowing會心 that one pickup撿起 truck卡車 is great,
177
491292
1863
可以預測小貨車的行徑
是件很棒的事,
08:25
but we really need to know
what everybody's每個人的 thinking思維,
178
493155
2479
但我們還需要知道每個人的想法,
08:27
so it becomes quite相當 a complicated複雜 problem問題.
179
495634
2507
這變成一個非常複雜的問題。
08:30
And then given特定 that, we can figure數字 out
how the car汽車 should respond響應 in the moment時刻,
180
498141
4749
有了這資訊後,我們便可以
推測出當下車輛該如何反應。
08:34
so what trajectory彈道 it should follow跟隨, how
quickly很快 it should slow down or speed速度 up.
181
502890
3866
該跟隨哪一條路線,
該多快反應減速或加速。
08:38
And then that all turns into
just following以下 a path路徑:
182
506756
3065
匯集所有項目後
只要跟隨著路線,
08:41
turning車削 the steering操舵 wheel left or right,
pressing緊迫 the brake制動 or gas加油站.
183
509821
3197
向左或向右轉動方向盤,
加速或踩油門。
08:45
It's really just two numbers數字
at the end結束 of the day.
184
513018
2464
只要這兩個數值
就可以持續到一天結束。
08:47
So how hard can it really be?
185
515482
2241
所以會有多難呢?
08:50
Back when we started開始 in 2009,
186
518433
1952
在 2009 年我們剛開始時,
08:52
this is what our system系統 looked看著 like.
187
520385
1798
我的系統看起來像這樣。
08:54
So you can see our car汽車 in the middle中間
and the other boxes盒子 on the road,
188
522183
3391
你可以看到在中心有我們的車輛,
路上還有其他小方框,
08:57
driving主動 down the highway高速公路.
189
525574
1271
行駛在高速公路上。
08:58
The car汽車 needs需求 to understand理解 where it is
and roughly大致 where the other vehicles汽車 are.
190
526845
3818
這輛測試車需要知道它現在位置
以及其他車輛大約位置。
09:02
It's really a geometric幾何
understanding理解 of the world世界.
191
530663
2429
用幾何方式來理解這個世界。
09:05
Once一旦 we started開始 driving主動
on neighborhood鄰里 and city streets街道,
192
533092
2948
當開始行駛在近郊及街道中時,
09:08
the problem問題 becomes a whole整個
new level水平 of difficulty困難.
193
536040
2445
這問題又變為更複雜的層次。
09:10
You see pedestrians行人 crossing路口 in front面前
of us, cars汽車 crossing路口 in front面前 of us,
194
538485
3494
可以看到行人及車輛
都會在我們前面穿過,
09:13
going every一切 which哪一個 way,
195
541979
1811
往各個方向移動,
09:15
the traffic交通 lights燈火, crosswalks人行橫道.
196
543790
1527
紅綠燈,行人穿越道。
09:17
It's an incredibly令人難以置信 complicated複雜
problem問題 by comparison對照.
197
545317
2797
相對而言
這是個相當複雜的問題。
09:20
And then once一旦 you have
that problem問題 solved解決了,
198
548114
2103
一旦這問題可以被解決掉,
09:22
the vehicle車輛 has to be able能夠
to deal合同 with construction施工.
199
550217
2512
車輛就有辦法去處理
這建構出來的環境。
09:24
So here are the cones on the left
forcing迫使 it to drive駕駛 to the right,
200
552729
3151
如果左邊有三角錐
它就會要求往右邊開,
09:27
but not just construction施工
in isolation隔離, of course課程.
201
555880
2402
當然不只是個封閉的施工環境。
09:30
It has to deal合同 with other people moving移動
through通過 that construction施工 zone as well.
202
558282
3723
它也還必須去處理
有人走在施工區的路段。
09:34
And of course課程, if anyone's任何人的
breaking破壞 the rules規則, the police警察 are there
203
562005
3263
當然,如果有人違規,警察在場
09:37
and the car汽車 has to understand理解 that
that flashing閃爍 light on the top最佳 of the car汽車
204
565268
3622
車輛必須知道車頂上有閃著燈的車輛
09:40
means手段 that it's not just a car汽車,
it's actually其實 a police警察 officer.
205
568890
3105
代表的是警車而不是一般車輛。
09:43
Similarly同樣, the orange橙子 box
on the side here,
206
571995
2032
相似的情況下,
在路旁的橘色小方框,
09:46
it's a school學校 bus總線,
207
574027
1109
是一輛校車,
09:47
and we have to treat對待 that
differently不同 as well.
208
575136
2520
我們也必需對它做出不同的回應。
09:50
When we're out on the road,
other people have expectations期望:
209
578576
2793
當車輛在行駛的時候,
有些人會預期,
09:53
So, when a cyclist騎車人 puts看跌期權 up their arm,
210
581369
1780
當自行車騎士舉起他們的手臂,
09:55
it means手段 they're expecting期待 the car汽車
to yield產量 to them and make room房間 for them
211
583149
3518
是預期汽車可以注意到他們
並且挪出空間
09:58
to make a lane車道 change更改.
212
586667
2053
讓他們可以變換車道。
10:01
And when a police警察 officer
stood站在 in the road,
213
589030
2173
當一位警察站在路上,
10:03
our vehicle車輛 should understand理解
that this means手段 stop,
214
591203
2740
測試車輛必須了解要停下來,
10:05
and when they signal信號 to go,
we should continue繼續.
215
593943
3506
如果手勢指揮通行的話,
則要繼續走。
10:09
Now, the way we accomplish完成 this
is by sharing分享 data數據 between之間 the vehicles汽車.
216
597449
3761
經由交通工具資料共享
我們完成這個成就。
10:13
The first, most crude原油 model模型 of this
217
601210
1696
首先,最原始的模型
10:14
is when one vehicle車輛
sees看到 a construction施工 zone,
218
602906
2113
當車輛遇到施工區域,
10:17
having another另一個 know about it
so it can be in the correct正確 lane車道
219
605019
3062
讓其他人收到這個訊息
然後它會選擇正確的車道
10:20
to avoid避免 some of the difficulty困難.
220
608081
1570
而避開施工的地方。
10:21
But we actually其實 have a much
deeper更深 understanding理解 of this.
221
609651
2664
但我們對這狀況有更進一步的了解。
10:24
We could take all of the data數據
that the cars汽車 have seen看到 over time,
222
612315
3009
取得車子所看到的歷史資料,
10:27
the hundreds數以百計 of thousands數千
of pedestrians行人, cyclists騎自行車的人,
223
615324
2376
數十萬的行人,自行車,
10:29
and vehicles汽車 that have been out there
224
617700
1787
以及視線內的車輛
10:31
and understand理解 what they look like
225
619487
1695
理解他們看起來像什麼
10:33
and use that to infer推斷
what other vehicles汽車 should look like
226
621182
2831
再用來推斷其他車輛的樣式
10:36
and other pedestrians行人 should look like.
227
624013
1926
及其他行人的長相。
10:37
And then, even more importantly重要的,
we could take from that a model模型
228
625939
3021
最重要的是,
我們會依此作為模型
10:40
of how we expect期望 them
to move移動 through通過 the world世界.
229
628960
2330
以及預測他們是如何移動,
10:43
So here the yellow黃色 box is a pedestrian行人
crossing路口 in front面前 of us.
230
631290
2963
黃色方框指的是
一位行人從我們面前穿越。
10:46
Here the blue藍色 box is a cyclist騎車人
and we anticipate預料
231
634253
2250
藍色方框指的是自行車
而且我們預測
10:48
that they're going to nudge微調 out
and around the car汽車 to the right.
232
636503
3312
他們將會沿著車輛的右邊前行。
10:52
Here there's a cyclist騎車人
coming未來 down the road
233
640115
2092
這是另一輛自行車從對向而來
10:54
and we know they're going to continue繼續
to drive駕駛 down the shape形狀 of the road.
234
642207
3486
而且我們知道他會沿著道路過來。
10:57
Here somebody makes品牌 a right turn,
235
645693
1867
另外有一個人要右轉,
10:59
and in a moment時刻 here, somebody's某人的
going to make a U-turn掉頭 in front面前 of us,
236
647560
3360
同時正前方有一個人
正準備要迴轉,
11:02
and we can anticipate預料 that behavior行為
and respond響應 safely安然.
237
650920
2614
我們可以預測這個行為
並安全的反應。
11:05
Now, that's all well and good
for things that we've我們已經 seen看到,
238
653534
2728
這些是我們一般常見的好的狀況,
11:08
but of course課程, you encounter遭遇
lots of things that you haven't沒有
239
656262
2865
當然有時也會遇到一些事情
11:11
seen看到 in the world世界 before.
240
659127
1231
是之前從不曾遇到過。
11:12
And so just a couple一對 of months個月 ago,
241
660358
1741
幾個月前,
11:14
our vehicles汽車 were driving主動
through通過 Mountain View視圖,
242
662099
2235
測試車輛行經山景城時,
11:16
and this is what we encountered遇到.
243
664334
1644
我們遇到一個狀況。
11:17
This is a woman女人 in an electric電動 wheelchair輪椅
244
665978
2082
一位坐著電動輪椅的女人
11:20
chasing a duck in circles on the road.
(Laughter笑聲)
245
668060
2617
在路上追逐著繞圈圈鴨子。
(笑聲)
11:22
Now it turns out, there is nowhere無處
in the DMVDMV handbook手冊
246
670677
3111
在加州管理局中的駕駛手冊中
找不到任何說明
11:25
that tells告訴 you how to deal合同 with that,
247
673788
2245
告訴你如何處理以上狀況,
11:28
but our vehicles汽車 were able能夠
to encounter遭遇 that,
248
676033
2143
但是我們測試車輛有辦法處理它。
11:30
slow down, and drive駕駛 safely安然.
249
678176
2255
減速,安全地行駛而過。
11:32
Now, we don't have to deal合同
with just ducks鴨子.
250
680431
2041
我們不只是要對付鴨子。
11:34
Watch this bird fly across橫過 in front面前 of us.
The car汽車 reacts發生反應 to that.
251
682472
3708
看到一隻鳥在前方飛越而過
車子也對它們做出反應。
11:38
Here we're dealing交易 with a cyclist騎車人
252
686180
1615
這裡我們正在應付一位自行車騎士
11:39
that you would never expect期望 to see
anywhere隨地 other than Mountain View視圖.
253
687795
3290
除了在山景城外
你從來無法預期會遇到的。
11:43
And of course課程, we have
to deal合同 with drivers司機,
254
691085
2068
當然,我們還得應付一些駕駛,
11:45
even the very small ones那些.
255
693153
3715
甚至是很小事也要處理。
11:48
Watch to the right as someone有人
jumps跳躍 out of this truck卡車 at us.
256
696868
4131
注意右邊有一個人
在我們面前從卡車上跳下來。
11:54
And now, watch the left as the car汽車
with the green綠色 box decides決定
257
702460
2929
左邊有綠色方框所代表的車輛
11:57
he needs需求 to make a right turn
at the last possible可能 moment時刻.
258
705389
3325
在最後一個的關頭決定右轉。
12:00
Here, as we make a lane車道 change更改,
the car汽車 to our left decides決定
259
708714
2851
當我們決定要變換車道時,
左邊的車輛
12:03
it wants to as well.
260
711565
3553
也決定要變換車道。
12:07
And here, we watch a car汽車
blow打擊 through通過 a red light
261
715118
2693
這邊我們看到一輛車子闖紅燈
12:09
and yield產量 to it.
262
717811
2090
就讓他先過。
12:11
And similarly同樣, here, a cyclist騎車人
blowing through通過 that light as well.
263
719901
3854
相同的情況,
則是另一輛自行車闖紅燈。
12:15
And of course課程,
the vehicle車輛 responds響應 safely安然.
264
723755
2746
當然測試車輛可以安全地回應。
12:18
And of course課程, we have people
who do I don't know what
265
726501
2601
有時候人們會在路上
做一些無法理解的事
12:21
sometimes有時 on the road, like this guy
pulling out between之間 two self-driving自駕車 cars汽車.
266
729102
3823
就像這位仁兄一樣,直接把車輛停在兩輛自動駕駛車之間。
12:24
You have to ask, "What are you thinking思維?"
267
732925
2045
你就會很想問,「你在想些什麼?」
12:26
(Laughter笑聲)
268
734970
1212
(笑聲)
12:28
Now, I just fire-hosed消防用水管沖洗 you
with a lot of stuff東東 there,
269
736182
2521
我剛才描述了許多狀況給大家,
12:30
so I'm going to break打破 one of these
down pretty漂亮 quickly很快.
270
738703
2650
我將用很快的方式
來分析其中一個狀況。
12:33
So what we're looking at is the scene現場
with the cyclist騎車人 again,
271
741353
2940
我們再回到自行車這個例子,
12:36
and you might威力 notice注意 in the bottom底部,
we can't actually其實 see the cyclist騎車人 yet然而,
272
744293
3491
可以注意到下方這部分,
我們還無法真正的看到自行車,
12:39
but the car汽車 can: it's that little
blue藍色 box up there,
273
747784
2504
但是車輛可以:
是這個藍色小方框的部分,
12:42
and that comes from the laser激光 data數據.
274
750288
2081
這資訊是由雷射所得來的。
12:44
And that's not actually其實
really easy簡單 to understand理解,
275
752369
2418
確實無法很容易去理解,
12:46
so what I'm going to do is I'm going
to turn that laser激光 data數據 and look at it,
276
754787
3584
我將要做的是轉換雷射資料
然後再來看,
12:50
and if you're really good at looking
at laser激光 data數據, you can see
277
758371
3029
如果你對分析雷射資料很拿手,
你將可以看到
12:53
a few少數 dots on the curve曲線 there,
278
761400
1487
在曲線上面的一些小點,
12:54
right there, and that blue藍色 box
is that cyclist騎車人.
279
762887
2372
就在這上面,
上面藍色的小方框就是自行車,
12:57
Now as our light is red,
280
765259
1149
這時我們是紅燈,
12:58
the cyclist's騎車人 light
has turned轉身 yellow黃色 already已經,
281
766408
2192
自行車這邊已經轉變為黃燈,
13:00
and if you squint, you can see that
in the imagery意象.
282
768600
2438
如果你斜眼看的話,
可以從這張圖案看到。
13:03
But the cyclist騎車人, we see, is going
to proceed繼續 through通過 the intersection路口.
283
771038
3286
這輛我們所看到的自行車,
將打算穿越這個路口。
13:06
Our light has now turned轉身 green綠色,
his is solidly紮實 red,
284
774324
2394
我們的燈號已經轉為綠燈,
他的則是紅燈,
13:08
and we now anticipate預料 that this bike自行車
is going to come all the way across橫過.
285
776718
4292
我們預測這輛自行車
將會穿越整個路口。
13:13
Unfortunately不幸 the other drivers司機 next下一個 to us
were not paying付款 as much attention注意.
286
781010
3742
不巧的是旁邊的
其他司機並未注意到這點。
13:16
They started開始 to pull forward前鋒,
and fortunately幸好 for everyone大家,
287
784752
3157
他們開始往前移動,
不過很幸運的是,
13:19
this cyclists騎自行車的人 reacts發生反應, avoids避免,
288
787909
3011
自行車反應很快地避開,
13:22
and makes品牌 it through通過 the intersection路口.
289
790920
2191
而且穿越了路口。
13:25
And off we go.
290
793111
1568
結束後我們才往前。
13:26
Now, as you can see, we've我們已經 made製作
some pretty漂亮 exciting扣人心弦 progress進展,
291
794679
2948
就如你所見的,
我們有了一些卓越的進展,
13:29
and at this point we're pretty漂亮 convinced相信
292
797627
1902
在這個階段我們很有自信
13:31
this technology技術 is going
to come to market市場.
293
799529
2010
這個技術是可以上市的。
13:33
We do three million百萬 miles英里 of testing測試
in our simulators模擬器 every一切 single day,
294
801539
4783
在模擬系統下
我們每天做三百萬哩的測試,
13:38
so you can imagine想像 the experience經驗
that our vehicles汽車 have.
295
806322
2689
你可以想像我們車輛的豐富經歷。
13:41
We are looking forward前鋒 to having
this technology技術 on the road,
296
809011
2864
我們正設法把這技術
用於實際道路上,
13:43
and we think the right path路徑
is to go through通過 the self-driving自駕車
297
811875
2890
我們認為正確的方向
應該是自動駕駛
13:46
rather than driver司機 assistance幫助 approach途徑
298
814765
1844
而不是駕駛輔助系統
13:48
because the urgency is so large.
299
816609
2621
因為有迫切的需求。
13:51
In the time I have given特定 this talk today今天,
300
819230
2393
在我今天演說的同時,
13:53
34 people have died死亡 on America's美國 roads道路.
301
821623
3135
有 34 個美國人死於交通事故。
13:56
How soon不久 can we bring帶來 it out?
302
824758
2368
我們可以多快讓它上市?
13:59
Well, it's hard to say because
it's a really complicated複雜 problem問題,
303
827126
3832
嗯,這很難說
因為這是一個很複雜的問題,
14:02
but these are my two boys男孩.
304
830958
2214
這是我兩個兒子。
14:05
My oldest最老的 son兒子 is 11, and that means手段
in four and a half years年份,
305
833172
3623
大的兒子 11 歲,表示再 4 年半,
14:08
he's going to be able能夠
to get his driver's司機 license執照.
306
836795
2577
他就可以拿到駕照。
14:11
My team球隊 and I are committed提交
to making製造 sure that doesn't happen發生.
307
839372
3204
我跟我的團隊承諾
確保不會讓這件事情發生。
14:14
Thank you.
308
842576
1904
謝謝。
14:16
(Laughter笑聲) (Applause掌聲)
309
844480
3667
(笑聲)(掌聲)
14:21
Chris克里斯 Anderson安德森: Chris克里斯,
I've got a question for you.
310
849110
2568
克里斯·安德森:
克里斯,我有一個問題。
14:23
Chris克里斯 Urmson烏爾遜: Sure.
311
851678
2809
克里斯·厄姆森:好。
14:26
CACA: So certainly當然, the mind心神 of your cars汽車
is pretty漂亮 mind-boggling令人難以置信.
312
854487
3924
克里斯·安德森:
的確,你車輛的智慧系統讓人驚訝。
14:30
On this debate辯論 between之間
driver-assisted駕駛員輔助 and fully充分 driverless無人駕駛 --
313
858411
4459
尤其在輔助駕駛與
自動駕駛的辯論中,
14:34
I mean, there's a real真實 debate辯論
going on out there right now.
314
862870
3041
現在有一個真實的辯論就存在那邊。
14:37
So some of the companies公司,
for example, Tesla特斯拉,
315
865911
2833
有一些公司,如:特斯拉,
14:40
are going the driver-assisted駕駛員輔助 route路線.
316
868744
2159
正在研究一些駕駛輔助系統。
14:42
What you're saying is that
that's kind of going to be a dead end結束
317
870903
5248
根據你所說的
這個發展將會是個死胡同
14:48
because you can't just keep improving提高
that route路線 and get to fully充分 driverless無人駕駛
318
876151
5456
因為無法藉由改善輔助系統
最後完全取代自動駕駛
14:53
at some point, and then a driver司機
is going to say, "This feels感覺 safe安全,"
319
881607
3530
在某一點上,駕駛可能會說,
「這感覺到是安全的」,
14:57
and climb into the back,
and something ugly醜陋 will happen發生.
320
885137
2647
然後爬到後座去,
一些可怕的事情就可能會發生。
14:59
CUCU: Right. No, that's exactly究竟 right,
and it's not to say
321
887784
2676
克里斯·厄姆森:
完全正確,現在還無法說
15:02
that the driver司機 assistance幫助 systems系統
aren't going to be incredibly令人難以置信 valuable有價值.
322
890460
3537
駕駛輔助系統不具有價值。
15:05
They can save保存 a lot of lives生活
in the interim臨時,
323
893997
2058
在這段過渡期間
它們仍可挽救許多生命,
15:08
but to see the transformative變革 opportunity機會
to help someone有人 like Steve史蒂夫 get around,
324
896055
3833
但是看到這是一個改變的機會,
可以幫助像史蒂夫一樣的人,
15:11
to really get to the end結束 case案件 in safety安全,
325
899888
1969
而且最終是個安全的方案,
15:13
to have the opportunity機會
to change更改 our cities城市
326
901857
2479
去擁有這機會去改變我們的城市
15:16
and move移動 parking停車處 out and get rid擺脫 of
these urban城市的 craters隕石坑 we call parking停車處 lots,
327
904336
4204
可以擺脫城市裡一個個的停車場,
15:20
it's the only way to go.
328
908540
1240
這是唯一的辦法。
15:21
CACA: We will be tracking追踪 your progress進展
with huge巨大 interest利益.
329
909780
2718
克里斯·安德森:
我們非常有興趣持續追蹤你的進度
15:24
Thanks謝謝 so much, Chris克里斯.
CUCU: Thank you. (Applause掌聲)
330
912498
4232
謝謝你,克里斯。
克里斯·厄姆森:謝謝。(掌聲)
Translated by Kenny Lo
Reviewed by Yamei Huang

▲Back to top

ABOUT THE SPEAKER
Chris Urmson - Roboticist
Chris Umson is the Director of Self-Driving Cars at Google[x].

Why you should listen

Since 2009, Chris Urmson has headed up Google’s self-driving car program. So far, the team’s vehicles have driven over three quarters of a million miles. While early models included a driverless Prius that TEDsters got to test- ... um, -not-drive in 2011, more and more the team is building vehicles from the ground up, custom-made to go driverless.

Prior to joining Google, Umson was on the faculty of the Robotics Institute at Carnegie Mellon University, where his research focused on motion planning and perception for robotic vehicles. During his time at Carnegie Mellon, he served as Director of Technology for the team that won the 2007 DARPA Urban Challenge.

More profile about the speaker
Chris Urmson | Speaker | TED.com