ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com
TED2015

Nick Bostrom: What happens when our computers get smarter than we are?

Nick Bostrom: O que acontece quando os nossos computadores se tornam melhores que nós?

Filmed:
4,632,705 views

A inteligência artificial (I.A.) está a ficar cada vez mais esperta, a uma velocidade espantosa — a investigação sugere que, dentro de um século, um computador I.A. poderá ser tão "esperto" como um ser humano. E assim, vai ultrapassar-nos: " A invenção mecânica é a última invenção que a humanidade alguma vez necessitará." Filósofo e tecnólogo, Bostrom pede-nos para pensar acerca do mundo que estamos a construir neste momento, liderado por máquinas pensantes. Será que as nossas máquinas espertas vão ajudar-nos a preservar a humanidade e os nossos valores — ou terão elas valores próprios?
- Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us? Full bio

Double-click the English transcript below to play the video.

00:12
I work with a bunchgrupo of mathematiciansmatemáticos,
philosophersfilósofos and computercomputador scientistscientistas,
0
570
4207
Eu trabalho com um grupo de matemáticos,
filósofos e informáticos,
00:16
and we sitsentar around and think about
the futurefuturo of machinemáquina intelligenceinteligência,
1
4777
5209
e pensamos acerca do futuro
da inteligência mecânica,
00:21
amongentre other things.
2
9986
2044
entre outras coisas.
00:24
Some people think that some of these
things are sortordenar of scienceCiência fiction-yficção-y,
3
12030
4725
Algumas pessoas pensam que algumas
destas coisas são como ciência ficção,
00:28
farlonge out there, crazylouco.
4
16755
3101
muito longe da realidade.
00:31
But I like to say,
5
19856
1470
Mas eu gosto de dizer,
00:33
okay, let's look at the modernmoderno
humanhumano conditioncondição.
6
21326
3604
olhemos para as condições
humanas modernas.
00:36
(LaughterRiso)
7
24930
1692
(Risos)
00:38
This is the normalnormal way for things to be.
8
26622
2402
Essa é a forma normal de as coisas serem.
00:41
But if we think about it,
9
29024
2285
Mas se pensarmos nisso,
00:43
we are actuallyna realidade recentlyrecentemente arrivedchegou
guestsconvidados on this planetplaneta,
10
31309
3293
somos na verdade visitantes
recentes neste planeta,
00:46
the humanhumano speciesespécies.
11
34602
2082
a espécie humana.
00:48
Think about if EarthTerra
was createdcriada one yearano agoatrás,
12
36684
4746
Imaginem, se a Terra tivesse sido
criada há um ano,
00:53
the humanhumano speciesespécies, then,
would be 10 minutesminutos oldvelho.
13
41430
3548
a espécie humana, então,
teria 10 minutos de vida.
00:56
The industrialindustrial eraera startedcomeçado
two secondssegundos agoatrás.
14
44978
3168
A era da indústria teria começado
há 2 segundos.
01:01
AnotherOutro way to look at this is to think of
worldmundo GDPPIB over the last 10,000 yearsanos,
15
49276
5225
Outra forma de olhar para isto
é calcular o PIB mundial
dos últimos 10 000 anos,
01:06
I've actuallyna realidade takenocupado the troubleproblema
to plotenredo this for you in a graphgráfico.
16
54501
3029
Tive a preocupação de inserir
isto num gráfico para vocês verem.
01:09
It looksparece like this.
17
57530
1774
Parece-se com isto.
01:11
(LaughterRiso)
18
59304
1363
(Risos)
01:12
It's a curiouscurioso shapeforma
for a normalnormal conditioncondição.
19
60667
2151
É uma forma curiosa
para uma situação normal.
01:14
I sure wouldn'tnão seria want to sitsentar on it.
20
62818
1698
Eu não ficaria muito descansado.
01:16
(LaughterRiso)
21
64516
2551
(Risos)
01:19
Let's askpergunte ourselvesnós mesmos, what is the causecausa
of this currentatual anomalyanomalia?
22
67067
4774
Perguntemos a nós próprios,
qual é a causa dessa anomalia?
01:23
Some people would say it's technologytecnologia.
23
71841
2552
Algumas pessoas diriam que é a tecnologia.
01:26
Now it's trueverdade, technologytecnologia has accumulatedacumulado
throughatravés humanhumano historyhistória,
24
74393
4668
É verdade, a tecnologia acumulou-se
durante a história da humanidade
01:31
and right now, technologytecnologia
advancesavanços extremelyextremamente rapidlyrapidamente --
25
79061
4652
e, neste momento, a tecnologia evolui
extremamente depressa
01:35
that is the proximatepróxima causecausa,
26
83713
1565
— essa é a causa imediata —
01:37
that's why we are currentlyatualmente
so very productiveprodutivo.
27
85278
2565
é por isso que estamos tão produtivos.
01:40
But I like to think back furthermais distante
to the ultimatefinal causecausa.
28
88473
3661
Mas eu gosto de pensar mais além,
para a causa fundamental.
01:45
Look at these two highlyaltamente
distinguisheddistinto gentlemencavalheiros:
29
93114
3766
Olhem para estes dois senhores
muito distintos:
01:48
We have KanziKanzi --
30
96880
1600
Temos o Kanzi,
01:50
he's mastereddomina- 200 lexicallexical
tokenstokens de, an incredibleincrível featfaçanha.
31
98480
4643
ele dominava 200 símbolos lexicais,
uma incrível proeza.
01:55
And EdEd WittenWitten unleasheddesencadeada the secondsegundo
superstringSupercordas revolutionrevolução.
32
103123
3694
E Ed Witten desencadeou a segunda
revolução das supercordas.
01:58
If we look undersob the hoodcapa,
this is what we find:
33
106817
2324
Se examinarmos é isto que encontramos:
02:01
basicallybasicamente the samemesmo thing.
34
109141
1570
basicamente a mesma coisa.
02:02
One is a little largermaior,
35
110711
1813
Uma é um pouco maior,
02:04
it maybe alsoAlém disso has a fewpoucos trickstruques
in the exactexato way it's wiredcom fio.
36
112524
2758
talvez tenha alguns truques na maneira
como está ligado.
02:07
These invisibleinvisível differencesdiferenças cannotnão podes
be too complicatedcomplicado, howeverContudo,
37
115282
3812
Contudo, essas diferenças invisíveis
não podem ser muito complicadas,
02:11
because there have only
been 250,000 generationsgerações
38
119094
4285
porque apenas houve 250 000 gerações
02:15
sinceDesde a our last commoncomum ancestorancestral.
39
123379
1732
desde o nosso último antepassado comum.
02:17
We know that complicatedcomplicado mechanismsmecanismos
take a long time to evolveevoluir.
40
125111
3849
Sabemos que os mecanismos complicados
levam muito tempo a evoluir.
02:22
So a bunchgrupo of relativelyrelativamente minormenor changesalterar
41
130000
2499
Portanto algumas mudanças mínimas
02:24
take us from KanziKanzi to WittenWitten,
42
132499
3067
levam-nos de Kanzi para Witten,
02:27
from broken-offquebrado-fora treeárvore branchesRamos
to intercontinentalIntercontinental ballisticbalístico missilesmísseis.
43
135566
4543
desde ramos de árvores quebrados até
mísseis balísticos intercontinentais.
02:32
So this then seemsparece prettybonita obviousóbvio
that everything we'venós temos achievedalcançado,
44
140839
3935
Assim, parece óbvio que tudo aquilo
que tenhamos realizado,
02:36
and everything we careCuidado about,
45
144774
1378
e tudo aquilo que nos preocupa,
02:38
dependsdepende cruciallycrucialmente on some relativelyrelativamente minormenor
changesalterar that madefeito the humanhumano mindmente.
46
146152
5228
dependa crucialmente de algumas mudanças
mínimas que construíram a mente humana.
02:44
And the corollarycorolário, of coursecurso,
is that any furthermais distante changesalterar
47
152650
3662
E o corolário, claro, é que
quaisquer mudanças adicionais
02:48
that could significantlysignificativamente changemudança
the substratesubstrato of thinkingpensando
48
156312
3477
que poderiam mudar significativamente
o substrato de pensar
02:51
could have potentiallypotencialmente
enormousenorme consequencesconsequências.
49
159789
3202
poderiam ter enormes consequências.
02:56
Some of my colleaguescolegas
think we're on the vergeBeira
50
164321
2905
Alguns dos meus colegas pensam
que estamos à beira
02:59
of something that could causecausa
a profoundprofundo changemudança in that substratesubstrato,
51
167226
3908
de algo que poderá causar uma mudança
drástica nesse substrato,
03:03
and that is machinemáquina superintelligencesuperinteligência.
52
171134
3213
e isso é a super inteligência mecânica.
03:06
ArtificialArtificial intelligenceinteligência used to be
about puttingcolocando commandscomandos in a boxcaixa.
53
174347
4739
A inteligência artificial costumava
cingir-se a ordens numa caixa.
03:11
You would have humanhumano programmersprogramadores
54
179086
1665
Tínhamos programadores humanos
03:12
that would painstakinglymeticulosamente
handcraftfeira de artesanato knowledgeconhecimento itemsUnid.
55
180751
3135
que construíam objectos inteligentes
cuidadosamente.
03:15
You buildconstruir up these expertespecialista systemssistemas,
56
183886
2086
Construíamos esses sistemas
especializados,
03:17
and they were kindtipo of usefulútil
for some purposesfins,
57
185972
2324
e eram úteis para alguns fins,
03:20
but they were very brittlefrágil,
you couldn'tnão podia scaleescala them.
58
188296
2681
mas eram muito frágeis,
não podíamos aumentá-los.
03:22
BasicallyBasicamente, you got out only
what you put in.
59
190977
3433
Basicamente, apenas obtínhamos
aquilo que lá colocávamos inicialmente.
03:26
But sinceDesde a then,
60
194410
997
Mas a partir daí,
03:27
a paradigmparadigma shiftmudança has takenocupado placeLugar, colocar
in the fieldcampo of artificialartificial intelligenceinteligência.
61
195407
3467
ocorreu uma mudança de paradigma
no campo da inteligência artificial.
03:30
TodayHoje, the actionaçao is really
around machinemáquina learningAprendendo.
62
198874
2770
Hoje, a acção anda à volta da
aprendizagem da máquina.
03:34
So ratherem vez than handcraftingartesanato knowledgeconhecimento
representationsrepresentações and featurescaracterísticas,
63
202394
5387
Portanto em vez de construir
representações e elementos do conhecimento
03:40
we createcrio algorithmsalgoritmos that learnaprender,
oftenfrequentemente from rawcru perceptualperceptual datadados.
64
208511
5554
criamos algoritmos que aprendem,
muitas vezes a partir de dados em bruto.
03:46
BasicallyBasicamente the samemesmo thing
that the humanhumano infantinfantil does.
65
214065
4998
Basicamente a mesma coisa
que a criança faz.
03:51
The resultresultado is A.I. that is not
limitedlimitado to one domaindomínio --
66
219063
4207
O resultado é uma inteligência artificial
que não se limita a um domínio
03:55
the samemesmo systemsistema can learnaprender to translatetraduzir
betweenentre any pairspares of languageslínguas,
67
223270
4631
— o mesmo sistema que pode aprender a
traduzir várias línguas,
03:59
or learnaprender to playToque any computercomputador gamejogos
on the AtariAtari consoleconsole.
68
227901
5437
ou aprender a jogar qualquer tipo
de jogo de computador na consola Atari.
04:05
Now of coursecurso,
69
233338
1779
Agora, é claro,
04:07
A.I. is still nowherelugar algum nearperto havingtendo
the samemesmo powerfulpoderoso, cross-domainentre domínios
70
235117
3999
a inteligência artificial ainda está muito
longe de ter a mesma capacidade poderosa
04:11
abilityhabilidade to learnaprender and planplano
as a humanhumano beingser has.
71
239116
3219
e transversal para aprender
e planificar tal como um ser humano.
O córtex ainda tem alguns
truques algorítmicos
04:14
The cortexcórtex still has some
algorithmicalgorítmica trickstruques
72
242335
2126
04:16
that we don't yetainda know
how to matchpartida in machinesmáquinas.
73
244461
2355
que ainda não sabemos
como ligar nas máquinas.
04:19
So the questionquestão is,
74
247886
1899
Portanto a questão é,
04:21
how farlonge are we from beingser ablecapaz
to matchpartida those trickstruques?
75
249785
3500
a que distância estamos
de poder ligar esses truques?
04:26
A couplecasal of yearsanos agoatrás,
76
254245
1083
Há alguns anos,
04:27
we did a surveypesquisa of some of the world'sos mundos
leadingconduzindo A.I. expertsespecialistas,
77
255328
2888
fizemos um inquérito a alguns dos
especialistas em I.A.,
04:30
to see what they think,
and one of the questionsquestões we askedperguntei was,
78
258216
3224
para ver o que eles pensam, e uma das
questões que colocámos foi:
04:33
"By whichqual yearano do you think
there is a 50 percentpor cento probabilityprobabilidade
79
261440
3353
"Por volta de que ano é que pensa que
atingiremos a I.A.
04:36
that we will have achievedalcançado
human-levelhumanos-nível machinemáquina intelligenceinteligência?"
80
264793
3482
ao nível humano,
com 50% de probabilidade?"
04:40
We defineddefiniram human-levelhumanos-nível here
as the abilityhabilidade to performexecutar
81
268785
4183
Definimos o nível humano
como a capacidade de realizar
04:44
almostquase any jobtrabalho at leastpelo menos as well
as an adultadulto humanhumano,
82
272968
2871
praticamente qualquer trabalho.
pelo menos como adulto,
04:47
so realreal human-levelhumanos-nível, not just
withindentro some limitedlimitado domaindomínio.
83
275839
4005
a nível humano real, não apenas
dentro de um domínio limitado.
04:51
And the medianmediana answerresponda was 2040 or 2050,
84
279844
3650
A resposta média foi 2040 ou 2050,
04:55
dependingdependendo on preciselyprecisamente whichqual
groupgrupo of expertsespecialistas we askedperguntei.
85
283494
2806
consoante o grupo de especialistas
a que perguntámos.
04:58
Now, it could happenacontecer much,
much latermais tarde, or soonermais cedo,
86
286300
4039
Poderá acontecer muito mais tarde,
ou mais cedo,
05:02
the truthverdade is nobodyninguém really knowssabe.
87
290339
1940
a verdade é que ninguém sabe.
05:05
What we do know is that the ultimatefinal
limitlimite to informationem formação processingem processamento
88
293259
4412
O que nós sabemos
é que o limite fundamental
para processar informação
no substrato duma máquina,
05:09
in a machinemáquina substratesubstrato liesmentiras farlonge outsidelado de fora
the limitslimites in biologicalbiológico tissuelenço de papel.
89
297671
4871
é muito superior ao limite
dos tecidos biológicos.
05:15
This comesvem down to physicsfísica.
90
303241
2378
Isto leva-nos à física.
05:17
A biologicalbiológico neuronneurônio firesincêndios, maybe,
at 200 hertzHertz, 200 timesvezes a secondsegundo.
91
305619
4718
Um neurónio biológico dispara, talvez,
a 200 hertz, 200 vezes por segundo.
05:22
But even a present-daydias de hoje transistortransistor
operatesopera at the GigahertzGigahertz.
92
310337
3594
Mas até um transístor moderno
opera em gigahertz.
05:25
NeuronsNeurônios propagatepropagar slowlylentamente in axonsaxônios,
100 metersmetros perpor secondsegundo, topsno máximo.
93
313931
5297
Os neurónios propagam lentamente
em axónios, a 100 metros por segundo.
Mas em computadores, os sinais podem
deslocar-se à velocidade da luz.
05:31
But in computerscomputadores, signalssinais can travelviagem
at the speedRapidez of lightluz.
94
319228
3111
05:35
There are alsoAlém disso sizeTamanho limitationslimitações,
95
323079
1869
Também há limitações de tamanho.
05:36
like a humanhumano braincérebro has
to fitem forma insidedentro a craniumcrânio,
96
324948
3027
O cérebro humano tem que
caber dentro do crânio,
05:39
but a computercomputador can be the sizeTamanho
of a warehousearmazém or largermaior.
97
327975
4761
mas um computador pode ser do tamanho
de um armazém ou ainda maior.
05:44
So the potentialpotencial for superintelligencesuperinteligência
liesmentiras dormantdormentes in matterimportam,
98
332736
5599
Por isso o potencial para a super
inteligência permanece latente na matéria,
05:50
much like the powerpoder of the atomátomo
laydeitar dormantdormentes throughoutao longo humanhumano historyhistória,
99
338335
5712
tal como a potência do átomo permaneceu
latente na história da humanidade,
05:56
patientlypacientemente waitingesperando there untilaté 1945.
100
344047
4405
pacientemente à espera até 1945.
06:00
In this centuryséculo,
101
348452
1248
Neste século,
06:01
scientistscientistas maypode learnaprender to awakendespertar
the powerpoder of artificialartificial intelligenceinteligência.
102
349700
4118
os cientistas talvez aprendam a despertar
o poder da inteligência artificial.
06:05
And I think we mightpoderia then see
an intelligenceinteligência explosionexplosão.
103
353818
4008
E penso que poderemos então assistir
a uma explosão intelectual.
06:10
Now mosta maioria people, when they think
about what is smartinteligente and what is dumbburro,
104
358406
3957
A maioria das pessoas, quando pensam
acerca do que é a esperteza e a estupidez,
06:14
I think have in mindmente a picturecenário
roughlymais ou menos like this.
105
362363
3023
têm em mente uma imagem
como esta, penso eu.
06:17
So at one endfim we have the villagealdeia idiotidiota,
106
365386
2598
Numa ponta temos o idiota da aldeia,
06:19
and then farlonge over at the other sidelado
107
367984
2483
e noutra ponta muito distante
06:22
we have EdEd WittenWitten, or AlbertAlbert EinsteinEinstein,
or whoeverquem quer que seja your favoritefavorito guruguru is.
108
370467
4756
temos Ed Witten, ou Albert Einstein,
ou qualquer um dos vossos gurus favoritos.
06:27
But I think that from the pointponto of viewVisão
of artificialartificial intelligenceinteligência,
109
375223
3834
Mas penso que, do ponto de vista
da inteligência artificial,
06:31
the trueverdade picturecenário is actuallyna realidade
probablyprovavelmente more like this:
110
379057
3681
a imagem verdadeira é provavelmente
mais parecida com isto.
06:35
AIAI startscomeça out at this pointponto here,
at zerozero intelligenceinteligência,
111
383258
3378
Começa tudo neste ponto aqui,
na inteligência zero,
06:38
and then, after manymuitos, manymuitos
yearsanos of really hardDifícil work,
112
386636
3011
e depois, após muitos anos
de trabalho árduo,
06:41
maybe eventuallyeventualmente we get to
mouse-levelrato-nível artificialartificial intelligenceinteligência,
113
389647
3844
talvez cheguemos à inteligência
artificial ao nível de um rato,
06:45
something that can navigatenavegar
cluttereddesordenado environmentsambientes
114
393491
2430
uma coisa que possa navegar
em ambientes obstruídos
06:47
as well as a mouserato can.
115
395921
1987
tal como um rato pode.
06:49
And then, after manymuitos, manymuitos more yearsanos
of really hardDifícil work, lots of investmentinvestimento,
116
397908
4313
E depois, após muitos mais anos
de trabalho árduo, muitos investimentos,
06:54
maybe eventuallyeventualmente we get to
chimpanzee-levelchimpanzé-nível artificialartificial intelligenceinteligência.
117
402221
4639
talvez cheguemos à inteligência
artificial a nível de um chimpanzé.
06:58
And then, after even more yearsanos
of really, really hardDifícil work,
118
406860
3210
E depois, após ainda mais anos
de trabalho ainda mais duro,
07:02
we get to villagealdeia idiotidiota
artificialartificial intelligenceinteligência.
119
410070
2913
chegamos à inteligência artificial
a nível do idiota da aldeia.
07:04
And a fewpoucos momentsmomentos latermais tarde,
we are beyondalém EdEd WittenWitten.
120
412983
3272
E alguns momentos depois,
ultrapassamos Ed Witten.
07:08
The traintrem doesn't stop
at HumanvilleHumanville StationEstação.
121
416255
2970
O comboio não pára na estação Humanville.
07:11
It's likelyprovável, ratherem vez, to swooshswoosh right by.
122
419225
3022
É mais provável que a ultrapasse.
07:14
Now this has profoundprofundo implicationsimplicações,
123
422247
1984
Isto tem profundas implicações,
07:16
particularlyparticularmente when it comesvem
to questionsquestões of powerpoder.
124
424231
3862
particularmente no que toca
à questão do poder.
07:20
For exampleexemplo, chimpanzeeschimpanzés are strongForte --
125
428093
1899
Por exemplo, os chimpanzés são fortes
07:21
poundlibra for poundlibra, a chimpanzeechimpanzé is about
twiceduas vezes as strongForte as a fitem forma humanhumano malemasculino.
126
429992
5222
— em proporção ao peso, um chimpanzé
é duas vezes mais forte que um ser humano.
07:27
And yetainda, the fatedestino of KanziKanzi
and his palsamigos dependsdepende a lot more
127
435214
4614
No entanto, o destino de Kanzi e dos seus
camaradas depende mais
07:31
on what we humanshumanos do than on
what the chimpanzeeschimpanzés do themselvessi mesmos.
128
439828
4140
daquilo que nós humanos fazemos
do que o que os chimpanzés fazem.
07:37
OnceVez there is superintelligencesuperinteligência,
129
445228
2314
Uma vez atingida a super inteligência,
07:39
the fatedestino of humanityhumanidade maypode dependdepender
on what the superintelligencesuperinteligência does.
130
447542
3839
o destino da humanidade pode depender
daquilo que a super inteligência faz.
07:44
Think about it:
131
452451
1057
Pensem nisto:
07:45
MachineMáquina intelligenceinteligência is the last inventioninvenção
that humanityhumanidade will ever need to make.
132
453508
5044
A inteligência mecânica é a última invenção
que a humanidade precisa de fazer.
07:50
MachinesMáquinas will then be better
at inventinginventando than we are,
133
458552
2973
As máquinas tornar-se-ão melhores
a inventar do que nós,
07:53
and they'lleles vão be doing so
on digitaldigital timescalesescalas de tempo.
134
461525
2540
e farão isso em tempos digitais.
07:56
What this meanssignifica is basicallybasicamente
a telescopingtelescopagem of the futurefuturo.
135
464065
4901
O que isto significa é basicamente uma
previsão do futuro distante.
08:00
Think of all the crazylouco technologiestecnologias
that you could have imaginedimaginou
136
468966
3558
Pensem em todas as tecnologias absurdas
que alguma vez podem ter imaginado
08:04
maybe humanshumanos could have developeddesenvolvido
in the fullnessplenitude of time:
137
472524
2798
que os humanos pudessem ter
desenvolvido com o tempo:
08:07
curescura for agingenvelhecimento, spaceespaço colonizationcolonização,
138
475322
3258
curas para o envelhecimento,
colonização do espaço,
08:10
self-replicatingauto-replicante nanobotsnanobots or uploadingfazer upload
of mindsmentes into computerscomputadores,
139
478580
3731
nanorobôs auto-replicadores ou transferir
as nossas mentes para computadores,
08:14
all kindstipos of scienceCiência fiction-yficção-y stuffcoisa
140
482311
2159
todos os tipos de objectos
da ciência ficção
08:16
that's neverthelessmesmo assim consistentconsistente
with the lawsleis of physicsfísica.
141
484470
2737
que, no entanto, são consistentes
com as leis da física.
08:19
All of this superintelligencesuperinteligência could
developdesenvolve, and possiblypossivelmente quitebastante rapidlyrapidamente.
142
487207
4212
Toda esta super inteligência poderia
ser desenvolvida, e rapidamente.
08:24
Now, a superintelligencesuperinteligência with suchtal
technologicaltecnológica maturitymaturidade
143
492449
3558
Uma super inteligência com tanta
maturidade tecnológica
08:28
would be extremelyextremamente powerfulpoderoso,
144
496007
2179
poderia ser extremamente poderosa
08:30
and at leastpelo menos in some scenarioscenários,
it would be ablecapaz to get what it wants.
145
498186
4546
e, pelo menos nalguns cenários,
poderia conseguir aquilo que quer.
08:34
We would then have a futurefuturo that would
be shapedem forma by the preferencespreferências of this A.I.
146
502732
5661
Teríamos então um futuro construído
segundo as preferências
dessa inteligência artificial.
08:41
Now a good questionquestão is,
what are those preferencespreferências?
147
509855
3749
Agora uma boa pergunta é,
quais são essas preferências?
08:46
Here it getsobtém trickiermais complicado.
148
514244
1769
Aqui torna-se mais complicado.
Para fazer qualquer progresso com isto,
08:48
To make any headwayprogresso with this,
149
516013
1435
08:49
we mustdevo first of all
avoidevitar anthropomorphizingantropomorfismo.
150
517448
3276
temos de, primeiramente,
evitar antropomorfizar.
08:53
And this is ironicirônico because
everycada newspaperjornal articleartigo
151
521934
3301
E isto é irónico porque
todos os artigos de jornais
08:57
about the futurefuturo of A.I.
has a picturecenário of this:
152
525235
3855
acerca do futuro da inteligência
artificial têm uma imagem como esta.
09:02
So I think what we need to do is
to conceiveconceber of the issuequestão more abstractlyabstratamente,
153
530280
4134
Então penso que aquilo que temos de fazer
é imaginar a questão mais abstractamente,
09:06
not in termstermos of vividvívido HollywoodHollywood scenarioscenários.
154
534414
2790
não em termos de cenários
brilhantes de Hollywood.
09:09
We need to think of intelligenceinteligência
as an optimizationotimização processprocesso,
155
537204
3617
Temos de pensar na inteligência como
um processo de optimização,
09:12
a processprocesso that steersnovilhos the futurefuturo
into a particularespecial setconjunto of configurationsconfigurações.
156
540821
5649
um processo que guia o futuro para
um conjunto particular de configurações.
09:18
A superintelligencesuperinteligência is
a really strongForte optimizationotimização processprocesso.
157
546470
3511
A super inteligência é um processo de
optimização muito forte.
09:21
It's extremelyextremamente good at usingusando
availableacessível meanssignifica to achievealcançar a stateEstado
158
549981
4117
É extremamente bom a utilizar os meios
disponíveis para atingir um estado
09:26
in whichqual its goalobjetivo is realizedpercebi.
159
554098
1909
no qual o seu objetivo seja atingido.
09:28
This meanssignifica that there is no necessarynecessário
conenctionconenction betweenentre
160
556447
2672
Isto significa que não há
ligação necessária
09:31
beingser highlyaltamente intelligentinteligente in this sensesentido,
161
559119
2734
entre ser muito inteligente neste sentido,
09:33
and havingtendo an objectiveobjetivo that we humanshumanos
would find worthwhileque vale a pena or meaningfulsignificativo.
162
561853
4662
e ter um objectivo que nós humanos
acharíamos útil ou proveitoso.
Suponham que damos o objectivo de criar
sorrisos humanos à inteligência artificial.
09:39
SupposeSuponha que we give an A.I. the goalobjetivo
to make humanshumanos smilesorrir.
163
567321
3794
09:43
When the A.I. is weakfraco, it performsexecuta usefulútil
or amusingdivertido actionsações
164
571115
2982
Quando a I.A. é fraca,
realiza acções cómicas ou úteis
09:46
that causecausa its userdo utilizador to smilesorrir.
165
574097
2517
que levam o utilizador a sorrir.
Quando a inteligência artificial
se torna super inteligente,
09:48
When the A.I. becomestorna-se superintelligentsuperinteligentes,
166
576614
2417
09:51
it realizespercebe that there is a more
effectiveeficaz way to achievealcançar this goalobjetivo:
167
579031
3523
apercebe-se que existe uma melhor forma
de atingir esse objectivo:
09:54
take controlao controle of the worldmundo
168
582554
1922
controlar o mundo
09:56
and stickbastão electrodeseletrodos into the facialtratamento facial
musclesmúsculos of humanshumanos
169
584476
3162
e inserir eléctrodos
nos músculos faciais dos humanos
09:59
to causecausa constantconstante, beamingradiante grinssorri.
170
587638
2941
para causar sorrisos
constantes e radiantes.
Outro exemplo:
10:02
AnotherOutro exampleexemplo,
171
590579
1035
10:03
supposesuponha we give A.I. the goalobjetivo to solveresolver
a difficultdifícil mathematicalmatemático problemproblema.
172
591614
3383
suponham que desafiamos a I.A.
a resolver um problema matemático difícil.
10:06
When the A.I. becomestorna-se superintelligentsuperinteligentes,
173
594997
1937
Quando a I.A. se torna
super inteligente,
10:08
it realizespercebe that the mosta maioria effectiveeficaz way
to get the solutionsolução to this problemproblema
174
596934
4171
percebe que a forma mais eficiente de
obter a solução para este problema
10:13
is by transformingtransformando the planetplaneta
into a giantgigante computercomputador,
175
601105
2930
é através da transformação do planeta
num computador gigante,
10:16
so as to increaseaumentar its thinkingpensando capacitycapacidade.
176
604035
2246
para aumentar a sua capacidade de pensar.
10:18
And noticeaviso prévio that this gives the A.I.s
an instrumentalinstrumental reasonrazão
177
606281
2764
E reparem que isto dá uma razão
instrumental à I.A.
10:21
to do things to us that we
mightpoderia not approveaprovar of.
178
609045
2516
para nos fazer coisas
que possamos não aprovar.
Neste modelo, os seres humanos
são uma ameaça,
10:23
HumanHumana beingsseres in this modelmodelo are threatsameaças,
179
611561
1935
10:25
we could preventevita the mathematicalmatemático
problemproblema from beingser solvedresolvido.
180
613496
2921
poderíamos impedir a resolução
deste problema matemático.
Claro, as coisas não vão dar erradas
nessas formas particulares;
10:29
Of coursecurso, perceivablyperceivably things won'tnão vai
go wrongerrado in these particularespecial waysmaneiras;
181
617207
3494
10:32
these are cartoondesenho animado examplesexemplos.
182
620701
1753
estes são exemplos caricaturados.
10:34
But the generalgeral pointponto here is importantimportante:
183
622454
1939
Mas este ponto geral é importante:
10:36
if you createcrio a really powerfulpoderoso
optimizationotimização processprocesso
184
624393
2873
se criarem um processo de optimização
muito potente
10:39
to maximizemaximizar o for objectiveobjetivo x,
185
627266
2234
para maximizar o objectivo x,
10:41
you better make sure
that your definitiondefinição of x
186
629500
2276
é melhor assegurarem-se
que a definição de x
10:43
incorporatesincorpora everything you careCuidado about.
187
631776
2469
incorpora tudo aquilo que vos interessa.
10:46
This is a lessonlição that's alsoAlém disso taughtensinado
in manymuitos a mythmito.
188
634835
4384
Esta é uma lição que também
é ensinada em muitos mitos.
10:51
KingRei MidasMidas wishesdesejos that everything
he touchestoca be turnedvirou into goldouro.
189
639219
5298
O Rei Midas deseja que tudo aquilo
em que ele toca se torne ouro.
10:56
He touchestoca his daughterfilha,
she turnsgira into goldouro.
190
644517
2861
Toca na filha dele, transforma-a em ouro.
10:59
He touchestoca his foodComida, it turnsgira into goldouro.
191
647378
2553
Toca na comida dele, esta torna-se ouro.
11:01
This could becometornar-se practicallypraticamente relevantrelevante,
192
649931
2589
Isto poderia tornar-se
particularmente relevante,
11:04
not just as a metaphormetáfora for greedganância,
193
652520
2070
não apenas como metáfora para a ganância,
11:06
but as an illustrationilustração of what happensacontece
194
654590
1895
mas como uma ilustração
daquilo que acontece
11:08
if you createcrio a powerfulpoderoso
optimizationotimização processprocesso
195
656485
2837
se criarem um processo
de optimização poderoso
11:11
and give it misconceivederrada
or poorlymal specifiedespecificado goalsmetas.
196
659322
4789
e lhe derem objectivos pouco específicos.
11:16
Now you mightpoderia say, if a computercomputador startscomeça
stickingaderindo electrodeseletrodos into people'spovos facesrostos,
197
664111
5189
Podem dizer, se um computador começar a
prender eléctrodos nas caras das pessoas,
11:21
we'dqua just shutfechar it off.
198
669300
2265
basta desligá-los.
11:24
A, this is not necessarilynecessariamente so easyfácil to do
if we'venós temos growncrescido dependentdependente on the systemsistema --
199
672555
5340
A) isso não é assim tão fácil de fazer
se nos tornarmos dependentes do sistema
11:29
like, where is the off switchinterruptor
to the InternetInternet?
200
677895
2732
— por exemplo, onde está
o interruptor da Internet?
11:32
B, why haven'tnão tem the chimpanzeeschimpanzés
flickedBati the off switchinterruptor to humanityhumanidade,
201
680627
5120
B) porque é que os chimpanzés
ou os neandertais
não desligaram
o interruptor para a humanidade?
11:37
or the NeanderthalsNeandertais?
202
685747
1551
11:39
They certainlyCertamente had reasonsrazões.
203
687298
2666
Eles de certeza que tinham motivos.
11:41
We have an off switchinterruptor,
for exampleexemplo, right here.
204
689964
2795
Temos um interruptor aqui, por exemplo.
11:44
(ChokingSufocando)
205
692759
1554
(Sufocação)
11:46
The reasonrazão is that we are
an intelligentinteligente adversaryadversário;
206
694313
2925
A razão é que somos
um adversário inteligente;
11:49
we can anticipateantecipar threatsameaças
and planplano around them.
207
697238
2728
podemos prever ameaças
e fazer planos para evitá-las.
11:51
But so could a superintelligentsuperinteligentes agentAgente,
208
699966
2504
Mas isso também consegue
um agente super inteligente,
11:54
and it would be much better
at that than we are.
209
702470
3254
e seria muito melhor nisso do que nós.
11:57
The pointponto is, we should not be confidentconfiante
that we have this undersob controlao controle here.
210
705724
7187
A questão é, não devemos ser confiantes
e pensar que temos tudo sob controlo.
12:04
And we could try to make our jobtrabalho
a little bitpouco easierMais fácil by, say,
211
712911
3447
Podíamos tentar fazer o nosso trabalho
um pouco mais fácil,
pondo a inteligência artificial numa caixa,
12:08
puttingcolocando the A.I. in a boxcaixa,
212
716358
1590
12:09
like a secureSecure softwareProgramas environmentmeio Ambiente,
213
717948
1796
como um "software" de ambiente seguro,
12:11
a virtualvirtual realityrealidade simulationsimulação
from whichqual it cannotnão podes escapeescapar.
214
719744
3022
uma simulação da realidade virtual
da qual não possa escapar.
12:14
But how confidentconfiante can we be that
the A.I. couldn'tnão podia find a bugerro.
215
722766
4146
Mas quanta certeza podemos ter
que a I.A. não encontraria um buraco.
12:18
GivenDado that merelyapenas humanhumano hackershackers
find bugsinsetos all the time,
216
726912
3169
Dado que os "hackers" humanos
estão sempre a encontrar buracos,
12:22
I'd say, probablyprovavelmente not very confidentconfiante.
217
730081
3036
eu diria, provavelmente
não muito confiantes.
12:26
So we disconnectdesconectar-se the ethernetEthernet cablecabo
to createcrio an airar gapgap,
218
734237
4548
Então desligamos o cabo da Ethernet
para criar uma caixa de ar,
12:30
but again, like merelyapenas humanhumano hackershackers
219
738785
2668
mas mais uma vez, como meros "hackers"
12:33
routinelyrotineiramente transgresstransgredir airar gapslacunas
usingusando socialsocial engineeringEngenharia.
220
741453
3381
que transgridem caixas de ar
utilizando engenharia social.
12:36
Right now, as I speakfalar,
221
744834
1259
Neste momento em que falo,
12:38
I'm sure there is some employeeempregado
out there somewherealgum lugar
222
746093
2389
tenho a certeza que há
um empregado, algures.
12:40
who has been talkedfalou into handingentregando out
her accountconta detailsdetalhes
223
748482
3346
a quem alguém que diz
ser do departamento de informática
12:43
by somebodyalguém claimingreivindicando to be
from the I.T. departmentdepartamento.
224
751828
2746
está a pedir os dados
de identificação e "password".
12:46
More creativecriativo scenarioscenários are alsoAlém disso possiblepossível,
225
754574
2127
Também são possíveis
cenários mais criativos.
12:48
like if you're the A.I.,
226
756701
1315
Por exemplo, uma I.A. pode imaginar
12:50
you can imagineImagine wigglingse mexer electrodeseletrodos
around in your internalinterno circuitrycircuitos
227
758016
3532
agitar eléctrodos nos circuitos internos
12:53
to createcrio radiorádio wavesondas that you
can use to communicatecomunicar.
228
761548
3462
para criar ondas de rádio
que pode utilizar para comunicar.
12:57
Or maybe you could pretendfaz de conta to malfunctiondefeituoso,
229
765010
2424
Ou talvez pudesse fingir uma avaria
e depois, quando os programadores a abrirem
para ver o que se passou de errado,
12:59
and then when the programmersprogramadores openaberto
you up to see what wentfoi wrongerrado with you,
230
767434
3497
13:02
they look at the sourcefonte codecódigo -- BamBam! --
231
770931
1936
olham para o código fonte — Bam! —
13:04
the manipulationmanipulação can take placeLugar, colocar.
232
772867
2447
a manipulação toma lugar.
13:07
Or it could outputsaída the blueprintBlueprint
to a really niftynifty technologytecnologia,
233
775314
3430
Ou poderia emitir um rascunho
para uma tecnologia genial
13:10
and when we implementimplemento it,
234
778744
1398
e, quando a implementamos,
13:12
it has some surreptitioussub-reptícia sidelado effectefeito
that the A.I. had plannedplanejado.
235
780142
4397
tem alguns efeitos secundários
que a inteligência artificial planeou.
13:16
The pointponto here is that we should
not be confidentconfiante in our abilityhabilidade
236
784539
3463
A questão aqui é que não deveríamos
confiar na nossa capacidade
13:20
to keep a superintelligentsuperinteligentes geniegênio
lockedtrancado up in its bottlegarrafa foreverpara sempre.
237
788002
3808
em manter um génio super inteligente
fechado na sua garrafa para sempre.
13:23
SoonerQuanto mais cedo or latermais tarde, it will out.
238
791810
2254
Mais cedo ou mais tarde ele vai sair.
13:27
I believe that the answerresponda here
is to figurefigura out
239
795034
3103
Acredito que a resposta seja encontrar
13:30
how to createcrio superintelligentsuperinteligentes A.I.
suchtal that even if -- when -- it escapesescapa,
240
798137
5024
uma forma de criar uma inteligência
artificial que, mesmo que escape,
13:35
it is still safeseguro because it is
fundamentallyfundamentalmente on our sidelado
241
803161
3277
ainda se mantenha segura porque está
fundamentalmente do nosso lado
13:38
because it sharescompartilha our valuesvalores.
242
806438
1899
porque partilha os nossos valores.
13:40
I see no way around
this difficultdifícil problemproblema.
243
808337
3210
Não vejo outra forma
para este problema complexo.
13:44
Now, I'm actuallyna realidade fairlybastante optimisticotimista
that this problemproblema can be solvedresolvido.
244
812557
3834
Eu sinto-me optimista
quanto à resolução deste problema.
13:48
We wouldn'tnão seria have to writeEscreva down
a long listLista of everything we careCuidado about,
245
816391
3903
Não teríamos de escrever uma longa lista
com tudo aquilo que nos é importante,
13:52
or worsepior yetainda, spellfeitiço it out
in some computercomputador languagelíngua
246
820294
3643
ou ainda pior, enunciá-la numa
linguagem de computador
13:55
like C++ or PythonPython,
247
823937
1454
como C++ ou Python,
13:57
that would be a tasktarefa beyondalém hopelesssem esperança.
248
825391
2767
o que seria uma tarefa sem esperança.
14:00
InsteadEm vez disso, we would createcrio an A.I.
that usesusa its intelligenceinteligência
249
828158
4297
Em vez disso, criaríamos uma inteligência
artificial que utiliza a sua inteligência
14:04
to learnaprender what we valuevalor,
250
832455
2771
para aprender o que nós valorizamos.
14:07
and its motivationmotivação systemsistema is constructedconstruído
in suchtal a way that it is motivatedmotivado
251
835226
5280
O seu sistema de motivação seria construído
de tal forma que fosse motivado
14:12
to pursueperseguir our valuesvalores or to performexecutar actionsações
that it predictsprevê we would approveaprovar of.
252
840506
5232
pela busca de valores ou de acções,
prevendo que iríamos aprová-las.
14:17
We would thusportanto leveragealavancagem
its intelligenceinteligência as much as possiblepossível
253
845738
3414
Iríamos então elevar a sua inteligência
o mais possível
14:21
to solveresolver the problemproblema of value-loadingcarregamento de valor.
254
849152
2745
para resolver o problema de
carregamento de valores.
14:24
This can happenacontecer,
255
852727
1512
Isto pode acontecer,
14:26
and the outcomeresultado could be
very good for humanityhumanidade.
256
854239
3596
e o resultado poderia ser muito
bom para a Humanidade.
14:29
But it doesn't happenacontecer automaticallyautomaticamente.
257
857835
3957
Mas não acontece sozinho.
14:33
The initialinicial conditionscondições
for the intelligenceinteligência explosionexplosão
258
861792
2998
As condições iniciais para a
explosão da inteligência
14:36
mightpoderia need to be setconjunto up
in just the right way
259
864790
2863
podem precisar de ser definidas
da forma correta
14:39
if we are to have a controlledcontrolada detonationdetonação.
260
867653
3530
se queremos ter uma detonação controlada.
14:43
The valuesvalores that the A.I. has
need to matchpartida oursnosso,
261
871183
2618
Os valores da I.A.
têm de corresponder aos nossos,
14:45
not just in the familiarfamiliar contextcontexto,
262
873801
1760
não apenas num contexto familiar,
14:47
like where we can easilyfacilmente checkVerifica
how the A.I. behavescomporta-se,
263
875561
2438
onde podemos ver com facilidade
como a I.A. se comporta,
14:49
but alsoAlém disso in all novelromance contextscontextos de
that the A.I. mightpoderia encounterencontro
264
877999
3234
mas também em todos os contextos
que a I.A. possa encontrar
14:53
in the indefiniteindeterminado futurefuturo.
265
881233
1557
no futuro indefinido.
14:54
And there are alsoAlém disso some esotericesotérica issuesproblemas
that would need to be solvedresolvido, sortedordenado out:
266
882790
4737
E há também algumas questões esotéricas
que teriam de ser resolvidas, que são:
14:59
the exactexato detailsdetalhes of its decisiondecisão theoryteoria,
267
887527
2089
os detalhes exactos da sua
teoria decisiva,
15:01
how to dealacordo with logicallógico
uncertaintyincerteza and so forthadiante.
268
889616
2864
como lidar com a incerteza lógica
e assim por diante.
15:05
So the technicaltécnico problemsproblemas that need
to be solvedresolvido to make this work
269
893330
3102
Os problemas que têm de ser
resolvidos tornam este trabalho
um pouco difícil
15:08
look quitebastante difficultdifícil --
270
896432
1113
15:09
not as difficultdifícil as makingfazer
a superintelligentsuperinteligentes A.I.,
271
897545
3380
— não tão difícil como fazer uma
inteligência artificial super inteligente
15:12
but fairlybastante difficultdifícil.
272
900925
2868
mas bastante difícil.
15:15
Here is the worrypreocupação:
273
903793
1695
A preocupação é esta:
15:17
MakingFazendo superintelligentsuperinteligentes A.I.
is a really hardDifícil challengedesafio.
274
905488
4684
Criar uma inteligência artificial super
inteligente é um grande desafio.
15:22
MakingFazendo superintelligentsuperinteligentes A.I. that is safeseguro
275
910172
2548
Fazer uma inteligência artificial
que seja segura
15:24
involvesenvolve some additionaladicionais
challengedesafio on toptopo of that.
276
912720
2416
envolve desafios adicionais
para além deste.
15:28
The riskrisco is that if somebodyalguém figuresfiguras out
how to crackcrack the first challengedesafio
277
916216
3487
O risco é que, se alguém descobre uma
forma de piratear o primeiro desafio
15:31
withoutsem alsoAlém disso havingtendo crackedrachado
the additionaladicionais challengedesafio
278
919703
3001
sem ter pirateado o desafio adicional
15:34
of ensuringgarantindo perfectperfeito safetysegurança.
279
922704
1901
de assegurar a segurança perfeita.
15:37
So I think that we should
work out a solutionsolução
280
925375
3331
Por isso eu penso que deveríamos
trabalhar numa solução
15:40
to the controlao controle problemproblema in advanceavançar,
281
928706
2822
para controlar os problemas
com antecedência,
15:43
so that we have it availableacessível
by the time it is needednecessário.
282
931528
2660
para que o tenhamos disponível
para quando for preciso.
15:46
Now it mightpoderia be that we cannotnão podes solveresolver
the entireinteira controlao controle problemproblema in advanceavançar
283
934768
3507
Pode ser que não consigamos resolver
o problema de controlo por inteiro
15:50
because maybe some elementselementos
can only be put in placeLugar, colocar
284
938275
3024
porque talvez apenas se possam
colocar alguns elementos
15:53
onceuma vez you know the detailsdetalhes of the
architecturearquitetura where it will be implementedimplementado.
285
941299
3997
uma vez que saibamos os detalhes da
arquitectura onde vai ser implementado.
15:57
But the more of the controlao controle problemproblema
that we solveresolver in advanceavançar,
286
945296
3380
Mas quanto mais resolvermos
o problema de controlo,
16:00
the better the oddsprobabilidades that the transitiontransição
to the machinemáquina intelligenceinteligência eraera
287
948676
4090
maior será a probabilidade que a transição
para a era da inteligência mecânica
16:04
will go well.
288
952766
1540
corra bem.
16:06
This to me looksparece like a thing
that is well worthque vale a pena doing
289
954306
4644
Isto parece-me algo
que vale a pena ser feito
16:10
and I can imagineImagine that if
things turnvirar out okay,
290
958950
3332
e posso imaginar que,
se as coisas correrem bem,
16:14
that people a millionmilhão yearsanos from now
look back at this centuryséculo
291
962282
4658
as pessoas daqui um milhão de anos
vão olhar para este século
16:18
and it mightpoderia well be that they say that
the one thing we did that really matteredimportava
292
966940
4002
e é muito provável que digam que uma das
coisas que fizemos e que teve impacto
16:22
was to get this thing right.
293
970942
1567
foi pôr isto a funcionar.
16:24
Thank you.
294
972509
1689
Obrigado.
16:26
(ApplauseAplausos)
295
974198
2813
(Aplausos)
Translated by Jorge Santos
Reviewed by Margarida Ferreira

▲Back to top

ABOUT THE SPEAKER
Nick Bostrom - Philosopher
Nick Bostrom asks big questions: What should we do, as individuals and as a species, to optimize our long-term prospects? Will humanity’s technological advancements ultimately destroy us?

Why you should listen

Philosopher Nick Bostrom envisioned a future full of human enhancement, nanotechnology and machine intelligence long before they became mainstream concerns. From his famous simulation argument -- which identified some striking implications of rejecting the Matrix-like idea that humans are living in a computer simulation -- to his work on existential risk, Bostrom approaches both the inevitable and the speculative using the tools of philosophy, probability theory, and scientific analysis.

Since 2005, Bostrom has led the Future of Humanity Institute, a research group of mathematicians, philosophers and scientists at Oxford University tasked with investigating the big picture for the human condition and its future. He has been referred to as one of the most important thinkers of our age.

Nick was honored as one of Foreign Policy's 2015 Global Thinkers .

His recent book Superintelligence advances the ominous idea that “the first ultraintelligent machine is the last invention that man need ever make.”

More profile about the speaker
Nick Bostrom | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee