ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com
TEDxBoston

Steve Ramirez and Xu Liu: A mouse. A laser beam. A manipulated memory.

Steve Ramirez i Xu Liu: Miš. Laserska zraka. Manipulirano sjećanje.

Filmed:
1,127,889 views

Možemo li promijeniti sadržaj naših sjećanja? To se pitanje, koje zvuči kao znanstvena fantastika, pitaju Steve Ramirez i Xu Liu u njihovom laboratoriju na MIT-u. Ukratko, oni su ispalili lasersku zraku u mozak živog miša kako bi aktivirali i manipulirali njegovim sjećanjem. U ovom neočekivano zanimljivom govoru oni dijele ne samo kako, već i – još važnije – zašto to čine. (Snimljeno na TEDxBostonu)
- Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice. Full bio - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice. Full bio

Double-click the English transcript below to play the video.

00:12
SteveSteve RamirezRamirez: My first yeargodina of gradgrad schoolškola,
0
371
1556
Steve Ramirez: Na mojoj prvoj godini postdiplomskog
00:13
I foundpronađeno myselfsebe in my bedroomspavaća soba
1
1927
2004
našao sam se u sobi
00:15
eatingjelo lots of BenBen & Jerry'sJerry-a
2
3931
2300
kako jedem puno Ben & Jerry's,
00:18
watchinggledanje some trashyprljavo TVTV
3
6231
1684
gledam neko smeće na TV-u
00:19
and maybe, maybe listeningslušanje to TaylorTaylor SwiftSwift.
4
7915
3227
i možda, ali možda slušajući Taylor Swift.
00:23
I had just goneotišao throughkroz a breakupraspad.
5
11142
1741
Upravo sam doživio prekid.
00:24
(LaughterSmijeh)
6
12883
1447
(Smijeh)
00:26
So for the longestnajduži time, all I would do
7
14330
2196
Dugo sam samo
00:28
is recallpodsjetiti the memorymemorija of this personosoba over and over again,
8
16526
3816
prizivao uspomenu na tu osobu opet iznova,
00:32
wishingkoji žele that I could get ridosloboditi of that gut-wrenchingNe zelim,
9
20342
2493
želeći da se mogu riješiti tog osjećaja u stomaku,
00:34
visceralvisceralni "blahpretjerivanje" feelingosjećaj.
10
22835
2533
visceralnog „blah“ osjećaja.
00:37
Now, as it turnsokreti out, I'm a neuroscientistneuroznanstvenik,
11
25368
2283
Igrom slučaja sam neuroznanstvenik
00:39
so I knewznao that the memorymemorija of that personosoba
12
27651
2402
pa znam da su uspomena na tu osobu
00:42
and the awfulgrozan, emotionalemotivan undertonesprigušeno that colorboja in that memorymemorija,
13
30053
3140
i grozna, emotivna ispraznost koja boja to sjećanje
00:45
are largelyu velikoj mjeri mediateduz posredovanje by separateodvojen brainmozak systemssustavi.
14
33193
2634
procesuirani različitim sustavima u mozgu.
00:47
And so I thought, what if we could go into the brainmozak
15
35827
2365
I pomislio sam što ako možemo ući u mozak
00:50
and editUredi out that nauseatingmučnine feelingosjećaj
16
38192
2090
i obraditi taj grozni osjećaj,
00:52
but while keepingčuvanje the memorymemorija of that personosoba intactnetaknut?
17
40282
2970
ali održati uspomenu na tu osobu netaknutom?
00:55
Then I realizedshvatio, maybe that's a little bitbit loftyuzvišene for now.
18
43252
2411
Tada sam shvatio da je to malo previsok cilj za sada.
00:57
So what if we could startpočetak off by going into the brainmozak
19
45663
2793
Što ako bismo mogli započeti s ulaženjem u mozak
01:00
and just findingnalaz a singlesingl memorymemorija to beginpočeti with?
20
48456
2633
i pronalaskom jedne uspomene s kojom bismo započeli?
01:03
Could we jump-startskok-start that memorymemorija back to life,
21
51089
2514
Bismo li mogli naglo vratiti tu uspomenu u život,
01:05
maybe even playigrati with the contentssadržaj of that memorymemorija?
22
53603
3868
možda se poigrati sa sadržajem te uspomene?
01:09
All that said, there is one personosoba in the entirečitav worldsvijet right now
23
57471
2229
Sve rečeno, postoji jedna osoba na cijelom svijetu sada
01:11
that I really hopenada is not watchinggledanje this talk.
24
59700
2055
za koju se nadam da ne gleda ovaj govor.
01:13
(LaughterSmijeh)
25
61755
3941
(Smijeh)
01:17
So there is a catchulov. There is a catchulov.
26
65696
3289
Postoji kvaka. Postoji kvaka.
01:20
These ideasideje probablyvjerojatno remindpodsjetiti you of "TotalUkupno RecallOpoziv,"
27
68985
2788
Ove vas ideje vjerojatno podsjećaju na „Total Recall“,
01:23
"EternalVječni SunshineSunce of the SpotlessBez mane MindUm,"
28
71773
1974
"Eternal Sunshine of the Spotless Mind,"
01:25
or of "InceptionPočetka."
29
73747
1303
ili „Inception“,
01:27
But the moviefilm starszvijezde that we work with
30
75050
1576
Ali filmske zvijezde s kojima radimo
01:28
are the celebritiespoznate osobe of the lablaboratorija.
31
76626
1943
su zvijezde laboratorija.
01:30
XuXu LiuLiu: TestTest micemiševi.
32
78569
1900
Xu Liu: ispitni miš
01:32
(LaughterSmijeh)
33
80469
1128
(Smijeh)
01:33
As neuroscientistsNeuroznanstvenici, we work in the lablaboratorija with micemiševi
34
81597
3154
Kao neuroznanstvenici radimo u laboratoriju s miševima
01:36
tryingtežak to understandrazumjeti how memorymemorija worksdjela.
35
84751
3410
pokušavajući razumijeti kako pamćenje radi.
01:40
And todaydanas, we hopenada to convinceuvjeriti you that now
36
88161
2569
I danas se nadamo da ćemo vas uvjeriti
01:42
we are actuallyzapravo ableu stanju to activateaktiviranje a memorymemorija in the brainmozak
37
90730
3216
da zapravo možemo aktivirati sjećanje u mozgu
01:45
at the speedubrzati of lightsvjetlo.
38
93946
2170
brzinom svjetlosti.
01:48
To do this, there's only two simplejednostavan stepskoraci to followslijediti.
39
96116
3106
Kako bismo to napravili potrebna su dva koraka.
01:51
First, you find and labeloznačiti a memorymemorija in the brainmozak,
40
99222
3510
Prvo, pronađeš i označiš uspomenu u mozgu
01:54
and then you activateaktiviranje it with a switchprekidač.
41
102732
3630
i onda je aktiviraš prekidačem.
01:58
As simplejednostavan as that.
42
106362
1445
Poprilično jednostavno.
01:59
(LaughterSmijeh)
43
107807
1822
(Smijeh)
02:01
SRSR: Are you convinceduvjeren?
44
109629
1845
SR: Jeste li uvjereni?
02:03
So, turnsokreti out findingnalaz a memorymemorija in the brainmozak isn't all that easylako.
45
111474
3721
Izgleda da pronalaženje uspomene u mozgu nije tako jednostavno.
02:07
XLXL: IndeedDoista. This is way more difficulttežak than, let's say,
46
115195
2803
XL: Uistinu. To je puno teže nego, recimo,
02:09
findingnalaz a needleigla in a haystackplast,
47
117998
2404
pronalaženje igle u plastu sijena,
02:12
because at leastnajmanje, you know, the needleigla is still something
48
120402
2589
jer bar znate da je igla nešto
02:14
you can physicallytjelesno put your fingersprsti on.
49
122991
2500
što fizički možete dodirnuti.
02:17
But memorymemorija is not.
50
125491
1977
Ali uspomena nije.
02:19
And alsotakođer, there's way more cellsStanice in your brainmozak
51
127468
3038
Također više je stanica u vašem mozgu
02:22
than the numberbroj of strawsslamke in a typicaltipičan haystackplast.
52
130506
5066
nego slamki u jednom plastu sijena.
02:27
So yeah, this taskzadatak does seemčiniti se to be dauntingobeshrabljujući.
53
135572
2879
Da, ovaj pothvat se čini obeshrabrujućim.
02:30
But luckilysrećom, we got help from the brainmozak itselfsebe.
54
138451
3679
Ali, srećom, dobili smo pomoć od samog mozga.
02:34
It turnedokrenut out that all we need to do is basicallyu osnovi
55
142130
2455
Izgleda da je sve što trebamo učiniti
02:36
to let the brainmozak formoblik a memorymemorija,
56
144585
1993
pustiti mozak da stvori sjećanje
02:38
and then the brainmozak will tell us whichkoji cellsStanice are involvedumiješan
57
146578
3830
i onda će nam mozak reći koje stanice sudjeluju
02:42
in that particularposebno memorymemorija.
58
150408
1766
u određenoj uspomeni.
02:44
SRSR: So what was going on in my brainmozak
59
152174
2357
SR: Što se događalo u mom mozgu
02:46
while I was recallingpodsjetivši the memorymemorija of an exbivši?
60
154531
2094
dok sam prizivao sjećanje na bivšu?
02:48
If you were to just completelypotpuno ignorezanemariti humanljudski ethicsetika for a seconddrugi
61
156625
2402
Ako samo na sekundu potpuno ignorirate ljudsku etiku
02:51
and slicekriška up my brainmozak right now,
62
159027
1668
i upravo mi razrežete mozak,
02:52
you would see that there was an amazingnevjerojatan numberbroj
63
160695
2018
vidjeli biste da postoji velik broj
02:54
of brainmozak regionsregije that were activeaktivan while recallingpodsjetivši that memorymemorija.
64
162713
3178
regija mozga koje su bile aktivne dok sam prizivao uspomenu.
02:57
Now one brainmozak regionregija that would be robustlyrobusno activeaktivan
65
165891
2912
Jedna regija u mozgu, koja bi bila posebno snažno aktivna,
03:00
in particularposebno is calledzvao the hippocampusmorski konj,
66
168803
2007
zove se hipokampus,
03:02
whichkoji for decadesdesetljeća has been implicatedupleten in processingobrada
67
170810
2455
koji je desetljećima uključen u procesuiranje
03:05
the kindsvrste of memoriessjećanja that we holddržati nearblizu and deardraga,
68
173265
2416
vrste uspomena koje smatramo bliskima i dragima
03:07
whichkoji alsotakođer makesmarke it an idealidealan targetcilj to go into
69
175681
2574
i koje to čini savršenim metama za
03:10
and to try and find and maybe reactivatePonovno aktiviranje a memorymemorija.
70
178255
2785
pronalazak i možda ponovno aktiviranje uspomene.
03:13
XLXL: When you zoomzum in into the hippocampusmorski konj,
71
181040
2394
XL: Kada zumiramo hipokampus,
03:15
of coursenaravno you will see lots of cellsStanice,
72
183434
2348
naravno da ćemo vidjeti mnogo stanica,
03:17
but we are ableu stanju to find whichkoji cellsStanice are involvedumiješan
73
185782
3031
ali u stanju smo pronaći koje stanice sudjeluju
03:20
in a particularposebno memorymemorija,
74
188813
1476
u određenoj uspomeni,
03:22
because wheneverkada a cellćelija is activeaktivan,
75
190289
2618
jer kad god je stanica aktivna
03:24
like when it's formingformiranje a memorymemorija,
76
192907
1464
kao kada stvara uspomenu,
03:26
it will alsotakođer leavenapustiti a footprintotisak stopala that will laterkasnije allowdopustiti us to know
77
194371
3757
također ostavlja otisak koji će nam kasnije omogućiti
03:30
these cellsStanice are recentlynedavno activeaktivan.
78
198128
2702
da znamo kako su te stanice nedavno bile aktivirane.
03:32
SRSR: So the sameisti way that buildingzgrada lightssvjetla at night
79
200830
2160
SR: Na isti način na koji vam svjetlo u zgradi po noći
03:34
let you know that somebody'snetko je probablyvjerojatno workingrad there at any givendan momenttrenutak,
80
202990
2948
govori da netko upravo tada radi tamo,
03:37
in a very realstvaran senseosjećaj, there are biologicalbiološki sensorssenzori
81
205938
3288
isto tako postoje i biološki senzori
03:41
withinunutar a cellćelija that are turnedokrenut on
82
209226
1954
unutar stanice koji su uključeni
03:43
only when that cellćelija was just workingrad.
83
211180
2135
samo kada ta stanica radi.
03:45
They're sortvrsta of biologicalbiološki windowsprozori that lightsvjetlo up
84
213315
1876
Oni su na neki način biološki prozori kojima je svjetlo upaljeno
03:47
to let us know that that cellćelija was just activeaktivan.
85
215191
1978
kako bismo znali da je ta stanica upravo bila aktivna.
03:49
XLXL: So we clippedošišan partdio of this sensorsenzor,
86
217169
2829
XL: Odrezali smo dio senzora
03:51
and attachedprivržen that to a switchprekidač to controlkontrolirati the cellsStanice,
87
219998
3147
i dodali ga prekidaču pomoću kojeg kontroliramo stanice
03:55
and we packedupakiran this switchprekidač into an engineeredprojektirana virusvirus
88
223145
3900
i vratili smo prekidače u inženjeringom dobiven virus
03:59
and injectedubrizgava that into the brainmozak of the micemiševi.
89
227045
2588
te to ubrizgali u mozak miša.
04:01
So wheneverkada a memorymemorija is beingbiće formedformirana,
90
229633
2634
Svaki put kada se stvara uspomena,
04:04
any activeaktivan cellsStanice for that memorymemorija
91
232267
2348
svaka će aktivna stanica za tu uspomenu
04:06
will alsotakođer have this switchprekidač installedinstaliran.
92
234615
2742
imati ugrađen prekidač.
04:09
SRSR: So here is what the hippocampusmorski konj looksizgled like
93
237357
1625
SR: Ovako izgleda hipokampus
04:10
after formingformiranje a fearstrah memorymemorija, for exampleprimjer.
94
238982
2840
nakon što se stvori uspomena na strah, na primjer.
04:13
The seamore of blueplava that you see here
95
241822
2140
More plavog koje vidite ovdje
04:15
are denselygusto packedupakiran brainmozak cellsStanice,
96
243962
1952
su gusto zbijene stanice mozga,
04:17
but the greenzelena brainmozak cellsStanice,
97
245914
1545
ali zelene stanice,
04:19
the greenzelena brainmozak cellsStanice are the onesone that are holdingdržanje on
98
247459
2096
zelene stanice su one koje se tiču
04:21
to a specificspecifično fearstrah memorymemorija.
99
249555
1843
određene uspomene na strah.
04:23
So you are looking at the crystallizationkristalizacija
100
251398
1979
Gledate u kristalizaciju
04:25
of the fleetingkratkotrajna formationformacija of fearstrah.
101
253377
2387
brzog stvaranja straha.
04:27
You're actuallyzapravo looking at the cross-sectionpoprečni presjek of a memorymemorija right now.
102
255764
3497
Upravo gledate presjek uspomene.
04:31
XLXL: Now, for the switchprekidač we have been talkingkoji govori about,
103
259261
2408
XL: Sad, prekidač o kojem smo bili govorili,
04:33
ideallyidealno, the switchprekidač has to actčin really fastbrzo.
104
261669
2970
idealno prekidač bi trebao djelovati jako brzo.
04:36
It shouldn'tne treba take minutesminuta or hourssati to work.
105
264639
2579
Ne trebaju proći minute i sati kako bi proradio.
04:39
It should actčin at the speedubrzati of the brainmozak, in millisecondsmilisekundi.
106
267218
4264
Trebao bi djelovati brzinom mozga, u milisekundama.
04:43
SRSR: So what do you think, XuXu?
107
271482
1430
SR: Što ti misliš, Xu?
04:44
Could we use, let's say, pharmacologicalfarmakološki drugslijekovi
108
272912
2602
Možemo li koristiti, recimo, farmakološke lijekove
04:47
to activateaktiviranje or inactivateDeaktiviraj brainmozak cellsStanice?
109
275514
1838
kako bismo aktivirali ili deaktivirali moždane stanice?
04:49
XLXL: Nahne. DrugsDroge are prettyprilično messyu neredu. They spreadširenje everywheresvugdje, posvuda.
110
277352
4063
XL: Ne. Lijekovi su nepredvidljivi. Šire se svuda.
04:53
And alsotakođer it takes them foreverzauvijek to actčin on cellsStanice.
111
281415
3008
Također, treba im vječnost da djeluju na stanice.
04:56
So it will not allowdopustiti us to controlkontrolirati a memorymemorija in realstvaran time.
112
284423
3649
Neće nam omogućiti kontrolu uspomene u stvarnom vremenu.
05:00
So SteveSteve, how about let's zapZap the brainmozak with electricityelektricitet?
113
288072
4294
Steve, što misliš o tome da zdrmamo mozak strujom?
05:04
SRSR: So electricityelektricitet is prettyprilično fastbrzo,
114
292366
2305
SR: Pa struja putuje brzo,
05:06
but we probablyvjerojatno wouldn'tne bi be ableu stanju to targetcilj it
115
294671
1739
ali vjerojatno nećemo moći naciljati
05:08
to just the specificspecifično cellsStanice that holddržati ontona a memorymemorija,
116
296410
2354
određenu stanicu koja sadrži uspomenu
05:10
and we'dmi bismo probablyvjerojatno frypržiti the brainmozak.
117
298764
1878
i vjerojatno ćemo spržiti mozak.
05:12
XLXL: Oh. That's truepravi. So it looksizgled like, hmmHmm,
118
300642
3195
XL: Oh. Istina. Izgleda da
05:15
indeeddoista we need to find a better way
119
303837
2611
stvarno trebamo pronaći bolji način
05:18
to impactudar the brainmozak at the speedubrzati of lightsvjetlo.
120
306448
3295
da utječemo na mozak brzinom svjetlosti.
05:21
SRSR: So it just so happensdogađa se that lightsvjetlo travelsputovanja at the speedubrzati of lightsvjetlo.
121
309743
5086
SR: Igrom slučaja svjetlost putuje brzinom svjetlosti.
05:26
So maybe we could activateaktiviranje or inactiveneaktivan memoriessjećanja
122
314829
3483
Možda možemo aktivirati ili deaktivirati uspomene
05:30
by just usingkoristeći lightsvjetlo --
123
318312
1497
koristeći samo svjetlost--
05:31
XLXL: That's prettyprilično fastbrzo.
124
319809
1355
XL: To je poprilično brzo.
05:33
SRSR: -- and because normallynormalno brainmozak cellsStanice
125
321164
1885
SR: --i zato što normalne moždane stanice
05:35
don't respondodgovarati to pulsesimpulsa of lightsvjetlo,
126
323049
1588
ne reagiraju na valove svjetla,
05:36
so those that would respondodgovarati to pulsesimpulsa of lightsvjetlo
127
324637
1958
pa bi one koje bi reagirale na valove svjetla
05:38
are those that containsadržati a light-sensitivesvjetlo-osjetljive switchprekidač.
128
326595
2464
bile one koje sadrže prekidače osjetljive na svjetlost.
05:41
Now to do that, first we need to tricktrik brainmozak cellsStanice
129
329059
1946
Kako bismo to učinili trebamo prevariti moždane stanice
05:43
to respondodgovarati to laserlaser beamsgrede.
130
331005
1462
da odgovaraju na laserske zrake.
05:44
XLXL: YepDa. You heardčuo it right.
131
332467
1070
XL: Da. Dobro ste čuli.
05:45
We are tryingtežak to shootpucati laserslaseri into the brainmozak.
132
333537
2132
Pokušavamo pucati laserom u mozak.
05:47
(LaughterSmijeh)
133
335669
1745
(Smijeh)
05:49
SRSR: And the techniquetehnika that letsomogućuje us do that is optogeneticsoptogenetics.
134
337414
3324
SR: A tehnika koja nam to dopušta je optogenetika.
05:52
OptogeneticsOptogenetics gavedali us this lightsvjetlo switchprekidač that we can use
135
340738
3282
Optogenetika nam je dala svjetlosne prekidače koje možemo koristiti
05:56
to turnskretanje brainmozak cellsStanice on or off,
136
344020
1508
kako bismo uključili ili isključili moždane stanice,
05:57
and the nameime of that switchprekidač is channelrhodopsinchannelrhodopsin,
137
345528
2517
a ime tog prekidača je kanalrodopsin
06:00
seenvidio here as these greenzelena dotstočkice attachedprivržen to this brainmozak cellćelija.
138
348045
2537
koji se ovdje vidi kao zelene točke pričvršćene za ovu moždanu stanicu.
06:02
You can think of channelrhodopsinchannelrhodopsin as a sortvrsta of light-sensitivesvjetlo-osjetljive switchprekidač
139
350582
3299
Možete zamisliti kanalrodopsin kao prekidač osjetljiv na svjetlost
06:05
that can be artificiallyumjetno installedinstaliran in brainmozak cellsStanice
140
353881
2627
koji se može umjetno ugraditi u moždanu stanicu
06:08
so that now we can use that switchprekidač
141
356508
1914
tako da možemo koristiti taj prekidač
06:10
to activateaktiviranje or inactivateDeaktiviraj the brainmozak cellćelija simplyjednostavno by clickingklikom it,
142
358422
3013
kako bi aktivirali ili deaktivirali moždanu stanicu pritiskom na njega,
06:13
and in this casespis we clickklik it on with pulsesimpulsa of lightsvjetlo.
143
361435
2468
a u ovom slučaju ga pritišćemo valom svjetlosti.
06:15
XLXL: So we attachpričvrstiti this light-sensitivesvjetlo-osjetljive switchprekidač of channelrhodopsinchannelrhodopsin
144
363903
3786
XL: Ugradili smo ovaj kanalrodopsinov prekidač osjetljiv na svjetlost
06:19
to the sensorsenzor we'veimamo been talkingkoji govori about
145
367689
2208
na senzor o kojem smo bili pričali
06:21
and injectubrizgati this into the brainmozak.
146
369897
2455
i ubrizgali smo to u mozak.
06:24
So wheneverkada a memorymemorija is beingbiće formedformirana,
147
372352
3211
Pa svaki put kada se stvori uspomena
06:27
any activeaktivan cellćelija for that particularposebno memorymemorija
148
375563
2227
svaka će stanica aktivna za tu određenu uspomenu
06:29
will alsotakođer have this light-sensitivesvjetlo-osjetljive switchprekidač installedinstaliran in it
149
377790
3484
također imati ugrađen ovaj prekidač osjetljiv na svjetlost
06:33
so that we can controlkontrolirati these cellsStanice
150
381274
2401
kako bismo kontrolirali ove stanice
06:35
by the flippingpreklapanje of a laserlaser just like this one you see.
151
383675
4264
koristeći laser poput ovoga koji vidite.
06:39
SRSR: So let's put all of this to the testtest now.
152
387939
2864
SR: Hajdemo sada sve ovo testirati.
06:42
What we can do is we can take our micemiševi
153
390803
2135
Ono što možemo učiniti je uzeti miševe
06:44
and then we can put them in a boxkutija that looksizgled exactlytočno like this boxkutija here,
154
392938
2928
i možemo ih postaviti u kutiju, koja izgleda točno kao ova ovdje,
06:47
and then we can give them a very mildblag footnoga shockšok
155
395866
2340
i možemo im blago stresti stopala
06:50
so that they formoblik a fearstrah memorymemorija of this boxkutija.
156
398206
2035
kako bi stvorili uspomenu straha od ove kutije.
06:52
They learnnaučiti that something badloše happeneddogodilo here.
157
400241
1979
Nauče da se nešto loše dogodilo ovdje.
06:54
Now with our systemsistem, the cellsStanice that are activeaktivan
158
402220
2342
Sad s našim sustavom, stanice koje su aktivne
06:56
in the hippocampusmorski konj in the makingizrađivanje of this memorymemorija,
159
404562
2931
u hipokampusu, zbog stvaranja uspomene,
06:59
only those cellsStanice will now containsadržati channelrhodopsinchannelrhodopsin.
160
407493
2883
samo će one sadržavati kanalrodopsin.
07:02
XLXL: When you are as smallmali as a mousemiš,
161
410376
3017
XL: Kada si mal poput miša,
07:05
it feelsosjeća as if the wholečitav worldsvijet is tryingtežak to get you.
162
413393
3595
osjećaš se kao da te cijeli svijet želi uhvatiti.
07:08
So your bestnajbolje responseodgovor of defenseodbrana
163
416988
1748
Pa je tvoja najbolja obrana
07:10
is tryingtežak to be undetectedneopažen.
164
418736
2482
pokušati biti neprimijećen.
07:13
WheneverKad god a mousemiš is in fearstrah,
165
421218
2033
Kad god se miš boji,
07:15
it will showpokazati this very typicaltipičan behaviorponašanje
166
423251
1526
pokazat će veoma tipično ponašanje
07:16
by stayingostanak at one cornerugao of the boxkutija,
167
424777
1769
ostajući u jednom kutu kutije,
07:18
tryingtežak to not movepotez any partdio of its bodytijelo,
168
426546
3118
pokušavajući ne micati nijedan dio tijela,
07:21
and this posturedržanje is calledzvao freezingzamrzavanje.
169
429664
3295
a ovo držanje se zove zamrzavanje.
07:24
So if a mousemiš rememberspamti that something badloše happeneddogodilo in this boxkutija,
170
432959
4294
Ako se miš sjeća da se nešto loše dogodilo u kutiji,
07:29
and when we put them back into the sameisti boxkutija,
171
437253
2623
kada ih vratimo natrag u kutiju,
07:31
it will basicallyu osnovi showpokazati freezingzamrzavanje
172
439876
1804
odmah će pokazati zamrzavanje,
07:33
because it doesn't want to be detectedotkriven
173
441680
2285
jer ne želi biti otkriven
07:35
by any potentialpotencijal threatsprijetnje in this boxkutija.
174
443965
2695
od strane bilo kakve opasnosti u kutiji.
07:38
SRSR: So you can think of freezingzamrzavanje as,
175
446660
1355
SR: Možete zamisliti zamrzavanje kao,
07:40
you're walkinghodanje down the streetulica mindingskrb your ownvlastiti businessPoslovni,
176
448015
2215
hodate niz ulicu gledajući svoja posla
07:42
and then out of nowherenigdje you almostskoro runtrčanje into
177
450230
1725
i odjednom skoro naletite na
07:43
an ex-girlfriendbivša djevojka or ex-boyfriendbivši dečko,
178
451955
2192
bivšu curu ili dečka
07:46
and now those terrifyingzastrašujući two secondssekundi
179
454147
2134
i sada te strašne dvije sekunde
07:48
where you startpočetak thinkingmišljenje, "What do I do? Do I say hibok?
180
456281
1876
kada razmišljate, „Što napraviti? Trebam li pozdraviti?
07:50
Do I shaketresti theirnjihov handruka? Do I turnskretanje around and runtrčanje away?
181
458157
1368
Trebamo li se rukovati? Da se okrenem i pobjegnem?
07:51
Do I sitsjediti here and pretendpretvarati se like I don't existpostojati?"
182
459525
2029
A da sjednem ovdje i pretvaram se da ne postojim?“
07:53
Those kindsvrste of fleetingkratkotrajna thoughtsmisli that physicallytjelesno incapacitateonesposobiti you,
183
461554
3184
Takve misli o bježanju te fizički oduzmu,
07:56
that temporarilyprivremeno give you that deer-in-headlightsjelena u prednja svjetla look.
184
464738
2746
daju ti izgled srne pred jurećim autom.
07:59
XLXL: HoweverMeđutim, if you put the mousemiš in a completelypotpuno differentdrugačiji
185
467484
3291
XL: Ako stavite miša u posve različitu,
08:02
newnovi boxkutija, like the nextSljedeći one,
186
470775
3161
novu kutiju, poput sljedeće,
08:05
it will not be afraiduplašen of this boxkutija
187
473936
2147
neće se plašiti te kutije,
08:08
because there's no reasonrazlog that it will be afraiduplašen of this newnovi environmentokolina.
188
476083
4729
jer nema razloga zbog kojih bi se bojao nove okoline.
08:12
But what if we put the mousemiš in this newnovi boxkutija
189
480812
3180
Ali što ako stavimo miša u novu kutiju
08:15
but at the sameisti time, we activateaktiviranje the fearstrah memorymemorija
190
483992
3611
i u isto vrijeme aktiviramo uspomenu straha
08:19
usingkoristeći laserslaseri just like we did before?
191
487603
2679
koristeći laser kao što smo učinili prije?
08:22
Are we going to bringdonijeti back the fearstrah memorymemorija
192
490282
2854
Hoćemo li vratiti uspomenu straha
08:25
for the first boxkutija into this completelypotpuno newnovi environmentokolina?
193
493136
3997
na prvu kutiju u ovaj posve novi okoliš?
08:29
SRSR: All right, and here'sevo the million-dollarmilijuna dolara experimenteksperiment.
194
497133
2735
SR: Dobro, to je eksperiment vrijedan milijun dolara.
08:31
Now to bringdonijeti back to life the memorymemorija of that day,
195
499868
2913
Sad kako bismo vratili u život uspomenu na taj dan,
08:34
I rememberzapamtiti that the RedCrveni SoxSoxi had just wonwon,
196
502781
2183
sjećam se da su Red Soxi upravo pobijedili,
08:36
it was a greenzelena springProljeće day,
197
504964
1909
bio je zeleni proljetni dan,
08:38
perfectsavršen for going up and down the riverRijeka
198
506873
1817
savršen za šetnju uz rijeku
08:40
and then maybe going to the NorthSjever EndKraj
199
508690
2334
i onda možda odlazak do North Enda
08:43
to get some cannolisšam-rolne, #justsayingNo.
200
511024
2160
na nekakav desert, samo kažem.
08:45
Now XuXu and I, on the other handruka,
201
513184
3102
Xu i ja smo, u drugu ruku,
08:48
were in a completelypotpuno windowlessbez prozora blackcrno roomsoba
202
516286
2829
bili u posve tamnoj sobi bez prozora
08:51
not makingizrađivanje any ocularočni movementpokret that even remotelydaljinski resemblesnalik je an eyeoko blinktreptati
203
519115
3661
ne radeći ni pokrete očiju koji imalo podsjećaju na treptaj oka,
08:54
because our eyesoči were fixedfiksni ontona a computerračunalo screenzaslon.
204
522776
2466
jer su naše oči bile uperene na zaslon računala.
08:57
We were looking at this mousemiš here tryingtežak to activateaktiviranje a memorymemorija
205
525242
2556
Gledali smo u miša pokušavajući aktivirati uspomenu
08:59
for the first time usingkoristeći our techniquetehnika.
206
527798
1883
po prvi put koristeći ovu tehniku.
09:01
XLXL: And this is what we saw.
207
529681
2688
XL: I vidjeli smo ovo.
09:04
When we first put the mousemiš into this boxkutija,
208
532369
2202
Kada smo stavili miša u kutiju,
09:06
it's exploringistraživanje, sniffingnjuškanje around, walkinghodanje around,
209
534571
3113
istraživao je, njuškao, hodao uokolo,
09:09
mindingskrb its ownvlastiti businessPoslovni,
210
537684
1689
gledao svoja posla,
09:11
because actuallyzapravo by naturepriroda,
211
539373
1701
jer su po prirodi,
09:13
micemiševi are prettyprilično curiousznatiželjan animalsživotinje.
212
541074
1979
miševi znatiželjne životinje.
09:15
They want to know, what's going on in this newnovi boxkutija?
213
543053
2622
Žele znati što se dešava u ovoj novoj kutiji?
09:17
It's interestingzanimljiv.
214
545675
1531
Zanimljivo je.
09:19
But the momenttrenutak we turnedokrenut on the laserlaser, like you see now,
215
547206
3451
Ali u trenutku kada smo uključili laser, kao što sada vidite,
09:22
all of a suddennaglo the mousemiš enteredušao this freezingzamrzavanje modenačin.
216
550657
3032
miš se odjednom zamrznuo.
09:25
It stayedostao here and triedpokušala not to movepotez any partdio of its bodytijelo.
217
553689
4431
Ostao je tamo i pokušao je ne micati nijedan dio svoga tijela.
09:30
ClearlyJasno it's freezingzamrzavanje.
218
558120
1628
To je očigledno zamrzavanje.
09:31
So indeeddoista, it looksizgled like we are ableu stanju to bringdonijeti back
219
559748
2583
Uistinu, izgleda da smo uspjeli vratiti
09:34
the fearstrah memorymemorija for the first boxkutija
220
562331
2064
uspomenu straha od prve kutije
09:36
in this completelypotpuno newnovi environmentokolina.
221
564395
3367
u ovo posve novo okruženje.
09:39
While watchinggledanje this, SteveSteve and I
222
567762
2112
Dok smo to gledali, Steve i ja
09:41
are as shockedšokiran as the mousemiš itselfsebe.
223
569874
2133
smo bili šokirani koliko i sam miš.
09:44
(LaughterSmijeh)
224
572007
1262
(Smijeh)
09:45
So after the experimenteksperiment, the two of us just left the roomsoba
225
573269
3307
Nakon eksperimenta nas smo dvojica samo napustili sobu
09:48
withoutbez sayingizreka anything.
226
576576
1753
bez da smo išta reklil.
09:50
After a kindljubazan of long, awkwardneugodno periodrazdoblje of time,
227
578329
3396
Nakon dugog, neugodnog vremenskog perioda
09:53
SteveSteve brokerazbio the silencetišina.
228
581725
2212
Steve je prekinuo tišinu.
09:55
SRSR: "Did that just work?"
229
583937
2341
SR: „Je li to upravo uspjelo?“
09:58
XLXL: "Yes," I said. "IndeedDoista it workedradio!"
230
586278
2974
XL: „Da“ rekao sam. „Uistinu je uspjelo!“
10:01
We're really exciteduzbuđen about this.
231
589252
2117
Vrlo smo uzbuđeni oko ovoga.
10:03
And then we publishedObjavljeno our findingsnalaza
232
591369
2624
I onda smo objavili naše pronalaske
10:05
in the journalčasopis NaturePriroda.
233
593993
1696
u časopisu Nature.
10:07
Ever sinceod the publicationobjavljivanje of our work,
234
595689
2471
Otkad smo objavili naš rad,
10:10
we'veimamo been receivingprimanje numerousbrojan commentskomentari
235
598160
2415
primili smo mnogo komentara
10:12
from all over the InternetInternet.
236
600575
2125
s čitavog Interneta.
10:14
Maybe we can take a look at some of those.
237
602700
3750
Mogli bismo pogledati neke od njih.
10:18
["OMGGGGGOMGGGGG FINALLYKONAČNO... so much more to come, virtualvirtualan realitystvarnost, neuralživčani manipulationmanipulacija, visualvidni dreamsan emulationimitacija... neuralživčani codingšifriranje, 'writing' pisanje and re-writingponovno pisanje of memories'sjećanja', mentalmentalni illnessesbolesti. AhhhAhhh the futurebudućnost is awesomesuper"]
238
606450
2457
[„OMGGGGG KONAČNO… toliko toga još treba doći, virtualna stvarnost, neuralna manipulacija, emulacija snova, neuralno kodiranje „pisanje i mijenjanjanje uspomena“, mentalne bolesti. Ahhh budućnost je zakon“]
10:20
SRSR: So the first thing that you'llvi ćete noticeobavijest is that people
239
608907
2000
SR: Prva stvar koju ćete zamijetiti je da ljudi
10:22
have really strongjak opinionsmišljenje about this kindljubazan of work.
240
610907
2903
imaju čvrsto mišljenje o ovoj vrsti rada.
10:25
Now I happendogoditi se to completelypotpuno agreesložiti with the optimismoptimizam
241
613810
2554
Potpuno se slažem s optimizmom
10:28
of this first quotecitat,
242
616364
816
ovog citata,
10:29
because on a scaleljestvica of zeronula to MorganMorgan Freeman'sFreeman voiceglas,
243
617180
2808
jer na ljestvici od nule pa do glasa Morgana Freemana,
10:31
it happensdogađa se to be one of the mostnajviše evocativekoji podsjeća accoladespriznanja
244
619988
2123
to je jedno od najprimamljivijih priznanja
10:34
that I've heardčuo come our way.
245
622111
1550
koje je došlo do nas.
10:35
(LaughterSmijeh)
246
623661
2196
(Smijeh)
10:37
But as you'llvi ćete see, it's not the only opinionmišljenje that's out there.
247
625857
1951
No kao što vidite, to nije jedino mišljenje koje je tamo.
10:39
["This scaresplaši the hellpakao out of me... What if they could do that easilylako in humansljudi in a couplepar of yearsgodina?! OH MY GOD WE'RE DOOMEDOSUĐENI"]
248
627808
1564
[„Ovo me nasmrt prestrašilo… Što ako bi to lako mogli činiti ljudima za nekoliko godina? O moj Bože, propali smo.“]
10:41
XLXL: IndeedDoista, if we take a look at the seconddrugi one,
249
629372
1918
XL: Uistinu, ako promotrimo drugi,
10:43
I think we can all agreesložiti that it's, mehMeh,
250
631290
2107
mislim da se možemo složiti da
10:45
probablyvjerojatno not as positivepozitivan.
251
633397
2375
nije baš pozitivan.
10:47
But this alsotakođer remindspodsjeća us that,
252
635772
2185
Ali ovo nas također podsjeća da je,
10:49
althoughiako we are still workingrad with micemiševi,
253
637957
2186
iako još uvijek radimo s miševima,
10:52
it's probablyvjerojatno a good ideaideja to startpočetak thinkingmišljenje and discussingraspravlja
254
640143
3517
vjerojatno dobra ideja početi razmišljati i raspravljati
10:55
about the possiblemoguće ethicaletički ramificationsposljedice
255
643660
2991
o mogućim etičkim posljedicama
10:58
of memorymemorija controlkontrolirati.
256
646651
1948
kontrole sjećanja.
11:00
SRSR: Now, in the spiritduh of the thirdtreći quotecitat,
257
648599
2200
SR: Sad, u duhu trećeg citata,
11:02
we want to tell you about a recentnedavni projectprojekt that we'veimamo been
258
650799
1974
želimo vam govoriti o novom projektu na kojem
11:04
workingrad on in lablaboratorija that we'veimamo calledzvao ProjectProjekt InceptionPočetka.
259
652773
2428
radimo u laboratoriju, a zove se Project Inception.
11:07
["They should make a moviefilm about this. Where they plantbiljka ideasideje into peoplesnarodi mindsmisli, so they can controlkontrolirati them for theirnjihov ownvlastiti personalosobni gaindobit. We'llMi ćemo call it: InceptionPočetka."]
260
655201
3243
[„Trebali bi napraviti film o ovome. Gdje ugrade ideje u ljudski um kako bi ih mogli kontrolirati u svoju korist. Nazovimo ga: Inception“]
11:10
So we reasonedzaključio that now that we can reactivatePonovno aktiviranje a memorymemorija,
261
658444
3734
Raspravljali smo o tome kako možemo ponovno aktivirati uspomenu,
11:14
what if we do so but then beginpočeti to tinkerkrpati with that memorymemorija?
262
662178
2952
što ako to učinimo, ali onda počnemo petljati s tom uspomenom?
11:17
Could we possiblymožda even turnskretanje it into a falselažan memorymemorija?
263
665130
3033
Možemo li ju čak pretvoriti u lažnu uspomenu?
11:20
XLXL: So all memorymemorija is sophisticatedsofisticirana and dynamicdinamičan,
264
668163
4099
XL: Sve uspomene su sofisticirane i dinamične,
11:24
but if just for simplicityjednostavnost, let's imaginezamisliti memorymemorija
265
672262
2979
ali, zbog lakšeg razumijevanja, zamislimo uspomenu
11:27
as a moviefilm clipspojnica.
266
675241
1402
kao filmski isječak.
11:28
So fardaleko what we'veimamo told you is basicallyu osnovi we can controlkontrolirati
267
676643
2670
Dosad smo vam rekli da mi zapravo možemo kontrolirati
11:31
this "playigrati" buttondugme of the clipspojnica
268
679313
1931
ovu „play“ tipku isječka
11:33
so that we can playigrati this videovideo clipspojnica any time, anywherebilo kuda.
269
681244
4585
tako da možemo pustiti ovaj video isječak bilo kad i bilo gdje.
11:37
But is there a possibilitymogućnost that we can actuallyzapravo get
270
685829
2531
Ali postoji li mogućnost da možemo zapravo ući
11:40
insideiznutra the brainmozak and editUredi this moviefilm clipspojnica
271
688360
2860
unutar mozga i urediti video ulomak
11:43
so that we can make it differentdrugačiji from the originalizvornik?
272
691220
2896
tako da ga učinimo drugačijim od originala?
11:46
Yes we can.
273
694116
2178
Možemo.
11:48
TurnedOkrenuo out that all we need to do is basicallyu osnovi
274
696294
2130
Ispalo je da je zapravo sve što trebamo
11:50
reactivatePonovno aktiviranje a memorymemorija usingkoristeći laserslaseri just like we did before,
275
698424
4275
ponovno aktivirati uspomenu pomoću lasera kao što smo već učinili,
11:54
but at the sameisti time, if we presentpredstaviti newnovi informationinformacija
276
702699
3439
ali u isto vrijeme, ako prikažemo novu informaciju
11:58
and allowdopustiti this newnovi informationinformacija to incorporateugraditi into this oldstar memorymemorija,
277
706138
3974
i dopustimo novoj informaciji da se ugradi u staru uspomenu,
12:02
this will changepromijeniti the memorymemorija.
278
710112
2438
ovo će promijeniti uspomenu.
12:04
It's sortvrsta of like makingizrađivanje a remixremix tapetraka.
279
712550
3663
To je nešto poput pravljenja remix pjesme.
12:08
SRSR: So how do we do this?
280
716213
2858
SR: Kako smo to učinili?
12:11
RatherRadije than findingnalaz a fearstrah memorymemorija in the brainmozak,
281
719071
1957
Umjesto pronalaženja uspomene na strah u mozgu,
12:13
we can startpočetak by takinguzimanje our animalsživotinje,
282
721028
1716
možemo započeti uzimanjem naših životinja
12:14
and let's say we put them in a blueplava boxkutija like this blueplava boxkutija here
283
722744
2933
i recimo da ih stavimo u plavu kutiju poput ove kutije ovdje
12:17
and we find the brainmozak cellsStanice that representpredstavljati that blueplava boxkutija
284
725677
2494
i pronađemo moždane stanice koje prikazuju tu plavu kutiju
12:20
and we tricktrik them to respondodgovarati to pulsesimpulsa of lightsvjetlo
285
728171
2073
i prevarimo ih tako da reagiraju na puls svijetla,
12:22
exactlytočno like we had said before.
286
730244
2121
točno kako smo već rekli prije.
12:24
Now the nextSljedeći day, we can take our animalsživotinje and placemjesto them
287
732365
2124
Sljedeći dan možemo uzeti naše životinje i staviti ih
12:26
in a redcrvena boxkutija that they'vešto ga do never experiencediskusan before.
288
734489
2699
u crvenu kutiju koju nikada dosad nisu doživjeli.
12:29
We can shootpucati lightsvjetlo into the brainmozak to reactivatePonovno aktiviranje
289
737188
2026
Možemo ispaliti svjetlost u njihov mozak i ponovno aktivirati
12:31
the memorymemorija of the blueplava boxkutija.
290
739214
2109
uspomenu na plavu kutiju.
12:33
So what would happendogoditi se here if, while the animalživotinja
291
741323
1744
Što bi se dogodilo ovdje kad bi im, dok se životinja
12:35
is recallingpodsjetivši the memorymemorija of the blueplava boxkutija,
292
743067
1894
prisjeća uspomene na plavu kutiju,
12:36
we gavedali it a couplepar of mildblag footnoga shocksšokova?
293
744961
2643
dali nekoliko blagih šokova u stopala?
12:39
So here we're tryingtežak to artificiallyumjetno make an associationasocijacija
294
747604
2693
Ovdje pokušavamo umjetno napraviti poveznicu
12:42
betweenizmeđu the memorymemorija of the blueplava boxkutija
295
750297
1915
između uspomene na plavu kutiju
12:44
and the footnoga shocksšokova themselvesse.
296
752212
1503
i šoka stopala.
12:45
We're just tryingtežak to connectSpojiti the two.
297
753715
1779
Samo pokušavamo spojiti to dvoje.
12:47
So to testtest if we had doneučinio so,
298
755494
1543
Kako bi testirali jesmo li uspjeli,
12:49
we can take our animalsživotinje oncejednom again
299
757037
1328
možemo uzeti naše životinje još jednom
12:50
and placemjesto them back in the blueplava boxkutija.
300
758365
1946
i staviti ih natrag u plavu kutiju.
12:52
Again, we had just reactivatedponovno aktivirati the memorymemorija of the blueplava boxkutija
301
760311
2738
Opet, upravo smo reaktivirali uspomenu na plavu kutiju
12:55
while the animalživotinja got a couplepar of mildblag footnoga shocksšokova,
302
763049
2167
dok životinja dobiva nekoliko blagih šokova stopala
12:57
and now the animalživotinja suddenlyiznenada freezessmrznuti.
303
765216
2370
i sad se životinja zamrzla.
12:59
It's as thoughiako it's recallingpodsjetivši beingbiće mildlyblago shockedšokiran in this environmentokolina
304
767586
3202
Kao da se sjeća da je blago šokirana u ovom okružju
13:02
even thoughiako that never actuallyzapravo happeneddogodilo.
305
770788
3002
iako se to nikada zapravo nije dogodilo.
13:05
So it formedformirana a falselažan memorymemorija,
306
773790
1862
Stvorilo je lažnu uspomenu,
13:07
because it's falselylažno fearingbojeći se an environmentokolina
307
775652
2011
jer je strah od okružja lažan gdje se,
13:09
where, technicallytehnički speakinggovor,
308
777663
1254
tehnički govoreći,
13:10
nothing badloše actuallyzapravo happeneddogodilo to it.
309
778917
2349
ništa loše nije dogodilo.
13:13
XLXL: So, so fardaleko we are only talkingkoji govori about
310
781266
2453
XL: Dosad smo govorili jedino o
13:15
this light-controlledsvjetlosti-kontrolirana "on" switchprekidač.
311
783719
2366
„uključeno“ prekidaču kontroliranom svjetlošću.
13:18
In factčinjenica, we alsotakođer have a light-controlledsvjetlosti-kontrolirana "off" switchprekidač,
312
786085
3288
Zapravo imamo i „isključeno“ prekidač kontroliran svjetlošću
13:21
and it's very easylako to imaginezamisliti that
313
789373
2080
i veoma je lagano zamisliti da,
13:23
by installingInstalacija this light-controlledsvjetlosti-kontrolirana "off" switchprekidač,
314
791453
2478
instalirajući ovaj „off“ prekidač kontroliran svjetlošću,
13:25
we can alsotakođer turnskretanje off a memorymemorija, any time, anywherebilo kuda.
315
793931
5588
možemo također isključiti uspomenu, bilo kad, bilo gdje.
13:31
So everything we'veimamo been talkingkoji govori about todaydanas
316
799519
2214
Sve o čemu smo govorili danas
13:33
is basedzasnovan on this philosophicallyfilozofski chargedoptužen principlenačelo of neuroscienceneuroznanost
317
801733
4677
je bazirano na filozofski nastrojenom principu neuroznanosti
13:38
that the mindum, with its seeminglynaizgled mysteriousmisteriozan propertiesnekretnine,
318
806410
4118
da je um, sa svojim naizgled misterioznim svojstvima,
13:42
is actuallyzapravo madenapravljen of physicalfizička stuffstvari that we can tinkerkrpati with.
319
810528
3645
zapravo napravljen od fizičke tvari kojom možemo petljati.
13:46
SRSR: And for me personallylično,
320
814173
1475
SR: I za mene osobno,
13:47
I see a worldsvijet where we can reactivatePonovno aktiviranje
321
815648
1581
vidim svijet gdje možemo ponovno aktivirati
13:49
any kindljubazan of memorymemorija that we'dmi bismo like.
322
817229
2116
bilo koju uspomenu koju želimo.
13:51
I alsotakođer see a worldsvijet where we can erasebrisati unwantedneželjene memoriessjećanja.
323
819345
3298
Također vidim svijet gdje možemo obrisati neželjene uspomene.
13:54
Now, I even see a worldsvijet where editingmontaža memoriessjećanja
324
822643
1936
Čak vidim i svijet gdje je uređivanje uspomena
13:56
is something of a realitystvarnost,
325
824579
1539
nešto realno,
13:58
because we're livingživot in a time where it's possiblemoguće
326
826118
1705
jer živimo u vremenu kada je moguće
13:59
to pluckiščupati questionspitanja from the treedrvo of scienceznanost fictionfikcija
327
827823
2225
ubrati pitanja s drveta znanstvene fantastike
14:02
and to groundtlo them in experimentaleksperimentalan realitystvarnost.
328
830048
2420
i prizemljiti ih eksperimentalnom stvarnošću.
14:04
XLXL: NowadaysDanas, people in the lablaboratorija
329
832468
1883
XL: Danas ljudi u laboratorijima
14:06
and people in other groupsgrupe all over the worldsvijet
330
834351
2386
i ljudi u drugim grupama svuda po svijetu
14:08
are usingkoristeći similarsličan methodsmetode to activateaktiviranje or editUredi memoriessjećanja,
331
836737
3817
koriste slične metode kako bi aktivirali ili obradili uspomene
14:12
whetherda li that's oldstar or newnovi, positivepozitivan or negativenegativan,
332
840554
3841
bilo da su stare ili nove, pozitivne ili negativne,
14:16
all sortsvrste of memoriessjećanja so that we can understandrazumjeti
333
844395
2672
različite vrste uspomena kako bi razumjeli
14:19
how memorymemorija worksdjela.
334
847067
1864
kako uspomene rade.
14:20
SRSR: For exampleprimjer, one groupskupina in our lablaboratorija
335
848931
1784
SR: Na primjer, jedna grupa u našem laboratoriju
14:22
was ableu stanju to find the brainmozak cellsStanice that make up a fearstrah memorymemorija
336
850715
2638
je uspjela pronaći moždane stanice koje čine uspomene na strah
14:25
and convertedpretvoriti them into a pleasurableugodno memorymemorija, just like that.
337
853353
2775
i prevela ih je u ugodne uspomene, samo tako.
14:28
That's exactlytočno what I mean about editingmontaža these kindsvrste of processesprocesi.
338
856128
3062
Upravo to mislim o obrađivanju takvih procesa.
14:31
Now one dudeStari in lablaboratorija was even ableu stanju to reactivatePonovno aktiviranje
339
859190
1812
Jedan lik je u laboratoriju čak uspio ponovno aktivirati
14:33
memoriessjećanja of femaležena micemiševi in malemuški micemiševi,
340
861002
2501
uspomene ženskog miša u muškom mišu,
14:35
whichkoji rumorglasina has it is a pleasurableugodno experienceiskustvo.
341
863503
2995
a glasine govore da je to ugodno iskustvo.
14:38
XLXL: IndeedDoista, we are livingživot in a very excitinguzbudljiv momenttrenutak
342
866498
4117
XL: Uistinu, živimo u vrlo uzbudljivom trenutku
14:42
where scienceznanost doesn't have any arbitraryproizvoljan speedubrzati limitsgranice
343
870615
3805
gdje znanost nema određenu brzinu,
14:46
but is only boundgranica by our ownvlastiti imaginationmašta.
344
874420
3187
već je jedino ograničena našom maštom.
14:49
SRSR: And finallykonačno, what do we make of all this?
345
877607
2147
SR: I konačno, što možemo zaključiti iz svega ovoga?
14:51
How do we pushgurnuti this technologytehnologija forwardnaprijed?
346
879754
1971
Kako progurati ovu tehnologiju naprijed?
14:53
These are the questionspitanja that should not remainostati
347
881725
1837
Ova pitanje ne trebaju ostati
14:55
just insideiznutra the lablaboratorija,
348
883562
1675
samo unutar laboratorija,
14:57
and so one goalcilj of today'sdanas je talk was to bringdonijeti everybodysvi
349
885237
2572
a jedan od ciljeva današnjeg govora je da svima
14:59
up to speedubrzati with the kindljubazan of stuffstvari that's possiblemoguće
350
887809
2319
pokažemo što je sve moguće
15:02
in modernmoderan neuroscienceneuroznanost,
351
890128
1384
u modernoj neuroznanosti,
15:03
but now, just as importantlyvažnije,
352
891512
1510
ali sad, jednako važno,
15:05
to activelyaktivno engageangažirati everybodysvi in this conversationrazgovor.
353
893022
3332
da aktivno uključimo sve u ovaj razgovor.
15:08
So let's think togetherzajedno as a teamtim about what this all meanssredstva
354
896354
2329
Hajdemo zajedno kao tim razmisliti o tome što sve ovo znači
15:10
and where we can and should go from here,
355
898683
2474
i gdje možemo i trebamo ići dalje,
15:13
because XuXu and I think we all have
356
901157
2098
jer Xu i ja mislimo da su ispred nas
15:15
some really bigvelika decisionsodluke aheadnaprijed of us.
357
903255
2536
neke velike odluke.
15:17
Thank you.
XLXL: Thank you.
358
905791
1125
Hvala vam.
XL: Hvala vam.
15:18
(ApplausePljesak)
359
906916
1634
(Pljesak)
Translated by Senzos Osijek
Reviewed by Ivan Stamenkovic

▲Back to top

ABOUT THE SPEAKERS
Steve Ramirez - Neuroscientist
When Steve Ramirez published his latest study in Science, it caused a media frenzy. Why? Because the paper was on implanting false memories in the brains of mice.

Why you should listen

Steve is a graduate student at MIT’s Brain and Cognitive Sciences department pursuing a Ph.D. in neuroscience. His work focuses on finding where single memories are located throughout the brain, genetically tricking the brain cells that house these memories to respond to brief pulses of light, and then using these same flickers of light to reactivate, erase and implant memories. The goals of his research are twofold: to figure out how the brain gives rise to the seemingly ephemeral process of memory, and to predict what happens when specific brain pieces breakdown to impair cognition. His work has been published in Science and covered by New Scientist, Discover, Scientific American, and Gizmodo.

Ramirez aims to be a professor who runs a lab that plucks questions from the tree of science fiction to ground them in experimental reality. He believes that a team-oriented approach to science makes research and teaching far more exciting. When he’s not tinkering with memories in the lab, Ramirez also enjoys running and cheering on every sports team in the city of Boston.

More profile about the speaker
Steve Ramirez | Speaker | TED.com
Xu Liu - Neuroscientist
In his groundbreaking work, Xu Liu investigated how to activate and deactivate specific memories in mice.

Why you should listen

During his PhD, Xu Liu studied the mechanisms of learning and memory, using fruit flies as a model system. By changing the expression of certain genes in the fly brain, he generated smart flies that can learn many times faster than their peers. Using live imaging, he also detected learning-induced changes in the brain cells and observed memory formation inside the brain with light.

After graduation, he moved to MIT and joined Dr. Susumu Tonegawa's lab as a postdoctoral associate. He continued his pursuit of memory with light there. Instead of just watching memory formation, he developed a system in mice where one can not only identify and label cells in the brain for a particular memory, but also turn these cells on and off with light to activate this memory at will. This work was published in Science and has been covered by the media worldwide. Liu passed away in February 2015.

More profile about the speaker
Xu Liu | Speaker | TED.com