ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com
TED Salon Zebra Technologies

Nita Farahany: When technology can read minds, how will we protect our privacy?

Nita A. Farahany: Hoe beschermen we onze privacy tegen technologie die gedachten leest?

Filmed:
1,819,292 views

Technologie die je hersenactiviteit kan ontcijferen en die kan onthullen wat je denkt en voelt, staat eraan te komen, zegt jurist en ethicus Nita Farahany. Wat betekent dat voor ons al geschonden privacygevoel? In een tot voorzichtigheid aanmanende talk waarschuwt Farahany voor een samenleving waarin mensen worden gearresteerd omdat ze alleen maar denken aan het plegen van een misdaad (zoals in 'Minority Report') en waarin particuliere belangengroeperingen onze hersengegevens verkopen -- en pleit ze voor een recht op cognitieve vrijheid die onze vrijheid van denken en zelfbeschikking beschermt.
- Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics. Full bio

Double-click the English transcript below to play the video.

00:13
In the monthsmaanden followingvolgend
the 2009 presidentialpresidentiële electionverkiezing in IranIran,
0
1096
4714
Na de presidentsverkiezingen
van 2009 in Iran
00:17
protestsprotesten erupteduitgebarsten acrossaan de overkant the countryland.
1
5834
2894
braken protesten uit in het hele land.
00:21
The IranianIraanse governmentregering
violentlyheftig suppressedonderdrukt
2
9685
2896
De Iraanse regering onderdrukte met geweld
00:24
what camekwam to be knownbekend
as the IranianIraanse GreenGroen MovementVerkeer,
3
12605
3979
wat bekend zou worden
als de Iraanse Groene Beweging
00:28
even blockingblokkeren mobilemobiel signalssignalen
4
16608
2053
en blokkeerde zelfs signalen van mobielen
00:30
to cutbesnoeiing off communicationcommunicatie
betweentussen the protestersdemonstranten.
5
18685
2714
om de communicatie
tussen de demonstranten af te snijden.
00:34
My parentsouders, who emigratedemigreerde
to the UnitedVerenigd StatesStaten in the latelaat 1960s,
6
22316
4669
Mijn ouders, die in de late jaren 60
naar de Verenigde Staten emigreerden,
00:39
spendbesteden substantialwezenlijk time there,
7
27009
1794
brachten daar veel tijd door,
00:40
where all of my largegroot,
extendedverlengd familyfamilie liveleven.
8
28827
3153
bij mijn grote, uitgebreide familie.
00:44
When I would call my familyfamilie in TehranTeheran
9
32832
3129
Toen ik mijn familie in Teheran opbelde
00:47
duringgedurende some of the mostmeest violentgewelddadig
crackdownshardhandig optreden of the protestprotest,
10
35985
3452
tijdens de meest gewelddadige
optredens tegen het protest,
00:51
nonegeen of them dareddurfde discussbespreken
with me what was happeninggebeurtenis.
11
39461
3252
durfde niemand met mij
te spreken over wat er gebeurde.
00:55
They or I knewwist to quicklysnel steersturen
the conversationgesprek to other topicstopics.
12
43196
3529
Zij en ik wisten hoe het gesprek
snel op andere onderwerpen te brengen.
00:59
All of us understoodbegrijpelijk
what the consequencesgevolgen could be
13
47163
3380
We begrepen allemaal
wat de gevolgen konden zijn
01:02
of a perceivedwaargenomen dissidentdissident actionactie.
14
50567
2540
van een vermeende dissidente actie.
01:06
But I still wishwens I could have knownbekend
what they were thinkinghet denken
15
54095
3469
Maar ik wou nog steeds dat ik had
kunnen weten wat ze dachten
01:09
or what they were feelinggevoel.
16
57588
1418
of wat ze voelden.
01:12
What if I could have?
17
60217
1393
Wat als ik het gekund had?
01:14
Or more frighteninglybeangstigend,
18
62149
1151
Of nog beangstigender,
01:15
what if the IranianIraanse governmentregering could have?
19
63324
2761
wat als de Iraanse regering
het zou hebben gekund?
01:18
Would they have arrestedgearresteerd them
basedgebaseerde on what theirhun brainshersenen revealedonthuld?
20
66695
3244
Zouden ze hen hebben gearresteerd
op basis van wat hun hersenen openbaarden?
01:22
That day maymei be closerdichterbij than you think.
21
70933
2944
Die dag kan dichterbij zijn dan je denkt.
01:26
With our growinggroeiend capabilitiesmogelijkheden
in neuroscienceneurowetenschappen, artificialkunstmatig intelligenceintelligentie-
22
74527
3811
Met onze groeiende mogelijkheden
in de neurowetenschappen,
kunstmatige intelligentie
en machinaal leren
01:30
and machinemachine learningaan het leren,
23
78362
1703
01:32
we maymei soonspoedig know a lot more
of what's happeninggebeurtenis in the humanmenselijk brainhersenen.
24
80089
4075
kunnen we binnenkort veel meer weten
van wat er in het menselijke brein omgaat.
01:37
As a bioethicistbioethicist, a lawyeradvocaat, a philosopherfilosoof
25
85083
3310
Als bio-ethicus, advocaat, filosoof
01:40
and an Iranian-AmericanIraans-Amerikaanse,
26
88417
1867
en Iraans-Amerikaanse
01:42
I'm deeplydiep concernedbezorgd
about what this meansmiddelen for our freedomsvrijheden
27
90308
3787
ben ik zeer bezorgd over wat
dit betekent voor onze vrijheden
01:46
and what kindssoorten of protectionsbescherming we need.
28
94119
2171
en wat voor soort beveiligingen
we nodig hebben.
01:48
I believe we need
a right to cognitivecognitieve libertyvrijheid,
29
96993
3460
Ik geloof dat we recht hebben
op cognitieve vrijheid,
01:52
as a humanmenselijk right
that needsbehoefte aan to be protectedbeschermd.
30
100477
2892
als een mensenrecht
dat moet worden beschermd.
01:55
If not, our freedomvrijheid of thought,
31
103772
2643
Zo niet, dan wordt
onze vrijheid van gedachte,
01:58
accesstoegang and controlcontrole over our owneigen brainshersenen
32
106439
3024
toegang en controle
over onze eigen hersenen
02:01
and our mentalgeestelijk privacyprivacy will be threatenedbedreigd.
33
109487
2841
en onze mentale privacy bedreigd.
02:05
ConsiderOverwegen this:
34
113698
1158
Overweeg dit:
02:06
the averagegemiddelde personpersoon thinksdenkt
thousandsduizenden of thoughtsgedachten eachelk day.
35
114880
3314
de gemiddelde persoon denkt
elke dag duizenden gedachten.
Als zich een gedachte aandient,
02:10
As a thought takes formformulier,
36
118697
1151
02:11
like a mathwiskunde calculationberekening
or a numberaantal, a wordwoord,
37
119872
5056
bijvoorbeeld een wiskundige berekening
of een getal, een woord,
02:16
neuronsneuronen are interactinginteractie in the brainhersenen,
38
124952
2885
interageren neuronen in de hersenen,
02:19
creatinghet creëren van a minisculeminuscuul electricalelektrisch dischargekwijting.
39
127861
3088
met als gevolg een minuscule
elektrische ontlading.
02:23
When you have a dominantdominant
mentalgeestelijk statestaat, like relaxationontspanning,
40
131713
3452
Bij een dominante mentale toestand,
zoals ontspanning,
02:27
hundredshonderden and thousandsduizenden of neuronsneuronen
are firingvuren in the brainhersenen,
41
135189
4175
vuren honderden en duizenden
neuronen in de hersenen
02:31
creatinghet creëren van concurrentgelijktijdige electricalelektrisch dischargeslozingen
in characteristickarakteristiek patternspatronen
42
139388
4218
en creëren ze gelijktijdige elektrische
ontladingen in karakteristieke patronen
02:35
that can be measuredafgemeten
with electroencephalographyelektro-encefalografie, or EEGEEG.
43
143630
4865
die kunnen worden gemeten
met elektro-encefalografie of EEG.
02:41
In factfeit, that's what
you're seeingziend right now.
44
149118
2160
In feite is dat wat je nu ziet.
02:43
You're seeingziend my brainhersenen activityactiviteit
that was recordedopgenomen in realecht time
45
151956
3964
Je ziet mijn hersenactiviteit
die in real time werd opgenomen
02:47
with a simpleeenvoudig deviceapparaat
that was worngedragen on my headhoofd.
46
155944
2735
met een eenvoudig apparaat op mijn hoofd.
02:51
What you're seeingziend is my brainhersenen activityactiviteit
when I was relaxedontspannen and curiousnieuwsgierig.
47
159669
5653
Wat je ziet is mijn hersenactiviteit
terwijl ik ontspannen en nieuwsgierig was.
02:58
To sharedelen this informationinformatie with you,
48
166097
1755
Om deze informatie met jullie te delen,
02:59
I woredroeg one of the earlyvroeg
consumer-basedconsument gebaseerde EEGEEG devicesapparaten
49
167876
3020
droeg ik een van de eerste
EEG-apparaten voor consumenten,
03:02
like this one,
50
170920
1211
zoals dit hier,
03:04
whichwelke recordedopgenomen the electricalelektrisch
activityactiviteit in my brainhersenen in realecht time.
51
172155
3988
dat de elektrische activiteit
in mijn hersenen
in real time registreerde.
03:08
It's not unlikeanders the fitnessFitness trackerstrackers
that some of you maymei be wearingvervelend
52
176849
3826
Een beetje als de fitness-trackers
die sommigen van jullie dragen
03:12
to measuremaatregel your hearthart- ratetarief
or the stepsstappen that you've takeningenomen,
53
180699
3586
voor het meten van je hartslag
of de stappen die je hebt gezet,
03:16
or even your sleepslaap activityactiviteit.
54
184309
1587
of zelfs je slaapactiviteit.
03:19
It's hardlynauwelijks the mostmeest sophisticatedgeavanceerde
neuroimagingneuroimaging techniquetechniek on the marketmarkt.
55
187154
3824
Het is niet bepaald de meest geavanceerde
neuro-imaging-techniek op de markt.
03:23
But it's alreadynu al the mostmeest portableportable
56
191597
2378
Maar het is nu al de meest draagbare
03:25
and the mostmeest likelywaarschijnlijk to impactbotsing
our everydayelke dag liveslevens.
57
193999
3152
en de meest waarschijnlijke om ons
dagelijks leven te gaan beïnvloeden.
03:29
This is extraordinarybuitengewoon.
58
197915
1503
Dit is buitengewoon.
03:31
ThroughDoor middel van a simpleeenvoudig, wearabledraagbaar deviceapparaat,
59
199442
2505
Via een eenvoudig, draagbaar apparaat
03:33
we can literallyletterlijk see
insidebinnen the humanmenselijk brainhersenen
60
201971
3548
kunnen we letterlijk
in het menselijk brein kijken
03:37
and learnleren aspectsaspecten of our mentalgeestelijk landscapelandschap
withoutzonder ever utteringuiten a wordwoord.
61
205543
6476
en aspecten van ons mentale
landschap leren kennen
zonder zelfs een woord te uiten.
03:44
While we can't reliablybetrouwbaar decodedecoderen
complexcomplex thoughtsgedachten just yetnog,
62
212829
3653
Hoewel we complexe gedachten
nog niet betrouwbaar kunnen decoderen,
03:48
we can alreadynu al gaugemeten a person'spersonen moodhumeur,
63
216506
2519
kunnen we iemands stemming al peilen
03:51
and with the help
of artificialkunstmatig intelligenceintelligentie-,
64
219049
2873
en met behulp
van kunstmatige intelligentie
03:53
we can even decodedecoderen
some single-digitéén cijfer numbersgetallen
65
221946
4341
kunnen we zelfs een aantal
simpele dingen decoderen,
ééncijferige getallen of vormen
of eenvoudige woorden,
03:58
or shapesvormen or simpleeenvoudig wordstekst
that a personpersoon is thinkinghet denken
66
226311
4882
die iemand denkt, hoort of ziet.
04:03
or hearinggehoor, or seeingziend.
67
231217
2189
04:06
DespiteOndanks some inherentinherent limitationsbeperkingen in EEGEEG,
68
234345
3365
Ondanks bepaalde inherente
beperkingen van de EEG,
04:09
I think it's safeveilig to say
that with our advancesvoorschotten in technologytechnologie,
69
237734
4720
denk ik dat ik gerust kan zeggen dat
met onze vooruitgang in de technologie,
04:14
more and more of what's happeninggebeurtenis
in the humanmenselijk brainhersenen
70
242478
3809
meer en meer van wat er gebeurt
in het menselijk brein
04:18
can and will be decodedgedecodeerd over time.
71
246311
2310
na verloop van tijd kan
en zal worden gedecodeerd.
04:21
AlreadyAl, usinggebruik makend van one of these devicesapparaten,
72
249362
2746
Nu al kan een epilepticus
met een van deze apparaten
04:24
an epilepticepileptisch can know
they're going to have an epilepticepileptisch seizurebeslaglegging
73
252132
3255
een ​​epileptische aanval zien aankomen
voordat hij gebeurt.
04:27
before it happensgebeurt.
74
255411
1436
Een dwarslaesiepatiënt
kan typen op een computer
04:28
A paraplegicparaplegic can typetype on a computercomputer
with theirhun thoughtsgedachten alonealleen.
75
256871
4603
door alleen maar te denken.
04:34
A US-basedUS-based companybedrijf has developedontwikkelde
a technologytechnologie to embedembed these sensorssensors
76
262485
4183
Een Amerikaans bedrijf
ontwikkelde een technologie
om deze sensoren in te bouwen
in de hoofdsteunen van auto’s,
04:38
into the headresthoofdsteun of automobiliesautomobili
77
266692
2230
zodat ze de concentratie, de afleiding
04:40
so they can trackspoor driverbestuurder concentrationconcentratie,
78
268946
2505
en de cognitieve belasting
van de bestuurder
04:43
distractionafleiding and cognitivecognitieve loadladen
while drivinghet rijden.
79
271475
2667
tijdens het rijden kunnen volgen.
04:46
NissanNissan, insuranceverzekering companiesbedrijven
and AAAAAA have all takeningenomen noteNotitie.
80
274912
4058
Nissan, verzekeringsmaatschappijen
en de Amerikaanse wegenwacht
hebben dit opgepikt.
04:51
You could even watch this
choose-your-own-adventureKies-uw-eigen-avontuur moviefilm
81
279949
4508
Je zou zelfs kunnen kijken
naar deze kies-je-eigen-avontuurfilm,
‘The Moment’,
04:56
"The MomentMoment," whichwelke, with an EEGEEG headsetkoptelefoon,
82
284481
4240
die met een EEG-headset
05:00
changesveranderingen the moviefilm
basedgebaseerde on your brain-basedop basis van de hersenen reactionsreacties,
83
288745
3926
de film verandert op basis
van jouw hersenreacties,
05:04
givinggeven you a differentverschillend endingeinde
everyelk time your attentionaandacht waneswanes.
84
292695
4353
waardoor het einde telkens anders is
als je aandacht verslapt.
05:11
This maymei all soundgeluid great,
85
299154
2763
Dat klinkt misschien allemaal geweldig,
05:13
and as a bioethicistbioethicist,
86
301941
2189
en als bio-ethicus
05:16
I am a hugereusachtig proponentvoorstander of empoweringempowerment people
87
304154
3613
ben ik een grote voorstander
van het in staat stellen van mensen
05:19
to take chargein rekening brengen of theirhun owneigen
healthGezondheid and well-beingwelzijn
88
307791
2616
om hun eigen gezondheid en welzijn
in handen te nemen
05:22
by givinggeven them accesstoegang
to informationinformatie about themselveszich,
89
310431
2918
door hen toegang tot informatie
over zichzelf te geven,
05:25
includinginclusief this incredibleongelooflijk
newnieuwe brain-decodingBrain-decoding technologytechnologie.
90
313373
2976
met inbegrip van deze ongelooflijke
nieuwe hersendecoderingstechnologie.
05:29
But I worryzorgen.
91
317878
1167
Maar ik maak me zorgen.
05:31
I worryzorgen that we will voluntarilyvrijwillig
or involuntarilyonwillekeurig give up
92
319736
4760
Ik ben bang dat we
vrijwillig of onvrijwillig
ons laatste bastion van vrijheid
zullen opgeven:
05:36
our last bastionBastion of freedomvrijheid,
our mentalgeestelijk privacyprivacy.
93
324520
4118
onze mentale privacy.
05:41
That we will tradehandel our brainhersenen activityactiviteit
94
329302
2925
Dat we onze hersenactiviteit
zullen aanbieden
05:44
for rebateskortingen or discountskortingen on insuranceverzekering,
95
332251
3046
voor toeslagen of kortingen
op verzekeringen,
05:48
or freegratis accesstoegang
to social-mediasociale media accountsrekeningen ...
96
336391
2603
of gratis toegang
tot sociale-media-accounts ...
05:52
or even to keep our jobsjobs.
97
340444
1848
of zelfs om onze baan te behouden.
05:54
In factfeit, in ChinaChina,
98
342900
1913
Het is nu al zo dat in China
05:58
the traintrein driversstuurprogramma 's on
the Beijing-ShanghaiBeijing-Shanghai high-speedhoge snelheid railhet spoor,
99
346199
5897
de treinbestuurders op de
Beijing-Shanghai hogesnelheidstrein,
06:04
the busiestdrukste of its kindsoort in the worldwereld-,
100
352120
2532
de drukste dergelijke route in de wereld,
06:06
are requirednodig to wearslijtage EEGEEG devicesapparaten
101
354676
2476
EEG-sets dragen
06:09
to monitormonitor theirhun brainhersenen activityactiviteit
while drivinghet rijden.
102
357176
2427
om hun hersenactiviteit
te controleren tijdens het rijden.
06:12
AccordingVolgens to some newsnieuws sourcesbronnen,
103
360157
2226
Volgens sommige nieuwsbronnen
06:14
in government-runregering-run factoriesfabrieken in ChinaChina,
104
362407
2679
moeten in door de regering
gerunde fabrieken in China
06:17
the workersarbeiders are requirednodig to wearslijtage
EEGEEG sensorssensors to monitormonitor theirhun productivityproduktiviteit
105
365110
5364
de werknemers EEG-sensoren dragen
om hun productiviteit te controleren,
06:22
and theirhun emotionalemotioneel statestaat at work.
106
370498
2115
evenals hun emotionele
toestand op het werk.
06:25
WorkersWerknemers are even sentverzonden home
107
373267
2310
Arbeiders worden zelfs naar huis gestuurd
06:27
if theirhun brainshersenen showtonen less-than-stellarminder-dan-stellaire
concentrationconcentratie on theirhun jobsjobs,
108
375601
4054
als hun hersenen onvoldoende
concentratie op hun werk vertonen
06:31
or emotionalemotioneel agitationagitatie.
109
379679
2122
of irritatie.
06:35
It's not going to happengebeuren tomorrowmorgen,
110
383189
1745
Het zal niet voor morgen zijn,
06:36
but we're headedopschrift to a worldwereld-
of brainhersenen transparencytransparantie.
111
384958
3086
maar we zijn op weg naar een wereld
van hersentransparantie.
06:40
And I don't think people understandbegrijpen
that that could changeverandering everything.
112
388537
3440
En ik denk niet dat mensen doorhebben
dat dat alles zou kunnen veranderen.
06:44
Everything from our definitionsdefinities
of datagegevens privacyprivacy to our lawswetten,
113
392474
3675
Alles, van onze definities
van de persoonlijke levenssfeer,
06:48
to our ideasideeën about freedomvrijheid.
114
396173
1800
tot onze wetten,
tot onze ideeën over vrijheid.
06:50
In factfeit, in my lablaboratorium at DukeHertog UniversityUniversiteit,
115
398731
3077
Als het daarover gaat,
in mijn lab aan de Duke University
06:53
we recentlykort geleden conducteduitgevoerd a nationwidelandelijk studystudie
in the UnitedVerenigd StatesStaten
116
401832
3175
deden we onlangs een landelijk onderzoek
in de Verenigde Staten
06:57
to see if people appreciatedgewaardeerd
117
405031
1959
om te zien of mensen
de gevoeligheid van hun
herseninformatie konden inschatten.
06:59
the sensitivitygevoeligheid
of theirhun brainhersenen informationinformatie.
118
407014
2071
07:02
We askedgevraagd people to ratetarief
theirhun perceivedwaargenomen sensitivitygevoeligheid
119
410356
3356
We vroegen mensen om hun vermeende
gevoeligheid in te schatten
07:05
of 33 differentverschillend kindssoorten of informationinformatie,
120
413736
2231
van 33 verschillende soorten informatie:
07:07
from theirhun socialsociaal securityveiligheid numbersgetallen
121
415991
2220
van hun sofinummers
07:10
to the contentinhoud
of theirhun phonetelefoon conversationsconversaties,
122
418235
2597
tot de inhoud van hun telefoongesprekken,
07:12
theirhun relationshipverhouding historygeschiedenis,
123
420856
2193
hun relatiegeschiedenis,
07:15
theirhun emotionsemoties, theirhun anxietyangst,
124
423073
1942
hun emoties, hun angst,
07:17
the mentalgeestelijk imagesafbeeldingen in theirhun mindgeest
125
425039
1946
de mentale beelden in hun hoofd
07:19
and the thoughtsgedachten in theirhun mindgeest.
126
427009
1538
en de gedachten in hun hoofd.
07:21
ShockinglySchokkend, people ratedrated theirhun socialsociaal
securityveiligheid numberaantal as farver more sensitivegevoelig
127
429481
5229
Schokkend genoeg beoordeelden
mensen hun sofinummer
als veel gevoeliger
dan elke andere vorm van informatie,
07:26
than any other kindsoort of informationinformatie,
128
434734
2203
07:28
includinginclusief theirhun brainhersenen datagegevens.
129
436961
2435
met inbegrip van hun hersendata.
07:32
I think this is because
people don't yetnog understandbegrijpen
130
440380
3216
Ik denk dat dit komt omdat mensen
nog geen inzicht of geloof hebben
07:35
or believe the implicationsimplicaties
of this newnieuwe brain-decodingBrain-decoding technologytechnologie.
131
443620
4063
in de gevolgen van deze nieuwe
hersendecoderingstechnologie.
07:40
After all, if we can know
the innerbinnenste workingswerkingen of the humanmenselijk brainhersenen,
132
448629
3289
Als we de innerlijke werking
van het menselijk brein gaan kennen,
07:43
our socialsociaal securityveiligheid numbersgetallen
are the leastminst of our worrieszorgen.
133
451942
2706
zullen onze sofinummers
de minste van onze zorgen zijn.
07:46
(LaughterGelach)
134
454672
1285
(Gelach)
07:47
Think about it.
135
455981
1167
Denk er over na.
07:49
In a worldwereld- of totaltotaal brainhersenen transparencytransparantie,
136
457172
2396
Wie zou in een wereld
van totale hersentransparantie
07:51
who would daredurven have
a politicallypolitiek dissidentdissident thought?
137
459592
2429
een politiek dissidente
gedachte durven hebben?
07:55
Or a creativecreatief one?
138
463279
1541
Of een creatieve?
07:57
I worryzorgen that people will self-censorzelfcensuur
139
465503
3476
Ik ben bang dat mensen
aan zelfcensuur zullen doen
08:01
in fearangst of beingwezen ostracizedverstoten by societymaatschappij,
140
469003
3302
uit angst te worden verstoten
door de maatschappij,
08:04
or that people will loseverliezen theirhun jobsjobs
because of theirhun waningafnemende attentionaandacht
141
472329
3813
of dat de mensen hun baan kwijtraken
door hun afnemende aandacht
08:08
or emotionalemotioneel instabilityonbestendigheid,
142
476166
2150
of emotionele instabiliteit,
08:10
or because they're contemplatingoverweegt
collectivecollectief actionactie againsttegen theirhun employerswerkgevers.
143
478340
3550
of omdat ze denken aan collectieve
actie tegen hun werkgevers.
08:14
That comingkomt eraan out
will no longerlanger be an optionkeuze,
144
482478
3177
Uit de kast komen
zal niet langer een optie zijn,
08:17
because people'sPeople's brainshersenen will long agogeleden
have revealedonthuld theirhun sexualseksueel orientationafdrukstand,
145
485679
5067
omdat hun hersenen al lang hun seksuele
geaardheid zullen hebben geopenbaard,
08:22
theirhun politicalpolitiek ideologyideologie
146
490770
1822
of hun politieke ideologie
08:24
or theirhun religiousreligieus preferencesvoorkeuren,
147
492616
2025
of hun religieuze voorkeuren,
08:26
well before they were readyklaar
to consciouslybewust sharedelen that informationinformatie
148
494665
3080
lang voordat ze klaar waren
om die informatie bewust te delen
08:29
with other people.
149
497769
1253
met andere mensen.
08:31
I worryzorgen about the abilityvermogen of our lawswetten
to keep up with technologicaltechnologisch changeverandering.
150
499565
4912
Ik maak me zorgen of onze wetten
de technologische veranderingen
zullen kunnen bijbenen.
08:36
Take the First AmendmentAmendement
of the US ConstitutionGrondwet,
151
504986
2320
Het eerste amendement
van de Amerikaanse grondwet
08:39
whichwelke protectsbeschermt freedomvrijheid of speechtoespraak.
152
507330
1958
beschermt de vrijheid van meningsuiting.
08:41
Does it alsoook protectbeschermen freedomvrijheid of thought?
153
509312
1927
Beschermt het ook
de vrijheid van gedachten?
08:43
And if so, does that mean that we're freegratis
to alterwijzigen our thoughtsgedachten howeverechter we want?
154
511944
4169
En zo ja, mogen we dan ook onze gedachten
veranderen als we dat willen?
Of kan de overheid of de maatschappij
08:48
Or can the governmentregering or societymaatschappij tell us
what we can do with our owneigen brainshersenen?
155
516137
4674
ons vertellen wat we kunnen doen
met onze eigen hersenen?
08:53
Can the NSANSA spyspion on our brainshersenen
usinggebruik makend van these newnieuwe mobilemobiel devicesapparaten?
156
521591
3717
Kan de NSA onze hersenen bespioneren
met die nieuwe mobiele apparaten?
08:58
Can the companiesbedrijven that collectverzamelen
the brainhersenen datagegevens throughdoor theirhun applicationstoepassingen
157
526053
4119
Mogen bedrijven die hersengegevens
kunnen verzamelen
09:02
sellverkopen this informationinformatie to thirdderde partiespartijen?
158
530196
2074
die informatie aan derden verkopen?
09:05
Right now, no lawswetten preventvoorkomen them
from doing so.
159
533174
3222
Nu zijn er geen wetten
die hen dat beletten.
09:09
It could be even more problematicproblematisch
160
537203
2025
Het zou nog meer problemen geven
09:11
in countrieslanden that don't sharedelen
the samedezelfde freedomsvrijheden
161
539252
2519
in landen die niet
dezelfde vrijheden hebben
09:13
enjoyedgenoten by people in the UnitedVerenigd StatesStaten.
162
541795
2103
als die van de mensen
in de Verenigde Staten.
09:16
What would'vewould've happenedgebeurd duringgedurende
the IranianIraanse GreenGroen MovementVerkeer
163
544883
3787
Wat zou er tijdens de Iraanse
Groene Beweging zijn gebeurd
09:20
if the governmentregering had been
monitoringtoezicht houden my family'sgezin brainhersenen activityactiviteit,
164
548694
3901
als de regering inzage had gehad
in de hersenactiviteit van mijn familie
09:24
and had believedgeloofde them
to be sympatheticsympathiek to the protestersdemonstranten?
165
552619
4007
en had besloten dat ze sympathie
hadden voor de demonstranten?
09:30
Is it so far-fetchedvergezocht to imaginestel je voor a societymaatschappij
166
558091
3047
Is het zo vergezocht
om een ​​samenleving te bedenken
09:33
in whichwelke people are arrestedgearresteerd
basedgebaseerde on theirhun thoughtsgedachten
167
561162
2842
waarin mensen worden opgepakt
op basis van hun gedachten
over het plegen van een misdrijf,
09:36
of committingplegen a crimemisdrijf,
168
564028
1167
09:37
like in the science-fictionsciencefiction
dystopiandystopische societymaatschappij in "MinorityMinderheid ReportVerslag."
169
565219
4312
zoals in de sciencefiction, dystopische
samenleving in ‘Minority Report’.
09:42
AlreadyAl, in the UnitedVerenigd StatesStaten, in IndianaIndiana,
170
570286
4323
In de Verenigde Staten, in Indiana,
09:46
an 18-year-old-jaar oud was chargedopgeladen
with attemptingproberen to intimidateintimideren his schoolschool-
171
574633
4937
werd een 18-jarige al beschuldigd van
een poging om zijn school te intimideren
door het plaatsen
van een video van zichzelf
09:51
by postingplaatsing a videovideo- of himselfzichzelf
shootinghet schieten people in the hallwaysgangen ...
172
579594
3309
waarin hij mensen
in de gangen neerschoot ...
09:55
ExceptBehalve the people were zombieszombies
173
583881
3007
Behalve dat de mensen zombies waren
09:58
and the videovideo- was of him playingspelen
an augmented-realityAugmented-werkelijkheid videovideo- gamespel,
174
586912
5047
en de video er een was
waarin hij een videogame
met verhoogde realiteit speelde,
10:03
all interpretedgeïnterpreteerd to be a mentalgeestelijk projectionprojectie
of his subjectivesubjectief intentvoornemen.
175
591983
4772
allemaal geïnterpreteerd
als een mentale projectie
van zijn subjectieve bedoelingen.
10:10
This is exactlyprecies why our brainshersenen
need specialspeciaal protectionbescherming.
176
598456
4612
Dit is precies de reden
waarom onze hersenen
speciale bescherming nodig hebben.
10:15
If our brainshersenen are just as subjectonderwerpen
to datagegevens trackingbijhouden and aggregationaggregatie
177
603092
3556
Als onze hersenen net zo onderhevig zijn
aan datatracking en -aggregatie
10:18
as our financialfinancieel recordsarchief and transactionstransacties,
178
606672
2532
als onze financiële
administratie en transacties,
10:21
if our brainshersenen can be hackedgehackt
and trackedbijgehouden like our onlineonline activitiesactiviteiten,
179
609228
4285
als onze hersenen gehackt
en bijgehouden kunnen worden
zoals onze online-activiteiten,
10:25
our mobilemobiel phonestelefoons and applicationstoepassingen,
180
613537
2361
onze mobiele telefoons en toepassingen,
10:27
then we're on the brinkrand of a dangerousgevaarlijk
threatbedreiging to our collectivecollectief humanityde mensheid.
181
615922
4269
dan staan we aan de rand
van een gevaarlijke bedreiging
voor onze gezamenlijke menselijkheid.
10:33
Before you panicpaniek,
182
621406
1309
Voordat je in paniek raakt:
10:36
I believe that there are solutionsoplossingen
to these concernszorgen,
183
624012
3144
ik geloof dat er oplossingen zijn
voor deze problemen,
10:39
but we have to startbegin by focusingscherpstellen
on the right things.
184
627180
2825
maar we moeten beginnen
door op de juiste dingen te focussen.
10:42
When it comeskomt to privacyprivacy
protectionsbescherming in generalalgemeen,
185
630580
2921
Als het gaat om bescherming
van de privacy in het algemeen,
denk ik dat we vechten tegen de bierkaai
10:45
I think we're fightingvechten a losingverliezen battlestrijd
186
633525
1826
10:47
by tryingproberen to restrictbeperken
the flowstroom of informationinformatie.
187
635375
2858
door te proberen om de stroom
van informatie te beperken.
10:50
InsteadIn plaats daarvan, we should be focusingscherpstellen
on securingbeveiligen rightsrechten and remediesrechtsmiddelen
188
638257
4057
In plaats daarvan moeten we ons richten
op het veiligstellen
van rechten en rechtsmiddelen
10:54
againsttegen the misusemisbruik of our informationinformatie.
189
642338
2275
tegen misbruik van onze informatie.
10:57
If people had the right to decidebesluiten
how theirhun informationinformatie was sharedgedeelde,
190
645291
3285
Als mensen mogen beslissen
hoe hun informatie wordt gedeeld,
11:00
and more importantlybelangrijker, have legalwettelijk redressverhaal
191
648600
2921
en nog belangrijker, wat hun rechten zijn
als hun informatie verkeerd
tegen hen werd gebruikt,
11:03
if theirhun informationinformatie
was misusedmisbruikt againsttegen them,
192
651545
2428
11:05
say to discriminatediscrimineren againsttegen them
in an employmentwerk settingomgeving
193
653997
2786
bijvoorbeeld bij discriminatie
in een werkgelegenheidsgeschil
11:08
or in healthGezondheid carezorg or educationonderwijs,
194
656807
2785
of in gezondheidszorg of onderwijs,
11:11
this would go a long way to buildbouwen trustvertrouwen.
195
659616
2571
zou dat al een grote stap zijn
om vertrouwen op te bouwen.
11:14
In factfeit, in some instancesinstanties,
196
662843
1718
In feite willen we in sommige gevallen
11:16
we want to be sharingdelen more
of our personalpersoonlijk informationinformatie.
197
664585
3524
meer persoonlijke informatie delen.
Het bestuderen van verzamelde informatie
kan ons zoveel vertellen
11:20
StudyingStuderen aggregatedgeaggregeerde informationinformatie
can tell us so much
198
668697
3047
11:23
about our healthGezondheid and our well-beingwelzijn,
199
671768
2747
over onze gezondheid en ons welzijn,
11:26
but to be ablein staat to safelyveilig sharedelen
our informationinformatie,
200
674539
3313
maar om onze informatie
veilig te kunnen delen,
11:29
we need specialspeciaal protectionsbescherming
for mentalgeestelijk privacyprivacy.
201
677876
3223
hebben we speciale bescherming
van onze mentale privacy nodig.
11:33
This is why we need
a right to cognitivecognitieve libertyvrijheid.
202
681832
3147
Daarom hebben we het recht
op cognitieve vrijheid nodig.
11:37
This right would securebeveiligen for us
our freedomvrijheid of thought and ruminationgepieker,
203
685543
4079
Dit recht zou voor ons onze vrijheid
van denken en rumineren veiligstellen,
11:41
our freedomvrijheid of self-determinationzelfbeschikking,
204
689646
2540
onze vrijheid van zelfbeschikking,
11:44
and it would insureverzekeren that we have
the right to consenttoestemming to or refuseweigeren
205
692210
4390
en het zou ons ervan verzekeren
dat we het recht hebben
anderen al dan niet toestemming te geven
onze hersenen in te zien of te wijzigen.
11:48
accesstoegang and alterationwijziging
of our brainshersenen by othersanderen.
206
696624
2857
11:51
This right could be recognizederkend
207
699811
2112
Dit recht kan worden erkend als onderdeel
11:53
as partdeel of the UniversalUniverseel DeclarationVerklaring
of HumanMenselijke RightsRechten,
208
701947
2883
van de Universele Verklaring
van de Rechten van de Mens,
11:56
whichwelke has establishedgevestigd mechanismsmechanismen
209
704854
2388
die vastgestelde mechanismen heeft
11:59
for the enforcementhandhaving
of these kindssoorten of socialsociaal rightsrechten.
210
707266
2856
voor de handhaving
van dit soort sociale rechten.
12:03
DuringTijdens the IranianIraanse GreenGroen MovementVerkeer,
211
711872
2070
Tijdens de Iraanse Groene Beweging
12:05
the protestersdemonstranten used the internetinternet
and good old-fashionedouderwetse wordwoord of mouthmond
212
713966
5186
gebruikten de betogers het internet en
goede ouderwetse mond-tot-mond-berichten
12:11
to coordinatecoördinaat theirhun marchesMarches.
213
719176
1948
om hun marsen te coördineren.
12:14
And some of the mostmeest oppressiveonderdrukkende
restrictionsbeperkingen in IranIran
214
722238
2769
Sommige van de meest onderdrukkende
beperkingen in Iran
12:17
were liftedopgeheven as a resultresultaat.
215
725031
1877
werden als gevolg daarvan opgeheven.
12:20
But what if the IranianIraanse governmentregering
had used brainhersenen surveillancetoezicht
216
728047
4087
Maar wat als de Iraanse regering
hersensurveillance had gebruikt
12:24
to detectopsporen and preventvoorkomen the protestprotest?
217
732158
3061
om het protest op te sporen
en te voorkomen?
12:28
Would the worldwereld- have ever heardgehoord
the protesters'protesteerders crieskreten?
218
736847
3176
Zou de wereld ooit de kreten
van de demonstranten hebben gehoord?
12:33
The time has come for us to call
for a cognitivecognitieve libertyvrijheid revolutionrevolutie.
219
741732
5121
De tijd is gekomen dat we pleiten
voor een revolutie om cognitieve vrijheid.
Om ervoor te zorgen dat we technologie
op verantwoorde wijze zo bevorderen
12:39
To make sure that we responsiblyop een verantwoorde manier
advancevan te voren technologytechnologie
220
747559
3264
12:42
that could enablein staat stellen us to embraceomhelzing the futuretoekomst
221
750847
2978
dat we de toekomst kunnen omarmen
12:45
while fiercelyfel protectingbescherming all of us
from any personpersoon, companybedrijf or governmentregering
222
753849
6717
en tegelijkertijd ons allemaal beschermen
tegen personen, bedrijven of overheden
12:52
that attemptspogingen to unlawfullyOnrechtmatig accesstoegang
or alterwijzigen our innermostbinnenste liveslevens.
223
760590
5040
die zonder toestemming ons diepste wezen
willen inzien of wijzigen.
12:58
Thank you.
224
766659
1174
Dank je.
12:59
(ApplauseApplaus)
225
767857
3492
(Applaus)
Translated by Rik Delaet
Reviewed by Peter Van de Ven

▲Back to top

ABOUT THE SPEAKER
Nita Farahany - Legal scholar, ethicist
Nita A. Farahany is a leading scholar on the ethical, legal, and social implications of biosciences and emerging technologies, particularly those related to neuroscience and behavioral genetics.

Why you should listen

Nita A. Farahany is a professor of law and philosophy, the founding director of the Duke Initiative for Science & Society and chair of the MA in Bioethics & Science Policy at Duke University. In 2010, Farahany was appointed by President Obama to the Presidential Commission for the Study of Bioethical Issues, and she served as a member until 2017. She is a member of the Neuroethics Division of the Multi-Council Working Group for the BRAIN Initiative, on the President's Research Council of the Canadian Institute for Advanced Research (CIFAR), and past member of the Global Agenda Council for Privacy, Technology and Governance at the World Economic Forum. 

Farahany presents her work to diverse audiences and is a frequent commentator for national media and radio shows. She is an elected member of the American Law Institute, the President-Elect of the International Neuroethics Society, serves on the Board of the International Neuroethics Society, a co-editor a co-editor-in-chief and co-founder of the Journal of Law and the Biosciences and an editorial board member of the American Journal of Bioethics (Neuroscience). She's on the Ethics Advisory Board for Illumina, Inc., the Scientific Advisory Board of Helix, and the Board of Advisors of Scientific American. 

Farahany received her AB in genetics, cell and developmental biology at Dartmouth College, a JD and MA from Duke University, as well as a PhD in philosophy. She also holds an ALM in biology from Harvard University. In 2004-2005, Farahany clerked for Judge Judith W. Rogers of the US Court of Appeals for the D.C. Circuit, after which she joined the faculty at Vanderbilt University. In 2011, Farahany was the Leah Kaplan Visiting Professor of Human Rights at Stanford Law School.

More profile about the speaker
Nita Farahany | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee