ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com
TEDSummit

Zeynep Tufekci: Machine intelligence makes human morals more important

Zeynep Tufekci: L'intelligenza artificiale rende la moralità umana più importante

Filmed:
1,648,711 views

L'intelligenza delle macchine è qui, e la usiamo già per prendere decisioni soggettive. Ma il modo complesso con cui la AI (Intelligenza Artificiale) cresce e migliora rende difficile capirla e ancora più difficile controllarla. Nel suo discorso ammonitorio la tecno-sociologa Zeynep Tufekci spiega come le macchine intelligenti possono sbagliare in modi che non assomigliano al modo di sbagliare umano-- e in modi che non ci aspetteremmo o siamo preparati ad affrontare. "Non possiamo delegare le nostre responsabilità alle macchine," dice. "Dobbiamo tenerci ancora più strettamente legati ai valori ed etica umani."
- Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio

Double-click the English transcript below to play the video.

00:12
So, I startediniziato my first joblavoro
as a computercomputer programmerprogrammatore
0
739
4122
Ho iniziato il mio primo lavoro
come programmatrice di computer
00:16
in my very first yearanno of collegeUniversità --
1
4885
1956
nel mio primo anno di college -
00:18
basicallyfondamentalmente, as a teenageradolescente.
2
6865
1507
sostanzialmete un'adolescente.
00:20
SoonPresto after I startediniziato workinglavoro,
3
8889
1732
Subito dopo ho cominciato a lavorare,
scrivendo software in una azienda,
00:22
writingscrittura softwareSoftware in a companyazienda,
4
10645
1610
00:24
a managermanager who workedlavorato at the companyazienda
cameè venuto down to where I was,
5
12799
3635
un manager che lavorava nell'azienda
mi venne a trovare dove stavo,
00:28
and he whisperedsussurrato to me,
6
16458
1268
e mi susssurrò,
00:30
"Can he tell if I'm lyingdire bugie?"
7
18229
2861
"Può lui dirmi se sto mentendo?"
00:33
There was nobodynessuno elsealtro in the roomcamera.
8
21806
2077
Non c'era nessun altro nella stanza.
00:37
"Can who tell if you're lyingdire bugie?
And why are we whisperingsussurrando?"
9
25032
4389
"Chi può dire se stai mentendo?
E perché sussurriamo?"
00:42
The managermanager pointedappuntito
at the computercomputer in the roomcamera.
10
30266
3107
Il manager indicò il computer
nella stanza.
00:45
"Can he tell if I'm lyingdire bugie?"
11
33397
3096
"Può lui dirmi se sto mentendo?"
00:49
Well, that managermanager was havingavendo
an affairaffare with the receptionistaddetto alla reception.
12
37613
4362
Ebbene, quel manager aveva una relazione
con la segretaria alla reception.
00:53
(LaughterRisate)
13
41999
1112
(Risate)
00:55
And I was still a teenageradolescente.
14
43135
1766
Ed ero ancora una adolescente.
00:57
So I whisper-shoutedWhisper-gridò back to him,
15
45447
2019
Così gli sussurrai-urlai,
00:59
"Yes, the computercomputer can tell
if you're lyingdire bugie."
16
47490
3624
"Si, il computer può dire
se stai mentendo."
01:03
(LaughterRisate)
17
51138
1806
(Risate)
01:04
Well, I laughedriso, but actuallyin realtà,
the laugh'sdi risata on me.
18
52968
2923
Bene, io risi, ma in effetti,
la risata era nei mei confronti.
01:07
NowadaysAl giorno d'oggi, there are computationalcomputazionale systemssistemi
19
55915
3268
Oggi, vi sono sistemi di calcolo
01:11
that can susssuss out
emotionalemotivo statesstati and even lyingdire bugie
20
59207
3548
che possono scoprire gli stati emotivi
e pure la menzogna
01:14
from processinglavorazione humanumano facesfacce.
21
62779
2044
tramite la elaborazione dei volti umani.
01:17
AdvertisersInserzionisti and even governmentsi governi
are very interestedinteressato.
22
65248
4153
I pubblicitari ed anche i governi
sono molto interessati.
Sono diventata programmatrice di computer
01:22
I had becomediventare a computercomputer programmerprogrammatore
23
70319
1862
01:24
because I was one of those kidsbambini
crazypazzo about mathmatematica and sciencescienza.
24
72205
3113
perchè ero uno di quei giovani
pazzi per matematica e scienze
01:27
But somewhereda qualche parte alonglungo the linelinea
I'd learnedimparato about nuclearnucleare weaponsArmi,
25
75942
3108
Ma lungo il mio percorso
ho imparato a conoscere le armi nucleari,
01:31
and I'd gottenottenuto really concernedha riguardato
with the ethicsetica of sciencescienza.
26
79074
2952
e mi sono proprio preoccupata
dell'etica della scienza.
01:34
I was troubledagitato.
27
82050
1204
Ero preoccupata.
01:35
HoweverTuttavia, because of familyfamiglia circumstancescondizioni,
28
83278
2641
Tuttavia, a causa della
mia situazione familiare,
01:37
I alsoanche needednecessaria to startinizio workinglavoro
as soonpresto as possiblepossibile.
29
85943
3298
dovevo iniziare a lavorare
al più presto.
01:41
So I thought to myselfme stessa, hey,
let me pickraccogliere a technicaltecnico fieldcampo
30
89265
3299
Così mi sono detta, hey,
scegliamo un settore tecnico
01:44
where I can get a joblavoro easilyfacilmente
31
92588
1796
dove posso trovare facilmente
un lavoro
01:46
and where I don't have to dealaffare
with any troublesomefastidioso questionsle domande of ethicsetica.
32
94408
4018
e dove non devo aver a che fare
con qualche fastidiosa questione etica.
01:51
So I pickedraccolto computerscomputer.
33
99022
1529
Così ho scelto i computer.
01:52
(LaughterRisate)
34
100575
1104
(Risate)
01:53
Well, haha, haha, haha!
All the laughsride are on me.
35
101703
3410
Bene, ah, ah!
Tutti ridono di me.
01:57
NowadaysAl giorno d'oggi, computercomputer scientistsscienziati
are buildingcostruzione platformspiattaforme
36
105137
2754
Ora, gli scienziati del computer
costruicono piattaforme
01:59
that controlcontrollo what a billionmiliardo
people see everyogni day.
37
107915
4209
che controllano ciò che un miliardo
di persone vedono ogni giorno.
02:05
They're developingin via di sviluppo carsautomobili
that could decidedecidere who to runcorrere over.
38
113052
3822
Stanno sviluppando auto
che potrebbero decidere chi investire.
02:09
They're even buildingcostruzione machinesmacchine, weaponsArmi,
39
117707
3213
Stanno anche costruendo macchine, armi,
02:12
that mightpotrebbe killuccidere humanumano beingsesseri in warguerra.
40
120944
2285
che possono uccidere persone in guerra.
02:15
It's ethicsetica all the way down.
41
123253
2771
C'è sempre l'etica alla fine.
02:19
MachineMacchina intelligenceintelligenza is here.
42
127183
2058
L'intelligenza delle macchine è qui.
02:21
We're now usingutilizzando computationcalcolo
to make all sortordinare of decisionsdecisioni,
43
129823
3474
Ora utilizziamo il computer
per prendere ogni tipo di decisioni,
02:25
but alsoanche newnuovo kindstipi of decisionsdecisioni.
44
133321
1886
ma anche nuovi tipi di decisioni.
02:27
We're askingchiede questionsle domande to computationcalcolo
that have no singlesingolo right answersrisposte,
45
135231
5172
Stiamo ponendo al computer domande
che non hanno una sola risposta giusta,
02:32
that are subjectivesoggettivo
46
140427
1202
che sono soggettive
02:33
and open-endedsenza limiti precisi and value-ladencarichi di valore.
47
141653
2325
e sono aperte e cariche di valore.
02:36
We're askingchiede questionsle domande like,
48
144002
1758
Domandiamo cose come,
02:37
"Who should the companyazienda hireassumere?"
49
145784
1650
"Chi dovrebbe essere assunto?"
02:40
"WhichChe updateaggiornare from whichquale friendamico
should you be shownmostrato?"
50
148096
2759
"Quale update e di quale amico
dovrebbe essere mostrato?"
02:42
"WhichChe convictcarcerato is more
likelyprobabile to reoffendrecidivi?"
51
150879
2266
"Quale pregiudicato sarà più
probabilmente recidivo?"
02:45
"WhichChe newsnotizia itemarticolo or moviefilm
should be recommendedconsigliato to people?"
52
153514
3054
"Quale notizia o film
dovrebbe essere consigliato alla gente?"
02:48
Look, yes, we'venoi abbiamo been usingutilizzando
computerscomputer for a while,
53
156592
3372
Certo, stiamo usando
il computer da un po',
02:51
but this is differentdiverso.
54
159988
1517
ma questo è diverso.
02:53
This is a historicalstorico twisttorsione,
55
161529
2067
Questa è un svolta storica,
02:55
because we cannotnon può anchorancora computationcalcolo
for suchcome subjectivesoggettivo decisionsdecisioni
56
163620
5337
perchè non possiamo poggiarci sul computer
per queste decisioni soggettive
03:00
the way we can anchorancora computationcalcolo
for flyingvolante airplanesaeroplani, buildingcostruzione bridgesponti,
57
168981
5420
allo stesso modo in cui si usa il computer
per far volare gli aerei, costruire ponti,
03:06
going to the moonLuna.
58
174425
1259
andare sulla luna.
03:08
Are airplanesaeroplani saferpiù sicuro?
Did the bridgeponte swayondeggiare and fallautunno?
59
176449
3259
Sono più sicuri gli aerei?
Vacillano e cadono i ponti?
03:11
There, we have agreed-uponconcordato,
fairlyabbastanza clearchiaro benchmarksparametri di riferimento,
60
179732
4498
Qui abbiamo chiari livelli di riferimento,
su cui concordiamo,
03:16
and we have lawslegislazione of naturenatura to guideguida us.
61
184254
2239
ed abbiamo le leggi naturali per guidarci.
03:18
We have no suchcome anchorsancore and benchmarksparametri di riferimento
62
186517
3394
Non abbiamo tali riferimenti
per decidere
03:21
for decisionsdecisioni in messydisordinato humanumano affairsaffari.
63
189935
3963
nelle complicate faccende umane.
03:25
To make things more complicatedcomplicato,
our softwareSoftware is gettingottenere more powerfulpotente,
64
193922
4237
Per rendere le cose più complicate,
il software sta diventando più potente,
03:30
but it's alsoanche gettingottenere lessDi meno
transparenttrasparente and more complexcomplesso.
65
198183
3773
ma anche meno trasparente e più complesso.
03:34
RecentlyRecentemente, in the pastpassato decadedecennio,
66
202542
2040
Recentemente, nell'ultima decennio,
03:36
complexcomplesso algorithmsalgoritmi
have madefatto great stridespassi da gigante.
67
204606
2729
algoritmi complessi hanno fatto
notevoli passi avanti.
03:39
They can recognizericonoscere humanumano facesfacce.
68
207359
1990
Possono riconoscere le facce umane.
03:41
They can decipherdecifrare handwritingscrittura a mano.
69
209985
2055
Possono decifrare la scrittura manuale.
possono individuare le frodi
sulle carte di credito e bloccare lo spam
03:44
They can detectindividuare creditcredito cardcarta fraudfrode
70
212436
2066
03:46
and blockbloccare spamspam
71
214526
1189
e possono tradurre le lingue.
03:47
and they can translatetradurre betweenfra languagesle lingue.
72
215739
2037
Possono individuare i tumori
nelle diagnostica per immagini.
03:49
They can detectindividuare tumorstumori in medicalmedico imagingdi imaging.
73
217800
2574
03:52
They can beatbattere humansgli esseri umani in chessscacchi and Go.
74
220398
2205
Possono battere gli umani a scacchi
e nel GO
03:55
Much of this progressprogresso comesviene
from a methodmetodo calledchiamato "machinemacchina learningapprendimento."
75
223264
4504
Molti di questi progressi derivano
dal metodo di "apprendimento automatico".
04:00
MachineMacchina learningapprendimento is differentdiverso
than traditionaltradizionale programmingprogrammazione,
76
228175
3187
L'apprendimento automatico è diverso
dalla tradizionale programmazione,
04:03
where you give the computercomputer
detaileddettagliata, exactesatto, painstakingscrupoloso instructionsIstruzioni.
77
231386
3585
dove si danno al computer istruzioni
dettagliate, precise ed accurate.
04:07
It's more like you take the systemsistema
and you feedalimentazione it lots of datadati,
78
235378
4182
Sembra di più come se forniste
al sistema molti dati,
04:11
includingCompreso unstructurednon strutturati datadati,
79
239584
1656
Inclusi dati non strutturati,
del tipo che generiamo
nella nostre vite digitali.
04:13
like the kindgenere we generatecreare
in our digitaldigitale livesvite.
80
241264
2278
04:15
And the systemsistema learnsImpara
by churningzangolatura throughattraverso this datadati.
81
243566
2730
E il sistema impara
maneggiando quei dati.
04:18
And alsoanche, cruciallyfondamentalmente,
82
246669
1526
Ed anche, crucialmente,
04:20
these systemssistemi don't operateoperare
undersotto a single-answerrisposta singola logiclogica.
83
248219
4380
quei sistemi non lavorano
con la logica di una sola risposta.
04:24
They don't produceprodurre a simplesemplice answerrisposta;
it's more probabilisticprobabilistica:
84
252623
2959
Non forniscono una semplice risposta;
è piuttosto probabilistica:
04:27
"This one is probablyprobabilmente more like
what you're looking for."
85
255606
3483
"Questo è probabilmente
quello che state cercando."
04:32
Now, the upsidesottosopra is:
this methodmetodo is really powerfulpotente.
86
260023
3070
Ora, la parte positiva è:
questo metodo è veramente potente.
04:35
The headcapo of Google'sDi Google AIAI systemssistemi calledchiamato it,
87
263117
2076
Il capo sistema AI
di Google lo ha chiamato
04:37
"the unreasonableirragionevole effectivenessefficacia of datadati."
88
265217
2197
"la irragionevole efficacia dei dati."
04:39
The downsidesvantaggio is,
89
267791
1353
La parte negativa è,
04:41
we don't really understandcapire
what the systemsistema learnedimparato.
90
269738
3071
non capiamo veramente
cosa il sistema ha imparato.
04:44
In factfatto, that's its powerenergia.
91
272833
1587
Infatti, questa è la sua forza.
04:46
This is lessDi meno like givingdando
instructionsIstruzioni to a computercomputer;
92
274946
3798
Ciò è meno simile a dare
istruzioni ad un computer;
04:51
it's more like trainingformazione
a puppy-machine-creaturecucciolo-macchina-creatura
93
279200
4064
è più simile all'istruire
un cucciolo-macchina
04:55
we don't really understandcapire or controlcontrollo.
94
283288
2371
che noi non capiamo
o controlliamo veramente
04:58
So this is our problemproblema.
95
286362
1551
Questo è il nostro problema.
05:00
It's a problemproblema when this artificialartificiale
intelligenceintelligenza systemsistema getsprende things wrongsbagliato.
96
288427
4262
Il problema è quando questi sistemi
di intelligenza artificiale lavorano male.
05:04
It's alsoanche a problemproblema
when it getsprende things right,
97
292713
3540
Vi è anche il problema
di quando lavorano bene,
05:08
because we don't even know whichquale is whichquale
when it's a subjectivesoggettivo problemproblema.
98
296277
3628
perchè non sappiamo chi è chi
quando il problema è soggettivo.
05:11
We don't know what this thing is thinkingpensiero.
99
299929
2339
Non sappiamo come il computer ragioni.
05:15
So, considerprendere in considerazione a hiringassumere algorithmalgoritmo --
100
303493
3683
Così, considerate un algoritmo
per le assunzioni--
05:20
a systemsistema used to hireassumere people,
usingutilizzando machine-learningapprendimento automatico systemssistemi.
101
308123
4311
un sistema per assumere la gente,
usando l'apprendimento automatico.
05:25
SuchTali a systemsistema would have been trainedallenato
on previousprecedente employees'dei dipendenti datadati
102
313052
3579
Un tale sistema sarebbe stato formato
sui dati dei precedenti assunti
05:28
and instructedincaricato to find and hireassumere
103
316655
2591
e istruito per trovare ed assumere
05:31
people like the existingesistente
highalto performersinterpreti in the companyazienda.
104
319270
3038
le persone simili a quelli
più performanti in azienda.
05:34
SoundsSuoni good.
105
322814
1153
Sembra giusto.
Una volta ho partecipato ad una conferenza
05:35
I onceuna volta attendedha partecipato a conferenceconferenza
106
323991
1999
che coinvolgeva i responsabili
delle Risorse Umane e i manager aziendali,
05:38
that broughtportato togetherinsieme
humanumano resourcesrisorse managersmanager and executivesdirigenti,
107
326014
3125
05:41
high-levelalto livello people,
108
329163
1206
persone ad alto livello,
che usavano questo sistema per assumere.
05:42
usingutilizzando suchcome systemssistemi in hiringassumere.
109
330393
1559
05:43
They were supersuper excitedemozionato.
110
331976
1646
Erano super entusiasti.
05:45
They thought that this would make hiringassumere
more objectiveobbiettivo, lessDi meno biasedparziale,
111
333646
4653
Pensavano che ciò avrebbe portato ad
assunzioni più oggettive, meno distorte,
05:50
and give womendonne
and minoritiesminoranze a better shottiro
112
338323
3000
e dato alle donne e alle minoranze
una migliore opportunità
05:53
againstcontro biasedparziale humanumano managersmanager.
113
341347
2188
rispetto a manager umani influenzabili.
05:55
And look -- humanumano hiringassumere is biasedparziale.
114
343559
2843
E guarda - le assunzioni fatte
dagli uomini sono distorte.
05:59
I know.
115
347099
1185
Lo so.
06:00
I mean, in one of my earlypresto jobslavori
as a programmerprogrammatore,
116
348308
3005
Voglio dire, in uno dei miei primi lavori,
come programmatrice,
06:03
my immediateimmediato managermanager would sometimesa volte
come down to where I was
117
351337
3868
la manager da cui dipendevo qualche volta
scendeva dove stavo
06:07
really earlypresto in the morningmattina
or really latein ritardo in the afternoonpomeriggio,
118
355229
3753
molto presto alla mattina
o molto tardi nel pomeriggio,
06:11
and she'dcapannone say, "ZeynepZeynep,
let's go to lunchpranzo!"
119
359006
3062
e mi diceva, "Zeynep,
andiamo a pranzo!"
06:14
I'd be puzzledperplesso by the weirdstrano timingsincronizzazione.
120
362724
2167
Ero perplessa per la strana tempistica.
06:16
It's 4pmPM. LunchPranzo?
121
364915
2129
Sono le 4 del pomeriggio. Pranzo?
06:19
I was brokerotto, so freegratuito lunchpranzo. I always wentandato.
122
367068
3094
Ero al verde, ed è un pranzo gratis.
Quindi andavo sempre.
06:22
I laterdopo realizedrealizzato what was happeningavvenimento.
123
370618
2067
Più tardi capii cosa stava accadendo.
06:24
My immediateimmediato managersmanager
had not confessedha confessato to theirloro higher-upssuperiori
124
372709
4546
La manager da cui dipendevo
non aveva confessato ai livelli superiori
06:29
that the programmerprogrammatore they hiredassunti
for a seriousgrave joblavoro was a teenadolescente girlragazza
125
377279
3113
che il programmatore da lei assunto
per un importante lavoro era adolescente
06:32
who woreindossava jeansjeans and sneakersscarpe da ginnastica to work.
126
380416
3930
che indossava jeans e sneaker al lavoro.
06:37
I was doing a good joblavoro,
I just lookedguardato wrongsbagliato
127
385174
2202
Lavoravo bene,
solo sembravo sbagliata,
06:39
and was the wrongsbagliato ageetà and genderGenere.
128
387400
1699
ed era l'età e genere sbagliato.
06:41
So hiringassumere in a gender-genere- and race-blindgara-cieco way
129
389123
3346
Così asssumere senza considerare
genere e razza
06:44
certainlycertamente soundssuoni good to me.
130
392493
1865
certamante mi sembra giusto.
06:47
But with these systemssistemi,
it is more complicatedcomplicato, and here'secco why:
131
395031
3341
Ma con questi sistemi,
è più complicato, ed ecco perchè:
06:50
CurrentlyAttualmente, computationalcomputazionale systemssistemi
can inferdedurre all sortstipi of things about you
132
398968
5791
Ad oggi, i sistemi di calcolo
possono desumere qualsiasi cosa su di voi
06:56
from your digitaldigitale crumbsbriciole,
133
404783
1872
dalle vostre briciole digitali,
06:58
even if you have not
disclosedcomunicati those things.
134
406679
2333
pur se non avete reso pubbliche
quelle cose.
07:01
They can inferdedurre your sexualsessuale orientationorientamento,
135
409506
2927
Possono desumere
il vostro orientamento sessuale,
07:04
your personalitypersonalità traitstratti,
136
412994
1306
caratteristiche personali,
07:06
your politicalpolitico leaningsinclinazioni.
137
414859
1373
orientamento politico.
07:08
They have predictivepredittiva powerenergia
with highalto levelslivelli of accuracyprecisione.
138
416830
3685
Hanno potenza predittiva
con alto livello di accuratezza.
07:13
RememberRicordate -- for things
you haven'tnon hanno even disclosedcomunicati.
139
421362
2578
Ricordate -- per cose che
non avete mai dichiarato.
07:15
This is inferenceinferenza.
140
423964
1591
Questa è l'inferenza.
07:17
I have a friendamico who developedsviluppato
suchcome computationalcomputazionale systemssistemi
141
425579
3261
Ho un'amica che ha sviluppato
un sistema di elaborazione
07:20
to predictpredire the likelihoodprobabilità
of clinicalclinico or postpartumpost-partum depressiondepressione
142
428864
3641
per predire la probabilità
della depressione postpartum
07:24
from socialsociale mediamedia datadati.
143
432529
1416
dai dati delle reti sociali.
07:26
The resultsrisultati are impressiveimpressionante.
144
434676
1427
Risultati impressionanti!
07:28
Her systemsistema can predictpredire
the likelihoodprobabilità of depressiondepressione
145
436492
3357
Il suo sistema può predire
la probabilità della depressione
07:31
monthsmesi before the onsetinizio of any symptomssintomi --
146
439873
3903
mesi prima dell'insorgere
di un qualsiasi sintomo --
07:35
monthsmesi before.
147
443800
1373
mesi prima.
07:37
No symptomssintomi, there's predictionpredizione.
148
445197
2246
Nessun sintomo, ma c'è predizione.
07:39
She hopessperanze it will be used
for earlypresto interventionintervento. Great!
149
447467
4812
Lei spera che sarà usato
per anticipare un intervento. Ottimo!
07:44
But now put this in the contextcontesto of hiringassumere.
150
452911
2040
Ma ora consideratelo in una assunzione.
07:48
So at this humanumano resourcesrisorse
managersmanager conferenceconferenza,
151
456027
3046
Così a quella conferenza dei manager
delle risorse umane,
07:51
I approachedsi avvicinò a high-levelalto livello managermanager
in a very largegrande companyazienda,
152
459097
4709
ho avvicinato un manager di alto livello
in una grande azienda,
07:55
and I said to her, "Look,
what if, unbeknownstall'insaputa to you,
153
463830
4578
e le ho detto, "Guarda,
che succederebbe se, alla tua insaputa,
08:00
your systemsistema is weedingdiserbo out people
with highalto futurefuturo likelihoodprobabilità of depressiondepressione?
154
468432
6549
il vostro sistema elimina le persone
con un'alta probabilità di depressione?
08:07
They're not depresseddepresso now,
just maybe in the futurefuturo, more likelyprobabile.
155
475761
3376
Non sono depresse ora,
magari forse in futuro, più probabilmente.
08:11
What if it's weedingdiserbo out womendonne
more likelyprobabile to be pregnantincinta
156
479923
3406
Che succederebbe se eliminasse le donne
più probabilmente incinte
08:15
in the nextIl prossimo yearanno or two
but aren'tnon sono pregnantincinta now?
157
483353
2586
nei prossimi uno o due anni
ma che non lo sono ora?
08:18
What if it's hiringassumere aggressiveaggressivo people
because that's your workplaceposto di lavoro culturecultura?"
158
486844
5636
E se assumeste persone aggressive perchè
questa è la vostra cultura aziendale?"
08:25
You can't tell this by looking
at genderGenere breakdownsguasti.
159
493173
2691
Non potete parlarne guardando
solo alle quote di genere.
08:27
Those maypuò be balancedequilibrato.
160
495888
1502
Queste si possono bilanciare.
08:29
And sinceda this is machinemacchina learningapprendimento,
not traditionaltradizionale codingcodifica,
161
497414
3557
E dato che ciò è apprendimento automatico,
non programmazione tradizionale,
08:32
there is no variablevariabile there
labeledcon l'etichetta "higherpiù alto riskrischio of depressiondepressione,"
162
500995
4907
non c'è alcuna variabile di codifica
etichettata "alto rischio di depressione",
08:37
"higherpiù alto riskrischio of pregnancygravidanza,"
163
505926
1833
"maggior rischio di gravidanza,"
08:39
"aggressiveaggressivo guy scalescala."
164
507783
1734
"gradazione di maschio aggressivo."
08:41
Not only do you not know
what your systemsistema is selectingselezionando on,
165
509995
3679
Non solo non sapete su cosa
il vostro sistema basi la selezione,
08:45
you don't even know
where to begininizio to look.
166
513698
2323
ma neppure sapete
dove cominciare a guardare.
08:48
It's a blacknero boxscatola.
167
516045
1246
E' una "scatola nera".
08:49
It has predictivepredittiva powerenergia,
but you don't understandcapire it.
168
517315
2807
Ha una potenza predittiva
ma non la capite.
08:52
"What safeguardsmisure di salvaguardia," I askedchiesto, "do you have
169
520486
2369
"Quali garanzie," chiesi, "avete
08:54
to make sure that your blacknero boxscatola
isn't doing something shadyombreggiato?"
170
522879
3673
per essere sicuri che la scatola nera
non sta facendo qualcosa losco?"
09:00
She lookedguardato at me as if I had
just steppedfatto un passo on 10 puppycucciolo tailscode.
171
528863
3878
Mi ha guardato come se avessi
schiacciato la coda a 10 cuccioli.
09:04
(LaughterRisate)
172
532765
1248
(Risate)
09:06
She staredfissò at me and she said,
173
534037
2041
Mi fissò e disse,
09:08
"I don't want to hearsentire
anotherun altro wordparola about this."
174
536556
4333
"Non voglio sentire altro su questo."
09:13
And she turnedtrasformato around and walkedcamminava away.
175
541458
2034
E si girò andandosene via.
09:16
MindMente you -- she wasn'tnon era rudescortese.
176
544064
1486
Considerate - non era maleducata.
09:17
It was clearlychiaramente: what I don't know
isn't my problemproblema, go away, deathmorte starefissare.
177
545574
6308
Era chiaro: quello che non so non è un
mio problema. Va via, sguardo assassino.
09:23
(LaughterRisate)
178
551906
1246
(Risate)
09:25
Look, suchcome a systemsistema
maypuò even be lessDi meno biasedparziale
179
553862
3839
Vedete, un tale sistema
può anche essere meno influenzata
09:29
than humanumano managersmanager in some waysmodi.
180
557725
2103
in molti modi rispetto ai manager umani.
09:31
And it could make monetarymonetaria sensesenso.
181
559852
2146
E potrebbe avere senso economico.
09:34
But it could alsoanche leadcondurre
182
562573
1650
Ma può anche portare
09:36
to a steadycostante but stealthyfurtivo
shuttingchiusura out of the joblavoro marketmercato
183
564247
4748
a una stabile, ma furtiva
chiusura dal mercato del lavoro
09:41
of people with higherpiù alto riskrischio of depressiondepressione.
184
569019
2293
di gente più a rischio di depressione.
09:43
Is this the kindgenere of societysocietà
we want to buildcostruire,
185
571753
2596
Questo è il tipo di società
che vogliamo costruire,
09:46
withoutsenza even knowingsapendo we'venoi abbiamo donefatto this,
186
574373
2285
senza neppure sapere che lo abbiamo fatto,
09:48
because we turnedtrasformato decision-makingil processo decisionale
to machinesmacchine we don't totallytotalmente understandcapire?
187
576682
3964
poichè abbiamo lasciato la decisione
a macchine che non comprendiamo del tutto?
09:53
AnotherUn altro problemproblema is this:
188
581265
1458
Un altro problema è questo:
09:55
these systemssistemi are oftenspesso trainedallenato
on datadati generatedgenerato by our actionsAzioni,
189
583314
4452
quei sistemi sono spesso addestrati
con dati generati dalle nostre azioni,
09:59
humanumano imprintsimpronte.
190
587790
1816
di impronta umana.
10:02
Well, they could just be
reflectingriflettendo our biasespregiudizi,
191
590188
3808
Bene, possono proprio riflettere
le nostre distorsioni o pregiudizi,
10:06
and these systemssistemi
could be pickingscelta up on our biasespregiudizi
192
594020
3593
e questi sistemi
si portano dietro i nostri pregiudizi
10:09
and amplifyingamplificando them
193
597637
1313
e li amplificano
10:10
and showingmostrando them back to us,
194
598974
1418
e ce li rispecchiano,
10:12
while we're tellingraccontare ourselvesnoi stessi,
195
600416
1462
mentre ci diciamo,
10:13
"We're just doing objectiveobbiettivo,
neutralneutro computationcalcolo."
196
601902
3117
"Stiamo facendo solo elaborazioni
oggettive e neutrali."
10:18
ResearchersRicercatori foundtrovato that on GoogleGoogle,
197
606314
2677
Ricerche effettuate su Google trovano,
10:22
womendonne are lessDi meno likelyprobabile than menuomini
to be shownmostrato joblavoro adsAnnunci for high-payingalta-a pagamento jobslavori.
198
610134
5313
che è meno probabile vengano mostrati
alle donne avvisi per lavori ben pagati.
10:28
And searchingricerca for African-AmericanAfrican-American namesnomi
199
616463
2530
E cercando nomi di Afro-Americani
10:31
is more likelyprobabile to bringportare up adsAnnunci
suggestingsuggerendo criminalpenale historystoria,
200
619017
4706
è più probabile trovare avvisi
alludenti a storie criminali,
10:35
even when there is nonenessuna.
201
623747
1567
anche quando non ce ne sono.
10:38
SuchTali hiddennascosto biasespregiudizi
and black-boxscatola nera algorithmsalgoritmi
202
626693
3549
Questi sono i pregiudizi nascosti
e gli algoritmi a scatola nera
10:42
that researchersricercatori uncoverScoprire sometimesa volte
but sometimesa volte we don't know,
203
630266
3973
che i ricercatori talvolta scoprono
ma che altre volte non conosciamo,
10:46
can have life-alteringvita che alterano consequencesconseguenze.
204
634263
2661
possono avere la conseguenza di
alterare la vita.
10:49
In WisconsinWisconsin, a defendantconvenuto
was sentencedcondannato to sixsei yearsanni in prisonprigione
205
637958
4159
In Wisconsin, un accusato
è stato condannato a sei anni di prigione
10:54
for evadingeludere the policepolizia.
206
642141
1355
per aver eluso la polizia.
10:56
You maypuò not know this,
207
644824
1186
Si può non saperlo,
10:58
but algorithmsalgoritmi are increasinglysempre più used
in paroleliberta ' vigilata and sentencingcondanna decisionsdecisioni.
208
646034
3998
ma gli algoritmi sono sempre più usati
per prendere decisioni giudiziarie.
11:02
He wanted to know:
How is this scorePunto calculatedcalcolato?
209
650056
2955
Egli voleva sapere:
come è stato calcolato il punteggio?
11:05
It's a commercialcommerciale blacknero boxscatola.
210
653795
1665
Ma è una scatola nera
sul mercato
11:07
The companyazienda refusedha rifiutato to have its algorithmalgoritmo
be challengedsfidato in openAperto courtTribunale.
211
655484
4205
L'azienda si è rifiutata di far verificare
il suo algoritmo in una corte pubblica.
11:12
But ProPublicaProPublica, an investigativeinvestigativo
nonprofitsenza scopo di lucro, auditedcontrollati that very algorithmalgoritmo
212
660396
5532
Ma ProPublica, associazione investigativa
non-profit, ha verificato quell'algoritmo
11:17
with what publicpubblico datadati they could find,
213
665952
2016
con i dati pubblici disponibili,
11:19
and foundtrovato that its outcomesrisultati were biasedparziale
214
667992
2316
trovando che i risultati
erano influenzati
11:22
and its predictivepredittiva powerenergia
was dismallugubre, barelyappena better than chanceopportunità,
215
670332
3629
e la sua potenza predittiva era
niente più di una possibilità,
11:25
and it was wronglyscorrettamente labelingetichettatura
blacknero defendantsimputati as futurefuturo criminalscriminali
216
673985
4416
e che era sbagliato etichettare
accusati neri come futuri criminali
11:30
at twicedue volte the rateVota of whitebianca defendantsimputati.
217
678425
3895
a livello doppio degli accusati bianchi.
11:35
So, considerprendere in considerazione this casecaso:
218
683891
1564
Così considerate questo caso:
11:38
This womandonna was latein ritardo
pickingscelta up her godsistergodsister
219
686103
3852
questa donna è in ritardo
nel prelevare la sua figlioccia
11:41
from a schoolscuola in BrowardBroward CountyContea di, FloridaFlorida,
220
689979
2075
da scuola nella Contea di Broward,
Florida,
11:44
runningin esecuzione down the streetstrada
with a friendamico of hersla sua.
221
692757
2356
correndo per la strada
con un suo amico.
11:47
They spottedmacchiato an unlockedsbloccato kid'scapretto bikebicicletta
and a scooterscooter on a porchveranda
222
695137
4099
Vedono una bici da ragazzo non bloccata
ed uno scooter in una veranda
11:51
and foolishlystupidamente jumpedsaltato on it.
223
699260
1632
e stupidamente vi saltano su.
Come stavano scappando via,
una donna uscì fuori e disse,
11:52
As they were speedingeccesso di velocità off,
a womandonna cameè venuto out and said,
224
700916
2599
11:55
"Hey! That's my kid'scapretto bikebicicletta!"
225
703539
2205
"Ehi, quella bicicletta è mia!"
11:57
They droppedcaduto it, they walkedcamminava away,
but they were arrestedarrestato.
226
705768
3294
Essi la lascarono, andarono via,
ma furono arrestati.
12:01
She was wrongsbagliato, she was foolishsciocco,
but she was alsoanche just 18.
227
709086
3637
Aveva sbagliato, era stata sciocca,
ma era appena diventata diciottenne.
12:04
She had a couplecoppia of juvenilegiovanile misdemeanorsmisfatti.
228
712747
2544
Fu condannata per un paio
di crimini giovanili.
12:07
MeanwhileNel frattempo, that man had been arrestedarrestato
for shopliftingtaccheggio in Home DepotDepot --
229
715808
5185
Nel frattempo, quell'uomo fu arrestato
per furto di merce al Home Depot --
12:13
85 dollars'dollari worthdi valore of stuffcose,
a similarsimile pettymeschino crimecrimine.
230
721017
2924
merce per 85 dollari di valore,
un simile piccolo crimine.
12:16
But he had two priorprecedente
armedarmati robberyrapina convictionsconvinzioni.
231
724766
4559
Ma lui aveva due precedenti
condanne per rapina a mano armata
12:21
But the algorithmalgoritmo scoredavuto un punteggio di her
as highalto riskrischio, and not him.
232
729955
3482
Ma l'algoritmo aveva valutato lei
ad alto rischio, non lui.
12:26
Two yearsanni laterdopo, ProPublicaProPublica foundtrovato
that she had not reoffendedTorna.
233
734746
3874
Due anni dopo, ProPublica trovò
che lei non era stata recidiva.
12:30
It was just harddifficile to get a joblavoro
for her with her recorddisco.
234
738644
2550
Ma le fu duro trovare
lavoro, visti i precedenti.
12:33
He, on the other handmano, did reoffendrecidivi
235
741218
2076
Lui, d'altra parte, fu recidivo
12:35
and is now servingservendo an eight-yearotto anni
prisonprigione termtermine for a laterdopo crimecrimine.
236
743318
3836
ed ora è in prigione per 8 anni
a causa di un successivo crimine.
12:40
ClearlyChiaramente, we need to auditRevisione contabile our blacknero boxesscatole
237
748088
3369
Chiaramente, ci bisogna verificare
le scatole nere
12:43
and not have them have
this kindgenere of uncheckednon controllato powerenergia.
238
751481
2615
per non dare loro questo
incontrollato potere.
12:46
(ApplauseApplausi)
239
754120
2879
(Applausi)
12:50
AuditsAudit are great and importantimportante,
but they don't solverisolvere all our problemsi problemi.
240
758087
4242
Le verifiche sono importanti,
ma da sole non risolvono tutti i problemi.
12:54
Take Facebook'sDi Facebook powerfulpotente
newsnotizia feedalimentazione algorithmalgoritmo --
241
762353
2748
Prendete l'algoritmo di Facebook
per caricare le news--
12:57
you know, the one that ranksranghi everything
and decidesdecide what to showmostrare you
242
765125
4843
sapete, quello che riordina tutto
e decide cosa mostrarvi
13:01
from all the friendsamici and pagespagine you followSeguire.
243
769992
2284
da tutti gli amici e le pagine seguite.
13:04
Should you be shownmostrato anotherun altro babybambino pictureimmagine?
244
772898
2275
Dovrebbe mostrarvi un'altra foto di bimbo?
13:07
(LaughterRisate)
245
775197
1196
(Risate)
13:08
A sullenimbronciato noteNota from an acquaintanceconoscente?
246
776417
2596
Una nota imbronciata da un conoscente?
13:11
An importantimportante but difficultdifficile newsnotizia itemarticolo?
247
779449
1856
Una importante ma scabrosa notizia?
13:13
There's no right answerrisposta.
248
781329
1482
Non c'è una risposta giusta.
13:14
FacebookFacebook optimizesOttimizza
for engagementFidanzamento on the siteluogo:
249
782835
2659
Facebook ottimizza per
attraervi al loro sito:
13:17
likespiace, sharesazioni, commentsCommenti.
250
785518
1415
i like, condividi, commenti
13:20
In AugustAgosto of 2014,
251
788168
2696
Nell'agosto 2014,
13:22
protestsproteste brokerotto out in FergusonFerguson, MissouriMissouri,
252
790888
2662
proteste scoppiarono a Ferguson, Missouri,
dopo l'uccisione di
13:25
after the killinguccisione of an African-AmericanAfrican-American
teenageradolescente by a whitebianca policepolizia officerufficiale,
253
793574
4417
un ragazzo Afro-Americano
da parte di un poliziotto bianco,
13:30
undersotto murkytorbida circumstancescondizioni.
254
798015
1570
in circostanze oscure.
13:31
The newsnotizia of the protestsproteste was all over
255
799974
2007
La notizia delle proteste era presente
13:34
my algorithmicallyalgoritmicamente
unfilterednon filtrato TwitterTwitter feedalimentazione,
256
802005
2685
sul mio caricatore Twitter
non filtrato da algoritmi,
13:36
but nowhereDa nessuna parte on my FacebookFacebook.
257
804714
1950
ma nulla sul mio Facebook.
13:39
Was it my FacebookFacebook friendsamici?
258
807182
1734
Era a causa dei miei amici su Facebook?
13:40
I disabledDisabilitato Facebook'sDi Facebook algorithmalgoritmo,
259
808940
2032
Ho disabilitato l'algoritmo di Facebook,
13:43
whichquale is harddifficile because FacebookFacebook
keepsmantiene wantingvolendo to make you
260
811472
2848
che non è facile, poichè Facebook
vuole mantenervi
13:46
come undersotto the algorithm'sdell'algoritmo controlcontrollo,
261
814344
2036
sotto il controllo dell'algoritmo,
13:48
and saw that my friendsamici
were talkingparlando about it.
262
816404
2238
e vidi che i miei amici
parlavano di questo.
13:50
It's just that the algorithmalgoritmo
wasn'tnon era showingmostrando it to me.
263
818666
2509
Era proprio l'algoritmo
che non me lo mostrava.
13:53
I researchedricercato this and foundtrovato
this was a widespreadmolto diffuso problemproblema.
264
821199
3042
Ho approfondito ed ho trovato
che è un problema diffuso.
13:56
The storystoria of FergusonFerguson
wasn'tnon era algorithm-friendlyalgoritmo-friendly.
265
824265
3813
La storia di Ferguson non è
facile per l'algoritmo.
14:00
It's not "likablelikable."
266
828102
1171
Non è likable.
14:01
Who'sChe di going to clickclic on "like?"
267
829297
1552
Chi sta cliccando su "like?"
14:03
It's not even easyfacile to commentcommento on.
268
831500
2206
Non è neppure facile da commentarsi.
14:05
WithoutSenza likespiace and commentsCommenti,
269
833730
1371
Senza like e commenti,
14:07
the algorithmalgoritmo was likelyprobabile showingmostrando it
to even fewermeno people,
270
835125
3292
l'algoritmo tende a mostrare la notizia
ad ancora meno persone,
14:10
so we didn't get to see this.
271
838441
1542
così non riusciamo a vederla.
14:12
InsteadInvece, that weeksettimana,
272
840946
1228
Invece, questa settimana,
14:14
Facebook'sDi Facebook algorithmalgoritmo highlightedevidenziato this,
273
842198
2298
l'algoritmo di Facebook ha evidenziato
14:16
whichquale is the ALSALS IceGhiaccio BucketSecchio ChallengeSfida.
274
844520
2226
questo: il ALS Ice Bucket Challenge.
14:18
WorthyDegno causecausa; dumpcumulo di rifiuti iceghiaccio wateracqua,
donatedonare to charitycarità, fine.
275
846770
3742
Causa benefica; svuota acqua ghiacciata,
dona alla beneficenza, bene.
14:22
But it was supersuper algorithm-friendlyalgoritmo-friendly.
276
850536
1904
Ottimo per agevolare l'algoritmo.
14:25
The machinemacchina madefatto this decisiondecisione for us.
277
853219
2613
Una decisione automatica è stata
presa per noi
14:27
A very importantimportante
but difficultdifficile conversationconversazione
278
855856
3497
Una conversazione molto importante
ma scabrosa
14:31
mightpotrebbe have been smotheredsoffocato,
279
859377
1555
può essere moderata,
14:32
had FacebookFacebook been the only channelcanale.
280
860956
2696
essendo Facebook l'unica via trasmissiva.
14:36
Now, finallyfinalmente, these systemssistemi
can alsoanche be wrongsbagliato
281
864117
3797
Ora, infine, quei sistemi
possono sbagliare
14:39
in waysmodi that don't resembleassomigliano a humanumano systemssistemi.
282
867938
2736
in modi che non somigliano
a sistemi umani.
14:42
Do you guys rememberricorda WatsonWatson,
IBM'sDi IBM machine-intelligencemacchina-intelligenza systemsistema
283
870698
2922
Vi ricordate Watson,
la macchina intelligente di IBM
14:45
that wipedspazzato via the floorpavimento
with humanumano contestantsconcorrenti on JeopardyPericolo?
284
873644
3128
che ha spazzato via
i contendenti umani a Jeopardy?
14:49
It was a great playergiocatore.
285
877131
1428
Era un grande giocatore.
14:50
But then, for FinalFinale JeopardyPericolo,
WatsonWatson was askedchiesto this questiondomanda:
286
878583
3569
Ma poi, alla finale di Jeopardy,
fu posta questa domanda a Watson:
"Il suo più grande aeroporto è intitolato
a un eroe della II Guerra Mondiale,
14:54
"Its largestmaggiore airportaeroporto is nameddi nome
for a WorldMondo WarGuerra IIII heroeroe,
287
882659
2932
14:57
its second-largestseconda
for a WorldMondo WarGuerra IIII battlebattaglia."
288
885615
2252
il suo secondo più grande
a una sua battaglia."
14:59
(HumsRonza FinalFinale JeopardyPericolo musicmusica)
289
887891
1378
(Musica della finale di Jeopardy)
15:01
ChicagoChicago.
290
889582
1182
Chicago.
15:02
The two humansgli esseri umani got it right.
291
890788
1370
I due umani risposero bene.
15:04
WatsonWatson, on the other handmano,
answeredrisponde "TorontoToronto" --
292
892697
4348
Watson, da altra parte,
rispose "Toronto" --
15:09
for a US citycittà categorycategoria!
293
897069
1818
per una città nella categoria USA!
15:11
The impressiveimpressionante systemsistema alsoanche madefatto an errorerrore
294
899596
2901
L'impressionante sistema aveva sbagliato
15:14
that a humanumano would never make,
a second-graderseconda elementare wouldn'tno make.
295
902521
3651
come un umano non avrebbbe mai fatto,
neppure un alunno delle elementari.
15:18
Our machinemacchina intelligenceintelligenza can failfallire
296
906823
3109
L'intelligenza automatica può sbagliare
15:21
in waysmodi that don't fitin forma
errorerrore patternsmodelli of humansgli esseri umani,
297
909956
3100
in modi non paragonabili
con l'approccio dell'errore umano,
15:25
in waysmodi we won'tnon lo farà expectaspettarsi
and be preparedpreparato for.
298
913080
2950
in modi che non ci aspetteremmo
e per i quali siamo preparati.
15:28
It'dSarebbe be lousyschifoso not to get a joblavoro
one is qualifiedqualificato for,
299
916054
3638
Sarebbe pessimo non ottenere un lavoro
per il quale si è qualificati,
15:31
but it would tripletriplicare sucksucchiare
if it was because of stackpila overflowoverflow
300
919716
3727
ma sarebbe tre volte peggio
se fosse causato da un errore software
15:35
in some subroutinesubroutine.
301
923467
1432
in qualche sua subroutine.
15:36
(LaughterRisate)
302
924923
1579
(Risate)
15:38
In MayMaggio of 2010,
303
926526
2786
Nel maggio 2010,
15:41
a flashveloce crashschianto on WallParete StreetVia
fueledalimentato by a feedbackrisposta loopciclo continuo
304
929336
4044
una crisi improvvisa a Wall Street,
alimentata da un erroneo ciclo di calcolo
15:45
in WallParete Street'sDi strada "sellvendere" algorithmalgoritmo
305
933404
3028
nell'algoritmo di "vendi" di Wall Street
15:48
wipedspazzato via a trilliontrilioni di dollarsdollari
of valuevalore in 36 minutesminuti.
306
936456
4184
ha spazzato via un valore
di un trilione di dollari in 36 minuti.
15:53
I don't even want to think
what "errorerrore" meanssi intende
307
941722
2187
Non voglio pensare
cosa significhi "errore"
15:55
in the contextcontesto of lethalletale
autonomousautonomo weaponsArmi.
308
943933
3589
nel contesto di armi letali autonome.
16:01
So yes, humansgli esseri umani have always madefatto biasespregiudizi.
309
949894
3790
Si certo, gli umani sono sempre parziali.
16:05
DecisionDecisione makersmaker and gatekeepersGatekeeper,
310
953708
2176
I decisori e controllori,
16:07
in courtstribunali, in newsnotizia, in warguerra ...
311
955908
3493
nelle corti, nei notiziari, in guerra ...
16:11
they make mistakeserrori;
but that's exactlydi preciso my pointpunto.
312
959425
3038
commettono errori;
ma questo è proprio il mio punto.
16:14
We cannotnon può escapefuga
these difficultdifficile questionsle domande.
313
962487
3521
non possiamo sfuggire
a queste difficili domande.
16:18
We cannotnon può outsourceesternalizzare
our responsibilitiesresponsabilità to machinesmacchine.
314
966596
3516
Non possiamo delegare
le nostre responsabilità alle macchine.
16:22
(ApplauseApplausi)
315
970676
4208
(Applausi)
16:29
ArtificialArtificiale intelligenceintelligenza does not give us
a "Get out of ethicsetica freegratuito" cardcarta.
316
977089
4447
L'intelligenza artificiale non ci dà
un permesso di "uscire dall'etica" gratis.
16:34
DataDati scientistscienziato FredFred BenensonBenenson
callschiamate this math-washingmatematica-lavaggio.
317
982742
3381
Lo scienziato sui dati Fred Benenson
lo chiama "pulizia matematica".
16:38
We need the oppositedi fronte.
318
986147
1389
Necessitiamo del contrario.
16:39
We need to cultivatecoltivare algorithmalgoritmo suspicionsospetto,
scrutinycontrollo and investigationindagine.
319
987560
5388
Verso gli algoritmi occorre coltivare
la diffidenza, verifica e indagine.
Occorre essere sicuri che di sia
una responsabilità sugli algoritmi,
16:45
We need to make sure we have
algorithmicalgoritmico accountabilityresponsabilità,
320
993380
3198
16:48
auditingRevisione contabile and meaningfulsignificativo transparencytrasparenza.
321
996602
2445
metodi di verifica e
una comprensibile trasparenza.
È necessario accettare
che portare matematica ed elaborazione
16:51
We need to acceptaccettare
that bringingportando mathmatematica and computationcalcolo
322
999380
3234
in relazioni umane caotiche e di valore,
16:54
to messydisordinato, value-ladencarichi di valore humanumano affairsaffari
323
1002638
2970
non aggiunge obiettività;
16:57
does not bringportare objectivityobiettività;
324
1005632
2384
piuttosto, la complessità degli affari
umani invade gli algoritmi.
17:00
ratherpiuttosto, the complexitycomplessità of humanumano affairsaffari
invadesinvade la the algorithmsalgoritmi.
325
1008040
3633
Si, possiamo e dovremmo usare il calcolo
17:04
Yes, we can and we should use computationcalcolo
326
1012148
3487
per aiutarci nel decidere meglio.
17:07
to help us make better decisionsdecisioni.
327
1015659
2014
Ma dobbiamo mantenere la
responsabilità morale del giudizio,
17:09
But we have to ownproprio up
to our moralmorale responsibilityresponsabilità to judgmentgiudizio,
328
1017697
5332
e usare algoritmi dentro quel contesto,
17:15
and use algorithmsalgoritmi withinentro that frameworkstruttura,
329
1023053
2818
non come gli strumenti per abdicare
e dare in outsource
17:17
not as a meanssi intende to abdicateabdicare
and outsourceesternalizzare our responsibilitiesresponsabilità
330
1025895
4935
le nostre responsibilità
a qualcun altro come fra umani.
17:22
to one anotherun altro as humanumano to humanumano.
331
1030854
2454
La intelligenza delle macchine è qui.
17:25
MachineMacchina intelligenceintelligenza is here.
332
1033807
2609
Significa che dobbiamo tenerci più forti
17:28
That meanssi intende we mustdovere holdtenere on ever tighterpiù stretto
333
1036440
3421
ai valori ed etica umani.
17:31
to humanumano valuesvalori and humanumano ethicsetica.
334
1039885
2147
Grazie.
17:34
Thank you.
335
1042056
1154
(Applausi)
17:35
(ApplauseApplausi)
336
1043234
5020
Translated by Federico MINELLE
Reviewed by Rachael Gwinn

▲Back to top

ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologist
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.

Why you should listen

We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.

Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.

Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.

More profile about the speaker
Zeynep Tufekci | Speaker | TED.com