ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com
TEDxWarwick

Kriti Sharma: How to keep human bias out of AI

Kriti Sharma: Hogyan tartsuk a mesterséges intelligenciát előítélet-mentesen?

Filmed:
2,050,106 views

A mesterséges intelligenciák állandóan fontos döntéseket hoznak rólunk – mint hogy mennyit kell fizetnünk az autóbiztosításért, vagy hogy megkapjuk-e az állásinterjút. De mi történik akkor, ha ezek a gépek az emberi előítéleteket is beépítik a rendszerükbe? Kriti Sharma technológus azt vizsgálja, hogy a technológiai sokféleség hiánya hogyan épül be a mesterséges intelligenciába, és három módot ajánl ennek elkerülésére.
- AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality. Full bio

Double-click the English transcript below to play the video.

00:12
How manysok decisionsdöntések
have been madekészült about you todayMa,
0
875
3768
Hány döntést hozott önökről
00:16
or this weekhét or this yearév,
1
4667
2601
ma, ezen a héten, ebben az évben
00:19
by artificialmesterséges intelligenceintelligencia?
2
7292
1958
a mesterséges intelligencia (MI) ?
00:22
I buildépít AIAI for a livingélő
3
10958
1685
Abból élek, hogy az MI-t építem.
00:24
so, fullteljes disclosurenyilvánosságra hozatala, I'm kindkedves of a nerdkockafejû.
4
12667
3017
Szóval, hogy értsék, kocka vagyok.
00:27
And because I'm kindkedves of a nerdkockafejû,
5
15708
2393
És kocka voltom miatt
00:30
whereverbárhol some newúj newshírek storysztori comesjön out
6
18125
2351
ha bármikor felbukkan egy új sztori arról,
00:32
about artificialmesterséges intelligenceintelligencia
stealinglopás all our jobsmunkahelyek,
7
20500
3434
hogy az MI ellopja az állásainkat,
00:35
or robotsrobotok gettingszerzés citizenshippolgárság
of an actualtényleges countryország,
8
23958
4185
vagy robotok kapnak
állampolgárságot egy országban,
00:40
I'm the personszemély my friendsbarátok
and followerskövetői messageüzenet
9
28167
3142
én vagyok az az ember,
akit barátai és követői
00:43
freakingrohadt out about the futurejövő.
10
31333
1542
nyaggatnak a jövőről.
00:45
We see this everywheremindenhol.
11
33833
2101
Ezt látjuk mindenfelé.
00:47
This mediamédia panicpánik that
our robotrobot overlordsurak are takingbevétel over.
12
35958
4893
Ezt a médiapánikot, hogy a robotok
átveszik az uralmat.
00:52
We could blamefeddés HollywoodHollywood for that.
13
40875
1917
Hollywoodot hibáztathatjuk ezért.
00:56
But in realityvalóság, that's not the problemprobléma
we should be focusingösszpontosítás on.
14
44125
4125
De a valóságban nem erre a problémára
kéne összpontosítanunk.
01:01
There is a more pressingnyomás dangerveszély,
a biggernagyobb riskkockázat with AIAI,
15
49250
3643
Van egy sürgetőbb veszély,
egy nagyobb kockázat az MI-vel,
01:04
that we need to fixerősít first.
16
52917
1583
először azt kéne megoldani.
01:07
So we are back to this questionkérdés:
17
55417
2309
Ezért visszatérek erre a kérdésre:
01:09
How manysok decisionsdöntések
have been madekészült about you todayMa by AIAI?
18
57750
4708
Hány döntést hozott
önökkel kapcsolatban ma az MI?
01:15
And how manysok of these
19
63792
1976
És ezek közül mennyi alapult
01:17
were basedszékhelyű on your gendernem,
your raceverseny or your backgroundháttér?
20
65792
4500
a nemükön, a fajukon, vagy a hátterükön?
01:24
AlgorithmsAlgoritmusok are beinglény used all the time
21
72500
2768
Folyamatosan használnak
algoritmusokat arra,
01:27
to make decisionsdöntések about who we are
and what we want.
22
75292
3833
hogy döntsenek arról,
kik vagyunk és mit akarunk.
01:32
Some of the womennők in this roomszoba
will know what I'm talkingbeszél about
23
80208
3643
Néhány nő a teremben tudja,
miről beszélek,
01:35
if you've been madekészült to sitül throughkeresztül
those pregnancyterhesség testteszt advertsreklámok on YouTubeYouTube-on
24
83875
3768
ha kénytelenek voltak végignézni
terhességiteszt-reklámokat a YouTube-on,
01:39
like 1,000 timesalkalommal.
25
87667
2059
nagyjából ezerszer,
01:41
Or you've scrolleda kijelzőn pastmúlt advertsreklámok
of fertilitytermékenység clinicsklinikák
26
89750
2851
vagy termékenységi klinikák
reklámjait görgették át
01:44
on your FacebookFacebook feedtakarmány.
27
92625
2042
Facebook-csatornájukon,
01:47
Or in my caseügy, IndianIndiai marriageházasság bureauskomódok.
28
95625
2393
vagy esetemben
indiai házasságközvetítőkét.
01:50
(LaughterNevetés)
29
98042
1267
(Nevetés)
01:51
But AIAI isn't just beinglény used
to make decisionsdöntések
30
99333
2976
De az MI nem csak arról dönt,
01:54
about what productsTermékek we want to buyVásárol
31
102333
2601
mit akarunk vásárolni,
01:56
or whichmelyik showelőadás we want to bingemértéktelen watch nextkövetkező.
32
104958
2500
vagy mit szeretnénk legközelebb megnézni.
02:01
I wondercsoda how you'djobb lenne, ha feel about someonevalaki
who thought things like this:
33
109042
5184
Vajon mi lenne a véleményük
valakiről, aki így gondolkodik:
02:06
"A blackfekete or LatinoLatino personszemély
34
114250
1934
"Egy fekete vagy latin ember
02:08
is lessKevésbé likelyvalószínűleg than a whitefehér personszemély
to payfizetés off theirazok loanhitel on time."
35
116208
4125
kisebb eséllyel fizeti vissza
időben a hitelét, mint egy fehér."
02:13
"A personszemély calledhívott JohnJohn
makesgyártmányú a better programmerprogramozó
36
121542
2809
"Egy John nevű ember
jobb programozó lehet,
02:16
than a personszemély calledhívott MaryMária."
37
124375
1667
mint akit Marynek hívnak."
02:19
"A blackfekete man is more likelyvalószínűleg to be
a repeatismétlés offenderelkövető than a whitefehér man."
38
127250
5083
"Egy fekete nagyobb valószínűséggel válik
visszaeső bűnözővé, mint egy fehér."
Valószínűleg azt gondolják:
02:26
You're probablyvalószínűleg thinkinggondolkodás,
39
134958
1268
02:28
"WowWow, that soundshangok like a prettyszép sexistszexista,
racistrasszista personszemély," right?
40
136250
3750
"Hú, ez elég szexista
és rasszista ember!" Igaz?
02:33
These are some realigazi decisionsdöntések
that AIAI has madekészült very recentlymostanában,
41
141000
4851
Ez néhány, MI által
mostanában hozott tényleges döntés,
ami a tőlünk tanult előítéleteken alapul.
02:37
basedszékhelyű on the biasestorzítások
it has learnedtanult from us,
42
145875
2934
02:40
from the humansemberek.
43
148833
1250
Tőlünk, emberektől.
02:43
AIAI is beinglény used to help decidedöntsd el
whetherakár or not you get that jobmunka interviewinterjú;
44
151750
4809
Az MI-t használják annak eldöntésére,
ki kaphat állásinterjút,
02:48
how much you payfizetés for your carautó insurancebiztosítás;
45
156583
2393
mennyit kell fizetnünk
az autóbiztosításunkért,
02:51
how good your credithitel scorepontszám is;
46
159000
1893
mennyire jó a hitelképességünk,
02:52
and even what ratingminősítés you get
in your annualévi performanceteljesítmény reviewfelülvizsgálat.
47
160917
3125
és még arról is, milyen értékelést kapunk
éves teljesítményünkre.
02:57
But these decisionsdöntések
are all beinglény filteredszűrt throughkeresztül
48
165083
3143
De minden ilyen döntést
a hovatartozásunkkal, rasszunkkal,
03:00
its assumptionsfeltételezések about our identityidentitás,
our raceverseny, our gendernem, our agekor.
49
168250
5875
nemünkkel, korunkkal
kapcsolatos feltételezések befolyásolnak.
03:08
How is that happeningesemény?
50
176250
2268
Hogy lehetséges ez?
03:10
Now, imagineKépzeld el an AIAI is helpingsegít
a hiringbérlés managermenedzser
51
178542
3517
Képzeljék el, hogy az MI
egy humánerőforrás-menedzsernek segít
03:14
find the nextkövetkező techtech leadervezető in the companyvállalat.
52
182083
2851
megtalálni a következő informatikai
vezetőt a cég számára.
03:16
So farmessze, the managermenedzser
has been hiringbérlés mostlytöbbnyire menférfiak.
53
184958
3101
Idáig a menedzser
főleg férfiakat alkalmazott.
03:20
So the AIAI learnstanul menférfiak are more likelyvalószínűleg
to be programmersprogramozók than womennők.
54
188083
4750
Így az MI azt tanulja, hogy férfiak
inkább válnak programozóvá, mint nők.
03:25
And it's a very shortrövid leapUgrás from there to:
55
193542
2892
Innen már csak egy kis ugrás,
03:28
menférfiak make better programmersprogramozók than womennők.
56
196458
2042
hogy a férfiak jobb programozók,
mint a nők.
03:31
We have reinforcedmegerősített
our ownsaját biasElfogultság into the AIAI.
57
199417
3726
Betápláltuk előítéletünket az MI-be,
03:35
And now, it's screeningárnyékolás out
femalenői candidatesjelöltek.
58
203167
3625
és az most kiszűri a nőket.
03:40
HangLógni on, if a humanemberi
hiringbérlés managermenedzser did that,
59
208917
3017
Várjunk csak, ha egy
humánerőforrás-menedzser tenné ezt,
03:43
we'dHázasodik be outragedfelháborodott, we wouldn'tnem allowlehetővé teszi it.
60
211958
2351
dühösek lennénk, nem engednénk.
03:46
This kindkedves of gendernem
discriminationhátrányos megkülönböztetés is not OK.
61
214333
3476
Ez egyfajta nemi diszkrimináció,
ami nem jó.
03:49
And yetmég somehowvalahogy,
AIAI has becomeválik abovefelett the lawtörvény,
62
217833
4518
És mégis, valahogy az MI
törvény felettivé vált,
03:54
because a machinegép madekészült the decisiondöntés.
63
222375
2083
mert egy gép hozta a döntést.
03:57
That's not it.
64
225833
1518
Nem csak erről van szó.
03:59
We are alsois reinforcingmegerősítése our biasElfogultság
in how we interactegymásra hat with AIAI.
65
227375
4875
Az MI-vel való kapcsolatteremtés
is előítéleteinket erősíti.
04:04
How oftengyakran do you use a voicehang assistantasszisztens
like SiriSiri, AlexaAlexa or even CortanaCortana?
66
232917
5976
Milyen gyakran használunk
olyan hangasszisztenseket,
mint Siri, Alexa és Cortana?
Két dologban mind megegyeznek:
nem tudják helyesen kiejteni a nevem,
04:10
They all have two things in commonközös:
67
238917
2559
04:13
one, they can never get my namenév right,
68
241500
3101
04:16
and secondmásodik, they are all femalenői.
69
244625
2667
és valamennyien nők.
04:20
They are designedtervezett to be
our obedientengedelmes servantsalkalmazottai,
70
248417
2767
Arra tervezték őket,
hogy engedelmes szolgáink legyenek.
04:23
turningfordítás your lightsLámpák on and off,
orderingmegrendelés your shoppingbevásárlás.
71
251208
3250
Felgyújtsák és leoltsák a lámpáinkat,
vásároljanak számunkra.
04:27
You get maleférfi AIsAIs too,
but they tendhajlamosak to be more high-powerednagyteljesítményű,
72
255125
3309
Férfi MI-k is vannak,
de rendszerint nagyobb hatalmúak:
04:30
like IBMIBM WatsonWatson,
makinggyártás businessüzleti decisionsdöntések,
73
258458
3059
Mint az IBM Watsonja,
amely üzleti döntéseket hoz,
04:33
SalesforceSalesforce EinsteinEinstein
or ROSSRoss, the robotrobot lawyerjogász.
74
261541
3792
A Salesforce Einsteinje,
vagy ROSS, a robotügyvéd.
04:38
So poorszegény robotsrobotok, even they sufferszenvedni
from sexismszexizmus in the workplacemunkahely.
75
266208
4060
Szóval még a szegény robotok is
szexizmustól szenvednek a munkahelyen.
04:42
(LaughterNevetés)
76
270292
1125
(Nevetés)
04:44
Think about how these two things combinekombájn
77
272542
2851
Gondoljanak bele,
hogy függ össze ez a két dolog,
04:47
and affectérint a kidkölyök growingnövekvő up
in today'sa mai worldvilág around AIAI.
78
275417
5309
és hogyan hat egy gyerekre, aki napjaink
MI-vel teli világában nő fel.
04:52
So they're doing some researchkutatás
for a schooliskola projectprogram
79
280750
2934
Például kutatást végeznek
egy iskolai projekthez,
04:55
and they GoogleGoogle imagesképek of CEOVEZÉRIGAZGATÓ.
80
283708
3018
és Google-képeket keresnek
vezérigazgatókról.
04:58
The algorithmalgoritmus showsműsorok them
resultstalálatok of mostlytöbbnyire menférfiak.
81
286750
2893
Az algoritmus főleg férfiakról
mutat nekik képeket.
05:01
And now, they GoogleGoogle personalszemélyes assistantasszisztens.
82
289667
2559
Aztán személyi asszisztenst gugliznak,
05:04
As you can guessTaláld ki,
it showsműsorok them mostlytöbbnyire femalesa nőstények.
83
292250
3434
Mint kitalálhatják, főleg nőket látnak.
05:07
And then they want to put on some musiczene,
and maybe ordersorrend some foodélelmiszer,
84
295708
3601
Majd valami zenét szeretnének,
és talán ételt rendelnek,
05:11
and now, they are barkingugató ordersrendelés
at an obedientengedelmes femalenői voicehang assistantasszisztens.
85
299333
6584
és ekkor odavetnek pár parancsot
egy engedelmes női hangú asszisztensnek.
05:19
Some of our brightestlegfényesebb mindselmék
are creatinglétrehozása this technologytechnológia todayMa.
86
307542
5309
Ezt a technológiát napjaink
legkiválóbb elméi hozzák létre.
05:24
TechnologyTechnológia that they could have createdkészítette
in any way they wanted.
87
312875
4184
Egy technológiát, amelyet bárhogy
létrehozhatnának, ahogy csak akarják.
05:29
And yetmég, they have chosenválasztott to createteremt it
in the stylestílus of 1950s "MadŐrült Man" secretarytitkár.
88
317083
5685
És mégis, az 1950-es évek
"Mad Man" titkár stílusában teszik ezt.
05:34
YayYay!
89
322792
1500
Hurrá!
De ne aggódjanak!
05:36
But OK, don't worryaggodalom,
90
324958
1310
Nem fejezem be azzal,
hogy azt mondom önöknek,
05:38
this is not going to endvég
with me tellingsokatmondó you
91
326292
2059
05:40
that we are all headingcím towardsfelé
sexistszexista, racistrasszista machinesgépek runningfutás the worldvilág.
92
328375
3477
mindnyájan egy szexista, rasszista
gépek által vezetett világ felé tartunk.
05:44
The good newshírek about AIAI
is that it is entirelyteljesen withinbelül our controlellenőrzés.
93
332792
5791
A jó hír az MI-ről,
hogy teljesen az irányításunk alatt áll.
05:51
We get to teachtanít the right valuesértékeket,
the right ethicsetikai to AIAI.
94
339333
4000
Valós értékeket és erkölcsöt
kell tanítanunk neki.
05:56
So there are threehárom things we can do.
95
344167
2184
Három dolgot tehetünk:
05:58
One, we can be awaretudatában van of our ownsaját biasestorzítások
96
346375
3351
Az első, hogy tudatában lehetünk
saját előítéleteinknek,
06:01
and the biasElfogultság in machinesgépek around us.
97
349750
2726
és a gépekben lévő előítéletnek is.
06:04
Two, we can make sure that diversekülönböző teamscsapat
are buildingépület this technologytechnológia.
98
352500
4518
A második: változatos összetételű csapatot
biztosítunk a technológia építésére.
06:09
And threehárom, we have to give it
diversekülönböző experiencestapasztalatok to learntanul from.
99
357042
4916
És a harmadik: megoldjuk, hogy sokrétűbb
tapasztalatokra építhesse tudását.
06:14
I can talk about the first two
from personalszemélyes experiencetapasztalat.
100
362875
3309
Az első kettőről személyes tapasztalataim
alapján is beszélhetek.
06:18
When you work in technologytechnológia
101
366208
1435
Ha a műszaki tudományok
területén dolgozunk,
06:19
and you don't look like
a MarkMark ZuckerbergZuckerberg or ElonElon MuskPézsma,
102
367667
3392
és nem hasonlítunk Mark Zuckerberghez
vagy Elon Muskhoz,
06:23
your life is a little bitbit difficultnehéz,
your abilityképesség getsjelentkeznek questionedkétségbe.
103
371083
3750
az életünk kissé bonyolult,
képességeinket megkérdőjelezik.
06:27
Here'sItt van just one examplepélda.
104
375875
1393
Itt egy példa:
06:29
Like mosta legtöbb developersfejlesztők,
I oftengyakran joincsatlakozik onlineonline techtech forumsfórumok
105
377292
3726
Mint a legtöbb fejlesztő, gyakran
csatlakozom online tech fórumokhoz,
06:33
and shareOssza meg my knowledgetudás to help othersmások.
106
381042
3226
hogy tudásommal másokat segítsek.
06:36
And I've foundtalál,
107
384292
1309
És rájöttem,
06:37
when I loglog on as myselfmagamat,
with my ownsaját photofénykép, my ownsaját namenév,
108
385625
3976
hogy amikor saját nevem alatt,
saját fotómmal teszem ezt,
06:41
I tendhajlamosak to get questionskérdések
or commentsHozzászólások like this:
109
389625
4601
rendszeresen kapok ilyen kérdéseket
és kommenteket, mint:
06:46
"What makesgyártmányú you think
you're qualifiedminősített to talk about AIAI?"
110
394250
3000
"Miből gondolod, hogy elég képzett vagy
ahhoz, hogy az MI-ről beszélj?"
06:50
"What makesgyártmányú you think
you know about machinegép learningtanulás?"
111
398458
3476
"Miből gondolod, hogy értesz
a gépi tanuláshoz?
06:53
So, as you do, I madekészült a newúj profileProfil,
112
401958
3435
Így tehát csináltam egy új profilt,
és a saját képem helyett egy macskát
választottam sugárhajtású felszereléssel.
06:57
and this time, insteadhelyette of my ownsaját picturekép,
I choseválasztotta a catmacska with a jetsugárhajtású packcsomag on it.
113
405417
4851
És olyan nevet választottam,
amely nem fedi fel a nememet.
07:02
And I choseválasztotta a namenév
that did not revealfelfed my gendernem.
114
410292
2458
Valószínűleg kitalálják,
hova akarok kilyukadni, ugye?
07:05
You can probablyvalószínűleg guessTaláld ki
where this is going, right?
115
413917
2726
07:08
So, this time, I didn't get any of those
patronizingleereszkedő commentsHozzászólások about my abilityképesség
116
416667
6392
Szóval ezúttal nem kaptam egy leereszkedő
kommentet sem a képességeimről,
07:15
and I was ableképes to actuallytulajdonképpen
get some work doneKész.
117
423083
3334
és lehetővé vált,
hogy némi munkát végezzek.
07:19
And it sucksszar, guys.
118
427500
1851
Baromság, srácok.
07:21
I've been buildingépület robotsrobotok sincemivel I was 15,
119
429375
2476
15 éves korom óta építek robotokat.
07:23
I have a fewkevés degreesfok in computerszámítógép sciencetudomány,
120
431875
2268
Van néhány diplomám informatikából,
07:26
and yetmég, I had to hideelrejt my gendernem
121
434167
2434
és mégis, el kellett rejtenem a nememet,
07:28
in ordersorrend for my work
to be takentett seriouslyKomolyan.
122
436625
2250
azért, hogy a munkámat komolyan vegyék.
07:31
So, what's going on here?
123
439875
1893
Szóval, mi folyik itt?
07:33
Are menférfiak just better
at technologytechnológia than womennők?
124
441792
3208
Jobbak a férfiak a nőknél a technikában?
07:37
AnotherEgy másik studytanulmány foundtalál
125
445917
1559
Egy másik tanulmány kimutatta,
07:39
that when womennők codersprogramozóknak on one platformemelvény
hidelrejtette theirazok gendernem, like myselfmagamat,
126
447500
4934
hogy amikor női programozók
egy platformon nemüket rejtve dolgoznak,
programjaik 4 százalékkal nagyobb arányban
kerültek elfogadásra a férfiakénál.
07:44
theirazok codekód was acceptedelfogadott
fournégy percentszázalék more than menférfiak.
127
452458
3250
07:48
So this is not about the talenttehetség.
128
456542
2916
Úgyhogy ez nem a tehetségről szól,
hanem a megkülönböztetésről
az MI területén,
07:51
This is about an elitismelitizmus in AIAI
129
459958
2893
07:54
that saysmondja a programmerprogramozó
needsigények to look like a certainbizonyos personszemély.
130
462875
2792
mely behatárolja, hogy néz ki
egy programozó.
07:59
What we really need to do
to make AIAI better
131
467375
3101
Amit mindenképpen meg kell tennünk,
hogy az MI jobbá váljon,
08:02
is bringhoz people
from all kindsféle of backgroundsháttérrel.
132
470500
3042
hogy eltérő hátterű embereket
kell előtérbe hoznunk,
Szükségünk van olyan emberekre,
akik történeteket mondanak és írnak,
08:06
We need people who can
writeír and tell storiestörténetek
133
474542
2559
08:09
to help us createteremt personalitiesszemélyiség of AIAI.
134
477125
2167
melyekkel segítenek bennünket
MI személyiségek létrehozásában.
08:12
We need people who can solvemegfejt problemsproblémák.
135
480208
2042
Problémamegoldó emberekre van szükségünk.
08:15
We need people
who facearc differentkülönböző challengeskihívások
136
483125
3768
Emberekre, akik különféle kihívásokkal
néznek szembe,
08:18
and we need people who can tell us
what are the realigazi issueskérdések that need fixingrögzítő
137
486917
5351
akik elmondják nekünk, melyek a valódi,
javítást igénylő hibák,
08:24
and help us find waysmódokon
that technologytechnológia can actuallytulajdonképpen fixerősít it.
138
492292
3041
és segítenek megtalálni a kijavításukhoz
szükséges technikai módszereket.
08:29
Because, when people
from diversekülönböző backgroundsháttérrel come togetheregyütt,
139
497833
3726
Mert amikor különböző hátterű
emberek jönnek össze,
08:33
when we buildépít things in the right way,
140
501583
2143
amikor megfelelően építjük a dolgokat,
08:35
the possibilitieslehetőségek are limitlesskorlátlan.
141
503750
2042
a lehetőségek határtalanok.
08:38
And that's what I want to endvég
by talkingbeszél to you about.
142
506750
3309
Erről kívánok beszélni befejezésül,
08:42
LessKevesebb racistrasszista robotsrobotok, lessKevésbé machinesgépek
that are going to take our jobsmunkahelyek --
143
510083
4225
nem annyira a rasszista robotokról,
vagy a munkánkat elvevő gépekről,
08:46
and more about what technologytechnológia
can actuallytulajdonképpen achieveelér.
144
514332
3125
hanem inkább arról,
mit lehet a technológiával elérni.
08:50
So, yes, some of the energyenergia
in the worldvilág of AIAI,
145
518292
3434
Szóval, igen, az MI energiáinak egy része,
08:53
in the worldvilág of technologytechnológia
146
521750
1393
a technológia világának
bizonyos hányada arról szól,
08:55
is going to be about
what adshirdetések you see on your streamfolyam.
147
523167
4267
milyen reklámokat látunk a csatornánkon.
08:59
But a lot of it is going towardsfelé
makinggyártás the worldvilág so much better.
148
527458
5209
De nagy része abba az irányba halad,
hogy a világot sokkal jobbá tegyük.
09:05
Think about a pregnantterhes woman
in the DemocraticDemokratikus RepublicKöztársaság of CongoKongó,
149
533500
3768
Gondoljunk egy terhes nőre,
aki a Kongói Demokratikus Köztársaságban
09:09
who has to walkséta 17 hoursórák
to her nearestlegközelebbi ruralvidéki prenatalPrenatális clinicklinika
150
537292
4184
17 órát sétál a legközelebbi
vidéki szülészeti klinikára,
09:13
to get a checkupszűrés.
151
541500
1851
hogy kivizsgálják.
09:15
What if she could get diagnosisdiagnózis
on her phonetelefon, insteadhelyette?
152
543375
2917
Mi lenne, ha ehelyett telefonon
kaphatna diagnózist?
Vagy gondoljunk arra,
mit jelenthetne az MI
09:19
Or think about what AIAI could do
153
547750
1809
09:21
for those one in threehárom womennők
in SouthDél AfricaAfrika
154
549583
2726
minden harmadik nőnek Dél-Afrikában,
09:24
who facearc domesticbelföldi violenceerőszak.
155
552333
2125
akik családon belüli erőszakkal
szembesülnek.
09:27
If it wasn'tnem volt safebiztonságos to talk out loudhangos,
156
555083
2726
Ha nem volna biztonságos
hangosan kiabálni,
09:29
they could get an AIAI serviceszolgáltatás
to raiseemel alarmriasztás,
157
557833
2476
kaphatnak egy MI szolgáltatást
a riasztáshoz,
09:32
get financialpénzügyi and legaljogi advicetanács.
158
560333
2459
pénzügyi vagy jogi tanácshoz.
09:35
These are all realigazi examplespéldák of projectsprojektek
that people, includingbeleértve myselfmagamat,
159
563958
5018
Ezek mind olyan, projektekből vett
valódi példák,
amelyeken éppen dolgozunk,
az MI-t használva.
09:41
are workingdolgozó on right now, usinghasználva AIAI.
160
569000
2500
09:45
So, I'm sure in the nextkövetkező couplepárosít of daysnapok
there will be yetmég anotheregy másik newshírek storysztori
161
573542
3601
Biztos vagyok benne, hogy pár napon belül
megint felröppen egy újabb hír
09:49
about the existentialegzisztenciális riskkockázat,
162
577167
2684
az egzisztenciális kockázatról,
09:51
robotsrobotok takingbevétel over
and comingeljövetel for your jobsmunkahelyek.
163
579875
2434
hogy jönnek a robotok,
és átveszik a munkánkat.
09:54
(LaughterNevetés)
164
582333
1018
(Nevetés)
09:55
And when something like that happensmegtörténik,
165
583375
2309
És amikor ilyesmi történik,
09:57
I know I'll get the sameazonos messagesüzenetek
worryingaggasztó about the futurejövő.
166
585708
3601
tudom, hogy ugyanazokat a jövő miatt
aggódó üzeneteket fogom kapni,
10:01
But I feel incrediblyhihetetlenül positivepozitív
about this technologytechnológia.
167
589333
3667
de nagyon pozitívan gondolok
erre a technológiára.
10:07
This is our chancevéletlen to remakeremake the worldvilág
into a much more equalegyenlő placehely.
168
595458
5959
Ez az esélyünk egyenlőbb
új világot alkotni.
10:14
But to do that, we need to buildépít it
the right way from the get go.
169
602458
4000
De azért, hogy így legyen,
a kezdetektől jól kell felépíteni.
10:19
We need people of differentkülönböző gendersnemben,
racesversenyek, sexualitiesmemoárokat and backgroundsháttérrel.
170
607667
5083
Kellenek különféle nemű, fajú,
nemi identitású és hátterű emberek.
10:26
We need womennők to be the makersdöntéshozók
171
614458
2476
Szükségünk van nőkre, akik alkotnak,
10:28
and not just the machinesgépek
who do the makers'döntéshozók biddingajánlattétel.
172
616958
3000
és nem csak gépek, akik végrehajtják
az alkotók parancsát.
10:33
We need to think very carefullygondosan
what we teachtanít machinesgépek,
173
621875
3768
Nagyon meg kell gondolnunk,
mit tanítunk a gépeknek,
10:37
what dataadat we give them,
174
625667
1642
milyen adatokkal látjuk el őket,
10:39
so they don't just repeatismétlés
our ownsaját pastmúlt mistakeshibák.
175
627333
3125
hogy ne csupán múltbéli hibáink
megismétlői legyenek.
10:44
So I hoperemény I leaveszabadság you
thinkinggondolkodás about two things.
176
632125
3542
Remélem, később majd
elgondolkoznak két dolgon:
10:48
First, I hoperemény you leaveszabadság
thinkinggondolkodás about biasElfogultság todayMa.
177
636542
4559
Először is napjaink előítéleteiről.
10:53
And that the nextkövetkező time
you scrolltekercs pastmúlt an adverthirdetés
178
641125
3184
És hogy legközelebb,
amikor egy reklámot görgetnek át,
amely feltételezi, hogy érdeklik önöket
a termékenységi klinikák
10:56
that assumesfeltételezi you are interestedérdekelt
in fertilitytermékenység clinicsklinikák
179
644333
2810
10:59
or onlineonline bettingfogadás websiteshonlapok,
180
647167
2851
vagy az online fogadó oldalak,
11:02
that you think and rememberemlékezik
181
650042
2017
gondolnak majd arra,
és emlékezni fognak rá,
11:04
that the sameazonos technologytechnológia is assumingfeltételezve
that a blackfekete man will reoffendreoffend.
182
652083
4625
hogy ugyanez a technológia feltételezi,
hogy egy néger ember visszaeső lehet,
11:09
Or that a woman is more likelyvalószínűleg
to be a personalszemélyes assistantasszisztens than a CEOVEZÉRIGAZGATÓ.
183
657833
4167
vagy egy nő esetében valószínűbb,
hogy személyi asszisztens lesz,
nem pedig vezérigazgató.
11:14
And I hoperemény that remindsemlékezteti you
that we need to do something about it.
184
662958
3709
És remélem, ez emlékezteti majd önöket,
hogy valamit tennünk kell ebben az ügyben.
11:20
And secondmásodik,
185
668917
1851
Másodszor: remélem, elgondolkodnak arról,
11:22
I hoperemény you think about the facttény
186
670792
1892
11:24
that you don't need to look a certainbizonyos way
187
672708
1976
hogy nem kell
egy bizonyos módon kinéznünk,
11:26
or have a certainbizonyos backgroundháttér
in engineeringmérnöki or technologytechnológia
188
674708
3851
vagy bizonyos háttérrel rendelkeznünk
a tervezésben és a technikában,
11:30
to createteremt AIAI,
189
678583
1268
hogy olyan MI-t hozzunk létre,
11:31
whichmelyik is going to be
a phenomenalrendkívüli forceerő for our futurejövő.
190
679875
2875
amely rendkívüli erővé válik a jövőben.
11:36
You don't need to look
like a MarkMark ZuckerbergZuckerberg,
191
684166
2143
Nem kell Mark Zuckerberghez hasonlítanunk.
11:38
you can look like me.
192
686333
1250
Nézhet ki valaki hozzám hasonlóan is.
11:41
And it is up to all of us in this roomszoba
193
689250
2893
Ebben a teremben mindenkin múlik,
11:44
to convincemeggyőz the governmentskormányok
and the corporationsvállalatoknak
194
692167
2726
hogy meggyőzzük a kormányokat
és a vállalkozókat,
11:46
to buildépít AIAI technologytechnológia for everyonemindenki,
195
694917
2892
hogy az MI technológiát
az összes ember számára építsük,
11:49
includingbeleértve the edgeél casesesetek.
196
697833
2393
beleértve a kirívó eseteket is.
11:52
And for us all to get educationoktatás
197
700250
2059
És hogy mindnyájan kapjunk képzést
11:54
about this phenomenalrendkívüli
technologytechnológia in the futurejövő.
198
702333
2375
erről a rendkívüli
jövőbeni technológiáról.
11:58
Because if we do that,
199
706167
2017
Mert ha így lesz,
12:00
then we'vevoltunk only just scratchedkarcos the surfacefelület
of what we can achieveelér with AIAI.
200
708208
4893
akkor csak épphogy belekóstoltunk abba,
amit az MI-vel elérhetünk.
12:05
Thank you.
201
713125
1268
Köszönöm.
12:06
(ApplauseTaps)
202
714417
2708
(Taps)
Translated by Zsuzsa Viola
Reviewed by Reka Lorinczy

▲Back to top

ABOUT THE SPEAKER
Kriti Sharma - AI technologist
Kriti Sharma creates AI technology to help address some of the toughest social challenges of our time -- from domestic violence to sexual health and inequality.

Why you should listen

Kriti Sharma is the Founder of AI for Good, an organization focused on building scalable technology solutions for social good. In 2018, she also launched rAInbow, a digital companion for women facing domestic violence in South Africa. This service reached nearly 200,000 conversations within the first 100 days, breaking down the stigma of gender-based violence. In 2019, she collaborated with the Population Foundation of India to launch Dr. Sneha, an AI-powered digital character to engage with young people about sexual health, an issue that is still considered a taboo in India. 

Sharma was recently named in the Forbes "30 Under 30" list for advancements in AI. She was appointed a United Nations Young Leader in 2018 and is an advisor to both the United Nations Technology Innovation Labs and to the UK Government’s Centre for Data Ethics and Innovation. 

More profile about the speaker
Kriti Sharma | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee