ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com
TED@BCG Milan

Margaret Mitchell: How we can build AI to help humans, not hurt us

Μάργκαρετ Μίτσελ: Πώς θα δημιουργήσουμε τεχνητή νοημοσύνη για να βοηθήσει τους ανθρώπους, όχι να μας βλάψει

Filmed:
1,154,210 views

Ως ερευνητική επιστήμονας στην Google, η Μάργκαρετ Μίτσελ βοηθά στην ανάπτυξη υπολογιστών που μπορούν να επικοινωνούν για το τι βλέπουν και αντιλαμβάνονται. Λέει μια ιστορία προς αποφυγή για τα κενά, τα τυφλά σημεία και τις προκαταλήψεις που υποσυνείδητα προσθέτουμε στον κώδικα της τεχνητής νοημοσύνης -- και μας ρωτά να σκεφτούμε τι θα σημαίνει αύριο η τεχνολογία που δημιουργούμε σήμερα. «Το μόνο που βλέπουμε σήμερα είναι ένα στιγμιότυπο της εξέλιξης της τεχνητής νοημοσύνης», λέει η Μίτσελ. «Αν θέλουμε να εξελιχθεί με τρόπο που βοηθά τους ανθρώπους, τότε πρέπει να προσδιορίσουμε τους στόχους και τις στρατηγικές που το επιτρέπουν».
- AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence. Full bio

Double-click the English transcript below to play the video.

00:13
I work on helpingβοήθεια computersΥπολογιστές
communicateεπικοινωνώ about the worldκόσμος around us.
0
1381
4015
Στη δουλειά μου βοηθάω τους υπολογιστές
να επικοινωνήσουν για τον κόσμο γύρω μας.
00:17
There are a lot of waysτρόπους to do this,
1
5754
1793
Υπάρχουν πολλοί τρόποι να γίνει αυτό,
00:19
and I like to focusΣυγκεντρώνω on helpingβοήθεια computersΥπολογιστές
2
7571
2592
και εμένα μου αρέσει
να βοηθάω τους υπολογιστές
00:22
to talk about what they see
and understandκαταλαβαίνουν.
3
10187
2874
ώστε να μιλούν για το
τι βλέπουν και καταλαβαίνουν.
00:25
GivenΔίνεται a sceneσκηνή like this,
4
13514
1571
Αν δοθεί μια εικόνα σαν αυτή,
00:27
a modernμοντέρνο computer-visionυπολογιστής-όραση algorithmαλγόριθμος
5
15109
1905
ένας αλγόριθμος μηχανικής όρασης
00:29
can tell you that there's a womanγυναίκα
and there's a dogσκύλος.
6
17038
3095
μπορεί να καταλάβει ότι υπάρχει
μια γυναίκα και ένας σκύλος.
00:32
It can tell you that the womanγυναίκα is smilingχαμογελαστά.
7
20157
2706
Μπορεί να καταλάβει
πως η γυναίκα χαμογελά.
00:34
It mightθα μπορούσε even be ableικανός to tell you
that the dogσκύλος is incrediblyαπίστευτα cuteΧαριτωμένο.
8
22887
3873
Ίσως να μπορεί να πει ακόμα
πως ο σκύλος είναι απίστευτα χαριτωμένος.
00:38
I work on this problemπρόβλημα
9
26784
1349
Πάνω σε αυτό εργάζομαι
00:40
thinkingσκέψη about how humansτου ανθρώπου
understandκαταλαβαίνουν and processεπεξεργάζομαι, διαδικασία the worldκόσμος.
10
28157
4212
ενώ σκέφτομαι πώς αντιλαμβάνονται και
επεξεργάζονται τον κόσμο οι άνθρωποι.
00:45
The thoughtsσκέψεις, memoriesαναμνήσεις and storiesιστορίες
11
33577
2952
Τις σκέψεις, αναμνήσεις και ιστορίες
00:48
that a sceneσκηνή like this
mightθα μπορούσε evokeπροκαλώ for humansτου ανθρώπου.
12
36553
2818
που μια εικόνα σαν κι αυτή
μπορεί να φέρει στον νου.
00:51
All the interconnectionsδιασυνδέσεις
of relatedσχετίζεται με situationsκαταστάσεις.
13
39395
4285
Όλες τις πιθανές διασυνδέσεις
σχετικών καταστάσεων.
00:55
Maybe you've seenείδα
a dogσκύλος like this one before,
14
43704
3126
Ίσως να έχετε ξαναδεί
ένα σκύλο σαν και αυτόν
00:58
or you've spentξόδεψε time
runningτρέξιμο on a beachπαραλία like this one,
15
46854
2969
ή έχετε τρέξει σε μια παρόμοια παραλία
01:01
and that furtherπεραιτέρω evokesθυμίζει thoughtsσκέψεις
and memoriesαναμνήσεις of a pastτο παρελθόν vacationπαραθεριστικές κατοικίες,
16
49847
4778
και σας προκαλεί να ανακαλέσετε σκέψεις
και αναμνήσεις από τις διακοπές σας
01:06
pastτο παρελθόν timesφορές to the beachπαραλία,
17
54649
1920
ή από τότε που πήγατε στη θάλασσα
01:08
timesφορές spentξόδεψε runningτρέξιμο around
with other dogsΣκύλοι.
18
56593
2603
ή από εκείνη τη φορά
που τρέχατε μαζί με άλλα σκυλιά.
01:11
One of my guidingκαθοδηγώντας principlesαρχές
is that by helpingβοήθεια computersΥπολογιστές to understandκαταλαβαίνουν
19
59688
5207
Μία από τις βασικές αρχές μου είναι πως
βοηθώντας τους υπολογιστές να καταλάβουν
01:16
what it's like to have these experiencesεμπειρίες,
20
64919
2896
πώς είναι να έχεις ζήσει
αυτές τις εμπειρίες,
01:19
to understandκαταλαβαίνουν what we shareμερίδιο
and believe and feel,
21
67839
5176
να καταλάβουν τι μοιραζόμαστε,
τι πιστεύουμε και αισθανόμαστε
01:26
then we're in a great positionθέση
to startαρχή evolvingεξελίσσεται computerυπολογιστή technologyτεχνολογία
22
74094
4310
τότε θα είμαστε στη θέση να βοηθήσουμε
την εξέλιξη της τεχνολογίας υπολογιστών
01:30
in a way that's complementaryσυμπληρωματικός
with our ownτα δικά experiencesεμπειρίες.
23
78428
4587
με τρόπο που θα είναι συμπληρωματικός
με τις δικές μας εμπειρίες.
01:35
So, diggingσκάψιμο more deeplyκατα ΒΑΘΟΣ into this,
24
83539
3387
Θα ήθελα σας δώσω ένα πιο απτό παράδειγμα,
01:38
a fewλίγοι yearsχρόνια agoπριν I beganάρχισε workingεργαζόμενος on helpingβοήθεια
computersΥπολογιστές to generateπαράγω human-likeανθρώπινο storiesιστορίες
25
86950
5905
πριν μερικά χρόνια βοηθούσα υπολογιστές
στο να δημιουργήσουν ανθρώπινες ιστορίες
01:44
from sequencesακολουθίες of imagesεικόνες.
26
92879
1666
από μια ακολουθία εικόνων.
01:47
So, one day,
27
95427
1904
Μία μέρα λοιπόν
01:49
I was workingεργαζόμενος with my computerυπολογιστή to askπαρακαλώ it
what it thought about a tripταξίδι to AustraliaΑυστραλία.
28
97355
4622
ρώτησα τον υπολογιστή μου τι γνώμη έχει
για ένα ταξίδι στην Αυστραλία.
01:54
It tookπήρε a look at the picturesεικόνες,
and it saw a koalaκοάλα.
29
102768
2920
Κοίταξε τις φωτογραφίες
και είδε ένα κοάλα.
01:58
It didn't know what the koalaκοάλα was,
30
106236
1643
Δεν ήξερε τι είναι,
01:59
but it said it thought
it was an interesting-lookingενδιαφέρουσα-κοιτάζοντας creatureπλάσμα.
31
107903
2999
αλλά είπε πως ήταν ένα πλάσμα
με ενδιαφέρουσα εμφάνιση.
02:04
Then I sharedκοινή χρήση with it a sequenceαλληλουχία of imagesεικόνες
about a houseσπίτι burningκαύση down.
32
112053
4004
Μετά του έδειξα μια ακολουθία εικόνων
ενός σπιτιού που καιγόταν.
02:09
It tookπήρε a look at the imagesεικόνες and it said,
33
117704
3285
Τις κοίταξε και είπε,
02:13
"This is an amazingφοβερο viewθέα!
This is spectacularθεαματικός!"
34
121013
3500
«Η θέα είναι καταπληκτική!
Είναι πολύ εντυπωσιακό!»
02:17
It sentΑπεσταλμένα chillsρίγη down my spineΣΠΟΝΔΥΛΙΚΗ ΣΤΗΛΗ.
35
125450
2095
Με έκανε να ανατριχιάσω.
02:20
It saw a horribleφρικτός, life-changingαλλάζει τη ζωή
and life-destroyingκαταστρέφοντας τη ζωή eventΕκδήλωση
36
128983
4572
Είδε ένα φρικτό θέαμα,
που κατέστρεψε τη ζωή ενός ανθρώπου
02:25
and thought it was something positiveθετικός.
37
133579
2382
και νόμιζε πως ήταν κάτι θετικό.
02:27
I realizedσυνειδητοποίησα that it recognizedαναγνωρισμένος
the contrastαντίθεση,
38
135985
3441
Συνειδητοποίησα πως αναγνώρισε
την αντίθεση των χρωμάτων
02:31
the redsκόκκινα, the yellowsτα κίτρινα,
39
139450
2699
το κόκκινο, το κίτρινο
02:34
and thought it was something
worthαξία remarkingΠαρατηρώντας on positivelyθετικώς.
40
142173
3078
και νόμιζε πως ήταν κάτι θετικό.
02:37
And partμέρος of why it was doing this
41
145928
1615
Αυτό το έκανε
02:39
was because mostπλέον
of the imagesεικόνες I had givenδεδομένος it
42
147577
2945
γιατί οι εικόνες που του είχα δώσει
02:42
were positiveθετικός imagesεικόνες.
43
150546
1840
ήταν όλες θετικές.
02:44
That's because people
tendτείνω to shareμερίδιο positiveθετικός imagesεικόνες
44
152903
3658
Και αυτό γιατί οι άνθρωποι επιλέγουν
να μοιράζονται τις καλές εικόνες τους
02:48
when they talk about theirδικα τους experiencesεμπειρίες.
45
156585
2190
όταν μιλούν για τις εμπειρίες τους.
02:51
When was the last time
you saw a selfieselfie at a funeralκηδεία?
46
159267
2541
Ποια ήταν η τελευταία φορά
που είδατε σέλφι σε κηδεία;
02:55
I realizedσυνειδητοποίησα that,
as I workedεργάστηκε on improvingβελτίωση AIAI
47
163434
3095
Συνειδητοποίησα πως όσο δούλευα
στη βελτίωση του αλγορίθμου,
02:58
taskέργο by taskέργο, datasetΤο DataSet by datasetΤο DataSet,
48
166553
3714
με κάθε καινούρια προσπάθεια
και με κάθε σετ δεδομένων
03:02
that I was creatingδημιουργώντας massiveογκώδης gapsκενά,
49
170291
2897
δημιουργούσα τεράστια κενά,
03:05
holesτρύπες and blindτυφλός spotsκηλίδες
in what it could understandκαταλαβαίνουν.
50
173212
3999
τρύπες και τυφλά σημεία
στην κατανόησή του.
03:10
And while doing so,
51
178307
1334
Και με αυτό τον τρόπο
03:11
I was encodingκωδικοποίηση all kindsείδη of biasesμεροληψίες.
52
179665
2483
πρόσθετα στον κώδικα
ένα σωρό προκαταλήψεις.
03:15
BiasesΠροκαταλήψεις that reflectκατοπτρίζω a limitedπεριωρισμένος viewpointοπτική γωνία,
53
183029
3318
Προκαταλήψεις που αντικατοπτρίζουν
μια περιορισμένη οπτική,
03:18
limitedπεριωρισμένος to a singleμονόκλινο datasetΤο DataSet --
54
186371
2261
περιορισμένη σε ένα μόνο σετ δεδομένων --
03:21
biasesμεροληψίες that can reflectκατοπτρίζω
humanο άνθρωπος biasesμεροληψίες foundβρέθηκαν in the dataδεδομένα,
55
189283
3858
προκαταλήψεις που αντανακλούν ανθρώπινες
προδιαθέσεις που βρέθηκαν στα δεδομένα
03:25
suchτέτοιος as prejudiceπροκατάληψη and stereotypingτα στερεότυπα.
56
193165
3104
όπως η προώθηση στερεοτύπων.
03:29
I thought back to the evolutionεξέλιξη
of the technologyτεχνολογία
57
197554
3057
Προσπάθησα να σκεφτώ
την εξέλιξη της τεχνολογίας
03:32
that broughtέφερε me to where I was that day --
58
200635
2502
που με οδήγησε σε αυτό το σημείο
εκείνη τη μέρα --
03:35
how the first colorχρώμα imagesεικόνες
59
203966
2233
πώς οι πρώτες εικόνες με χρώμα
03:38
were calibratedβαθμονομηθεί againstκατά
a whiteάσπρο woman'sτης γυναίκας skinδέρμα,
60
206223
3048
είχαν ρυθμιστεί πάνω στο
δέρμα μιας άσπρης γυναίκας
03:41
meaningέννοια that colorχρώμα photographyφωτογραφία
was biasedμεροληπτική againstκατά blackμαύρος facesπρόσωπα.
61
209665
4145
που σημαίνει ότι οι έγχρωμες φωτογραφίες
μεροληπτούσαν ενάντια σε μαύρα πρόσωπα.
03:46
And that sameίδιο biasπροκατάληψη, that sameίδιο blindτυφλός spotσημείο
62
214514
2925
Η ίδια προκατάληψη, το ίδιο τυφλό σημείο
03:49
continuedσυνεχίζεται well into the '90s.
63
217463
1867
συνέχισε και τη δεκαετία του '90.
03:51
And the sameίδιο blindτυφλός spotσημείο
continuesσυνεχίζεται even todayσήμερα
64
219701
3154
Και συνεχίζει ακόμα και σήμερα
03:54
in how well we can recognizeαναγνωρίζω
differentδιαφορετικός people'sτων ανθρώπων facesπρόσωπα
65
222879
3698
στο πώς αναγνωρίζουμε τα πρόσωπα
διαφορετικών ανθρώπων
03:58
in facialχύσια στα μούτρα recognitionαναγνώριση technologyτεχνολογία.
66
226601
2200
στην τεχνολογία αναγνώρισης προσώπου.
04:01
I thoughαν και about the stateκατάσταση of the artτέχνη
in researchέρευνα todayσήμερα,
67
229323
3143
Σκέφτηκα τη σύγχρονη
τεχνολογία στην έρευνα
04:04
where we tendτείνω to limitόριο our thinkingσκέψη
to one datasetΤο DataSet and one problemπρόβλημα.
68
232490
4514
που περιορίζουμε τη σκέψη μας σε ένα
σετ δεδομένων και ένα μόνο πρόβλημα.
04:09
And that in doing so, we were creatingδημιουργώντας
more blindτυφλός spotsκηλίδες and biasesμεροληψίες
69
237688
4881
Δημιουργώντας έτσι ακόμα περισσότερα
τυφλά σημεία και προκαταλήψεις
04:14
that the AIAI could furtherπεραιτέρω amplifyενισχύουν.
70
242593
2277
που η τεχνητή νοημοσύνη
θα ενισχύσει περισσότερο.
04:17
I realizedσυνειδητοποίησα then
that we had to think deeplyκατα ΒΑΘΟΣ
71
245712
2079
Κατάλαβα πως πρέπει να σκεφτούμε βαθύτερα
04:19
about how the technologyτεχνολογία we work on todayσήμερα
looksφαίνεται in fiveπέντε yearsχρόνια, in 10 yearsχρόνια.
72
247815
5519
το πώς η τεχνολογία που αναπτύσσουμε
σήμερα θα μοιάζει σε πέντε ή 10 χρόνια.
04:25
HumansΟι άνθρωποι evolveαναπτύσσω slowlyαργά,
with time to correctσωστός for issuesθέματα
73
253990
3142
Οι άνθρωποι εξελίσσονται αργά,
με αρκετό χρόνο για να διορθωθούν
04:29
in the interactionΑΛΛΗΛΕΠΙΔΡΑΣΗ of humansτου ανθρώπου
and theirδικα τους environmentπεριβάλλον.
74
257156
3534
τυχών προβλήματα στην αλληλεπίδρασή
τους με το περιβάλλον.
04:33
In contrastαντίθεση, artificialτεχνητός intelligenceνοημοσύνη
is evolvingεξελίσσεται at an incrediblyαπίστευτα fastγρήγορα rateτιμή.
75
261276
5429
Αντίθετα, η τεχνητή νοημοσύνη αναπτύσσεται
με πολύ γρήγορους ρυθμούς.
04:39
And that meansπου σημαίνει that it really mattersθέματα
76
267013
1773
Πράγμα που σημαίνει ότι έχει σημασία
04:40
that we think about this
carefullyπροσεκτικά right now --
77
268810
2317
να το σκεφτούμε προσεκτικά τώρα --
04:44
that we reflectκατοπτρίζω on our ownτα δικά blindτυφλός spotsκηλίδες,
78
272180
3008
να βρούμε τα δικά μας τυφλά σημεία
04:47
our ownτα δικά biasesμεροληψίες,
79
275212
2317
τις δικές μας προκαταλήψεις,
04:49
and think about how that's informingενημέρωση
the technologyτεχνολογία we're creatingδημιουργώντας
80
277553
3857
να σκεφτούμε τι πληροφορίες δίνουν
αυτά στην τεχνολογία που δημιουργούμε
04:53
and discussσυζητώ what the technologyτεχνολογία of todayσήμερα
will mean for tomorrowαύριο.
81
281434
3902
και να συζητήσουμε τι θα σημαίνει
στο μέλλον η τεχνολογία του σήμερα.
04:58
CEOsΔιευθύνοντες σύμβουλοι and scientistsΕπιστήμονες have weighedζυγίζονται in
on what they think
82
286593
3191
Οι γενικοί διευθυντές και οι επιστήμονες
έχουν πει τη γνώμη τους
05:01
the artificialτεχνητός intelligenceνοημοσύνη technologyτεχνολογία
of the futureμελλοντικός will be.
83
289808
3325
για το πώς θα είναι η τεχνητή
νοημοσύνη του μέλλοντος.
05:05
StephenΣτεφάνου HawkingHawking warnsπροειδοποιεί that
84
293157
1618
Ο Στίβεν Χόκινγκ προειδοποιεί πως
05:06
"ArtificialΤεχνητή intelligenceνοημοσύνη
could endτέλος mankindη ανθρωπότητα."
85
294799
3007
«Η τεχνητή νοημοσύνη μπορεί
να είναι το τέλος της ανθρωπότητας».
05:10
ElonElon MuskΜόσχος warnsπροειδοποιεί
that it's an existentialυπαρξιακός riskκίνδυνος
86
298307
2683
O Έλον Μασκ προειδοποιεί
πως είναι ένα υπαρξιακό ρίσκο
05:13
and one of the greatestμεγαλύτερη risksκινδύνους
that we faceπρόσωπο as a civilizationπολιτισμός.
87
301014
3574
και ένα από τα μεγαλύτερα ρίσκα
που αντιμετωπίζουμε ως πολιτισμός.
05:17
BillBill GatesΠύλες has madeέκανε the pointσημείο,
88
305665
1452
Ο Μπιλ Γκέιτς σχολίασε;
05:19
"I don't understandκαταλαβαίνουν
why people aren'tδεν είναι more concernedενδιαφερόμενος."
89
307141
3185
«Δεν καταλαβαίνω γιατί ο κόσμος
δεν είναι περισσότερο ανήσυχος».
05:23
But these viewsπροβολές --
90
311412
1318
Αυτές οι απόψεις όμως --
05:25
they're partμέρος of the storyιστορία.
91
313618
1734
είναι ένα μέρος του θέματος.
05:28
The mathμαθηματικά, the modelsμοντέλα,
92
316079
2420
Τα μαθηματικά, τα μοντέλα,
05:30
the basicβασικός buildingΚτίριο blocksμπλοκ
of artificialτεχνητός intelligenceνοημοσύνη
93
318523
3070
τα βασικά δομικά στοιχεία
της τεχνητής νοημοσύνης
05:33
are something that we call accessπρόσβαση
and all work with.
94
321617
3135
είναι πράγματα στα οποία
έχουμε όλοι πρόσβαση.
05:36
We have open-sourceανοιχτή πηγή toolsεργαλεία
for machineμηχανή learningμάθηση and intelligenceνοημοσύνη
95
324776
3785
Υπάρχουν εργαλεία ανοικτού κώδικα
για τη μηχανική μάθηση
05:40
that we can contributeσυμβάλλει to.
96
328585
1734
στα οποία μπορούμε να συνεισφέρουμε.
05:42
And beyondπέρα that,
we can shareμερίδιο our experienceεμπειρία.
97
330919
3340
Και πέρα από αυτό, μπορούμε
να μοιραστούμε τις εμπειρίες μας.
05:46
We can shareμερίδιο our experiencesεμπειρίες
with technologyτεχνολογία and how it concernsανησυχίες us
98
334760
3468
Να τις μοιραστούμε με την τεχνολογία,
για τους λόγους που μας ανησυχεί
05:50
and how it excitesδιεγείρει us.
99
338252
1467
αλλά και μας ενθουσιάζει.
05:52
We can discussσυζητώ what we love.
100
340251
1867
Μπορούμε να μιλήσουμε για το τι αγαπάμε.
05:55
We can communicateεπικοινωνώ with foresightπρονοητικότητα
101
343244
2031
Να επικοινωνήσουμε με προνοητικότητα
05:57
about the aspectsπτυχές of technologyτεχνολογία
that could be more beneficialευεργετική
102
345299
4857
για τις πλευρές τις τεχνολογίας
που μπορεί να είναι πιο επωφελείς
06:02
or could be more problematicπροβληματικός over time.
103
350180
2600
ή και προβληματικές
στο πέρασμα του χρόνου.
06:05
If we all focusΣυγκεντρώνω on openingάνοιγμα up
the discussionσυζήτηση on AIAI
104
353799
4143
Αν επικεντρωθούμε στο να αρχίσουμε
τη συζήτηση για την τεχνητή νοημοσύνη
06:09
with foresightπρονοητικότητα towardsπρος the futureμελλοντικός,
105
357966
1809
με προοπτική προς το μέλλον
06:13
this will help createδημιουργώ a generalγενικός
conversationσυνομιλία and awarenessεπίγνωση
106
361093
4270
θα βοηθήσει στη δημιουργία μιας
γενικότερης συζήτησης και επίγνωσης
06:17
about what AIAI is now,
107
365387
2513
για το τι είναι η τεχνητή νοημοσύνη τώρα,
06:21
what it can becomeγίνομαι
108
369212
2001
τι μπορεί να γίνει
06:23
and all the things that we need to do
109
371237
1785
και τι χρειάζεται να κάνουμε
06:25
in orderΣειρά to enableεπιτρέπω that outcomeαποτέλεσμα
that bestκαλύτερος suitsκοστούμια us.
110
373046
3753
προκειμένου να επιτευχθεί
το αποτέλεσμα που προτιμούμε.
06:29
We alreadyήδη see and know this
in the technologyτεχνολογία that we use todayσήμερα.
111
377490
3674
Ήδη το βλέπουμε στη σημερινή τεχνολογία.
06:33
We use smartέξυπνος phonesτηλεφώνων
and digitalψηφιακό assistantsβοηθούς and RoombasΔωμάτια.
112
381767
3880
Χρησιμοποιούμε έξυπνα κινητά
και ψηφιακούς βοηθούς.
06:38
Are they evilκακό?
113
386457
1150
Είναι κακόβουλα;
06:40
Maybe sometimesωρες ωρες.
114
388268
1547
Ίσως κάποιες φορές.
06:42
Are they beneficialευεργετική?
115
390664
1333
Είναι ωφέλιμα;
06:45
Yes, they're that, too.
116
393005
1533
Ναι είναι.
06:48
And they're not all the sameίδιο.
117
396236
1761
Δεν είναι όλα το ίδιο.
06:50
And there you alreadyήδη see
a lightφως shiningλάμψη on what the futureμελλοντικός holdsκρατάει.
118
398489
3540
Και εκεί βλέπουμε πώς θα
μπορούσε να είναι το μέλλον.
06:54
The futureμελλοντικός continuesσυνεχίζεται on
from what we buildχτίζω and createδημιουργώ right now.
119
402942
3619
Το μέλλον βασίζεται πάνω
σε ό,τι δημιουργούμε τώρα.
06:59
We setσειρά into motionκίνηση that dominoντόμινο effectαποτέλεσμα
120
407165
2642
Δημιουργούμε αλυσιδωτές αντιδράσεις
07:01
that carvesχαράζει out AI'sΤου AI evolutionaryεξελικτική pathμονοπάτι.
121
409831
2600
που θα χαράξουν την πορεία
της τεχνητής νοημοσύνης.
07:05
In our time right now,
we shapeσχήμα the AIAI of tomorrowαύριο.
122
413173
2871
Δίνουμε μορφή στην τεχνητή
νοημοσύνη του αύριο.
07:08
TechnologyΤεχνολογία that immersesβυθίζει us
in augmentedαυξήθηκε realitiesπραγματικότητα
123
416566
3699
Τεχνολογία που μας εισάγει
σε επαυξημένες πραγματικότητες
07:12
bringingφέρνοντας to life pastτο παρελθόν worldsτου κόσμου.
124
420289
2566
φέρνοντας στη ζωή προηγούμενους κόσμους.
07:15
TechnologyΤεχνολογία that helpsβοηθάει people
to shareμερίδιο theirδικα τους experiencesεμπειρίες
125
423844
4312
Τεχνολογία που βοηθά τον κόσμο
να μοιραστεί της εμπειρίες του
07:20
when they have difficultyδυσκολία communicatingεπικοινωνία.
126
428180
2262
όταν αντιμετωπίζουν δυσκολίες
στην επικοινωνία.
07:23
TechnologyΤεχνολογία builtχτισμένο on understandingκατανόηση
the streamingstreaming visualοπτικός worldsτου κόσμου
127
431323
4532
Τεχνολογία βασισμένη στην κατανόηση
της μετάδοσης οπτικών κόσμων
07:27
used as technologyτεχνολογία for self-drivingαυτο-οδήγηση carsαυτοκίνητα.
128
435879
3079
για την ανάπτυξη
αυτο-οδηγούμενων αυτοκινήτων.
07:32
TechnologyΤεχνολογία builtχτισμένο on understandingκατανόηση imagesεικόνες
and generatingδημιουργώντας languageΓλώσσα,
129
440490
3413
Τεχνολογία βασισμένη στην κατανόηση
εικόνων και παραγωγής λόγου
07:35
evolvingεξελίσσεται into technologyτεχνολογία that helpsβοηθάει people
who are visuallyοπτικά impairedμειωμένη
130
443927
4063
που θα αναπτυχθεί για να βοηθήσει
τους ανθρώπους με προβλήματα όρασης
07:40
be better ableικανός to accessπρόσβαση the visualοπτικός worldκόσμος.
131
448014
2800
να έχουν καλύτερη πρόσβαση
στον οπτικό κόσμο.
07:42
And we alsoεπίσης see how technologyτεχνολογία
can leadΟΔΗΓΩ to problemsπροβλήματα.
132
450838
3261
Επίσης βλέπουμε πώς η τεχνολογία
μπορεί να οδηγήσει σε προβλήματα.
07:46
We have technologyτεχνολογία todayσήμερα
133
454885
1428
Υπάρχουν λογισμικά σήμερα
07:48
that analyzesαναλύσεις physicalφυσικός
characteristicsΧαρακτηριστικά we're bornγεννημένος with --
134
456337
3835
που αναλύουν σωματικά χαρακτηριστικά
τα οποία έχουμε από γεννησιμιού μας
07:52
suchτέτοιος as the colorχρώμα of our skinδέρμα
or the look of our faceπρόσωπο --
135
460196
3272
όπως το χρώμα του δέρματος
ή το βλέμμα του προσώπου μας --
07:55
in orderΣειρά to determineκαθορίσει whetherκατά πόσο or not
we mightθα μπορούσε be criminalsεγκληματίες or terroristsτρομοκράτες.
136
463492
3804
προκειμένου να προσδιορίσουν
αν είμαστε εγκληματίες ή τρομοκράτες.
07:59
We have technologyτεχνολογία
that crunchesδυστοκίες throughδιά μέσου our dataδεδομένα,
137
467688
2905
Άλλα λογισμικά τα οποία
αναλύουν τα στοιχεία μας
08:02
even dataδεδομένα relatingσχετικά
to our genderγένος or our raceαγώνας,
138
470617
2896
ή δεδομένα σε σχέση με το φύλο
ή τη φυλή που ανήκουμε
08:05
in orderΣειρά to determineκαθορίσει whetherκατά πόσο or not
we mightθα μπορούσε get a loanδάνειο.
139
473537
2865
ώστε να προσδιορίσουν
αν θα μας δοθεί ή όχι ένα δάνειο.
08:09
All that we see now
140
477494
1579
Αυτό που βλέπουμε τώρα
08:11
is a snapshotστιγμιότυπο in the evolutionεξέλιξη
of artificialτεχνητός intelligenceνοημοσύνη.
141
479097
3617
είναι απλά ένα στιγμιότυπο της εξέλιξης
της τεχνητής νοημοσύνης.
08:15
Because where we are right now,
142
483763
1778
Διότι το σημείο που βρισκόμαστε τώρα
08:17
is withinστα πλαίσια a momentστιγμή of that evolutionεξέλιξη.
143
485565
2238
είναι μία στιγμή αυτής της εξέλιξης.
08:20
That meansπου σημαίνει that what we do now
will affectεπηρεάζουν what happensσυμβαίνει down the lineγραμμή
144
488690
3802
Που σημαίνει πως ότι κάνουμε σήμερα
θα επηρεάσει τη ροή των πραγμάτων
08:24
and in the futureμελλοντικός.
145
492516
1200
και το μέλλον.
08:26
If we want AIAI to evolveαναπτύσσω
in a way that helpsβοηθάει humansτου ανθρώπου,
146
494063
3951
Αν θέλουμε η τεχνητή νοημοσύνη
να εξελιχθεί με τρόπο
που βοηθάει τους ανθρώπους
τότε πρέπει να προσδιορίσουμε
τη στρατηγική και τους τρόπους
08:30
then we need to defineκαθορίζω
the goalsστόχους and strategiesστρατηγικές
147
498038
2801
08:32
that enableεπιτρέπω that pathμονοπάτι now.
148
500863
1733
που θα επιτρέψουν αυτή τη δυνατότητα.
08:35
What I'd like to see is something
that fitsταιριάζει well with humansτου ανθρώπου,
149
503680
3738
Αυτό που θα ήθελα να δω είναι κάτι
που θα ταιριάζει με μας,
08:39
with our cultureΠολιτισμός and with the environmentπεριβάλλον.
150
507442
2800
την κουλτούρα μας αλλά και το περιβάλλον.
08:43
TechnologyΤεχνολογία that aidsενισχύσεις and assistsΑσίστ
those of us with neurologicalνευρολογικός conditionsσυνθήκες
151
511435
4484
Τεχνολογία που θα παρέχει βοήθεια
σε όσους έχουν νευρολογικές παθήσεις
08:47
or other disabilitiesαναπηρία
152
515943
1721
ή άλλες αναπηρίες
08:49
in orderΣειρά to make life
equallyεξίσου challengingπροκλητική for everyoneΟλοι.
153
517688
3216
έτσι ώστε η ζωή να γίνει
εξίσου εύκολη για όλους.
08:54
TechnologyΤεχνολογία that worksεργοστάσιο
154
522097
1421
Τεχνολογία που δουλεύει σωστά
08:55
regardlessΑνεξάρτητα of your demographicsδημογραφικά στοιχεία
or the colorχρώμα of your skinδέρμα.
155
523542
3933
ανεξάρτητα από τα δημογραφικά στοιχεία
ή το χρώμα του δέρματος.
09:00
And so todayσήμερα, what I focusΣυγκεντρώνω on
is the technologyτεχνολογία for tomorrowαύριο
156
528383
4742
Γι' αυτό σήμερα εστιάζω
στην τεχνολογία του αύριο
09:05
and for 10 yearsχρόνια from now.
157
533149
1733
και 10 χρόνια από τώρα.
09:08
AIAI can turnστροφή out in manyΠολλά differentδιαφορετικός waysτρόπους.
158
536530
2634
Η πιθανές αποφάνσεις
της τεχνητής νοημοσύνης είναι πολλές.
09:11
But in this caseπερίπτωση,
159
539688
1225
Σε αυτή την περίπτωση όμως,
09:12
it isn't a self-drivingαυτο-οδήγηση carαυτοκίνητο
withoutχωρίς any destinationπροορισμός.
160
540937
3328
δεν είναι ένα αυτο-οδηγούμενο
αυτοκίνητο χωρίς προορισμό.
09:16
This is the carαυτοκίνητο that we are drivingοδήγηση.
161
544884
2400
Αυτό το αυτοκίνητο το οδηγούμε εμείς.
09:19
We chooseεπιλέγω when to speedΤαχύτητα up
and when to slowαργός down.
162
547953
3595
Εμείς επιλέγουμε πότε θα επιταχύνουμε
ή θα επιβραδύνουμε.
09:23
We chooseεπιλέγω if we need to make a turnστροφή.
163
551572
2400
Πότε θα κάνουμε στροφή.
09:26
We chooseεπιλέγω what the AIAI
of the futureμελλοντικός will be.
164
554868
3000
Εμείς επιλέγουμε πώς θα είναι
η τεχνητή νοημοσύνη του μέλλοντος.
09:31
There's a vastαπέραντος playingπαιχνίδι fieldπεδίο
165
559186
1337
Το εύρος δυνατοτήτων
09:32
of all the things that artificialτεχνητός
intelligenceνοημοσύνη can becomeγίνομαι.
166
560547
2965
των πιθανών εξελίξεων
της τεχνητής νοημοσύνης είναι τεράστιο.
09:36
It will becomeγίνομαι manyΠολλά things.
167
564064
1800
Πολλές από αυτές θα πραγματοποιηθούν.
09:39
And it's up to us now,
168
567694
1732
Έχουμε όμως την ευθύνη τώρα
09:41
in orderΣειρά to figureεικόνα out
what we need to put in placeθέση
169
569450
3061
να αποφασίσουμε τι χρειάζεται να κάνουμε
09:44
to make sure the outcomesαποτελέσματα
of artificialτεχνητός intelligenceνοημοσύνη
170
572535
3807
για να εξασφαλίσουμε ότι το αποτέλεσμα
της τεχνητής νοημοσύνης
09:48
are the onesαυτές that will be
better for all of us.
171
576366
3066
θα είναι το καλύτερο για όλους μας.
09:51
Thank you.
172
579456
1150
Ευχαριστώ.
09:52
(ApplauseΧειροκροτήματα)
173
580630
2187
(Χειροκρότημα)
Translated by Dimosthenis Ioannou
Reviewed by Chryssa Rapessi

▲Back to top

ABOUT THE SPEAKER
Margaret Mitchell - AI research scientist
Margaret Mitchell is a senior research scientist in Google's Research & Machine Intelligence group, working on artificial intelligence.

Why you should listen

Margaret Mitchell's research involves vision-language and grounded language generation, focusing on how to evolve artificial intelligence towards positive goals. Her work combines computer vision, natural language processing, social media as well as many statistical methods and insights from cognitive science. Before Google, Mitchell was a founding member of Microsoft Research's "Cognition" group, focused on advancing artificial intelligence, and a researcher in Microsoft Research's Natural Language Processing group.

More profile about the speaker
Margaret Mitchell | Speaker | TED.com

Data provided by TED.

This site was created in May 2015 and the last update was on January 12, 2020. It will no longer be updated.

We are currently creating a new site called "eng.lish.video" and would be grateful if you could access it.

If you have any questions or suggestions, please feel free to write comments in your language on the contact form.

Privacy Policy

Developer's Blog

Buy Me A Coffee