Zeynep Tufekci: We're building a dystopia just to make people click on ads
Ζεϊνέπ Τουφεξί: Οικοδομούμε μια δυστοπία απλώς για να κάνουμε τους ανθρώπους να κλικάρουν σε διαφημίσεις
Techno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread. Full bio
Double-click the English transcript below to play the video.
of artificial intelligence,
για την τεχνητή νοημοσύνη,
of humanoid robots run amok.
ανεξέλεγκτων ανθρωποειδών ρομπότ.
something to consider,
for the 21st century.
για τον 21ο αιώνα.
will do to us on its own,
από μόνη της η τεχνητή νοημοσύνη,
will use artificial intelligence
θα χρησιμοποιήσουν την τεχνητή νοημοσύνη
and our dignity in the near-term future
και την αξιοπρέπειά μας στο εγγύς μέλλον
and selling our data and our attention
των δεδομένων και της προσοχής μας
bolstering their business as well.
να ενισχύει και τις επιχειρήσεις τους.
ότι η τεχνητή νοημοσύνη
like artificial intelligence
μετά τις διαφημίσεις.
of many areas of study and research.
σε πολλά πεδία μελέτης και έρευνας.
a famous Hollywood philosopher,
έναν διάσημο φιλόσοφο του Χόλιγουντ,
comes prodigious risk."
έρχεται κι ένας τεράστιος κίνδυνος».
of our digital lives, online ads.
της ψηφιακή μας ζωής:
of being followed on the web
παρακολούθησή μας στο διαδίκτυο
we searched or read.
σε κάτι που ψάξαμε ή διαβάσαμε.
you around everywhere you go.
αυτές οι μπότες σας ακολουθούν όπου πάτε.
και πάλι σας ακολουθούν.
they're still following you around.
of basic, cheap manipulation.
τη βασική, φτηνή χειραγώγηση.
"You know what? These things don't work."
«Ξέρεις κάτι; Αυτά δεν πιάνουν».
δεν είναι απλώς διαφημίσεις.
let's think of a physical world example.
ένα παράδειγμα του φυσικού κόσμου.
at supermarkets, near the cashier,
των σουπερμάρκετ, κοντά στα ταμεία,
at the eye level of kids?
στο ύψος των ματιών των παιδιών;
whine at their parents
να κλαίνε στους γονείς τους
are about to sort of check out.
in every supermarket.
are kind of limited,
είναι περιορισμένες,
so many things by the cashier. Right?
ένα σωρό πράγματα δίπλα στο ταμείο, έτσι;
it's the same for everyone,
είναι τα ίδια για όλους,
whiny little humans beside them.
κλαψιάρικα ανθρωπάκια δίπλα του.
we live with those limitations.
ζούμε με αυτούς τους περιορισμούς.
can be built at the scale of billions
στην κλίμακα των δισεκατομμυρίων
να συνάγουν, να καταλάβουν
to everyone's phone private screen,
στην οθόνη του κινητού του καθενός,
that artificial intelligence can do.
που μπορεί να κάνει η τεχνητή νοημοσύνη.
αεροπορικά εισιτήρια για Λας Βέγκας.
plane tickets to Vegas. Right?
of some demographics to target
να στοχεύσετε κάποια πληθυσμιακή ομάδα
and what you can guess.
και αυτά που μπορείτε να υποθέσετε.
σε άντρες ηλικιών μεταξύ 25 και 35
a high limit on their credit card,
στην πιστωτική τους κάρτα,
και τη μηχανική μάθηση,
that Facebook has on you:
που έχει το Facebook για εσάς:
που πληκτρολογήσατε ποτέ,
that you uploaded there.
που έχετε ανεβάσει εκεί.
and change your mind and delete it,
και αλλάξετε γνώμη και το διαγράψετε,
and analyzes them, too.
to match you with your offline data.
εσάς με τα δεδομένα εκτός γραμμής.
a lot of data from data brokers.
από μεσίτες δεδομένων.
from your financial records
από τα χρηματοπιστωτικά σας αρχεία
της πλοήγησης σας, σωστά;
such data is routinely collected,
συλλέγονται συστηματικά,
these machine-learning algorithms --
αυτοί οι αλγόριθμοι μηχανικής μάθησης --
learning algorithms --
αλγόριθμοι μάθησης --
the characteristics of people
τα χαρακτηριστικά των ανθρώπων
για το Λας Βέγκας προηγουμένως.
από τα υπάρχοντα δεδομένα,
how to apply this to new people.
αυτό σε νέους ανθρώπους.
is likely to buy a ticket to Vegas or not.
μπορεί να αγοράσει
an offer to buy tickets to Vegas.
να αγοράσω εισιτήρια για το Λας Βέγκας.
how these complex algorithms work.
αυτών των περίπλοκων αλγορίθμων.
how they're doing this categorization.
αυτή την κατηγοριοποίηση.
thousands of rows and columns,
τις χιλιάδες γραμμές και στήλες,
how exactly it's operating
what I was thinking right now
τι σκέφτομαι αυτή τη στιγμή
a cross section of my brain.
του εγκεφάλου μου.
that we don't truly understand.
την οποία δεν κατανοούμε πλήρως.
if there's an enormous amount of data,
αν υπάρχει ένας μεγάλος όγκος δεδομένων,
deep surveillance on all of us
μια βαθιά παρακολούθηση όλων μας,
algorithms can work.
μηχανικής μάθησης.
to collect all the data it can about you.
όλα τα δεδομένα για εσάς.
στο παράδειγμα του Λας Βέγκας.
that we do not understand
to sell Vegas tickets
να πουλήσει εισιτήρια του Λας Βέγκας
and about to enter the manic phase.
και μπαίνουν σε μανιακό επειδόδιο.
overspenders, compulsive gamblers.
να είναι εθισμένοι στον τζόγο.
that's what they were picking up on.
καμιά ένδειξη ότι συνέλεξαν κάτι τέτοιο.
to a bunch of computer scientists once
σε μια ομάδα επιστημόνων της πληροφορικής
"That's why I couldn't publish it."
«Γι' αυτό δεν μπόρεσα να το δημοσιεύσω».
figure out the onset of mania
να καταλάβεις την έναρξη της μανίας
before clinical symptoms,
πριν τα κλινικά συμπτώματα,
or what it was picking up on.
πώς λειτούργησε ή τι συνέλεγε.
if he doesn't publish it,
αν δεν το εκδώσει,
this kind of technology,
αυτού του είδους την τεχνολογία,
is just off the shelf.
είναι απλά ετοιμοπαράδοτα.
meaning to watch one video
να δείτε ένα βίντεο
has this column on the right
έχει αυτή την στήλη στα δεξιά
that you might be interested in
ότι πιθανόν να ενδιαφέρεστε
Αυτό κάνουν οι αλγόριθμοι.
and what people like you have watched,
άνθρωποι όπως εσείς,
what you're interested in,
είναι που πρέπει να σας ενδιαφέρει,
και σας δείχνει κι άλλο.
and useful feature,
και χρήσιμη λειτουργία,
of then-candidate Donald Trump
του τότε υποψηφίου Ντόναλντ Τραμπ
the movement supporting him.
το κίνημα που τον υποστήριζε.
so I was studying it, too.
έτσι μελετούσα κι αυτό.
about one of his rallies,
σχετικά με μία από τις συγκεντρώσεις του,
κάμποσες φορές στο YouTube.
white supremacist videos
ακραία ρατσιστικά βίντεο
or Bernie Sanders content,
ή του Μπέρνι Σάντερς,
and autoplays conspiracy left,
της αριστερής συνομωσίας,
είναι η πολιτική, αλλά δεν είναι.
this is politics, but it's not.
την ανθρώπινη συμπεριφορά.
figuring out human behavior.
about vegetarianism on YouTube
για τη χορτοφαγία στο YouTube
and autoplayed a video about being vegan.
ένα βίντεο για το πώς να γίνω βίγκαν.
hardcore enough for YouTube.
σκληροπυρηνικός για το YouTube.
του YouTube είναι ιδιοταγής,
show them something more hardcore,
να τους δείχνεις κάτι πιο σκληροπυρηνικό,
να παραμείνουν στην ιστοσελίδα
going down that rabbit hole
μετά το άλλο μπαίνοντας σε βαθιά νερά
the ethics of the store,
κανέναν η δεοντολογία του καταστήματος,
να σκιαγραφήσουν ανθρώπους
anti-Semitic content,
αντισημιτικό περιεχόμενο,
με διαφημίσεις.
να ενεργοποιήσουν αλγόριθμους
anti-Semitic content on their profile
αντισημιτικό περιεχόμενο στο προφίλ τους,
may be susceptible to such messages,
να είναι επιρρεπείς σε τέτοια μηνύματα,
και αυτούς με διαφημίσεις.
like an implausible example,
σαν ένα απίθανο παράδειγμα,
do this on Facebook,
να το κάνεις αυτό στο Facebook,
offered up suggestions
προσέφερε προτάσεις
and very quickly they found,
και πολύ γρήγορα έμαθαν,
spent about 30 dollars
ξόδεψε γύρω στα 30 δολάρια
social media manager disclosed
μέσων του Ντόναλντ Τραμπ αποκάλυψε
to demobilize people,
αόρατες αναρτήσεις στο Facebook
να μην ψηφίσουν καθόλου.
they targeted specifically,
στόχευσαν συγκεκριμένα, για παράδειγμα,
in key cities like Philadelphia,
σε κομβικές πόλεις, όπως τη Φιλαδέλφεια,
exactly what he said.
τη θεαματικότητα,
we want to see it see it.
που θέλουμε εμείς.
to turn these people out."
να μεταστρέψει αυτούς τους ανθρώπους».
arranges the posts
αλγοριθμικά τις αναρτήσεις
or the pages you follow.
στις σελίδες που ακολουθείτε.
everything chronologically.
that the algorithm thinks will entice you
όπου ο αλγόριθμος
για να μείνετε κι άλλο στην ιστοσελίδα.
somebody is snubbing you on Facebook.
σας σνομπάρει στο Facebook.
be showing your post to them.
την ανάρτησή σας σε αυτούς.
some of them and burying the others.
κάποιες από αυτές και θάβει τι άλλες.
να σας δείξει ο αλγόριθμος
can affect your emotions.
on 61 million people in the US
σε 61 εκατομμύρια ανθρώπους στις ΗΠΑ
το «Σήμερα είναι η μέρα των εκλογών»,
"Today is election day,"
the one with that tiny tweak
αυτό με τη μικροδιόρθωση
που προβλήθηκε μόνο μια φορά
από τους εκλογικούς καταλόγους.
they repeated the same experiment.
επανέλαβαν το ίδιο πείραμα.
προβλήθηκε μόνο μία φορά
US presidential election
προεδρικές εκλογές το 2016
very easily infer what your politics are,
πολύ εύκολα ποιες είναι οι πολιτικές σας,
disclosed them on the site.
ποτέ στην ιστοσελίδα.
can do that quite easily.
να το κάνουν πανεύκολα.
του είδους τη δύναμη
of one candidate over the other?
του ενός υποψηφίου στον άλλο;
seemingly innocuous --
φαινομενικά, αβλαβές --
που μας ακολουθούν --
if we're seeing the same information
τις ίδιες πληροφορίες
the beginning stages of this.
μπορούν να εξάγουν πανεύκολα
θρησκευτικές και πολιτικές απόψεις,
personality traits,
use of addictive substances,
να ταυτοποιήσουν διαδηλωτές
are partially concealed.
είναι μερικώς κρυμμένα.
to detect people's sexual orientation
τον σεξουαλικό προσανατολισμό των ανθρώπων
σε πλατφόρμες γνωριμιών.
to be 100 percent right,
εκατό τοις εκατό σωστές,
the temptation to use these technologies
στον πειρασμό να χρησιμοποιήσουν
some false positives,
κάποια ψευδή προτερήματα,
a whole other layer of problems.
ένα άλλο σωρό προβλήματα.
it has on its citizens.
που έχει στους πολίτες του.
face detection technology
ανίχνευσης προσώπου
και να συλλάβει ανθρώπους.
of surveillance authoritarianism
της απολυταρχικής παρακολούθησης
να κλικάρουν σε διαφημίσεις.
Orwell's authoritarianism.
ο απολυταρχισμός του Όργουελ.
is using overt fear to terrorize us,
φανερό φόβο για να μας τρομοκρατήσει,
αλλά θα το ξέρουμε,
are using these algorithms
χρησιμοποιούν αυτούς τους αλγόριθμους
the troublemakers and the rebels,
τους ταραξίες και τους επαναστάτες,
architectures at scale
αρχιτεκτονικές πειθούς
weaknesses and vulnerabilities,
ατομικές αδυναμίες και ευαισθησίες μας,
and neighbors are seeing,
και οι συμπολίτες μας,
will envelop us like a spider's web
σαν τον ιστό μιας αράχνης
πως είμαστε μέσα του.
as a persuasion architecture.
ως μια αρχιτεκτοντική πειθούς.
που εξαπολύθηκαν πάνω μας
πιο προσαρμόσιμους στις διαφημίσεις
personal and social information flows,
τις πολιτικές, προσωπικές
των πληροφοριών μας.
because they provide us with great value.
επειδή μας παρέχουν μεγάλη αξία.
with friends and family around the world.
με οικογένεια και φίλους σε όλο τον κόσμο.
social media is for social movements.
δικτύων στα κοινωνικά κινήματα.
these technologies can be used
να χρησιμοποιηθούν αυτές οι τεχνολογίες
σε όλο τον κόσμο.
you know, Facebook or Google
το Facebook ή την Google
or the world more polarized
well-intentioned statements
people in technology make that matter,
οι άνθρωποι της τεχνολογίας,
and business models they're building.
μοντέλα που οικοδομούν.
of half a trillion dollars
απατεώνας 500 δισεκατομμυρίων δολαρίων
as a persuasion architecture,
is of great concern.
είναι αρκετά ανησυχητική.
μια απλή συνταγή,
digital technology operates.
της ψηφιακής μας τεχνολογίας.
technology is developed
ανάπτυξης της τεχνολογίας
economic and otherwise,
οικονομικά ή μη,
να αντιμετωπίσουμε
created by the proprietary algorithms,
από ιδιοταγείς αλγόριθμους,
of machine learning's opacity,
της μηχανικής μάθησης,
that's being collected about us.
που συλλέγονται για εμάς.
την τεχνολογία μας,
artificial intelligence
στους ανθρώπινους στόχους μας
by our human values.
από τις ανθρώπινες αξίες μας.
δεν θα είναι εύκολο.
on what those terms mean.
ούτε στην έννοια αυτών των όρων.
depend on for so much operate,
από τα οποία είμαστε τόσο εξαρτημένοι,
this conversation anymore.
άλλο αυτή τη συζήτηση.
να κάνουμε και τι όχι.
χρηματοδοτούμενες πλατφόρμες,
that we are the product that's being sold.
ότι εμείς είμαστε το προϊόν προς πώληση.
authoritarian or demagogue.
σε έναν δικτάτορα ή δημαγωγό.
that Hollywood paraphrase,
την παράφραση του Χόλιγουντ,
and digital technology to blossom,
και της ψηφιακής τεχνολογίας να ανθίσουν,
this prodigious menace,
αυτή την τεράστια απειλή,
ABOUT THE SPEAKER
Zeynep Tufekci - Techno-sociologistTechno-sociologist Zeynep Tufekci asks big questions about our societies and our lives, as both algorithms and digital connectivity spread.
Why you should listen
We've entered an era of digital connectivity and machine intelligence. Complex algorithms are increasingly used to make consequential decisions about us. Many of these decisions are subjective and have no right answer: who should be hired, fired or promoted; what news should be shown to whom; which of your friends do you see updates from; which convict should be paroled. With increasing use of machine learning in these systems, we often don't even understand how exactly they are making these decisions. Zeynep Tufekci studies what this historic transition means for culture, markets, politics and personal life.
Tufekci is a contributing opinion writer at the New York Times, an associate professor at the School of Information and Library Science at University of North Carolina, Chapel Hill, and a faculty associate at Harvard's Berkman Klein Center for Internet and Society.
Her book, Twitter and Tear Gas: The Power and Fragility of Networked Protest, was published in 2017 by Yale University Press. Her next book, from Penguin Random House, will be about algorithms that watch, judge and nudge us.
Zeynep Tufekci | Speaker | TED.com