woman with phone scanning her face

Ό,τι είναι τεχνικά δυνατό δεν σημαίνει ότι είναι και νόμιμο

Η Λίλιαν Μήτρου μέσα από το νομικό της υπόβαθρο και την ιδιότητά της ως καθηγήτρια στο Πανεπιστήμιο Αιγαίου αποτελεί τον συνδετικό κρίκο τεχνολογικού και νομικού κόσμου. Η εις βάθος ενασχόλησή της και έρευνα για τα προσωπικά δεδομένα μας βοηθάει να καταλάβουμε την σύνδεσή τους με την τεχνητή νοημοσύνη (ΤΝ), την σημασία τους αλλά και τους κινδύνους που ελλοχεύουν. Τονίζει την ισορροπία που πρέπει να υπάρχει ανάμεσα στην εξέλιξη της τεχνολογίας και την κάλυψή της από ένα νομοθετικό πλαίσιο. 

Λίλιαν Μήτρου

Σύμφωνα με το βιογραφικό σας, κάνατε διδακτορικό πάνω στα προσωπικά δεδομένα το 1989. Τι σας ώθησε σε μια τέτοια ενασχόληση;

Μου άρεσαν πάρα πολύ τα νομικά και εξακολουθούν να μου αρέσουν. Ωστόσο, νομίζω ότι είχα πάντα μία διάθεση να διερευνήσω την τεχνολογία. Δεν το είχα συνειδητοποιήσει αυτό, αλλά πάντα είχα την περιέργεια να διερευνήσω νέα πράγματα. Και αυτό είναι κάτι το οποίο προτρέπω διαρκώς τους φοιτητές μου να κάνουν, είτε διδάσκω νομικούς είτε  πληροφορικούς ή μηχανικούς. Να είναι ανήσυχοι και να μην περιχαρακώνονται στα στενά πλαίσια του αντικειμένου τους. Είχα εντοπίσει ήδη από το δεύτερο έτος των προπτυχιακών σπουδών μου, ότι το ζήτημα ήταν η συσσώρευση της πληροφορίας και η δυνατότητα πολλαπλής αξιοποίησης ή και κατάχρησής της μέσω της ηλεκτρονικής επεξεργασίας. Υπήρχε μια συζήτηση για την προστασία προσωπικών δεδομένων σε επίπεδο μιας νομοπαρασκευαστικής επιτροπής που είχε συσταθεί, αλλά κανείς στη χώρα δεν συζητούσε δημόσια ή επιστημονικά και σχεδόν κανείς δεν γνώριζε τι σημαίνει προστασία δεδομένων. Οπότε επέλεξα να κάνω κάτι που θεωρούσα ότι έχει μέλλον και ενδιαφέρον. Επίσης λόγω της ειδικότητας μου στο δημόσιο δίκαιο, με ενδιέφερε πολύ από την άποψη των δικαιωμάτων. 

Έχοντας σπουδάσει νομική στο ΕΚΠΑ, όντως καθηγήτρια στο Πανεπιστήμιο Αιγαίου, στο τμήμα Μηχανικών Πληροφοριακών και Επικοινωνιακών Συστημάτων και παράλληλα με την ιδιότητα σας ως πρόεδρος στο Ινστιτούτο του Δικαίου Προστασίας της Ιδιωτικότητας, των Προσωπικών Δεδομένων και της Τεχνολογίας, θεωρείτε ότι σε αυτούς τους τρεις πυλώνες, συνδετικός κρίκος θα μπορούσε να είναι η τεχνητή νοημοσύνη;

Πολύ πριν από την τεχνητή νοημοσύνη, ο συνδετικός κρίκος ήταν οι επιδράσεις που είχε η τεχνολογία στην προστασία των δεδομένων και στην άσκηση των δικαιωμάτων στο δίκαιο. Στο Πανεπιστήμιο Αιγαίου όπου διδάσκω μηχανικούς, δεν τους διδάσκω μόνο προστασία δεδομένων που συνδέεται με την ασφάλεια συστημάτων, αλλά τους διδάσκω και εκείνα τα ζητήματα στα οποία η τεχνολογία έχει επιφέρει αλλαγές στο δίκαιο και ενδεχομένως επηρεάζει και τη δουλειά τους. Αυτό είναι το συνδετικό στοιχείο. Η τεχνητή νοημοσύνη είναι ένα κύμα τεχνολογικό που θέτει νέα ζητήματα στο δίκαιο. Ένα άλλο συνδετικό στοιχείο είναι η ένταξη των απαιτήσεων του δικαίου στον σχεδιασμό και ήδη από τον σχεδιασμό των συστημάτων. Έτσι μιλάμε για data protection by design, security by design, AI fairness by design. Το Ινστιτούτο έχει συσταθεί και λειτουργεί  στο πλαίσιο του Ευρωπαϊκού Οργανισμού Δημοσίου Δικαίου, του European Public Law Organisation, ο οποίος έχει status διεθνούς οργανισμού. Προσπαθούμε να φέρουμε κοντά την ακαδημαϊκή κοινότητα, την πολιτεία, τη διοίκηση σε ευρωπαϊκό και σε ελληνικό επίπεδο, τον ιδιωτικό τομέα και την έρευνα. 

Θα θέλατε να μας εξηγήσετε τι είναι τα πασίγνωστα cookies που όλοι και όλες τόσο εύκολα αποδεχόμαστε; 

Είναι σαφές ότι οι ρυθμοί γίνονται όλο και πιο γρήγοροι. Είσαι στο κινητό σου, έχεις ασύρματη σύνδεση, έχεις απεριόριστα δεδομένα ή δεν έχεις, είσαι στο λεωφορείο και θες να δεις μια ιστοσελίδα μέχρι την επόμενη στάση που θα κατεβείς. Και όταν σου εμφανίζονται τα cookies δεν σε ενδιαφέρει τι κάνουν, διότι οι όροι που σου προσφέρουν να διαβάσεις είναι εξαιρετικά μακροσκελείς και συχνά  ακατανόητοι. Προσφέρουν την επίφαση της ενημέρωσης. Οι άνθρωποι έχουν την τάση να αποδέχονται τους όρους, γιατί είναι απαραίτητο για να μπουν σε μια υπηρεσία. Οπότε σκέφτονται ότι δεν θα πάθουν κάτι εάν γίνουν και αποδέκτες μιας διαφήμισης. Η αλήθεια είναι ότι οι άνθρωποι αποδέχονται ότι  χρησιμοποιούν υπηρεσίες με αντάλλαγμα τα δεδομένα τους. Δεν βοηθάει η εκτενής ενημέρωση. Δεν καταλαβαίνουν τι είναι τα cookies τρίτου μέρους, τα αναγκαία ή τα analytics, όταν δεν έχουν το κατάλληλο γνωστικό υπόβαθρο. Αν σε αυτό προσθέσουμε και τα περίφημα dark patterns που βασίζονται σε ευφυείς τεχνικές προώθησης και υπαρπαγής της συναίνεσης, τότε το πρόβλημα επιτείνεται. Τα ερωτήματα για τα cookies διαμορφώνονται με τρόπο ώστε να οδηγήσουν κάποιον να πει σε όλα ναι, συμφωνώ. Μερικές φορές νομίζεις ότι κάνεις επιλογή και στο τέλος καταλήγεις να λες ναι σε όλα επειδή είναι έτσι διαμορφωμένο το περιβάλλον. Γιατί οι άνθρωποι τείνουν στην ευκολία, να αποδέχονται πάντα το προκαθορισμένο και γιατί αποδέχονται αυτό που συμβαίνει με τα cookies ότι δηλαδή συλλέγεται πληροφορία για αυτούς;

Άρα θεωρείτε ότι δεν έχουν καταλάβει την σημασία τους;

Θα αναφερθώ σε ένα παράδειγμα από τις Ηνωμένες Πολιτείες όπου κάποιος πάτησε μια μπανανόφλουδα σε ένα σουπερμάρκετ. Έπεσε, χτύπησε. Έμεινε εκτός δουλειάς δύο-τρεις μήνες και μετά απευθύνθηκε στο σουπερμάρκετ να πάρει αποζημίωση για την μπανανόφλουδα με την πρόφαση ότι δεν τηρούσαν τους κανόνες ασφάλειας. Το σουπερμάρκετ απάντησε ότι μέσω του προγράμματος επιβράβευσης πελατών έβλεπαν ότι έπαιρνε κάθε δεύτερη μέρα ένα μπουκάλι whisky, που σημαίνει ότι είναι μάλλον αλκοολικός και άρα δεν ξέρουν σε τι κατάσταση ήταν όταν του συνέβη το ατύχημα. Και σε κάθε περίπτωση δεν θα ήθελε να μάθει ο εργοδότης του ότι είναι αλκοολικός. Αναφέρω αυτό το παράδειγμα, γιατί μέχρι να σου συμβεί σε εσένα προσωπικά κάτι που θα αισθανθείς ότι θα σε απειλήσει, δεν έχεις την αίσθηση της αξίας της ιδιωτικότητας, της προστασίας προσωπικών δεδομένων.

Πρόσφατα ήρθε σε όλους μία ειδοποίηση ότι μπορούμε να πληρώνουμε στις εφαρμογές της Μeta (Facebook, Instagram) αν δεν θέλουμε να μας έρχονται εξατομικευμένες διαφημίσεις. Τι πιστεύετε για αυτό;

«Ok or pay» λέγεται αυτό. Εμείς πληρώνουμε ή δεν πληρώνουμε. Αυτό το ξεκίνησε η Μeta. Μετά από τα πρόστιμα που επέβαλαν οι ευρωπαϊκές αρχές για την παραβίαση των δεδομένων, κυρίως για την νομική βάση που χρησιμοποιούσε. Σύμφωνα με τη Μeta, oι όροι χρήσης που έχεις αποδεχτεί μπαίνοντας στην υπηρεσία, δημιουργώντας το προφίλ, συνιστούν είναι είδος σύμβασης, άρα έχεις συμφωνήσει σε όλα αυτά και δεν τίθεται θέμα συγκατάθεσης. Οι ευρωπαϊκές αρχές εξήγησαν ότι αυτό δεν είναι ένα “πακέτο”. Πρέπει να υπάρχει ειδική συγκατάθεση, διακριτή από την υπόλοιπη χρήση των υπηρεσιών. Ο Mark Zuckerberg είχε πει ότι δεν συμφέρει γιατί είναι προφανές ότι η χρήση αυτής της πλατφόρμας, που μας προσφέρει τόσες δυνατότητες, δεν μπορεί να είναι δωρεάν. Όμως δεν είναι δωρεάν, αφού το αντίτιμο είναι τα δεδομένα μας, εμείς είμαστε το αντίτιμο, η εικόνα μας  και οτιδήποτε αυτό σημαίνει. Ωστόσο, θα προσαρμοστεί σε αυτή την απαίτηση, αλλά θα πρέπει να πληρώνουμε αν θέλουμε να απολαμβάνουμε την ιδιωτικότητά μας, ως πολυτέλεια. Από επιχειρηματικής άποψης έχει μια λογική. Και η λογική είναι ότι σου προσφέρω μια υποδομή, μια πλατφόρμα, άρα πρέπει να πληρώσεις για να τη χρησιμοποιείς.  Άρα, πόσο είμαστε διατεθειμένοι να πληρώνουμε για μια αντιπαροχή; Υπάρχει και μιa άλλη διάσταση που αφορά την ισότητα στην απόλαυση των δικαιωμάτων: Συμπεραίνεται ότι όσο πιο πολλά λεφτά έχεις, τόσο πιο πολύ μπορείς να προστατεύεις τα δικαιώματά σου, είτε στην πληροφόρηση, είτε στην ιδιωτικότητα. Από τη λογική των δικαιωμάτων όμως αυτό δεν είναι αποδεκτό. 

Μπορείτε να μας εξηγήσετε τι είναι τα βιομετρικά δεδομένα

Bιομετρικά δεδομένα είναι η πληροφορία που προκύπτει από ειδική τεχνική επεξεργασία που συνδέεται με  φυσικά, βιολογικά ή συμπεριφορικά χαρακτηριστικά ενός ανθρώπου  και τα οποία επιτρέπουν π.χ. την ταυτοποίηση ενός προσώπου. Βιομετρικά δεδομένα είναι η ίρις του ματιού, το δακτυλικό αποτύπωμα, η κατανομή του προσώπου, το ηχόχρωμα της φωνής ή ο τρόπος πληκτρολόγησης. Για παράδειγμα όταν η 17 Νοέμβρη έστελνε τις προκηρύξεις της στην εφημερίδα «Ελευθεροτυπία» και ήταν προκηρύξεις σε χαρτί, λέγανε ότι προήλθε από την ίδια γραφομηχανή γιατί το π δεν είναι πατημένο πολύ, άρα είναι η ίδια γραφομηχανή. Πώς επιτρέπουν την ταυτοποίηση προσώπου; Για παράδειγμα έχω μία βάση με βιομετρικά ή συγκρίνω ένα πρόσωπο ως προς την κατατομή και βλέπω ότι ταυτίζεται με αυτό που έχω στη βάση ή δημιουργώ σιγά-σιγά βάση με τα πρόσωπα, ώστε να μπορώ να κάνω μία αναγνώριση εκ των υστέρων. Το Ευρωπαϊκό Κοινοβούλιο πρότεινε να απαγορευτεί η εξ αποστάσεως αναγνώριση προσώπου με χρήση τεχνητής νοημοσύνης. Τελικά, όπως συμφωνήθηκε, η Πράξη για την Τεχνητή Νοημοσύνη προβλέπει κάποιες εξαιρέσεις στην απαγόρευση της βιομετρικής ταυτοποίησης από απόσταση σε δημόσιους χώρους. Η αρχή προστασίας δεδομένων έχει επιτρέψει τη χρήση βιομετρικών για τον έλεγχο του δικαιώματος  πρόσβασης σε ευαίσθητες υποδομές, όπως στον πύργο ελέγχου του αεροδρομίου. Όμως, πρέπει να σημειώσω ότι ουσιαστικά υπάρχει μεγάλη διάχυση των βιομετρικών δεδομένων, όπως το ξεκλείδωμα του κινητού με την εικόνα μου ως μέτρο προστασίας. Αυτές οι πρακτικές ωστόσο εξοικειώνουν τους ανθρώπους να προσφέρουν το πρόσωπό τους ως αναγνωριστικό σημείο. 

Το ενδεχόμενο ο φοιτητής να εισέρχεται στα πανεπιστήμια μέσω βιομετρικών δεδομένων σας βρίσκει θετικά προσκείμενη; 

Όχι. Πιστεύω ότι πρέπει να έχει κάποιος την κάρτα του, η οποία θα του προσφέρει την νόμιμη είσοδο στο πανεπιστήμιο. Για παράδειγμα στο πανεπιστήμιο της Φρανκφούρτης όπου σπούδασα,  όταν μεταφέρθηκε το campus άλλαξαν και οι όροι πρόσβασης: Μπορούσες να μπεις στο campus ή στις καφετέριες αλλά για να μπεις στη βιβλιοθήκη, στα γραφεία, στα σπουδαστήρια πρέπει  να έχεις κάρτα. Για να μπεις σε κάποια άλλα κτίρια πρέπει  να έχεις καταχωριστεί ως επισκέπτης. Η ελεγχόμενη είσοδος είναι κάτι το οποίο με μια ευελιξία, με βρίσκει σύμφωνη. Αν όμως αυτό καταλήγει σε μορφές περισσότερο διεισδυτικές και επεμβατικές, όπως η εικόνα,  για μένα δεν είναι αποδεκτό, είναι μέτρο δυσανάλογο και δεν προσιδιάζει στον ακαδημαϊκό χώρο. Να σας αναφέρω και κάτι άλλο για να κατανοήσουμε τη σημασία της χρήσης της εικόνας. Η εταιρία Clearview συνέλεξε δεδομένα από τις δημόσια προσβάσιμες φωτογραφίες των προφίλ στα ψηφιακά  κοινωνικά δίκτυα. Υπάρχει τεχνολογία που επιτρέπει τον εντοπισμό προσώπων στα κοινωνικά δίκτυα, όπως μας έδειξε και το παράδειγμα του κατηγορούμενου ως τρομοκράτη στο Βέλγιο που πολύ γρήγορα κάποιοι  εντόπισαν παρελθούσα φωτογραφία του στο Μοναστηράκι. Μια τέτοια βάση που δημιουργείται από τα δημόσια, τα ανοιχτά προφίλ είναι ένας θησαυρός για τη δίωξη ενός εγκλήματος. Στις ΗΠΑ το χρησιμοποιούν χωρίς πρόβλημα. Στην Ευρωπαϊκή Ένωση δεν γίνεται αποδεκτό και πολλές αρχές προστασίας δεδομένων, συμπεριλαμβανομένης της ελληνικής, επέβαλαν πρόστιμο στην Clearview. Στην Clearview εναντιώθηκε το Facebook και το Twitter  για λόγους οικονομικούς, καθώς θεώρησαν ότι δεν επιτρέπεται να αντλείται πληροφορία με αυτόν τον τρόπο και να δημιουργείται μια βάση, η οποία αποτελεί αντικείμενο οικονομικής εκμετάλλευσης.

Θέλετε να μας πείτε πώς συνδέονται τα προσωπικά δεδομένα με την τεχνητή νοημοσύνη;

Πάρα πολλές χρήσεις της Τεχνητής Νοημοσύνης βασίζονται στην εκπαίδευση των μοντέλων και των συστημάτων με προσωπικά δεδομένα και βεβαίως κάνουν και ανάλυση προσωπικών δεδομένων για να βγάλουν αποτελέσματα, αναλύσεις, προγνώσεις. Πάρτε ως παράδειγμα τη χρήση ΤΝ σε συνδυασμό με ένα σύστημα credit scoring. Για να προκύψει μία πρόγνωση για το εάν κάποιος θα είναι συνεπής δανειολήπτης χρησιμοποιούνται αναλύσεις με προσωπικά δεδομένα. Ένα τέτοιο σύστημα εκπαιδεύεται διαρκώς με καινούργια πληροφορία σε σχέση με το ποιος αποπληρώνει ή όχι, ποια είναι τα χαρακτηριστικά αυτού που δεν αποπληρώνει, είναι άνεργος, ελεύθερος επαγγελματίας, δημόσιος υπάλληλος, γυναίκα, άντρας, πάνω από τα 30 κλπ. Όλα αυτά τα μοντέλα, όλες αυτές οι πληροφορίες  που αφορούν προφανώς προσωπικά δεδομένα χρησιμοποιούνται για να εκπαιδεύσουν μοντέλα. Σε μερικές περιπτώσεις μπορεί να είναι πολύ θετικό, όπως στον τομέα της υγείας. Ωστόσο και στην περίπτωση αυτή πρέπει να λαμβάνεται πρόνοια ώστε να γίνεται νόμιμα και με τρόπο που δεν παραβιάζει δεδομένα. Μπορεί π.χ. να το κάνει κάποιος με ανωνυμοποιημένα στοιχεία, με ψευδωνυμοποιημένα ή με συνθετικά δεδομένα. Δεν χρειάζεται να γίνει ονομαστικά για να βγάλεις ένα μοντέλο πρόγνωσης ή ένα μοντέλο θεραπείας.

Οι περισσότεροι νομικοί βλέπουν πιο σκεπτικά το θέμα της τεχνητής νοημοσύνης. Είναι λογική αυτή η καχυποψία; 

Οι δικηγόροι και οι δικαστές, εδώ και ένα εξάμηνο, έχουν θορυβηθεί από το ChatGPT. Η ανησυχία του δικηγόρου είναι ότι θα τον αντικαταστήσει στη σύνταξη π.χ. δικογράφων. Ακούγονται διάφορα, ότι το ChatGPT πέρασε τις εξετάσεις με 80% και αν δίναμε σε φοιτητές τις ίδιες εξετάσεις πολλοί θα είχαν αποτύχει. Αλλά επειδή εγώ είμαι πανεπιστημιακός, ξέρω ότι σημασία έχει πώς θέτεις  τα ερωτήματα. Αν εγώ ρωτήσω ποιο άρθρο στον αστικό κώδικα ρυθμίζει την προστασία της προσωπικότητας, αν δεν μπερδευτεί με τον Κυπριακό, πιο γρήγορα θα απαντήσει από κάποιον φοιτητή που δεν το θυμάται και δεν έχει και κώδικα μπροστά του. Αλλά αν κάνω τις ερωτήσεις με τέτοιο τρόπο που χρειάζεται συνδυαστική σκέψη που ακόμα δεν την έχει κατακτήσει, δεν έχουν λόγο να φοβούνται. Σε τυποποιημένες δραστηριότητες ενδεχομένως θα μπορούσαν να αντικαταστήσουν τους δικηγόρους αλλά και πάλι για παράδειγμα στην γραφή ενός εξώδικου μόνο υποστήριξη μπορούν να προσφέρουν. Δεν θεωρώ ότι ακόμα και σε μεταγενέστερο στάδιο ανάλυσης υπάρχει φόβος ειδικά στα νομικά, αφού η κάθε περίπτωση είναι διαφορετική. Αν δεν είναι διαφορετική δεν χρειάζεται τεχνητή νοημοσύνη για να λυθεί το θέμα. Στις εργασίες εξειδικευμένων και υψηλών απαιτήσεων δεν μπορεί να τους υποκαταστήσει. Και εδώ η απάντηση είναι εξειδίκευση, εξέλιξη.

Θέλετε να μας πείτε δύο λόγια για το δίλημμα του Collingridge και εσείς σε ποια πλευρά βρίσκεστε;

Ο Collingridge διατύπωσε το δίλημμα το 1994 και σχετιζόταν με το πότε πρέπει ο νομοθέτης και εν γένει ο ρυθμιστής να επεμβαίνει σε μία εξέλιξη, σε μια τεχνολογία -είτε πολύ νωρίς όταν διαβλέπω ήδη κάποια θέματα, με τον κίνδυνο να λειτουργήσω αναδραστικά στην τεχνολογία ή να μην έχω σαφή εικόνα ποια είναι τα προβλήματα, είτε να την αφήσω να εξελιχθεί και όταν διαγνώσω τα πραγματικά προβλήματα να έρθω να τα ρυθμίσω. Στην πρώτη περίπτωση έχεις ελλιπή γνώση, περιορισμένο ορίζοντα. Στη δεύτερη περίπτωση έχει διαμορφωθεί μία πραγματικότητα, την οποία είναι πολύ δύσκολο να ανατρέψεις, αφού οι εφαρμογές έχουν εδραιωθεί στην κοινωνία, στην οικονομία, στην καθημερινότητα. Για παράδειγμα εάν  πεις απαγορεύστε το ChatGPT, κάτι το οποίο κατάφερε σε πολύ σύντομο χρονικό διάστημα να είναι εργαλείο, έστω παιχνίδι, για εκατομμύρια καταναλωτές, θα συναντήσει μεγάλες αντιδράσεις. Η απάντηση στο δίλημμα του Collingridge ακούγεται λίγο “δικηγορίστικη”, αλλά αυτή είναι: η αλήθεια είναι κάπου στη μέση. Δεν πρέπει να προτρέχεις εμποδίζοντας, αν και σε μερικά σημεία πρέπει να βάζεις μια κόκκινη γραμμή όπως έγινε και στην κλωνοποίηση. Καλό είναι να καθορίσεις νωρίς τα πεδία στα οποία δεν επιτρέπεται κάτι. Και μετά να παρακολουθείς με μεγάλη ενάργεια τι συμβαίνει και να μπορείς να το αντιμετωπίσεις πριν καταλήξει να καθιερωθεί. Αν κάποιος μου έθετε το δίλημμα, θα έλεγα ότι προτιμώ το πολύ νωρίς από το πολύ αργά. 

Θεωρείτε ότι το κράτος σε θέματα της πληροφορικής ή της τεχνητής νοημοσύνης, ξεκινά τις συζητήσεις και παίρνει αποφάσεις έγκαιρα; 

Αναμφίβολα όχι. Εγώ συμμετείχα ως εκπρόσωπος της Ελλάδας για δύο χρόνια στη συζήτηση για τον GDPR, το 2013 και το 2014. Μέχρι το 2016 που υιοθετήθηκε ο GDPR η λέξη τεχνητή νοημοσύνη δεν είχε ακουστεί. Και όμως υπήρχαν ήδη εφαρμογές που θέτανε σοβαρά ζητήματα. Θεωρώ ότι τα αντανακλαστικά εδώ είναι σχετικά αργά λόγω άγνοιας και αδυναμίας αντίληψης. Είναι όμως και ζήτημα δικαιοπολιτικών επιλογών. Ας πούμε, οι Αμερικανοί επέλεξαν στη συζήτηση για την προστασία προσωπικών δεδομένων να μην προχωρήσουν σε ρυθμίσεις. Είχαν επιλέξει να ρυθμίσουν πολύ συγκεκριμένα την προστασία των ανηλίκων και την προστασία των γενετικών δεδομένων αλλά κατά τα λοιπά να διασφαλίσουν ότι θα υπάρχουν πολύ γρήγορες υποδομές για να τρέχουν την πληροφορία και να δημιουργηθεί περιεχόμενο και να δημιουργηθούν υπηρεσίες. Αντίστοιχα και η Ευρωπαϊκή Ένωση απείχε π.χ. από την ουσιαστική ρύθμιση του διαδικτύου. Τώρα που η Τεχνητή Νοημοσύνη διαδίδεται ραγδαία τα ζητήματα ξανατίθενται μετ’ επιτάσεως. Το AI Act, είναι η πρώτη προσπάθεια του νομοθέτη να ρυθμίσει το πώς θα λειτουργεί μια τεχνολογία, δεν είναι παράδοξη η δυστοκία, οι παλινωδίες, οι συμβιβασμοί συχνά στο επίπεδο του ελάχιστου κοινού παρονομαστή που παρατηρούνται. Διατυπώθηκε μια πρόταση ρύθμισης, την οποία τη συζητάνε από την άνοιξη του 2021 και φτάνει ο Νοέμβριος του 2022 και εμφανίζεται μαζικά το ChatGPT, και θέτει νέα ζητήματα. 

Η τεχνητή νοημοσύνη έδειξε ότι μπορεί μέσω ειδήσεων να τοποθετήσει έναν πυροσβέστη της ΕΜΑΚ στην Τουρκία. Μπορεί δηλαδή να ανοιχτεί ένας ασκός παραπληροφόρησης;

Ο διασώστης είχε όμως έξι δάχτυλα. Είναι πολύ ενδιαφέρον ότι παρατηρείται μεγάλη δυσκολία στην αναπαράσταση των χεριών. Το ότι βάζεις έναν υποτιθέμενο πυροσβέστη της ΕΜΑΚ στην Τουρκία εμένα δεν με ενοχλεί,  ακόμη και αν δεν ξέρω, γιατί υποτίθεται ότι έχει έναν συμβολισμό που τυχαίνει να είναι καλός. Θα μπορούσε όμως να είναι ένας στρατιώτης που αφήνει ένα παιδάκι στην Τουρκία να πεθάνει επειδή είναι από την Τουρκία. Για μένα το πρόβλημα με τα deepfakes σε συνδυασμό με το ChatGPT και όλα τα εργαλεία τεχνητής νοημοσύνης είναι ότι μπορεί να διογκώσουν την σκόπιμη παραπληροφόρηση, την χειραγώγηση των συναισθημάτων της κοινής γνώμης, την έξαρση δηλαδή του συναισθήματος που σου δημιουργεί μια τέτοια εικόνα. Δηλαδή, πιο πολύ φοβάμαι αυτό στο ChatGPT, παρά το να μου γράψει ένας φοιτητής μια εργασία με τη βοήθεια παραγωγικής Τεχνητής Νοημοσύνης. 

Θεωρείτε ότι το νομοθετικό πλαίσιο είναι επαρκές αυτή τη στιγμή;

Πώς θα ελεγχθεί αυτή η μηχανή αναζήτησης ή το κοινωνικό δίκτυο που θα προβεί σε διήθηση και σε ένα περιορισμό του περιεχομένου της πρόσβασης ανάλογα με το δικό του αξιολογικό κώδικα;

Όχι, δεν είναι επαρκές, όχι όμως γιατί δεν υπάρχει. Αυτή τη στιγμή η Ευρωπαϊκή Ένωση έχει πάθει μία φρενίτιδα ρυθμίσεων. Το θέμα είναι ότι παρόλα αυτά υπάρχουν κενά, δημιουργούνται υποχρεώσεις χωρίς να  υπάρχει μια συνεκτικότητα. Ας πούμε ότι έχουμε ένα σύστημα μπλοκαρίσματος του παράνομου περιεχομένου και ένα σύστημα μπλοκαρίσματος του περιεχομένου που συνιστά παραπληροφόρηση. Πρέπει να έχω μηχανισμούς οι οποίοι θα ελέγχουν τι είναι παραπληροφόρηση. Προ ημερών σε μια φίλη της έκοψε την ανάρτηση το Facebook όχι γιατί είχε προσβάλει κάποιον ή ένα δικαίωμα αλλά γιατί θεώρησε ότι επιζητεί τα likes. Ποιος μηχανισμός θα ελέγξει αν αυτό είναι υπέρμετρος περιορισμός; Σε έναν άλλο γνωστό μου που είχε ανεβάσει ένα άγαλμα από το μεγάλο λιμό στην Ουκρανία και του το κατέβασε γιατί θεωρήθηκε ότι είναι μισαλλόδοξος λόγος. Πώς θα ελεγχθεί αυτή η μηχανή αναζήτησης ή το κοινωνικό δίκτυο που θα προβεί σε διήθηση και σε ένα περιορισμό του περιεχομένου της πρόσβασης ανάλογα με το δικό του αξιολογικό κώδικα; Εκεί έχουμε κενά και θα εξακολουθήσουμε να έχουμε. 

Έχετε συμβάλει στην συγγραφή ενός βιβλίου, «Αν ο αλγόριθμος μπορεί να είναι δίκαιος, ηθικός, διαφανής, να δικάζει και να διοικεί». Εσείς τι πιστεύετε;

O αλγόριθμος δεν μπορεί να είναι πλήρως ηθικός όπως ούτε και οι άνθρωποι μπορούν να είναι.

Το βιβλίο το επιμελήθηκα εγώ με κεφάλαια που είναι γραμμένα από τους υποψήφιους διδάκτορες μου κι εμένα. Σε μερικά ερωτήματα συνειδητά δεν απαντήσαμε, όχι γιατί δεν ξέραμε, θα μπορούσαμε να δώσουμε μια προσωρινή απάντηση. Το βασικό που θέλαμε ήταν να ανοίξουμε τη συζήτηση. Η συμβολή του νομικού είναι να ανοίγει τη συζήτηση. Οι τελικές απαντήσεις δοκιμάζονται κάθε στιγμή από το επόμενο τεχνολογικό κύμα. Επομένως, σε μερικές περιπτώσεις ο αλγόριθμος δεν μπορεί να είναι πλήρως ηθικός όπως ούτε και οι άνθρωποι μπορούν να είναι, γιατί ένας αλγόριθμος σχεδιάζεται από ανθρώπους. Μπορεί σε κάποιο βαθμό να εντάξεις στο μοντέλο σου τις απαιτήσεις της έννομης τάξης. Το κλασικό παράδειγμα που αναφέρουμε στο βιβλίο είναι με την Amazon, η οποία άφηνε εκ των προτέρων εκτός προεπιλογής για διευθυντικά στελέχη τις γυναίκες. Είχε εκπαιδευτεί με ένα σύνολο δεδομένων που περιέχει μόνο άντρες ως διευθυντικά στελέχη. Εκεί μπορώ να αφαιρέσω την παράμετρο φύλου, αλλά και εκεί θέλει στάθμιση. Οπότε, με αυτή την έννοια δεν θα είναι ποτέ αποκλειστικά δίκαιος. Αν βάλουμε 17.000 δεδομένα και προσθέσουμε στην συνέχεια άλλα πέντε δεδομένα μπορεί το αποτέλεσμα να είναι διαφορετικό. Δεν είναι όμως βέβαιο ποιο από τα πέντε δεδομένα ήταν αυτά που άλλαξαν το αποτέλεσμα. Με αυτή την έννοια δεν θα έχω πλήρη διαφάνεια. Μπορώ όμως να έχω τη βεβαίωση πώς γίνεται τι, ποιες ήταν οι παράμετροι, τα καθοριστικά μου δεδομένα. Έτσι ώστε να μπορεί κάποιος να αντιληφθεί και να αμφισβητήσει ενδεχομένως το αποτέλεσμα. Άρα, να υπάρχει μια διαφάνεια στην επεξήγηση (explainable AI), στη γνώση της χρήσης. Μπορεί να είναι σε κάποιο βαθμό διαφανής, δίκαιος, όχι όμως τελείως.