Μαρία-Ωραιοζήλη Κουτσουπιά: Η χρήση της τεχνητής νοημοσύνης επιβάλει τη σωστή ενημέρωση του πολίτη
- Γράφτηκε από τον/την Αντώνης Χατζηκυριακίδης
Με την εξέλιξη της τεχνολογίας η προστασία των προσωπικών μας δεδομένων αναδείχθηκε σε μείζον ζήτημα. Τη νομική διάσταση των ζητημάτων ηθικής που τίθενται με τη χρήση της τεχνητής νοημοσύνης, την έλλειψη διαφάνειας, τις πιθανές ανακρίβειες αλλά και τις εσφαλμένες αντιλήψεις, τον κίνδυνο παραβίασης της ιδιωτικότητας και πολλά ακόμα θέματα που αφορούν ειδικά τον ευαίσθητο τομέα της Υγείας, μας αναλύει η Δρ. Μαρία-Ωραιοζήλη Κουτσουπιά (Δικηγόρος σε Αθήνα και Βρυξέλλες – πρόεδρος της Rythmisis ( Εθνικό Ινστιτούτο Δικαίου Τεχνητής Νοημοσύνης, Προσωπικών Δεδομένων και Ψηφιακής Διακυβέρνησης) – διδάκτωρ Δικαίου Πληροφόρησης,
1. Είστε μια έγκριτη νομικός όπως γνωρίζω. Πώς αποφασίσατε να ασχοληθείτε με τον τομέα της τεχνητής νοημοσύνης. Ποιο ήταν το έναυσμα;
Ευχαριστώ πολύ. Ο τομέας της τεχνητής νοημοσύνης είναι σίγουρα ένας τομέας που κεντρίζει την προσοχή όλων μας. Δεν είναι λίγοι οι νέοι δικηγόροι που αποφοιτούν τώρα από τη Νομική και αναζητούν τρόπους να ασχοληθούν με το δίκαιο της τεχνολογίας και της τεχνητής νοημοσύνης. Και αυτό είναι θετικό νέο διότι ένας σύγχρονος Δικηγόρος πρέπει να ζει στο σήμερα και να γνωρίζει μεν τις βασικές αρχές του δικαίου, να αναγνωρίζει δε τα σύγχρονα προβλήματα και το μέλλον του δικαίου που έρχεται. Στην πράξη άλλωστε ο σημερινός Δικηγόρος θα ασχοληθεί σίγουρα στην πορεία του με τις ψηφιακές εξελίξεις ακόμα και αν επιλέξει την μάχιμη δικαστηριακή δικηγορία. Εμένα βέβαια η πορεία μου δεν ήταν αυτή εξαρχής, καθώς όταν τελείωσα τη Νομική και έκανα τα μεταπτυχιακά μου (2015-2017) η κατεύθυνση της τεχνητής νοημοσύνης ως εφαρμοσμένο δίκαιο, φάνταζε ιδιαίτερα απομακρυσμένη, τουλάχιστον από τις Ελληνικές νομικές σχολές. Το έναυσμα για τον εντοπισμό αυτού του τομέα δόθηκε μέσα από την διδακτορική μου έρευνα και εν συνέχεια από την πρακτική δικηγορική ενασχόληση με αυτό. Κατά την εκπόνηση της διατριβής μου που πραγματεύεται τον τρόπο λήψης επιστημονικών και σωστά πληροφορημένων αποφάσεων από τα κράτη, στο κεφάλαιο όπου εξέταζα τα τεχνολογικά μέσα που επιτυγχάνεται αυτή η πληροφόρηση και την αξιοποίηση των big data που έχουν στη διάθεση τους τα κράτη, κατέληξα ότι η τεχνολογία της τεχνητής νοημοσύνης είναι σίγουρα ένα από τα μέσα αυτά, ωστόσο η χρήση της θα πρέπει σίγουρα να ρυθμίζεται και να εποπτεύεται σύμφωνα με τους τότε κανόνες της Λευκής Βίβλου που εξέδωσε η Ευρωπαϊκή Επιτροπή ως ένα πρώτο κείμενο ρύθμισης του φαινομένου τεχνητής νοημοσύνης. Στη συνέχεια, έχοντας δει το θεωρητικό σκέλος της ρύθμισης των συστημάτων τεχνητής νοημοσύνης, εργάστηκα για πρώτη φορά (2022) σε αμερικανική δικηγορική εταιρεία όπου κλήθηκα να αντιμετωπίσω και να συμβουλεύσω νομικά περιπτώσεις χρήσης εκπαιδευμένων αλγορίθμων και μηχανικής μάθησης κατά την παραγωγή και κατασκευή φαρμάκων και ιατροτεχνολογικών συσκευών στην Ευρώπη. Συγκεκριμένα, έχοντας ήδη εργαστεί στην Ελλάδα στον τομέα του φαρμακευτικού δικαίου, συνέχισα την πορεία μου στον τομέα αυτό και στις Βρυξέλλες, εντασσόμενη στο τμήμα life sciences αμερικάνικης δικηγορικής εταιρείας το οποίο και περιλαμβάνει πλέον και τα συστήματα τεχνητής νοημοσύνης στην υγεία ως μια εξέλιξη του κλάδου. Βεβαίως, γρήγορα διαπίστωσα ότι χρειαζόμουν περαιτέρω εξειδίκευση στον κλάδο καθώς οι μεταπτυχιακές σπουδές μου στην Ελλάδα δεν ήταν προσανατολισμένες στις τεχνολογίες, παρακολούθησα και ένα Advanced master στις Βρυξέλλες όπου εξειδικεύτηκα στην ρύθμιση των τεχνολογιών υγείας εκπονώντας μελέτη που πραγματευόταν τα νομικά ζητήματα που γεννώνται από την χρήση τεχνητής νοημοσύνης σε τεχνολογίες υγείας. Έτσι, πολύ φυσικά, ήρθε και η ίδρυση του Εθνικού Ινστιτούτου Δικαίου Τεχνητής Νοημοσύνης, Προσωπικών Δεδομένων και Ψηφιακής Διακυβέρνησης, Rythmisis, το οποίο και ασχολείται ακριβώς με την ρύθμιση των συστημάτων αυτών και την αντιμετώπιση των κινδύνων με στόχο να ετοιμάσει την Ελλάδα ως ένα γόνιμο ευρωπαϊκό hub συζήτησης και προσέλκυσης τεχνολογιών AI.
2. H τεχνητή νοημοσύνη είναι πλέον κομμάτι της ζωή μας. Ωστόσο, υπάρχουν πολλά αναπάντητα ερωτήματα και πολλά επίσης νομικά ζητήματα που θα προκύψουν στο μέλλον από την εφαρμογή της. Για παράδειγμα:
- Τεχνητή νοημοσύνη και ηθική
- Τεχνητή νοημοσύνη και προκαταλήψεις
- Τεχνητή νοημοσύνη και προσωπικά δεδομένα
Τι πρέπει να γνωρίζουμε για κάθε έναν από αυτούς τους τομείς;
Έτσι είναι. Η τεχνητή νοημοσύνη ήταν εκεί πολύ πριν την αντιληφθούμε και φαίνεται πως ήρθε για να μείνει. Μάλιστα, θα παρατηρείτε ότι όσο περνάει ο καιρός, κάνει την παρουσία της πιο έντονη στη ζωή μας, βρίσκοντας ευρεία εφαρμογή σε κάθε κλάδο.
Ας ξεκινήσουμε λοιπόν από την ηθική. Εδώ, η συζήτηση είναι μεγάλη και ξεκινάει από το ηθικό δίλημμα ενός συστήματος τεχνητής νοημοσύνης, πχ ενός αυτόνομου οχήματος, το οποίο δεν μπορεί να στρίψει και πρέπει να αποφασίσει αν θα χτυπήσει ένα λεωφορείο ή ένα αυτοκίνητο που έχει μέσα παιδάκια ή δυο ηλικιωμένους. Η αντίδραση του συστήματος σε αντίθεση με τον άνθρωπο έχει προκαθοριστεί κατά την κατασκευή του και δεν μπορεί να προσαρμοστεί στα δεδομένα με την ίδια λογική όπως του ανθρώπου, διότι στερείται λογικής και ως ένα σημείο και ηθικής. Τα τρία βασικά ηθικά ζητήματα που τίθενται είναι η έλλειψη διαφάνειας ως προς την λειτουργία των μοντέλων, η έλλειψη αμεροληψίας ως προς τα αποτελέσματα που εξάγει ένα μοντέλο τεχνητής νοημοσύνης καθώς περιλαμβάνουν ανακρίβειες, εσφαλμένες αντιλήψεις και ενδεχομένως προκαταλήψεις (θα αναλύσουμε παρακάτω αυτό το ζήτημα) και ο κίνδυνος παραβίασης της ιδιωτικότητας. Ως προς την ρύθμιση της ηθικής στην τεχνητή νοημοσύνη και ιδιαίτερα στην ρομποτική που περιλαμβάνει εξελιγμένα γλωσσικά μοντέλα, έχει επικρατήσει η άποψη ότι καταρχήν θα πρέπει να εφαρμόζονται οι τρεις κανόνες του Assimov (I, Robot, 1952) για την ρομποτική, οι οποίοι περιλαμβάνουν τις εξής βασικές αρχές: – 1. Ένα ρομπότ θα πρέπει να μην βλάπτει τον άνθρωπο ή επιτρέπει μέσω της αδράνειας του να υποστεί βλάβη ένας άνθρωπος. – 2. Ένα ρομπότ θα πρέπει να υπακούει στις εντολές που του δίνει ένας άνθρωπος εκτός αν οι εντολές αυτές συγκρούονται με την πρώτη αρχή (περί μη βλάβης). -3. Ένα ρομπότ πρέπει να προστατεύει την ύπαρξη του, υπό την προϋπόθεση ότι αυτή η προστασία δεν συγκρούεται με τον πρώτο και τον δεύτερο κανόνα. Βεβαίως, δεδομένου ότι αυτές οι αρχές θεμελιώθηκαν αρκετά χρόνια πριν, ο σύγχρονος ευρωπαϊκός νομοθέτης έχει εκδώσει πιο εξειδικευμένες και αναλυτικές κατευθύνσεις για την ηθική στην τεχνητή νοημοσύνη, οι οποίες και ενσωματώνονται πλέον στον νεο Κανονισμό για την Τεχνητή Νοημοσύνη που μόλις εγκρίθηκε (AI Act). Συνεπώς η ηθική στην τεχνητή νοημοσύνη είναι ένα μεγάλο κεφάλαιο που ακόμη εξελίσσεται και πρόκειται συνεχώς να προσαρμόζεται στις νέες προκλήσεις που θέτουν τα σύγχρονα μοντέλα.
Ως προς τις προκαταλήψεις στην τεχνητή νοημοσύνη, το λεγόμενο bias, εδώ το πρόβλημα είναι περισσότερο πρακτικό και λιγότερο νομικό. Τα συστήματα τεχνητής νοημοσύνης τροφοδοτούνται με δεδομένα προκειμένου να αναπαράγουν λόγο, κείμενα και εικόνες (ανάλογα με το είδος του μοντέλου). Τα δεδομένα παράγονται από τις ανθρώπινες σκέψεις, απόψεις, ενέργειες (φυσικές και ψηφιακές) και δημιουργίες. Η σημερινή παγκόσμια κοινωνία που ζούμε (δυστυχώς) δεν είναι απαλλαγμένη από προκαταλήψεις, μεροληπτικές ιδέες και ρατσιστικές πρακτικές. Το ίδιο συμβαίνει και με τα δεδομένα που παράγουμε και εισάγουμε στα συστήματα τεχνητής νοημοσύνης προς επεξεργασία. Έτσι, αναπόδραστα λαμβάνουμε πίσω αποτελέσματα, απόψεις, αυτοματοποιημένες αποφάσεις και συμβουλές “biased”. Μάλιστα οι Αμερικανοί έχουν ονομάσει το πρόβλημα αυτό BIBO (Bias in bias out) χωρίς ωστόσο να έχουν καταφέρει να το επιλύσουν ακόμα. Το συγκεκριμένο πρόβλημα μάλιστα είναι ακριβώς ένα από τα σημαντικότερα και στον τομέα της υγείας. Έχουμε ήδη δει ότι οι περισσότερες κλινικές έρευνες στο παρελθόν λάμβαναν υπόψη τους μόνο άντρες και παρότι αφορούσαν ένα φάρμακο που απευθύνεται στο σύνολο του πληθυσμού, οι συνέπειες είχαν μελετηθεί κυρίως στους άντρες. Όταν λοιπόν ζητάμε από ένα σύστημα τεχνητής νοημοσύνης να επιλέξει κατάλληλους υποψήφιους για μια κλινική μελέτη, στη βάση προηγούμενων πρωτοκόλλων μελετών που θα εισάγουμε ως δεδομένα, εκείνο διαιωνίζει την προηγούμενη μεροληπτική πρακτική. Μάλιστα έχουμε αρκετές περιπτώσεις όπου αυτό συνέβη στην Αμερική, ευάλωτες ομάδες έμειναν έξω από κλινικές έρευνες και αυτό είχε ως αποτέλεσμα το ιατροτεχνολογικό προϊόν που κατασκευάστηκε να μην μπορεί να λειτουργήσει για αυτούς (π.χ. Να εντοπίσει με τεχνητή νοημοσύνη, καρκινικές ενδείξεις σε σκουρόχρωμο δέρμα). Η μοναδική έως τώρα αντιμετώπιση που συστήνεται για αυτές τις περιπτώσεις είναι η ανθρώπινη εποπτεία και παρέμβαση, μέχρι να φτιάξουμε τελικά συστήματα απαλλαγμένα από τις δικές μας κοινωνικές προκαταλήψεις ή τεχνολογίες που τις ανιχνεύουν.
Και πάμε στον τελευταίο αλλά εξίσου σημαντικό τομέα που αναφέρατε, τα προσωπικά δεδομένα. Με την εξέλιξη της τεχνολογίας η προστασία των προσωπικών μας δεδομένων αναδείχθηκε σε μείζον ζήτημα, στο οποίο τουλάχιστον η Ευρώπη δίνει ιδιαίτερη έμφαση. Ο πρόσφατος Κανονισμός για την προστασία των προσωπικών δεδομένων (GDPR) έδωσε μια ευρεία και πολύ χρήσιμη νομοθετική βάση για την εξασφάλιση των δικαιωμάτων των υποκειμένων των δεδομένων, τον καθορισμό των υποχρεώσεων όσων λαμβάνουν προσωπικά δεδομένα και τα επεξεργάζονται και τα όρια της χρήσης τους. Ωστόσο, με την έκρηξη της χρήσης της τεχνητής νοημοσύνης, νέες προκλήσεις γεννήθηκαν οι οποίες και νομικά αντιμετωπίζονται νομίζω με το υπάρχον πλαίσιο, τεχνικά όμως όχι ακόμα. Ζητήματα όπως η μαζική συλλογή προσωπικών δεδομένων, άνευ συναίνεσης με στόχο για παράδειγμα την βιομετρική αναγνώριση προσώπων και συναισθημάτων, ο κίνδυνος διαρροής προσωπικών δεδομένων και αναγνώρισης των προσώπων ακόμα και μέσα από ανωνυμοποιημένα δεδομένα, η δημιουργία προφίλ προσώπων και η έλλειψη ελέγχου ως προς τη μεταφορά δεδομένων εκτός Ευρώπης και την διατήρηση τους για πολύ μεγάλο διάστημα σε βάσεις δεδομένων, απασχολούν πλέον τους νομικούς αλλά και τους τεχνικούς συστημάτων τεχνητής νοημοσύνης προκειμένου να βρεθούν λύσεις. Ιδιαίτερα στην υγεία, όπου τα προσωπικά δεδομένα είναι ευαίσθητα, ανήκουν σε ειδική κατηγορία δηλαδή, το διακύβευμα είναι μεγάλο όταν χρησιμοποιούνται συστήματα τεχνητής νοημοσύνης, κυρίως ως προς τις διαρροές. Και αυτά δεν είναι σενάρια φαντασίας, καθώς έχουμε ήδη υποθέσεις διαρροής λόγω εσφαλμένων χειρισμών των συστημάτων ή κυβερνοεπιθέσεων στις ΗΠΑ, στο Ηνωμένο Βασίλειο και στην Ιταλία. Σε μια εκ των περιπτώσεων μάλιστα η διαρροή προσωπικών δεδομένων συνέβη κατά την χρήση του γνωστού σε όλους μας γλωσσικού μοντέλου ChatGPT. Αυτό λοιπόν που κρατάμε είναι η ιδιαίτερη προσοχή που πρέπει να δείχνουμε όταν εισάγουμε δεδομένα μας όπως αυτά της υγείας, σε συστήματα τεχνητής νοημοσύνης δεδομένου ότι τα συστήματα αυτά είναι ευαίσθητα όχι μόνο λόγω εξωτερικών απειλών αλλά και λόγω της εγγενούς ευαλωτότητας τους.
3. Η τεχνητή νοημοσύνη έχει βρει μεγάλο εύρος εφαρμογής και στην Υγεία όπως για παράδειγμα στις κλινικές μελέτες. Ωστόσο, η Υγεία αποτελεί ένα πολύ ευαίσθητο τομέα γιατί έχουμε να κάνουμε με άτομα ευάλωτα από κάποια πάθηση. Τι πρέπει να γνωρίζει ο ασθενής για να «προφυλάξει» τον εαυτό του και τα δικαιώματά του;
Πράγματι, επιβεβαιώνω από την πλευρά μου ως δικηγόρος εταιρειών που ασχολούνται με την υγεία, τα φάρμακα και τις τεχνολογίες, ότι ο τομέας ο οποίος έχει επενδύσει περισσότερο παγκοσμίως στην τεχνητή νοημοσύνη είναι αυτός της υγείας. Πέρα από την εισαγωγή της στην διαδικασία παρασκευής, ανακάλυψης νέων δραστικών ουσιών, ελέγχου ποιότητας και φαρμακοεπαγρύπνησης, η τεχνητή νοημοσύνη αναμένεται να κάνει θαύματα στην επιτάχυνση των κλινικών μελετών, άρα και στην επιτάχυνση της διαδικασίας έγκρισης νέων φαρμάκων. Η ως άνω χρήση, όταν πραγματοποιείται σύμφωνα με τα διεθνή πρότυπα που τώρα εκδίδονται (ISO, GMPs και κατευθυντήριες αρχές) ελλοχεύει μόνο ελάχιστους κινδύνους που μπορούν να εντοπιστούν από τα εκπαιδευμένα μάτια του ιατρικού προσωπικού και των ερευνητών. Το πρόβλημα έρχεται όταν τα συστήματα δεν έχουν ενσωματωθεί ορθώς εντός των παραδοσιακών διαδικασιών και δεν έχουν ελεγχθεί πριν από την χρήση τους σε φυσικό περιβάλλον.
Η προστασία των ασθενών ή των ευάλωτων ατόμων της κοινωνίας μας από αυτή την χρήση, στις κλινικές μελέτες ή ακόμα και στην παρακολούθηση της θεραπείας τους μέσω ψηφιακών «γιατρών», απαιτεί διαρκή ενημέρωση και επαγρύπνηση ως προς την συναίνεση που παρέχουν και ως προς τα μέσα που χρησιμοποιούνται από τους παρόχους υγείας. Βεβαίως, αναγνωρίζουμε όλοι ότι δεν είναι δυνατό ένας ασθενής να ελέγχει την φαρμακευτική εταιρεία ή το νοσοκομείο καθώς έτσι διαρρηγνύεται η σχέση εμπιστοσύνης που οφείλουν να έχουν μεταξύ τους. Μια τέτοια σχέση ενισχύεται όταν οι εταιρείες στον κλάδο της υγείας διαθέτουν και παρέχουν ανοιχτά στο κοινό μια διαφανή πολιτική αναφορικά με την χρήση των τεχνολογιών στις διαδικασίες τους και τα μέτρα που λαμβάνουν για την ασφάλεια των συστημάτων τους. Μπορεί ωστόσο ο ασθενής όπως και κάθε πολίτης να γνωρίζει τα δικαιώματα του απέναντι στην χρήση τεχνολογιών και να τα ασκεί όταν είναι απαραίτητο, όπως επίσης να γνωρίζει και τις βασικές υποχρεώσεις των παροχών συστημάτων τεχνητής νοημοσύνης. Για παράδειγμα, ορισμένες από τις βασικές τους υποχρεώσεις σχετίζονται με την χρήση ορθών και «καθαρών» δεδομένων στα συστήματα που χρησιμοποιούν οι εταιρείες, την εξασφάλιση προστασίας από επιθέσεις και την αποφυγή δημιουργίας προφίλ ατόμων χωρίς την προηγούμενη γνώση και ενημέρωση τους και αλλά. Παράλληλα, βασικά δικαιώματα των ατόμων, τα δεδομένα των οποίων επεξεργάζεται σύστημα τεχνητής νοημοσύνης, αφορούν για παράδειγμα στην ενημέρωση τους περί αλληλεπίδρασης με αυτοματοποιημένα συστήματα τεχνητής νοημοσύνης καθώς και στην αιτιολόγηση μιας αυτοματοποιημένης απόφασης που λαμβάνεται για αυτούς. Συμπερασματικά, η ενημέρωση και η γνώση γύρω από την χρήση, τους κινδύνους και τα οφέλη της τεχνητής νοημοσύνης, είναι ο μόνος τρόπος προστασίας που διαθέτουμε απέναντι σε οποίες προκλήσεις έρχονται ή έχουν ήδη έρθει. Η γνώση καταπολεμά την παραπληροφόρηση και εξοπλίζει το άτομο με την απαραίτητη αυτοπεποίθηση για την αλληλεπίδραση του με τα συστήματα τεχνητής νοημοσύνης τα οποία βεβαίως συνεχώς εξελίσσονται ως εν δυνάμει νέοι κοινωνικοί συνομιλητές του ανθρώπου. Έτσι, με γνώση και έγκαιρα ρυθμιστικά μέτρα εξασφαλίζουμε ότι κανείς δεν μένει πίσω σε αυτό το τεράστιο βήμα της ανθρωπότητας.
Συνέντευξη στην Ανθή Αγγελοπούλου • Αυτή η διεύθυνση ηλεκτρονικού ταχυδρομείου προστατεύεται από τους αυτοματισμούς αποστολέων ανεπιθύμητων μηνυμάτων. Χρειάζεται να ενεργοποιήσετε τη JavaScript για να μπορέσετε να τη δείτε.