Τεχνολογια - Επιστημη

Asma Mhalla: «Με την τεχνολογία ίσως καταλήξουμε να γίνουμε "κυβερνοστρατιώτες"»

Συνέντευξη με την ακαδημαϊκό με αφορμή την ομιλία της στο Φεστιβάλ Φιλοσοφίας του Γαλλικού Ινστιτούτου

Μαρίνα Ανδριωτάκη
7’ ΔΙΑΒΑΣΜΑ

Asma Mhalla: Συνέντευξη της Γαλλο-Τυνήσιας ακαδημαϊκού που συμμετείχε στο Φεστιβάλ Φιλοσοφίας του Γαλλικού Ινστιτούτου για την AI και τη γεωπολιτική

Η Asma Mhalla είναι διδάκτορας πολιτικών επιστημών και ερευνήτρια στο Εργαστήριο Πολιτικής Ανθρωπολογίας (LAP) της Σχολής Ανωτέρων Σπουδών στις Κοινωνικές Επιστήμες (EHESS). Η Γαλλο-Τυνήσια ειδικός σε θέματα γεωπολιτικής της Τεχνολογίας και Τεχνητής Νοημοσύνης συμβουλεύει κυβερνήσεις και φορείς σε θέματα δημόσιας τεχνολογικής πολιτικής, ενώ το έργο της επικεντρώνεται στις πολιτικές και γεωπολιτικές αναδιαμορφώσεις που επιφέρουν οι νέες τεχνολογίες: παραπληροφόρηση, κοινωνικά δίκτυα και προκλήσεις της δημοκρατίας, γεωπολιτική της τεχνητής νοημοσύνης, τεχνολογική κυριαρχία, νέες μορφές εξουσίας και ισχύος μεταξύ επιχειρήσεων Big Tech και κρατών.

Εμείς μιλήσαμε μαζί της με αφορμή τις ομιλίες της στο Φεστιβάλ Φιλοσοφίας που διοργάνωσε το Γαλλικό Ινστιτούτο Ελλάδος σε συνεργασία με το περιοδικό Philosophie Magazine, στους κήπους της Γαλλικής Σχολής, όπου μέσα από τις ομιλίες και τις συζητήσεις μπορέσαμε να στοχαστούμε πάνω στο θέμα της τεχνητής νοημοσύνης, από διάφορες κοινωνικοπολιτικές σκοπιές. Η Asma Mhalla μας αφύπνισε μιλώντας για τον ρόλο των Tech Giants στην γεωπολιτική σκηνή, τις θεωρίες συνομωσίας γύρω από την τεχνητή νοημοσύνη, τις ψευδείς ειδήσεις και την ατομική μας ευθύνη για την προστασία της δημοκρατίας.

Asma Mhalla: Συνέντευξη με την ακαδημαϊκό με αφορμή την ομιλία της στο Φεστιβάλ Φιλοσοφίας του Γαλλικού Ινστιτούτου

Μπορείτε να μας δώσετε μια εικόνα για το πώς αρχίσατε να ενδιαφέρεστε για τη διασταύρωση της τεχνολογίας, της τεχνητής νοημοσύνης και της γεωπολιτικής;
Η αλήθεια είναι ότι έχω ένα υβριδικό προφίλ. Ξεκίνησα την καριέρα μου στον τομέα της εταιρικής τραπεζικής, ο οποίος στην πραγματικότητα δεν είναι ένας πολύ διαφορετικός κλάδος και συνδέεται άμεσα με τη γεωπολιτική. Πήρα μια πρώτη «γεύση» από την έννοια της μεγάλης ανατρεπτικής καινοτομίας σε εθνικό επίπεδο, όπως και όλους τους κινδύνους που από πίσω, τις ταμειακές ροές, τα γεωπολιτικά διακυβεύματα κλπ. Αυτό δεν ήταν αρκετό για μένα όμως, ήθελα να βρω ένα συγκεκριμένο πλαίσιο. Δεν είμαι data scientist, η άποψή μου δεν είναι τεχνική αφορά δεδομένα, πιο πολύ ανθρωποκεντρική και κοινωνιολογική θα την χαρακτήριζα.

Στο δοκίμιο «Technopolitique: Comment la technologie fait de nous des soldats»που πρόσφατα εξέδωσα, ασχολούμαι με το πώς μπορούμε να κατανοήσουμε τον Τόμας Χομπς, τον Μαρξ κ.λπ. στο παρόν, μέσα από τον Έλον Μασκ και άλλους Tech Giants. Κατά αυτό τον τρόπο έγραψα το δοκίμιό μου, δεν έχει να κάνει με την τεχνολογία αμιγώς, αλλά με το πώς μπορούμε να επαναπροσδιορίσουμε και να ανανεώσουμε θεσμικές έννοιες, όπως η κυριαρχία, η δημοκρατία, το κράτος δικαίου κ.ά., χρησιμοποιώντας τους Tech Giants ως κατευθυντήρια γραμμή για να κατανοήσουμε τα πράγματα. Είναι πολύ ενδιαφέρον το πως οι βασικές έννοιες εξελίσσονται. Κατά κάποιο παράξενο τρόπο παραμένουν απίστευτα ίδιες αλλά προσαρμόζονται και στα δεδομένα του παρόντος. 

Πώς η τεχνητή νοημοσύνη αναδιαμορφώνει τις γεωπολιτικές σχέσεις; Μπορείτε να δώσετε παραδείγματα για το πώς η τεχνητή νοημοσύνη επηρεάζει τις παγκόσμιες δομές εξουσίας;
Η τεχνητή νοημοσύνη και η γενεσιουργός τεχνητή νοημοσύνη πιο συγκεκριμένα (generative AI), όπως το Chat GPT και το Midjouney, δεν είναι από τη φύση τους κακοποιά στοιχεία και απειλή για τη δημοκρατία. Δεν έχει να κάνει με την τεχνολογία, αλλά με τη χρήση της, καθώς τα ζητήματα που μας ταλανίζουν είναι κοινωνικά, πολιτικά, γεωπολιτικά κλπ. Σίγουρα είναι ανθρώπινα και όχι τεχνολογικά, απλώς αυτά τα εργαλεία αλλάζουν την κλίμακα της παραπληροφόρησης, της κατάχρησης της πληροφορίας, της ξένης παρέμβασης κ.ά. Βιώνουμε δηλαδή ένα γεωπολιτικό τοπίο με τον πληροφοριακό πόλεμο που λαμβάνει χώρα στα μέσα κοινωνικής δικτύωσης με τα εργαλεία μικροστόχευσης όπως οι αλγόριθμοι. Η παραγωγή ψευδούς περιεχομένου όπως τα deepfakes, καθιστούν την παραπληροφόρηση βιομηχανία.

Επίσης είναι πολύ πιο φθηνό από ότι πιστεύουμε το να παραχθεί ένα deepfake στο dark web, γεγονός που το καθιστά ένα πολύ προσιτό εργαλείο χάους για τις δημοκρατίες μας. Συνεπώς το πρώτο πρόβλημα είναι η χρήση του και η κατάσταση του πολιτικού μας μοντέλου φυσικά. Πρέπει να γίνει αντιληπτό στον μέσο άνθρωπο ότι η παραπληροφόρηση και η χειραγώγηση στα μέσα κοινωνικής δικτύωσης, είναι απλώς το μέσο για να μας μεταφέρουν το μήνυμά τους και να μας «στρατολογήσουν».

Πορτραίτου της ακαδημαϊκού, Asma Mhalla © Vangelis Patsialos

Θεωρείται ότι υπάρχει κάποιου είδους τρόμος και παραφροσύνη γύρω από την Τεχνητή Νοημοσύνη;
Φυσικά και προέρχεται για αρχή από όλες τις αφηγήσεις της Silicon Valley και όλες τις διαμάχες μεταξύ των Tech Giants. Για παράδειγμα, ο Σαμ Άλτμαν και ο Έλον Μάσκ ήταν αρκετά φίλοι και επειδή διαφωνούσαν για τις στρατηγικές κατευθυντήριες γραμμές του AI εργαλείου τους, σταμάτησαν να συνεργάζονται. Ο Άλτμαν ξεκίνησε το Chat GPT στα τέλη του  2022, ένα εργαλείο «woke», δηλαδή ένα εργαλείο επαγρύπνησης εναντίον φυλετικών προκαταλήψεων και διακρίσεων. Αυτή η «woke» κουλτούρα διχάζει γενικώς τις ΗΠΑ και όχι μόνο. Αντίθετα, ο Μάσκ ήθελε να φτιάξει ένα «anti-woke» εργαλείο, οπότε όπως καταλαβαίνετε έχει νόημα τι όραμα, αξίες και ιδεολογία υπάρχει πίσω από την Τεχνητή Νοημοσύνη.

Ο υπαρξιακός κίνδυνος για την υπερνοημοσύνη που θα σκοτώσει την ανθρωπότητα και θα περιορίσει την εργασία κλπ. είναι όντως παραφροσύνη, αλλά δικαιολογείται γιατί οι άνθρωποι φοβούνται το άγνωστο. Αντίστοιχα με το όταν σπέρνεις τον τρόμο καλλιεργείς το hype γύρω από αυτό, ώστε μετά να έχεις επενδύσεις και κεφάλαια. Είναι επιχείρηση πρακτικά, απλό μάρκετινγκ, και ας ακούγεται κυνικό. Δεν υπάρχει καμία σούπερ τεχνητή νοημοσύνη που θα μας σκοτώσει, απλά πρόκειται για τα χρήματα. Θα πρέπει να είμαστε προσεκτικοί σχετικά με το ποιος το παράγει, τις αξίες, το όραμα και να ενημερωνόμαστε σχετικά με αυτό. 

Πιστεύετε ότι υπάρχει επαρκής εκπαίδευση γύρω από την Τεχνητή Νοημοσύνη;
Αντιμετωπίζουμε πραγματικά σοβαρό πρόβλημα στην εκπαίδευση. Όταν πρόκειται ειδικά για την παραπληροφόρηση, πρέπει να διδάξουμε στους ανθρώπους πώς να χρησιμοποιούν τα μέσα κοινωνικής δικτύωσης, κάτι που είναι πρακτικά μια νέα ανθρωπολογία. Η απαγόρευση, όπως για παράδειγμα έγινε με το Tik Tok, είναι ηλίθια, απλά χρειάζεται προσοχή στην προσωπική χρήση. Αυτό φυσικά είναι κάτι που δεν μπορούμε να ελέγξουμε, αλλά αν το καλοσκεφτείς γίνεται να είναι ελεγχόμενη η ελευθερία του λόγου; Είναι μια δημοκρατική αξία, και αν μπορείς να μετριάσεις τα πάντα, δεν έχουμε πια δημοκρατία. Άλλο ένα πρόβλημα με την εκπαίδευση είναι ότι χρειαζόμαστε να καλλιεργήσουμε την υπομονή μας. Ζούμε σε έναν κόσμο που τρέχει με ιλιγγιώδη ταχύτητα και θέλουμε όλα να γίνονται αμέσως. Εδώ μιλάμε για παραγωγή νέων πολιτών αλλά και μια ισχυρή δημόσια πολιτική, από γενναίους πολιτικούς με όραμα, που φυσικά έχουν εκλείψει.

Πώς βλέπετε το σημερινό τοπίο της τεχνολογικής κυριαρχίας μεταξύ των Big Tech και των κρατών; Ποιες είναι οι βασικές δυναμικές μεταξύ τους;
Αμφιθυμία και ασάφεια. Μεταξύ των μεγάλων κρατών (όπως οι ΗΠΑ, η Κίνα, το Ισραήλ κλπ.) και των τεχνολογικών κολοσσών τους, έχουμε ασάφεια, συνεργάζονται, αλλά δεν ελέγχουν τους τεχνολογικούς κολοσσούς καθώς χρειάζονται την καινοτομία τους για την μεταξύ τους αναμέτρηση. Προσπαθούν να βρουν τη σωστή ισορροπία, έναν τρόπο να έχουν δύναμη για να διατηρήσουν την ηγεσία τους, αλλά η Τεχνητή Νοημοσύνη είναι κύριος πυλώνας της στρατηγικής τους, ειδικά στην αντιπαλότητα μεταξύ Κίνας και Αμερικής. Πρέπει να διατηρήσουν την τεχνολογική τους πρόοδο και το οικοσύστημα καινοτομίας τους να είναι δυναμικό, αλλά να ρυθμίζεται και με βάση κοινωνικά θέματα όπως η δημοκρατία, η ψυχική υγεία, η εκπαίδευση, τα ανθρώπινα δικαιώματα κλπ.

Στιγμιότυπο από την ομιλία της στο Φεστιβάλ Φιλοσοφίας © Instagram @institutfrancaisgrece

Στη διάλεξή σας, διατυπώνετε έναν τολμηρό και ανησυχητικό ισχυρισμό, ότι η τεχνολογία μας μετατρέπει σε «στρατιώτες» και ότι κατά συνέπεια η δημοκρατία βρίσκεται σε κίνδυνο. Μπορείτε να μας δώσετε ένα περαιτέρω σχόλιο;
Στην εποχή του τεχνολογικού σοκ που βιώνουμε, τα πάντα έχουν διπλή χρήση, πολιτική και στρατιωτική. Μπορείτε να χρησιμοποιήσετε τα μέσα κοινωνικής δικτύωσης για να διαβάσετε τις ειδήσεις ή να παρακολουθείτε τι κάνει ο φίλος σας στο Instagram, την ίδια στιγμή όμως είναι «οπλισμένα». Αν βάλεις εμφυτεύματα στον εγκέφαλό σου μπορεί να είναι πολύ κουλ, αν είχες ένα ατύχημα και μπορείς χάρη σε αυτά να περπατήσεις ξανά, αλλά ταυτόχρονα, μπορούν να παρακολουθούν την εγκεφαλική σου δραστηριότητα. Θέλω να πω ότι αν η καθημερινή μας τεχνολογία έχει διπλή χρήση, είμαστε χρήστες αλλά και δυνητικός στόχος. Ίσως να καταλήξουμε συνεπώς να γίνουμε «κυβερνοστρατιώτες», επειδή όλος αυτός ο υβριδικός πόλεμος στον οποίο ζούμε τώρα, είναι ο νέος κανόνας, το νέο δόγμα, που αδυνατούμε ακόμα να κατανοήσουμε.

Τι είναι η τεχνολογική κυριαρχία και γιατί καθίσταται κρίσιμο ζήτημα για τα έθνη; Πώς μπορούν οι χώρες να την επιτύχουν απέναντι στους παγκόσμιους τεχνολογικούς γίγαντες;
Το πρόβλημα της τεχνολογικής κυριαρχίας είναι ότι τα μεγάλα εργαλεία της καινοτομίας,  παράγονται και σχεδιάζονται, μόνο από κάποιους φορείς, τους Tech Giants. Εμείς είμαστε απλώς μια αγορά γι' αυτούς, μια εξάρτηση που πρέπει να καταλάβουν οι πολιτικοί μας καθώς και ότι δεν έχουμε κάποια άλλη διέξοδο εκτός από το νόμο, τους κανόνες και φυσικά τη ρύθμιση. Στην Ευρώπη (αν και δεν είμαστε τεχνολογικά αυτόνομοι) είμαστε πολύ καλοί στη ρύθμιση. Κάνουμε πράξη το οτι εντός των συνόρων μας θα πρέπει να σέβεστε τους κανόνες μας. Αυτό όμως δεν αρκεί όμως. Αν εκλεγεί ο Τραμπ θα έχουμε πρόβλημα με την τεχνολογική εξάρτησή μας. Μη ξεχνάμε ότι η διακυβέρνηση αφορά την υποστήριξη και τη συμφωνία με τον σύμμαχο. 

Mε δύο εν εξελίξει πολέμους, ποιος ο ρόλος της τεχνητής νοημοσύνης σε όλο αυτό; 
Αυτό που είναι πραγματικά σοκαριστικό είναι ότι απλά, έχουμε όλο αυτό το λογισμικό τεχνητής νοημοσύνης που προσπαθεί να αυτοματοποιήσει τη στόχευση ανθρώπων, κτιρίων, με ένα πολιτικό κόστος εξαιρετικά υψηλό. Ένα από τα βασικά συμπεράσματα είναι ότι οι αποφάσεις αυτές λαμβάνονται με υπερταχεία ταχύτητα, με ελάχιστη ανθρώπινη παρέμβαση στην λήψη της απόφασης για έναν βομβαρδισμό για παράδειγμα. Έχουμε δυστυχώς τη λανθασμένη ιδέα ότι η τεχνητή νοημοσύνη είναι πολύ ακριβής, αλλά η πραγματικότητα μας δείχνει ότι μπορεί να γίνει ένα εργαλείο μαζικής καταστροφής.

Υπάρχουν μεγάλα ηθικά, δεοντολογικά, νομικά ερωτήματα και διλήμματα πάνω σε όλα αυτά. Παρόλο που γίνονται παγκόσμιες συζητήσεις σε φορείς όπως ο ΟΗΕ, πραγματικά στοιχηματίζω ότι η λύση θα βρεθεί όταν εμφανιστεί ένα πολύ μεγάλο σκάνδαλο, μεγαλύτερο και από την κατάσταση στη Γάζα όπως φαίνεται, και η κοινή γνώμη θα κλονιστεί. Η ιστορία επαναλαμβάνεται, καθώς δεν είμαστε σε θέση να περιορίσουμε τους εαυτούς μας και έτσι για άλλη μια φορά πρέπει να πάθουμε για να μάθουμε.