- ΑΡΧΙΚΗ
-
ΕΠΙΚΑΙΡΟΤΗΤΑ
-
ΠΟΛΙΤΙΣΜΟΣ
-
LIFE
-
LOOK
-
YOUR VOICE
-
επιστροφη
- ΣΕ ΕΙΔΑ
- ΜΙΛΑ ΜΟΥ ΒΡΟΜΙΚΑ
- ΟΙ ΙΣΤΟΡΙΕΣ ΣΑΣ
-
-
VIRAL
-
επιστροφη
- QUIZ
- POLLS
- YOLO
- TRENDING NOW
-
-
ΖΩΔΙΑ
-
επιστροφη
- ΠΡΟΒΛΕΨΕΙΣ
- ΑΣΤΡΟΛΟΓΙΚΟΣ ΧΑΡΤΗΣ
- ΓΛΩΣΣΑΡΙ
-
- PODCAST
- 102.5 FM RADIO
- CITY GUIDE
- ENGLISH GUIDE
Τεχνητή Νοημοσύνη: Η μεγάλη πρόκληση της ρύθμισης
Οι πρώτες δύσκολες εξισώσεις στο «κυνήγι» της έγκυρης ρύθμισης έχουν κάνει ήδη την εμφάνισή τους: το ChatGPT έχει προκαλέσει πονοκέφαλο στους αξιωματούχους της ΕΕ
Τεχνητή Νοημοσύνη: Ποιες ρυθμίσεις πρέπει να γίνουν ώστε να είναι ασφαλής. Τι γίνεται με την Νομοθετική Πράξη για την Τεχνητή Νοημοσύνη που προτάθηκε από την Ευρωπαϊκή Επιτροπή.
«Παραιτήθηκα ώστε να μπορώ να μιλάω για τους κινδύνους από την ΑΙ χωρίς να πρέπει να σκεφτώ με ποιον τρόπο αυτό θα επηρεάσει την Google». Με αυτά τα λόγια μέσω Twitter, ο Τζέφρι Χίντον ανακοίνωσε την προηγούμενη εβδομάδα πως μετά από 10 χρόνια στην Google αποφάσισε να αποχωρήσει, ώστε να μπορεί να τοποθετείται ελεύθερα για τις ανησυχίες του γύρω από την εξέλιξη της ΑΙ. Ο 75χρονος καταξιωμένος Βρετανός επιστήμονας είναι ευρέως γνωστός στους κύκλους των επιστημόνων πληροφορικής και θεωρείται πρωτοπόρος στο πεδίο της τεχνητής νοημοσύνης. Την τελευταία δεκαετία, ο Χίντον είχε επικεντρώσει τη δουλειά του στα προγράμματα μηχανικής μάθησης (“machine learning”) για τις ανάγκες του τεχνολογικού κολοσσού. Ο ίδιος μετά την αποχώρησή του από την Google τόνισε σε συνέντευξή του στους The New York Times πως ο μεγαλύτερός του φόβος είναι το γεγονός ότι η διάκριση μεταξύ πραγματικότητας και ενός πλαστού κόσμου φτιαγμένου εξολοκλήρου από λογισμικά AI, φαντάζει όλο και πιο πιθανός. Εάν οι δυνατότητες των προγραμμάτων και των εφαρμογών γίνουν απεριόριστες, το να πέσουν σε λάθος χέρια θα ήταν για τον ίδιο πραγματικά καταστροφικό.
Το να εκφράζει τόσο έντονη ανησυχία ένας άνθρωπος με σημαντικό μερίδιο ευθύνης για την εξέλιξη και τα μεγάλα βήματα που έχουν γίνει στο πεδίο της AI από τη δεκαετία του ’80 έως και σήμερα, προκάλεσε όπως είναι λογικό μεγάλη αναταραχή, προσφέροντας τροφή σε μία συζήτηση που τους τελευταίους μήνες παραμένει όλο και πιο επίμονα στην επικαιρότητα. Σε πρόσφατο άρθρο του στους The New York Times, ο πολιτικός σχολιαστής Τόμας Φρίντμαν προειδοποίησε πως η ανθρωπότητα πρέπει πια να συνειδητοποιήσει πως βρίσκεται αντιμέτωπη όχι με ένα, αλλά με δύο κουτιά της Πανδώρας: την τεχνητή νοημοσύνη και την κλιματική αλλαγή. Όντας κατηγορηματικός για το γεγονός πως και τα δύο κουτιά έχουν αρχίσει να ανοίγουν στα χέρια μας ταυτόχρονα, το μεγάλο στοίχημα για τον Φρίντμαν είναι εάν θα καταφέρουμε να αντεπεξέλθουμε στις επερχόμενες ανατροπές, αφενός από την πλευρά της ηθικής και αφετέρου από την πλευρά της ρύθμισης. Μπορεί οι δύο αυτοί πυλώνες να θεωρούνται για πολλούς ως οι αυτονόητες αρχές για τον αποτελεσματικό έλεγχο των νέων οικουμενικών προκλήσεων, όμως ο Φρίντμαν φέρνει ως παράδειγμα ένα άλλο μεγάλο πεδίο στο οποίο οι ρυθμιστικές και ηθικές επιταγές απέτυχαν παταγωδώς: τα μέσα κοινωνικής δικτύωσης.
Μία αληθινή επανάσταση στον τομέα της επικοινωνίας, της ενημέρωσης και της ψυχαγωγίας, όπως ήταν η έλευση των κοινωνικών δικτύων, αντιμετωπίσθηκε μάλλον με υπερχειλίζουσα αισιοδοξία και όχι με την αναγκαία, όπως φάνηκε εκ των υστέρων, αυστηρότητα και προσοχή. Οι ζωές δισεκατομμυρίων ανθρώπων –πλέον αποκαλούμενων «χρηστών»– άλλαξαν όταν στα χέρια τους ήρθαν εργαλεία με τα οποία μπορούσαν να αλληλεπιδράσουν, να προβάλουν τους ίδιους, την προσωπική και επαγγελματική τους ζωή, τα ενδιαφέροντά τους κ.λπ. Καθώς το Facebook ξεκίνησε ως μία εφαρμογή κοινωνικής αλληλεπίδρασης και φοιτητικού χαβαλέ, τα αντανακλαστικά όλων ήταν πλήρως μουδιασμένα, για να καταλήξουμε έτσι μετά από χρόνια στη σημερινή εικόνα της «ψηφιακής πλατείας»: παραπληροφόρηση, λόγος του μίσους, πολιτικά υποκινούμενα τρολ, παρενοχλήσεις και φαινόμενα revenge porn είναι μερικά παραδείγματα για το τι συναντά κανείς στη ζούγκλα των ψηφιακών πλατφορμών και για το πόσο καλά εκπαιδευμένος χρειάζεται να είναι ώστε να αποφύγει τις κακοτοπιές. Και η «ρύθμιση» για την αντιμετώπιση όλων των παραπάνω; Η ρύθμιση καθυστερεί, αποδεικνύεται αναποτελεσματική, συναντά νομικά ή τεχνοκρατικά εμπόδια κ.ο.κ. Οι εταιρίες των νέων μέσων μπορούν να δρουν πλέον ανεξέλεγκτες ως κράτος εν κράτει, και βεβαίως υπάρχει σημαίνουσα συμπληρωματική εξήγηση για αυτό: σύμφωνα με πρόσφατη έρευνα της Goldman Sachs, η αγορά της οικονομίας των influencers αναμένεται να διπλασιαστεί σε μέγεθος τα επόμενα 5 χρόνια από 250 δισεκατομμύρια δολάρια σήμερα σε 480 δισεκατομμύρια δολάρια έως το 2027. Ποιος θα τα βάλει με μια αγορά που δυνητικά θα αξίζει σύντομα σχεδόν μισό τρισεκατομμύριο;
Το αισιόδοξο είναι πως οι συζητήσεις γύρω από τους κινδύνους της ΑΙ έχουν εμφανώς ξεκινήσει και συνεχίζουν να εντείνονται με την υποστήριξη όλο και περισσότερων ενδιαφερόμενων μερών, ο λόγος των οποίων έχει βαρύτητα και επιρροή, βρίσκοντας έτσι ευήκοα ώτα. Ωστόσο, οι πρώτες δύσκολες εξισώσεις στο «κυνήγι» της έγκυρης ρύθμισης έχουν κάνει ήδη την εμφάνισή τους: το ChatGPT έχει προκαλέσει πονοκέφαλο στους αξιωματούχους της ΕΕ. Η Νομοθετική Πράξη για την Τεχνητή Νοημοσύνη που προτάθηκε από την Ευρωπαϊκή Επιτροπή το 2021, σχεδιάστηκε για να απαγορεύσει ορισμένες εφαρμογές τεχνητής νοημοσύνης, όπως η χειραγώγηση και ορισμένες περιπτώσεις αναγνώρισης προσώπου. Θα όριζε επίσης ορισμένες συγκεκριμένες χρήσεις της τεχνητής νοημοσύνης ως «υψηλού κινδύνου», δεσμεύοντας τους προγραμματιστές σε αυστηρότερες απαιτήσεις διαφάνειας, ασφάλειας και εκτεταμένης ανθρώπινης εποπτείας στα υπό ανάπτυξη λογισμικά. Το πρόβλημα με μια εφαρμογή όπως το ChatGPT είναι πως μπορεί να εξυπηρετήσει τόσο καλοήθεις όσο και κακοήθεις επιδιώξεις. Ο συγκεκριμένος τύπος τεχνητής νοημοσύνης δεν έχει στην πραγματικότητα ενιαία προβλεπόμενη χρήση, επομένως η νομοθετική πράξη δεν τον αγγίζει.
Σύμφωνα με το Politico, τα θεσμικά όργανα της ΕΕ χρειάστηκε να ξαναγράψουν τα προσχέδια τους εξαιτίας της άρτι αφιχθείσας εφαρμογής παραγωγής λόγου. Το Ευρωπαϊκό Συμβούλιο ενέκρινε την έκδοση του Σχεδίου Νόμου περί Τεχνητής Νοημοσύνης τον Δεκέμβριο του 2022, το οποίο θα αναθέσει στην Ευρωπαϊκή Επιτροπή τη θέσπιση απαιτήσεων κυβερνοασφάλειας, διαφάνειας και διαχείρισης κινδύνου για AI «γενικής χρήσης». Με αυτές τις εξελίξεις, η ραγδαία άνοδος του ChatGPT πρακτικά ανάγκασε το Ευρωπαϊκό Κοινοβούλιο να ακολουθήσει το παράδειγμά του, μορφοποιώντας ανάλογα τη νομοθετική του πρωτοβουλία. Τον περασμένο Φεβρουάριο, οι επικεφαλής νομοθέτες του σχεδίου νόμου για την τεχνητή νοημοσύνη πρότειναν τα συστήματα ΑΙ που δημιουργούν περίπλοκα κείμενα χωρίς ανθρώπινη επίβλεψη να ενταχθούν στη λίστας «υψηλού κινδύνου», σε μία προσπάθεια να αποφευχθεί εγκαίρως η χρήση του ChatGPT ως ένα εργαλείο παραπληροφόρησης σε τεράστια κλίμακα. Με το σχέδιο νόμου να βρίσκεται ακόμη υπό συζήτηση στο Ευρωκοινοβούλιο, το σίγουρο είναι πως οι διαπραγματεύσεις που θα ακολουθήσουν με την ίδια την εταιρία αναμένονται σκληρές, ανεξαρτήτως του τελικού κειμένου. Πόσες όμως άλλες νέες και διαφορετικές εφαρμογές θα έχουν βγει μέχρι να εγκριθεί η νομοθεσία στο Ευρωκοινοβούλιο, που αναμένεται να τεθεί σε εφαρμογή αρχές του 2025, αφού συμφωνήσουν και τα κράτη-μέλη;
Το κουτί της Πανδώρας με την ΑΙ που έχουμε στο χέρι μας δεν έχει ακόμη ανοίξει πλήρως αποκαλύπτοντας όλη την ισχύ και τις δυνατότητές του. Όμως, εάν οι δυτικές κυβερνήσεις δεν συνειδητοποιήσουν τώρα κιόλας πως επιμένουν να μην κινούνται αρκετά γρήγορα, ενδέχεται να βρεθούμε αντιμέτωποι με πραγματικά επικίνδυνες καταστάσεις. Και τότε, θα είναι πολύ αργά για οποιαδήποτε «ρύθμιση».