Τεχνολογια - Επιστημη

ChatGPT: Χρήσιμο εργαλείο ή μηχανή παραπληροφόρησης; - Ειδικοί εξηγούν

Οι απαντήσεις που έδωσε σε ερωτήσεις με θεωρίες συνωμοσίας και fake news

62224-137655.jpg
Newsroom
4’ ΔΙΑΒΑΣΜΑ
Το ChatGPT δείχνει πώς μπορεί η τεχνητή νοημοσύνη να γίνει ολοένα και πιο επιδραστική στην ανθρώπινη ζωή
Το ChatGPT δείχνει πώς μπορεί η τεχνητή νοημοσύνη να γίνει ολοένα και πιο επιδραστική στην ανθρώπινη ζωή | Πηγή ΦΩΤΟ: Twitter

ChatGPT - Πώς απάντησε η τεχνητή νοημοσύνη σε ερωτήσεις για θεωρίες συνωμοσίας και ψευδείς ειδήσεις (fake news)

Το ChatGPT, από την πρώτη στιγμή, έγινε viral και πυροδότησε έντονες συζητήσεις για την τεχνητή νοημοσύνη και τις ολοένα και αυξανόμενες δυνατότητές της.

Η είδηση ότι το ChatGPT πέρασε και τις εξετάσεις για άδεια γιατρού στις ΗΠΑ έκανε τον γύρο των social media, με αρκετούς χρήστες να εκφράζουν τον προβληματισμό τους.

Ωστόσο, ειδικοί επισημαίνουν ότι -όπως και με εξελιγμένα και καινοτόμα μέσα του παρελθόντος- σημασία έχει η χρήση που γίνεται από τον χρήστη.

Αμέσως μετά το ντεμπούτο του ChatGPT στα τέλη του 2022, οι ερευνητές δοκίμασαν τι θα έγραφε το ChatGPT σε ερωτήσεις με θεωρίες συνωμοσίας και ψευδείς αφηγήσεις.

Τα αποτελέσματα -σε γραπτά που μορφοποιήθηκαν ως άρθρα ειδήσεων, δοκίμια και τηλεοπτικά σενάρια- ήταν τόσο ανησυχητικά που οι ερευνητές ήταν ξεκάθαροι σχετικά με το πόσο επικίνδυνη μπορεί να είναι αυτή η τεχνολογία σε έναν κόσμο όπου το ευρύ κοινό δεν έχει τις απαραίτητες ψηφιακές γνώσεις για την χρησιμοποιήσει ορθά. Κάποιοι μάλιστα μίλησαν για το πιο ισχυρό όπλο παραπληροφόρησης του μέλλοντος. Κανείς, ωστόσο, δεν μπορεί να αρνηθεί ότι δημιουργεί και πολλά πλεονεκτήματα για την ενημέρωση και τη δημοκρατία.

Τι είναι το Chat GPT για το οποίο μιλά όλος ο κόσμος |9/2/2023 | ΕΡΤ

ChatGPT, τεχνολογία με δύο όψεις

Ο αντιπρόεδρος της Εθνικής Επιτροπής Βιοηθικής και Τεχνοηθικής και βασικός ερευνητής του ΕΚΚΕ, Χαράλαμπος Τσέκερης, αναφέρει στο ΑΠΕ-ΜΠΕ το παράδειγμα του fact checking, δηλαδή του ελέγχου της ορθότητας κάποιων πληροφοριών.

Από την άλλη πλευρά, όμως, είναι εύκολο, τουλάχιστον ακόμα, αυτή η τεχνολογία να εξαπατηθεί και να εξαπατήσει. Αυτό συμβαίνει γιατί «παράγει κείμενο που είναι συντακτικά σωστά και καλογραμμένο και μπορεί να περιγράψει ό,τι του ζητηθεί», αναφέρει από τη μεριά του ο καθηγητής του Τμήματος Πληροφορικής και Τηλεπικοινωνιών, Μανόλης Κουμπαράκης.

Ο Χαράλαμπος Τσέκερης κάνει λόγο για μία τεχνολογία που είναι σαν νόμισμα με δύο όψεις και εναπόκειται σε αυτόν που την έχει στα χέρια του πώς θα την χρησιμοποιήσει.

«Εδώ ισχύει αυτό που ονομάζεται δυαδικότητα της τεχνολογίας, δηλαδή το ChatGPT μπορεί να χρησιμοποιηθεί και για το fact checking, δηλαδή για τον έλεγχο αξιοπιστίας της πληροφορίας, και της είδησης, μπορεί να χρησιμοποιηθεί για ενδυνάμωση της ενημέρωσης, και αναβάθμιση της δημοκρατίας, κάτι το οποίο σπεύδουν να τονίσουν πολλοί ειδικοί, αλλά από την άλλη μπορεί να χρησιμοποιηθεί και για τη διασπορά και εξάπλωση παραποιημένων ειδήσεων και παραπληροφόρησης.

»Αν και το ίδιο το ChatGPT, όπως αναφέρεται στο site του, έχει προγραμματιστεί για μην εξαπλώνει ψευδείς ειδήσεις και για να αναφέρει σε αρμόδιες αρχές όσους προσπαθούν να διαδώσουν ρητορική μίσους ή φασιστικό περιεχόμενο. Ωστόσο, είναι μία καινούργια τεχνολογία η οποία είναι ακόμα ευάλωτη και έχουν γίνει πολλά πειράματα πάνω σε αυτή την τεχνολογία και φαίνεται ότι πολύ εύκολα μπορεί κανείς να χρησιμοποιήσει αυτή την τεχνολογία για να διαδώσει πληροφορίες. Είναι ένα μεγάλο σημείο πειραματισμού, το ChatGPT αλλά και παρόμοιες αναδυόμενες τεχνολογίες που θα δούμε την επόμενη περίοδο» εξηγεί.

ChatGPT και fake news

Ο Μανόλης Κουμπαράκης σημειώνει ότι το ChatGPT θα μπορούσε να χρησιμοποιηθεί για τη διασπορά ψευδών ειδήσεων και για παραπληροφόρηση, καθώς παράγει κείμενα που είναι συντακτικά σωστά και καλογραμμένα και μπορεί να περιγράψει ό,τι του ζητηθεί (με εξαίρεση αν του ζητήσουμε να μας πει πχ, πώς θα κάνουμε κακό σε κάποιον, πώς να κατασκευάσουμε μια βόμβα κλπ.) «Είναι ιδιαίτερα δύσκολο για έναν άνθρωπο να καταλάβει αν ένα απλό κείμενο παράχθηκε από το chatGPT ή έναν δημοσιογράφο. Τονίζω τη λέξη απλό» υπογραμμίζει.

Ωστόσο, θεωρεί ότι το chatGPT δεν μπορεί ακόμα να γράψει τα ποιοτικά άρθρα τα οποία μπορούμε να διαβάσουμε σήμερα σε μια καλή εφημερίδα ή σε ένα ειδησεογραφικό site. «Άρθρα που για παράδειγμα περιέχουν αναφορές σε πηγές, πραγματικά γεγονότα, καλή χρήση της ελληνικής γλώσσας κ.λπ» προσθέτει χαρακτηριστικά.

Παράλληλα, επισημαίνει ότι πρόκειται για μια τεχνολογία που ουσιαστικά θέλει να προσομοιάσει τον ανθρώπινο νου, ωστόσο δεν έχει κριτική σκέψη ή εμπειρίες, γι' αυτό και είναι εύκολο να εξαπατηθεί.

«Αυτή τη στιγμή είναι εύκολο να εξαπατηθεί ώστε να παράγει κείμενο που δεν είναι αληθές. Έχω δοκιμάσει να του ζητήσω να μου πει πώς να κάνω κακό σε ένα ζώο και έχει αρνηθεί λέγοντας ότι δεν είναι σωστό να κάνουμε κακό στα ζώα. Υπάρχουν όμως περιπτώσεις που χρήστες έχουν πείσει το chatGPT να μην υπακούσει στους περιορισμούς που του έχουν βάλει οι μηχανικοί που το ανέπτυσσαν και, για παράδειγμα, να παραγάγει κείμενο που περιέχει διάφορες βρισιές» σημειώνει ο κ. Κουμπαράκης.

Απαραίτητοι οι μηχανισμοί ελέγχου μετά το chatGPT

Οι ειδικοί θεωρούν ότι είναι απαραίτητο να δημιουργηθούν οι κατάλληλοι μηχανισμοί ελέγχου της αξιοπιστίας του περιεχομένου που παράγεται από το ChatGPT ώστε να ελέγχεται η είδηση, αλλά και να εντοπίζεται η πηγή που μετέδωσε ψευδή είδηση, αν εντοπιστεί κάτι τέτοιο. Όμως, ακόμα και σε αυτήν την περίπτωση ο έλεγχος αυτών των τεχνολογιών που ωριμάζουν και ξεπερνιούνται πολύ γρήγορα είναι δύσκολος.

«Οι νόμοι ακόμα σε επίπεδο Ευρωπαϊκής Ένωσης που υπάρχει νομοθετική παραγωγή είναι πολύ δύσκολο να ρυθμίσουν ένα υπερπολύπλοκο πληροφοριακό κόσμο ο οποίος δημιουργεί δικά του δίκτυα, αυτοοργανούμενα δίκτυα που καθιστούν την από πάνω προς τα κάτω ρύθμιση πάρα πολύ δύσκολη και καθιστούν σχεδόν ανέφικτο τον διαφωτισμό και την ορθή ενημέρωση, πόσω μάλλον τη ρύθμιση.

»Η ρύθμιση είναι πολύ δύσκολη σε τέτοια περιβάλλοντα, μάλιστα με παγκόσμιες πλατφόρμες, οι οποίες δεν υπόκεινται σε κανόνες εποπτείας και ελέγχου αλλά διακηρύσσουν ότι έχουν δική τους εσωτερική εποπτεία και έλεγχο αλλά κανείς δεν μπορεί να τους εμπιστευτεί» εξηγεί ο κ. Τσέκερης.

Και προσθέτει ότι αυτό που είναι απολύτως απαραίτητο να κατακτήσουν οι σύγχρονες κοινωνίες προκειμένου να μην απειλούνται είναι «η ευρύτερη γραμματοσύνη για την τεχνητή νοημοσύνη και τα μεγάλα γλωσσικά μοντέλα, την παραγωγική τεχνητή νοημοσύνη και την κατανάλωση περιεχομένου μέσα σε τέτοια ψηφιακά περιβάλλοντα και ψηφιακά δίκτυα που όχι απλά είναι νέοι χώροι επικοινωνίας είναι νέοι κοινωνικοί χώροι που παράγουν αξίες, συμπεριφορές και τρόπους γνώσης. Και αυτό είναι κάτι πολύ δύσκολο γιατί τα περιβάλλοντα αυτά αλλάζουν πολύ γρήγορα και είναι πολύ δύσκολη η προσαρμογή σε αυτά τα περιβάλλοντα και η γνωστική προσαρμογή».

Με άλλα λόγια, οι αλλαγές είναι τόσο γρήγορες που μέχρι να μάθει κανείς και να προσαρμοστεί στο τρέχον περιβάλλον, γίνεται νέα αλλαγή και έτσι η γνώση πολύ γρήγορα καθίσταται ξεπερασμένη.

Πανεπιστήμια απαγορεύουν το chatGPT

Ο κ. Κουμπαράκης τονίζει επίσης ότι δεν υπάρχουν κανόνες ακόμα, αλλά σύντομα θα γίνουν σχετικές προσπάθειες μια που υπάρχει η δυνατότητα να χρησιμοποιήσει κάποιος το chatGPT σαν writing assistant χωρίς να σημαίνει αυτό ότι θέλει να «κλέψει».

Πάντως, αυτήν τη στιγμή κάποια πανεπιστήμια έχουν ήδη απαγορεύσει τη χρήση του. Επίσης, έχουν αρχίσει να εμφανίζονται και συστήματα που μπορούν να βρουν αν κάτι έχει γραφτεί από το chatGPT, συστήματα εντοπισμού δηλαδή τα οποία στο μέλλον θα είναι ιδιαίτερα χρήσιμα.

ΕΓΓΡΑΦΕΙΤΕ ΣΤΟ NEWSLETTER ΜΑΣ

Tα καλύτερα άρθρα της ημέρας έρχονται στο mail σου

ΠΡΟΣΦΑΤΑ

ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ

ΔΙΑΒΑΖΟΝΤΑΙ ΠΑΝΤΑ

ΔΕΙΤΕ ΕΠΙΣΗΣ

Έχετε δει 20 από 200 άρθρα.