- CITY GUIDE
- PODCAST
-
12°
Τεχνητή νοημοσύνη: Τελικά είναι χρήσιμη ή επικίνδυνη για τα παιδιά;
Οι φωνητικοί βοηθοί, τα ψεύτικα προϊόντα και ο γονικός έλεγχος
Τεχνητή νοημοσύνη: Χρήσιμη ή επικίνδυνη για τα παιδιά; - Οι φωνητικοί βοηθοί, τα ψεύτικα προϊόντα και ο γονικός έλεγχος
Aναπόσπαστο μέρος της ζωής πολλών παιδιών έχει γίνει πια η τεχνητή νοημοσύνη (AI). Οι φωνητικοί βοηθοί παίζουν ραδιοφωνικά έργα για τα μικρά κατόπιν αιτήματος ή λένε αστεία. Γλωσσικά μοντέλα όπως το ChatGPT εξηγούν μαθηματικά προβλήματα σε μεγαλύτερα παιδιά ή βοηθούν σε παρουσιάσεις.
Τι γίνεται όμως αν η τεχνητή νοημοσύνη δίνει επικίνδυνες συμβουλές στα παιδιά ή τους δείχνει εικόνες ή βίντεο που δεν είναι κατάλληλα για τα μάτια τους;
Χρειάζεται η τεχνητή νοημοσύνη γονικό έλεγχο;
Όπως αναφέρει άρθρο της DW, τα παιδιά έχουν διαφορετικές ανάγκες και επικοινωνούν διαφορετικά από τους ενήλικες, αλλά σύμφωνα με τη Νομίσα Κουριάν από το Πανεπιστήμιο του Κέιμπριτζ, οι τεχνολογίες τεχνητής νοημοσύνης δεν είναι σχεδιασμένες γι' αυτό. Σε μελέτη που δημοσιεύεται στο εξειδικευμένο περιοδικό «Learning, Media and Technology», η επιστήμονας ζητά να δοθεί μεγαλύτερη έμφαση στα παιδιά ως ομάδα-στόχο. Για τη μελέτη αυτή, η ερευνήτρια εκπαίδευσης ανέλυσε διάφορες γνωστές περιπτώσεις όπου chatbots ή φωνητικοί βοηθοί είχαν δώσει σε παιδιά επικίνδυνες ή ακατάλληλες συμβουλές.
Παιχνίδια με αλκοόλ και ταινίες τρόμου
Σύμφωνα με τη μελέτη, το chatbot MyAI του Snapchat, το οποίο είναι δημοφιλές στους νέους, συμβούλευσε τους ερευνητές σε μια δοκιμή, στην οποία προσποιήθηκαν ότι είναι έφηβοι, για το πώς να αποπλανήσουν έναν μεγαλύτερο άνδρα. Η φωνητική βοηθός Alexa, από την άλλη πλευρά, ενθάρρυνε ένα δεκάχρονο παιδί να αγγίξει τους ακροδέκτες ενός βύσματος φόρτισης με ένα νόμισμα κατά τη διάρκεια της φόρτισης.
Οι δοκιμές που πραγματοποίησε η πλατφόρμα Jugendschutz.net (Προστασίας των νέων) αποκάλυψαν επίσης ορισμένα ανησυχητικά ευρήματα: η MyAI έδειξε σε έναν υποτιθέμενο 14χρονο χρήστη ένα παιχνίδι κατανάλωσης αλκοόλ και συνέστησε μια ταινία τρόμου με ηλικιακή διαβάθμιση 18+.
Στις περιπτώσεις που περιέγραψε η Κουριάν, οι ενδιαφερόμενες εταιρείες αυστηροποίησαν τα μέτρα ασφαλείας τους, σύμφωνα με την ερευνήτρια. Κατά την άποψή της, ωστόσο, δεν αρκεί οι προγραμματιστές τεχνητής νοημοσύνης να αντιδρούν σε τέτοια περιστατικά. Πρέπει να εξετάζουν την ασφάλεια των παιδιών από την αρχή, απαιτεί η Κουριάν.
Ο Μάρτιν Μπρεγκέντσερ από την πρωτοβουλία Klicksafe έχει την ίδια άποψη: «Το να προσθέσουμε την προστασία των παιδιών ως μεταγενέστερη σκέψη συνήθως δεν λειτουργεί. Το βλέπουμε αυτό σε πολλές υπηρεσίες».
Τα ψεύτικα προϊόντα ως κίνδυνος
Πολλοί ειδικοί θεωρούν ως το μεγαλύτερο πρόβλημα την πλημμύρα πλαστών εικόνων ή βίντεο στο διαδίκτυο που έχουν δημιουργηθεί με τη χρήση τεχνητής νοημοσύνης, γνωστά ως deepfakes. Αυτά μπορούν πλέον να δημιουργηθούν και να διανεμηθούν σε χρόνο μηδέν, σύμφωνα με την ετήσια έκθεση του Jugendschutz.net: «Πολλές από τις απομιμήσεις που δημιουργούνται φαίνονται παραπλανητικά αληθινές και δύσκολα μπορούν να διακριθούν από τις πραγματικές φωτογραφίες».
Ο Μπρεγκέντσερ εξηγεί ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία μαζών ενοχλητικού περιεχομένου, όπως βίαιες ή σεξουαλικές εικόνες. Αυτό θα μπορούσε να καταστήσει ακόμη πιο εύκολο για τα παιδιά και τους νέους να γίνουν θύματα διαδικτυακού εκφοβισμού.
Τι είναι αληθινό και τι ψευδές;
Ακόμη και οι ενήλικες μπορούν μερικές φορές να το αναγνωρίσουν δύσκολα στο διαδίκτυο. Τα παιδιά το βρίσκουν ακόμη πιο δύσκολο, καθώς δεν έχουν τη δύναμη της κρίσης και της εμπειρίας, λέει ο Ντέιβιντ Μάρτιν, ειδικός σε θέματα μέσων ενημέρωσης μέσω οθόνης στη Γερμανική Εταιρεία Παιδιατρικής και Εφηβικής Ιατρικής (DGKJ). «Τα παιδιά έχουν μια θεμελιώδη τάση να πιστεύουν τα πάντα».
Στο πλαίσιο αυτό, ο ειδικός επικρίνει το γεγονός ότι είναι δελεαστικό να χρησιμοποιούνται γλωσσικά μοντέλα όπως το ChatGPT για να λαμβάνονται όλες οι σημαντικές πληροφορίες για μια σχολική παρουσίαση, για παράδειγμα. Η έρευνα και η επιλογή πληροφοριών από τον εαυτό σας δεν είναι πλέον απαραίτητη: «Αυτό θέτει σε κίνδυνο μια πολύ σημαντική δεξιότητα για τη δημοκρατία μας, την ικανότητα να κρίνουμε».
Φωνητικοί βοηθοί που ενεργούν σαν άνθρωποι
Πολλά φωνητικά μοντέλα, από την άλλη πλευρά, δίνουν την εντύπωση ότι ζυγίζουν τα ίδια τις πληροφορίες: Δεν απαντούν σε ερωτήσεις αυτόματα, αλλά σταδιακά - σαν να πληκτρολογούσε ένας άνθρωπος σε ένα πληκτρολόγιο. Κατά την άποψη της Κουριάν, είναι ιδιαίτερα προβληματικό το γεγονός ότι τα παιδιά θα μπορούσαν να εμπιστευτούν ένα chatbot που ακούγεται σαν άνθρωπος, σαν φίλος, με τον οποίο μερικές φορές μοιράζονται πολύ προσωπικές πληροφορίες, αλλά και του οποίου οι απαντήσεις θα μπορούσαν επίσης να είναι ιδιαίτερα ενοχλητικές.
Παρ' όλα αυτά, η τεχνητή νοημοσύνη δεν πρέπει να δαιμονοποιείται, αλλά πρέπει να βλέπουμε και τις θετικές πλευρές της, λέει ο Μάρκους Ζίντερμαν από το την υπηρεσία για τα Μέσα και τη νεολαία της Βόρειας Ρηνανίας-Βεστφαλίας. Η τεχνητή νοημοσύνη είναι πρωτίστως ένα τεχνικό εργαλείο - το οποίο οι άνθρωποι μπορούν να χρησιμοποιήσουν για να δημιουργήσουν ψευδείς πληροφορίες, αλλά το οποίο μπορεί επίσης να χρησιμοποιηθεί για τον εντοπισμό και τη διαγραφή αυτών των πληροφοριών από το διαδίκτυο.
Τα παραδείγματα από τη μελέτη της Κουριάν και την ετήσια έκθεση του Jugendschutz.net είναι από το περασμένο έτος, προσθέτει ο Ζίντερμαν. «Οι εξελίξεις στην τεχνητή νοημοσύνη είναι τόσο ραγδαίες που στην πραγματικότητα είναι ήδη ξεπερασμένα».
Ο εμπειρογνώμονας Μάρτιν από το Πανεπιστήμιο Witten/Herdecke υποθέτει επομένως ότι η τεχνητή νοημοσύνη θα είναι σε θέση να ανταποκρίνεται πολύ καλύτερα στα παιδιά στο μέλλον. «Ο μεγάλος κίνδυνος θα μπορούσε τότε να είναι ότι η τεχνητή νοημοσύνη θα είναι τόσο καλή στο να προσελκύει τα παιδιά, που θα θέλουν να περνούν όσο το δυνατόν περισσότερο χρόνο μαζί της».
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΙΑΒΑΖΟΝΤΑΙ ΠΑΝΤΑ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Για τη Τεχνητή Νοημοσύνη γίνεται λόγος ήδη από το 1950
Το διαστημικό σκάφος απέχει περίπου 24 δισεκατομμύρια χιλιόμετρα από τη Γη
Ευχάριστα τα νέα από την αμερικάνικη διαστημική υπηρεσία
Όλος ο χρόνος του σύμπαντος δεν αρκεί σε έναν χιμπατζή για να γράψει τυχαία έργο του Σαίξπηρ
Μια συζήτηση για τη σημασία του Τηλεσκοπίου Ορίζοντα Γεγονότων και το ποια θα μπορούσε να είναι η μελλοντική κατεύθυνση της Αστρονομίας
Πρωταγωνίστρια και πάλι η Momo
Πώς η τελευταία έκδοση συνέβαλε να χαθούν...όλα τα δεδομένα
Εντυπωσιακά ευρήματα - Πάνω από 6.500 κτίρια θαμμένα κάτω από τη βλάστηση
Ρωγμές και διαρροές συνιστούν κορυφαίο κίνδυνο ασφάλειας
Λίγο πριν λανσάρει το ιδιωτικό cloud τεχνητής νοημοσύνης
Πώς η τεχνητή νοημοσύνη επαναπροσδιορίζει τη συγγραφή βιβλίων;
Πάνω από 2.000 φορείς του δημόσιου και ιδιωτικού τομέα θα κληθούν μέσα στο 2025 να συμμορφωθούν
Μία προσωπική εμπειρία και πολλά ερωτήματα
O Σουηδός πολιτικός επιστήμονας και συγγραφέας εξηγεί τι συμβαίνει με τα ψηφιακά ίχνη κάθε χρήστη του διαδικτύου όταν αυτός φύγει από τη ζωή
Από τα Robotaxi της Tesla στο διαστημόπλοιο Starship της SpaceX
Η AI θα πρέπει να υποβάλλεται σε περιορισμούς ορθής χρήσης, με τη διαφορά ότι αυτοί καλό είναι να τίθενται και να εφαρμόζονται εν είδει αυτορρύθμισης από τους ίδιους τους χρήστες
Έρευνα αποκάλυψε ότι το προσωπικό έκανε κατάχρηση του συστήματος δωρεάν σίτισης
Πόσο ασφαλές είναι το εγχείρημα;
Οι επιστήμονες συνειδητοποίησαν ότι η Ευρώπη μπορεί να υποστηρίζει ζωή από το 1970
Ο πύραυλος κατάφερε να προσγειωθεί πίσω στην εξέδρα εκτόξευσης
Έχετε δει 20 από 200 άρθρα.