Τεχνητή νοημοσύνη: Τελικά είναι χρήσιμη ή επικίνδυνη για τα παιδιά;
Οι φωνητικοί βοηθοί, τα ψεύτικα προϊόντα και ο γονικός έλεγχος
Τεχνητή νοημοσύνη: Χρήσιμη ή επικίνδυνη για τα παιδιά; - Οι φωνητικοί βοηθοί, τα ψεύτικα προϊόντα και ο γονικός έλεγχος
Aναπόσπαστο μέρος της ζωής πολλών παιδιών έχει γίνει πια η τεχνητή νοημοσύνη (AI). Οι φωνητικοί βοηθοί παίζουν ραδιοφωνικά έργα για τα μικρά κατόπιν αιτήματος ή λένε αστεία. Γλωσσικά μοντέλα όπως το ChatGPT εξηγούν μαθηματικά προβλήματα σε μεγαλύτερα παιδιά ή βοηθούν σε παρουσιάσεις.
Τι γίνεται όμως αν η τεχνητή νοημοσύνη δίνει επικίνδυνες συμβουλές στα παιδιά ή τους δείχνει εικόνες ή βίντεο που δεν είναι κατάλληλα για τα μάτια τους;
Χρειάζεται η τεχνητή νοημοσύνη γονικό έλεγχο;
Όπως αναφέρει άρθρο της DW, τα παιδιά έχουν διαφορετικές ανάγκες και επικοινωνούν διαφορετικά από τους ενήλικες, αλλά σύμφωνα με τη Νομίσα Κουριάν από το Πανεπιστήμιο του Κέιμπριτζ, οι τεχνολογίες τεχνητής νοημοσύνης δεν είναι σχεδιασμένες γι' αυτό. Σε μελέτη που δημοσιεύεται στο εξειδικευμένο περιοδικό «Learning, Media and Technology», η επιστήμονας ζητά να δοθεί μεγαλύτερη έμφαση στα παιδιά ως ομάδα-στόχο. Για τη μελέτη αυτή, η ερευνήτρια εκπαίδευσης ανέλυσε διάφορες γνωστές περιπτώσεις όπου chatbots ή φωνητικοί βοηθοί είχαν δώσει σε παιδιά επικίνδυνες ή ακατάλληλες συμβουλές.
Παιχνίδια με αλκοόλ και ταινίες τρόμου
Σύμφωνα με τη μελέτη, το chatbot MyAI του Snapchat, το οποίο είναι δημοφιλές στους νέους, συμβούλευσε τους ερευνητές σε μια δοκιμή, στην οποία προσποιήθηκαν ότι είναι έφηβοι, για το πώς να αποπλανήσουν έναν μεγαλύτερο άνδρα. Η φωνητική βοηθός Alexa, από την άλλη πλευρά, ενθάρρυνε ένα δεκάχρονο παιδί να αγγίξει τους ακροδέκτες ενός βύσματος φόρτισης με ένα νόμισμα κατά τη διάρκεια της φόρτισης.
Οι δοκιμές που πραγματοποίησε η πλατφόρμα Jugendschutz.net (Προστασίας των νέων) αποκάλυψαν επίσης ορισμένα ανησυχητικά ευρήματα: η MyAI έδειξε σε έναν υποτιθέμενο 14χρονο χρήστη ένα παιχνίδι κατανάλωσης αλκοόλ και συνέστησε μια ταινία τρόμου με ηλικιακή διαβάθμιση 18+.
Στις περιπτώσεις που περιέγραψε η Κουριάν, οι ενδιαφερόμενες εταιρείες αυστηροποίησαν τα μέτρα ασφαλείας τους, σύμφωνα με την ερευνήτρια. Κατά την άποψή της, ωστόσο, δεν αρκεί οι προγραμματιστές τεχνητής νοημοσύνης να αντιδρούν σε τέτοια περιστατικά. Πρέπει να εξετάζουν την ασφάλεια των παιδιών από την αρχή, απαιτεί η Κουριάν.
Ο Μάρτιν Μπρεγκέντσερ από την πρωτοβουλία Klicksafe έχει την ίδια άποψη: «Το να προσθέσουμε την προστασία των παιδιών ως μεταγενέστερη σκέψη συνήθως δεν λειτουργεί. Το βλέπουμε αυτό σε πολλές υπηρεσίες».
Τα ψεύτικα προϊόντα ως κίνδυνος
Πολλοί ειδικοί θεωρούν ως το μεγαλύτερο πρόβλημα την πλημμύρα πλαστών εικόνων ή βίντεο στο διαδίκτυο που έχουν δημιουργηθεί με τη χρήση τεχνητής νοημοσύνης, γνωστά ως deepfakes. Αυτά μπορούν πλέον να δημιουργηθούν και να διανεμηθούν σε χρόνο μηδέν, σύμφωνα με την ετήσια έκθεση του Jugendschutz.net: «Πολλές από τις απομιμήσεις που δημιουργούνται φαίνονται παραπλανητικά αληθινές και δύσκολα μπορούν να διακριθούν από τις πραγματικές φωτογραφίες».
Ο Μπρεγκέντσερ εξηγεί ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία μαζών ενοχλητικού περιεχομένου, όπως βίαιες ή σεξουαλικές εικόνες. Αυτό θα μπορούσε να καταστήσει ακόμη πιο εύκολο για τα παιδιά και τους νέους να γίνουν θύματα διαδικτυακού εκφοβισμού.
Τι είναι αληθινό και τι ψευδές;
Ακόμη και οι ενήλικες μπορούν μερικές φορές να το αναγνωρίσουν δύσκολα στο διαδίκτυο. Τα παιδιά το βρίσκουν ακόμη πιο δύσκολο, καθώς δεν έχουν τη δύναμη της κρίσης και της εμπειρίας, λέει ο Ντέιβιντ Μάρτιν, ειδικός σε θέματα μέσων ενημέρωσης μέσω οθόνης στη Γερμανική Εταιρεία Παιδιατρικής και Εφηβικής Ιατρικής (DGKJ). «Τα παιδιά έχουν μια θεμελιώδη τάση να πιστεύουν τα πάντα».
Στο πλαίσιο αυτό, ο ειδικός επικρίνει το γεγονός ότι είναι δελεαστικό να χρησιμοποιούνται γλωσσικά μοντέλα όπως το ChatGPT για να λαμβάνονται όλες οι σημαντικές πληροφορίες για μια σχολική παρουσίαση, για παράδειγμα. Η έρευνα και η επιλογή πληροφοριών από τον εαυτό σας δεν είναι πλέον απαραίτητη: «Αυτό θέτει σε κίνδυνο μια πολύ σημαντική δεξιότητα για τη δημοκρατία μας, την ικανότητα να κρίνουμε».
Φωνητικοί βοηθοί που ενεργούν σαν άνθρωποι
Πολλά φωνητικά μοντέλα, από την άλλη πλευρά, δίνουν την εντύπωση ότι ζυγίζουν τα ίδια τις πληροφορίες: Δεν απαντούν σε ερωτήσεις αυτόματα, αλλά σταδιακά - σαν να πληκτρολογούσε ένας άνθρωπος σε ένα πληκτρολόγιο. Κατά την άποψη της Κουριάν, είναι ιδιαίτερα προβληματικό το γεγονός ότι τα παιδιά θα μπορούσαν να εμπιστευτούν ένα chatbot που ακούγεται σαν άνθρωπος, σαν φίλος, με τον οποίο μερικές φορές μοιράζονται πολύ προσωπικές πληροφορίες, αλλά και του οποίου οι απαντήσεις θα μπορούσαν επίσης να είναι ιδιαίτερα ενοχλητικές.
Παρ' όλα αυτά, η τεχνητή νοημοσύνη δεν πρέπει να δαιμονοποιείται, αλλά πρέπει να βλέπουμε και τις θετικές πλευρές της, λέει ο Μάρκους Ζίντερμαν από το την υπηρεσία για τα Μέσα και τη νεολαία της Βόρειας Ρηνανίας-Βεστφαλίας. Η τεχνητή νοημοσύνη είναι πρωτίστως ένα τεχνικό εργαλείο - το οποίο οι άνθρωποι μπορούν να χρησιμοποιήσουν για να δημιουργήσουν ψευδείς πληροφορίες, αλλά το οποίο μπορεί επίσης να χρησιμοποιηθεί για τον εντοπισμό και τη διαγραφή αυτών των πληροφοριών από το διαδίκτυο.
Τα παραδείγματα από τη μελέτη της Κουριάν και την ετήσια έκθεση του Jugendschutz.net είναι από το περασμένο έτος, προσθέτει ο Ζίντερμαν. «Οι εξελίξεις στην τεχνητή νοημοσύνη είναι τόσο ραγδαίες που στην πραγματικότητα είναι ήδη ξεπερασμένα».
Ο εμπειρογνώμονας Μάρτιν από το Πανεπιστήμιο Witten/Herdecke υποθέτει επομένως ότι η τεχνητή νοημοσύνη θα είναι σε θέση να ανταποκρίνεται πολύ καλύτερα στα παιδιά στο μέλλον. «Ο μεγάλος κίνδυνος θα μπορούσε τότε να είναι ότι η τεχνητή νοημοσύνη θα είναι τόσο καλή στο να προσελκύει τα παιδιά, που θα θέλουν να περνούν όσο το δυνατόν περισσότερο χρόνο μαζί της».
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΙΑΒΑΖΟΝΤΑΙ ΠΑΝΤΑ
ΔΕΙΤΕ ΕΠΙΣΗΣ
«Ξεκλειδώνει το μεγάλο μυστικό της φύσης», λένε ειδικοί
Πώς κατάφεραν να το αποτυπώσουν οι αστρονόμοι
«Ένα είδος Google Maps για την κυτταρική βιολογία»
Συνέντευξη με τη Δρ. Ζωή Αικατερινίδη C.E.O. Software Competitiveness International
Επανέρχεται το ζήτημα της δεσπόζουσας θέσης του κολοσσού της τεχνολογίας - Τι σχεδιάζει ο Ντόναλντ Τραμπ
Τι σημασία έχει να αναπτυχθεί η ΤΝ, το διαδίκτυο ή η γενετική μηχανική αν δεν οδηγήσουν στην ευημερία των ανθρώπων και των άλλων έμβιων όντων;
Ο Μαρίνος Σιαπάνης, CEO & Co-Founder της κορυφαίας εταιρείας iGaming, μας εξηγεί τα σχέδια της επόμενης μέρας
Μήπως ήρθε η ώρα να μάθετε βασικά Κλίνγκον, ίσα για να συνεννοείστε στο εστιατόριο;
Πώς μπορεί να χρησιμοποιηθεί η δυνατότητα αυτή από απατεώνες
Το μεγαλύτερο συνέδριο για την Παραγωγική Τεχνητή Νοημοσύνη επιστρέφει στις 18 Νοεμβρίου 2024 στο ΚΠΙΣΝ
Το επόμενο βήμα στη σύγχρονη εκπαίδευση
Το Amazon Haul υπηρετεί ακριβώς το ίδιο μοτίβο με τους ανταγωνιστές του
Βροχή οι 70+ σε κατάστημα τεχνολογίας. Κουνούσαν με απελπισία τις έξυπνες συσκευές που τους έκαναν να νιώθουν βλάκες
Το viral μήνυμα της καμπάνιας της Telekom που μοιράστηκε η COSMOTE με στόχο την ευαισθητοποίηση σχετικά με τις online δημοσιεύσεις παιδικών φωτογραφιών
Το πορτρέτο του μαθηματικού Άλαν Τούρινγκ δημιουργήθηκε από το Ai-Da, ένα από τα πιο προηγμένα ρομπότ στον κόσμο
Για τη Τεχνητή Νοημοσύνη γίνεται λόγος ήδη από το 1950
Το διαστημικό σκάφος απέχει περίπου 24 δισεκατομμύρια χιλιόμετρα από τη Γη
Ευχάριστα τα νέα από την αμερικάνικη διαστημική υπηρεσία
Όλος ο χρόνος του σύμπαντος δεν αρκεί σε έναν χιμπατζή για να γράψει τυχαία έργο του Σαίξπηρ
Μια συζήτηση για τη σημασία του Τηλεσκοπίου Ορίζοντα Γεγονότων και το ποια θα μπορούσε να είναι η μελλοντική κατεύθυνση της Αστρονομίας
Έχετε δει 20 από 200 άρθρα.