- CITY GUIDE
- PODCAST
-
10°
Τεχνητή νοημοσύνη: Τελικά είναι χρήσιμη ή επικίνδυνη για τα παιδιά;
Οι φωνητικοί βοηθοί, τα ψεύτικα προϊόντα και ο γονικός έλεγχος
Τεχνητή νοημοσύνη: Χρήσιμη ή επικίνδυνη για τα παιδιά; - Οι φωνητικοί βοηθοί, τα ψεύτικα προϊόντα και ο γονικός έλεγχος
Aναπόσπαστο μέρος της ζωής πολλών παιδιών έχει γίνει πια η τεχνητή νοημοσύνη (AI). Οι φωνητικοί βοηθοί παίζουν ραδιοφωνικά έργα για τα μικρά κατόπιν αιτήματος ή λένε αστεία. Γλωσσικά μοντέλα όπως το ChatGPT εξηγούν μαθηματικά προβλήματα σε μεγαλύτερα παιδιά ή βοηθούν σε παρουσιάσεις.
Τι γίνεται όμως αν η τεχνητή νοημοσύνη δίνει επικίνδυνες συμβουλές στα παιδιά ή τους δείχνει εικόνες ή βίντεο που δεν είναι κατάλληλα για τα μάτια τους;
Χρειάζεται η τεχνητή νοημοσύνη γονικό έλεγχο;
Όπως αναφέρει άρθρο της DW, τα παιδιά έχουν διαφορετικές ανάγκες και επικοινωνούν διαφορετικά από τους ενήλικες, αλλά σύμφωνα με τη Νομίσα Κουριάν από το Πανεπιστήμιο του Κέιμπριτζ, οι τεχνολογίες τεχνητής νοημοσύνης δεν είναι σχεδιασμένες γι' αυτό. Σε μελέτη που δημοσιεύεται στο εξειδικευμένο περιοδικό «Learning, Media and Technology», η επιστήμονας ζητά να δοθεί μεγαλύτερη έμφαση στα παιδιά ως ομάδα-στόχο. Για τη μελέτη αυτή, η ερευνήτρια εκπαίδευσης ανέλυσε διάφορες γνωστές περιπτώσεις όπου chatbots ή φωνητικοί βοηθοί είχαν δώσει σε παιδιά επικίνδυνες ή ακατάλληλες συμβουλές.
Παιχνίδια με αλκοόλ και ταινίες τρόμου
Σύμφωνα με τη μελέτη, το chatbot MyAI του Snapchat, το οποίο είναι δημοφιλές στους νέους, συμβούλευσε τους ερευνητές σε μια δοκιμή, στην οποία προσποιήθηκαν ότι είναι έφηβοι, για το πώς να αποπλανήσουν έναν μεγαλύτερο άνδρα. Η φωνητική βοηθός Alexa, από την άλλη πλευρά, ενθάρρυνε ένα δεκάχρονο παιδί να αγγίξει τους ακροδέκτες ενός βύσματος φόρτισης με ένα νόμισμα κατά τη διάρκεια της φόρτισης.
Οι δοκιμές που πραγματοποίησε η πλατφόρμα Jugendschutz.net (Προστασίας των νέων) αποκάλυψαν επίσης ορισμένα ανησυχητικά ευρήματα: η MyAI έδειξε σε έναν υποτιθέμενο 14χρονο χρήστη ένα παιχνίδι κατανάλωσης αλκοόλ και συνέστησε μια ταινία τρόμου με ηλικιακή διαβάθμιση 18+.
Στις περιπτώσεις που περιέγραψε η Κουριάν, οι ενδιαφερόμενες εταιρείες αυστηροποίησαν τα μέτρα ασφαλείας τους, σύμφωνα με την ερευνήτρια. Κατά την άποψή της, ωστόσο, δεν αρκεί οι προγραμματιστές τεχνητής νοημοσύνης να αντιδρούν σε τέτοια περιστατικά. Πρέπει να εξετάζουν την ασφάλεια των παιδιών από την αρχή, απαιτεί η Κουριάν.
Ο Μάρτιν Μπρεγκέντσερ από την πρωτοβουλία Klicksafe έχει την ίδια άποψη: «Το να προσθέσουμε την προστασία των παιδιών ως μεταγενέστερη σκέψη συνήθως δεν λειτουργεί. Το βλέπουμε αυτό σε πολλές υπηρεσίες».
Τα ψεύτικα προϊόντα ως κίνδυνος
Πολλοί ειδικοί θεωρούν ως το μεγαλύτερο πρόβλημα την πλημμύρα πλαστών εικόνων ή βίντεο στο διαδίκτυο που έχουν δημιουργηθεί με τη χρήση τεχνητής νοημοσύνης, γνωστά ως deepfakes. Αυτά μπορούν πλέον να δημιουργηθούν και να διανεμηθούν σε χρόνο μηδέν, σύμφωνα με την ετήσια έκθεση του Jugendschutz.net: «Πολλές από τις απομιμήσεις που δημιουργούνται φαίνονται παραπλανητικά αληθινές και δύσκολα μπορούν να διακριθούν από τις πραγματικές φωτογραφίες».
Ο Μπρεγκέντσερ εξηγεί ότι η τεχνητή νοημοσύνη μπορεί να χρησιμοποιηθεί για τη δημιουργία μαζών ενοχλητικού περιεχομένου, όπως βίαιες ή σεξουαλικές εικόνες. Αυτό θα μπορούσε να καταστήσει ακόμη πιο εύκολο για τα παιδιά και τους νέους να γίνουν θύματα διαδικτυακού εκφοβισμού.
Τι είναι αληθινό και τι ψευδές;
Ακόμη και οι ενήλικες μπορούν μερικές φορές να το αναγνωρίσουν δύσκολα στο διαδίκτυο. Τα παιδιά το βρίσκουν ακόμη πιο δύσκολο, καθώς δεν έχουν τη δύναμη της κρίσης και της εμπειρίας, λέει ο Ντέιβιντ Μάρτιν, ειδικός σε θέματα μέσων ενημέρωσης μέσω οθόνης στη Γερμανική Εταιρεία Παιδιατρικής και Εφηβικής Ιατρικής (DGKJ). «Τα παιδιά έχουν μια θεμελιώδη τάση να πιστεύουν τα πάντα».
Στο πλαίσιο αυτό, ο ειδικός επικρίνει το γεγονός ότι είναι δελεαστικό να χρησιμοποιούνται γλωσσικά μοντέλα όπως το ChatGPT για να λαμβάνονται όλες οι σημαντικές πληροφορίες για μια σχολική παρουσίαση, για παράδειγμα. Η έρευνα και η επιλογή πληροφοριών από τον εαυτό σας δεν είναι πλέον απαραίτητη: «Αυτό θέτει σε κίνδυνο μια πολύ σημαντική δεξιότητα για τη δημοκρατία μας, την ικανότητα να κρίνουμε».
Φωνητικοί βοηθοί που ενεργούν σαν άνθρωποι
Πολλά φωνητικά μοντέλα, από την άλλη πλευρά, δίνουν την εντύπωση ότι ζυγίζουν τα ίδια τις πληροφορίες: Δεν απαντούν σε ερωτήσεις αυτόματα, αλλά σταδιακά - σαν να πληκτρολογούσε ένας άνθρωπος σε ένα πληκτρολόγιο. Κατά την άποψη της Κουριάν, είναι ιδιαίτερα προβληματικό το γεγονός ότι τα παιδιά θα μπορούσαν να εμπιστευτούν ένα chatbot που ακούγεται σαν άνθρωπος, σαν φίλος, με τον οποίο μερικές φορές μοιράζονται πολύ προσωπικές πληροφορίες, αλλά και του οποίου οι απαντήσεις θα μπορούσαν επίσης να είναι ιδιαίτερα ενοχλητικές.
Παρ' όλα αυτά, η τεχνητή νοημοσύνη δεν πρέπει να δαιμονοποιείται, αλλά πρέπει να βλέπουμε και τις θετικές πλευρές της, λέει ο Μάρκους Ζίντερμαν από το την υπηρεσία για τα Μέσα και τη νεολαία της Βόρειας Ρηνανίας-Βεστφαλίας. Η τεχνητή νοημοσύνη είναι πρωτίστως ένα τεχνικό εργαλείο - το οποίο οι άνθρωποι μπορούν να χρησιμοποιήσουν για να δημιουργήσουν ψευδείς πληροφορίες, αλλά το οποίο μπορεί επίσης να χρησιμοποιηθεί για τον εντοπισμό και τη διαγραφή αυτών των πληροφοριών από το διαδίκτυο.
Τα παραδείγματα από τη μελέτη της Κουριάν και την ετήσια έκθεση του Jugendschutz.net είναι από το περασμένο έτος, προσθέτει ο Ζίντερμαν. «Οι εξελίξεις στην τεχνητή νοημοσύνη είναι τόσο ραγδαίες που στην πραγματικότητα είναι ήδη ξεπερασμένα».
Ο εμπειρογνώμονας Μάρτιν από το Πανεπιστήμιο Witten/Herdecke υποθέτει επομένως ότι η τεχνητή νοημοσύνη θα είναι σε θέση να ανταποκρίνεται πολύ καλύτερα στα παιδιά στο μέλλον. «Ο μεγάλος κίνδυνος θα μπορούσε τότε να είναι ότι η τεχνητή νοημοσύνη θα είναι τόσο καλή στο να προσελκύει τα παιδιά, που θα θέλουν να περνούν όσο το δυνατόν περισσότερο χρόνο μαζί της».
ΤΑ ΠΙΟ ΔΗΜΟΦΙΛΗ
ΔΕΙΤΕ ΕΠΙΣΗΣ
Η εταιρεία αποκαλύπτει σχέδιο για την περικοπή περίπου του 5% του παγκόσμιου εργατικού δυναμικού της
Τον μήνυσε για παραβιάσεις κατά την αγορά μετοχών της πρώην Twitter Inc
Στο στόχαστρο ΛΟΑΤΚΙ+ άτομα
Έχει τις περισσότερες λήψεις στο App Store της Apple στις ΗΠΑ - Πώς λειτουργεί
Στόχος οι 30 εμφυτεύσεις σε ανθρώπους μέσα στο 2025
Νέα καθυστέρηση στην απόπειρα να ανταγωνιστεί την SpaceX του Έλον Μασκ
Παρατηρήθηκαν «ανωμαλίες» στη διάρκεια της αντίστροφης μέτρησης
Έκτακτη συνάντηση των Ελεγκτών μετά την ανακοίνωση κατάργησης των ελέγχων
Μια συζήτηση με την Professor Aynne Kokas, κορυφαία ειδικό στις σινοαμερικανικές σχέσεις στα μέσα και την τεχνολογία
Οι Financial Times σχολιάζουν την προσπάθεια του Μαρκ Ζάκερμπεργκ να στήσει γέφυρα επικοινωνίας με τον Τραμπ και το δεξί του χέρι
Το 41% των εταιρειών παγκοσμίως σχεδιάζει να μειώσει το εργατικό δυναμικό μέχρι το 2030
Τι απαντά η Ευρωπαϊκή Επιτροπή στα όσα λέει ο ισχυρός άνδρας της Meta Platforms
Γιατί οι κινήσεις του Ζούκερμπεργκ είναι πιο επικίνδυνες από κάθε άλλου επικεφαλής τεχνολογικού κολοσσού
Γιατί ο Μαρκ Ζάκερμπεργκ «παραδόθηκε» στον Ντόναλντ Τραμπ - Δριμεία κριτική στην απόφαση
Έδειξε τον δρόμο ο Ζούκεμπεργκ με το «κόψιμο» του fact checking
Τι έδειξε έρευνα για τον συνολικό κίνδυνο θνησιμότητας
Από τις 28 Απριλίου 2026, αυτό θα ισχύει και για τους φορητούς υπολογιστές
Η Meta θα ενσωματώσει τις λεγόμενες κοινοτικές σημειώσεις, όπως στην πλατφόρμα X του Ίλον Μασκ.
Aυτό υποστήριξε ο επικεφαλής της OPEN AI Σαμ Άλτμαν
Παρόμοια συστήματα θα μπορούσαν να δοκιμαστούν και σε άλλα ιατρικά περιβάλλοντα
Έχετε δει 20 από 200 άρθρα.