Τεχνολογια - Επιστημη

Είναι οι κλωνοποιημένες φωνές celebrities το νέο «όπλο» της τεχνητής νοημοσύνης;

Πώς μπορεί να χρησιμοποιηθεί η δυνατότητα αυτή από απατεώνες

Newsroom
1’ ΔΙΑΒΑΣΜΑ

Είναι οι κλωνοποιημένες φωνές celebrities το νέο «όπλο» της τεχνητής νοημοσύνης; - Πώς μπορούν να χρησιμοποιηθεί η δυνατότητα αυτή από απατεώνες

Η κλωνοποίηση φωνής από την τεχνητή νοημοσύνη είναι το νέο άγχος των διασήμων. Η Τζένιφερ Άνιστον, η Όπρα Γουίνφρεϊ και η Κάιλι Τζένερ είναι μερικές από τις celebrities, που έχουν κλωνοποιήσει τη φωνή τους διάφοροι επιτήδειοι.

Πρόσφατα, μάλιστα, ο Ντέιβιντ Ατένμπορο είπε πως είναι «βαθιά προβληματισμένο» όταν ανακάλυψε ότι η φωνή του κλωνοποιήθηκε μέσω τεχνητής νοημοσύνης και χρησιμοποιήθηκε για να μεταδώσει fake news στις ΗΠΑ.

Με την τεχνολογία να αναπτύσσεται και την κλωνοποίηση φωνής να εξελίσσεται σε μοντέλα ικανά να μιμηθούν τις πιο λεπτές παύσεις και αναπνοές της ανθρώπινης χροιάς, οι απανταχού celebrities καλούνται να προσέχουν ολοένα και περισσότερο μήπως χρησιμοποιηθεί η φωνή τους από απατεώνες.

Ο Ντομινίκ Λις, ειδικός στην τεχνητή νοημοσύνη στον κινηματογράφο και την τηλεόραση, δήλωσε στον Guardian τη Δευτέρα: «Οι νόμοι μας για την προστασία της ιδιωτικής ζωής και τα πνευματικά δικαιώματα δεν είναι ενημερωμένοι για το τι μπορεί να κάνει αυτή η νέα τεχνολογία, οπότε υπάρχουν πολύ λίγα πράγματα που μπορεί να κάνει κάποιος διάσημος».

«Η κυβέρνηση πρέπει οπωσδήποτε να εξετάσει [την κλωνοποίηση φωνής], επειδή είναι ένα ολοένα και μεγαλύτερη απειλή για όλους», δήλωσε ακολούθως και συμπλήρωσε:

«Χρειάζεται κυβερνητική ρύθμιση προκειμένου να αποτραπεί η κατάχρηση του ΑΙ ... δεν μπορούμε να επιτρέψουμε να είναι ελεύθερη η χρήση της τεχνητής νοημοσύνης γιατί μπορεί να φτάσει σε επίπεδα που δεν φανταζόμαστε».

Σύμφωνα με στοιχεία έρευνας που έκανε μία τράπεζα, οι απάτες που βασίστηκαν κλωνοποίησης φωνής μέσω AI αυξήθηκαν κατά 30% στο Ηνωμένο Βασίλειο τον τελευταίο χρόνο. Άλλη τράπεζα, διαπίστωσε ότι το 28% των ανθρώπων είχε γίνει στόχος εξαπάτισης κλωνοποίησης φωνής τεχνητής νοημοσύνης τουλάχιστον μία φορά τον τελευταίο χρόνο.

Η κλωνοποίηση φωνής φέρεται επίσης να χρησιμοποιείται από απατεώνες για να υποδυθούν παιδιά που καλούν τους γονείς τους για να τους πουν πως χρειάζονται επειγόντως χρήματα για κάποιο πρόβλημα που αντιμετωπίζουν.

Όταν μια νέα επιλογή επεξεργασίας φωνής που παρείχε το τελευταίο μοντέλο τεχνητής νοημοσύνης της OpenAI, το ChatGPT-4, παρουσίασε τόνους που ήταν πολύ κοντά σε εκείνους της Σκάρλετ Γιόχανσον, δήλωσε ότι σοκαρίστηκε και εξοργίστηκε καθώς η φωνή «ακουγόταν τόσο τρομακτικά παρόμοια με τη δική μου που οι πιο στενοί μου φίλοι και τα ειδησεογραφικά πρακτορεία δεν μπορούσαν να καταλάβουν τη διαφορά».