- ΑΡΧΙΚΗ
-
ΕΠΙΚΑΙΡΟΤΗΤΑ
-
ΠΟΛΙΤΙΣΜΟΣ
-
LIFE
-
LOOK
-
YOUR VOICE
-
επιστροφη
- ΣΕ ΕΙΔΑ
- ΜΙΛΑ ΜΟΥ ΒΡΟΜΙΚΑ
- ΟΙ ΙΣΤΟΡΙΕΣ ΣΑΣ
-
-
VIRAL
-
επιστροφη
- QUIZ
- POLLS
- YOLO
- TRENDING NOW
-
-
ΖΩΔΙΑ
-
επιστροφη
- ΠΡΟΒΛΕΨΕΙΣ
- ΑΣΤΡΟΛΟΓΙΚΟΣ ΧΑΡΤΗΣ
- ΓΛΩΣΣΑΡΙ
-
- PODCAST
- 102.5 FM RADIO
- CITY GUIDE
- ENGLISH GUIDE
Kολομβία: Δικαστής χρησιμοποίησε την τεχνητή νοημοσύνη ChatGPT για να αποφασίσει σε δίκη
Ένας δικαστής ο Χουάν Μανουέλ Παντίγια Γκαρσία δήλωσε ότι χρησιμοποίησε το ChatGPT σε απόφασή του που αφορούσε στην κάλυψη των ιατρικών εξόδων ενός παιδιού με αυτισμό από ασφαλιστική εταιρεία σύμφωνα με το «Vice».
«Ο σκοπός της συμπερίληψης αυτών των κειμένων που παρήγαγε η τεχνητή νοημοσύνη δεν είναι να αντικαταστήσει την απόφαση του δικαστή», έγραψε ο Γκαρσία. «Αυτό που πραγματικά επιδιώκουμε είναι να μειώσουμε τον χρόνο που απαιτείται για τη σύνταξη αποφάσεων μετά την επιβεβαίωση των πληροφοριών που παρέχονται από την τεχνητή νοημοσύνη».
Ο Γκαρσία συμπεριέλαβε τις απαντήσεις του chatbot στην απόφασή του, σηματοδοτώντας την πρώτη καταγεγραμμένη φορά που ένας δικαστής παραδέχεται ότι κάνει κάτι τέτοιο. Ένα από τα ερωτήματα που έθεσε στο ChatGPT ο Κολομβιανός δικαστής ήταν το εξής: «Απαλλάσσεται ένας ανήλικος με αυτισμό από την καταβολή εξόδων για την θεραπεία του;»
Ο Γκαρσία κατέληξε στο συμπέρασμα ότι το σύνολο των ιατρικών εξόδων και των εξόδων μεταφοράς του παιδιού πρέπει να καλυφθεί από το ιατρικό του πρόγραμμα, καθώς οι γονείς του δεν μπορούσαν να ανταπεξέλθουν οικονομικά.
Η κολομβιανή νομοθεσία δεν απαγορεύει τη χρήση της τεχνητής νοημοσύνης σε δικαστικές αποφάσεις, αλλά συστήματα όπως το ChatGPT είναι γνωστό ότι δίνουν απαντήσεις που είναι προκατειλημμένες, μεροληπτικές ή απλά λανθασμένες. Αυτό συμβαίνει επειδή το γλωσσικό μοντέλο δεν κατέχει καμία πραγματική κατανόηση του κειμένου – απλώς συνθέτει προτάσεις με βάση τις πιθανότητες από τα εκατομμύρια παραδείγματα που χρησιμοποιούνται για την εκπαίδευσή του.
Οι δημιουργοί του ChatGPT έχουν εφαρμόσει φίλτρα για να εξαλείψουν ορισμένες από τις πιο προβληματικές απαντήσεις. Ωστόσο, οι προγραμματιστές προειδοποιούν ότι το εργαλείο εξακολουθεί να έχει σημαντικούς περιορισμούς και δεν πρέπει να χρησιμοποιείται για τη λήψη σοβαρών αποφάσεων.
Πηγή: VICE