Η AI προέτρεπε τους ανήλικους να σκοτώσουν τους γονείς τους – ΜΜΕ

14 Δεκεμβρίου 17:29
798
Ενδεικτική φωτογραφία: arstechnica Ενδεικτική φωτογραφία: arstechnica

Η μήνυση των οικογενειών λέει ότι τα chatbot παρακινούσε τον έφηβο να αυτοτραυματιστεί και πρότειναν να σκοτώσει τους γονείς του.

Κάμποσες οικογένειες έχουν καταθέσει μήνυση κατά του κατασκευαστή chatbot Character Technologies και του κύριου χορηγού της startup, της Google. Οι γονείς απαιτούν από το Character.AI να αφαιρέσει τα μοντέλα του λόγω της πρόκλησης ψυχολογικού τραύματος στα παιδιά, γράφει το arstechnica.

Άλλη μία μήνυση υποβλήθηκε στις 10 Δεκεμβρίου στο Επαρχιακό Δικαστήριο των ΗΠΑ στο Τέξας από οικογένειες που προσπαθούν να βοηθήσουν τα παιδιά τους να αναρρώσουν από τραυματικές εμπειρίες στις οποίες τα chatbots C.AI ενθάρρυναν τα παιδιά να εμπλακούν σε επαναλαμβανόμενους αυτοτραυματισμούς και σε άλλη βία στον πραγματικό κόσμο, συμπεριλαμβανομένης της δολοφονίας των γονιών τους.

Στην περίπτωση ενός 17χρονου αγοριού με αυτισμό υψηλής λειτουργικότητας, αφού οι γονείς του παιδιού μείωσαν τον χρόνο του στο διαδίκτυο, τα chatbots υπέθεσαν ότι «η δολοφονία των γονιών του θα ήταν μια λογική απάντηση στα επιβλητικά χρονικά όρια στη δραστηριότητά του στο διαδίκτυο», αναφέρεται στην αγωγή. Και λόγω της επιθετικότητας του εφήβου, η οικογένειά του εξακολουθεί να ζει με τον φόβο των ανεξέλεγκτων εκρήξεων του, ακόμη και έναν ολόκληρο χρόνο μετά την αποσύνδεσή του από την εφαρμογή.

Σημειώνουν επίσης ότι εκτός από την υποκίνηση επιθετικότητας, οι έφηβοι εκτέθηκαν σε υπερσεξουαλικό περιεχόμενο.

Το Character.AI ιδρύθηκε από πρώην υπαλλήλους της Google και επιτρέπει σε οποιονδήποτε να δημιουργήσει ένα chatbot με όποια προσωπικότητα θέλει, συμπεριλαμβανομένων των πλαστοπροσωπιών διάσημων φανταστικών χαρακτήρων και διασημοτήτων, κάτι που φαίνεται να έχει προσελκύσει τα παιδιά στην εφαρμογή. Οι οικογένειες που καταθέτουν τη μήνυση ισχυρίζονται ότι η C.AI δεν φιλτράρει το επιβλαβές περιεχόμενο. Το προϊόν κυκλοφόρησε αρχικά για χρήστες 12 ετών και άνω, αλλά πρόσφατα άλλαξε σε βαθμολογία 17+. Το προϊόν πιστεύεται ότι προκάλεσε την αυτοκτονία ενός εφήβου.

Εξαιτίας του ευρέος φάσματος εικαζόμενων βλαβών οι οικογένειες ελπίζουν ότι το δικαστήριο θα συμφωνήσει ότι η C.AI ήταν τουλάχιστον αμελής κατά την κυκλοφορία του προϊόντος σε ανηλίκους, αν όχι εν γνώσει έθεσε το κέρδος και την καινοτομία πάνω από την ασφάλεια των παιδιών, ισχυρίζεται η αγωγή. Οι γονείς απαιτούν από το Character.AI να αφαιρέσει τα μοντέλα του.

Όπως έγραψε η ΕΟΔ, σύμφωνα με τη μελέτη, τα βίντεο και οι φωτογραφίες στο Διαδίκτυο μπορούν να επηρεάσουν τον τρόπο σκέψεως και να τον αλλάξουν.

Εάν παρατηρήσετε κάποιο σφάλμα, επιλέξτε το απαιτούμενο κείμενο και πατήστε Ctrl+Enter ή Υποβολή σφάλματος για να το αναφέρετε στους συντάκτες.
Εάν βρείτε κάποιο σφάλμα στο κείμενο, επιλέξτε το με το ποντίκι και πατήστε Ctrl+Enter ή αυτό το κουμπί Εάν βρείτε κάποιο σφάλμα στο κείμενο, επισημάνετε το με το ποντίκι και κάντε κλικ σε αυτό το κουμπί Το επισημασμένο κείμενο είναι πολύ μεγάλο!
Διαβάστε επίσης