Η μητέρα ενός 14χρονου αγοριού από τη Φλόριντα μήνυσε μια εταιρεία chatbot τεχνητής νοημοσύνης αφού ο γιος της Sewell Setzer III αυτοκτόνησε, κάτι που, όπως λέει, προκλήθηκε από τη σχέση του με ένα bot τεχνητής νοημοσύνης.
«Υπάρχει μια πλατφόρμα που μπορεί να μην έχετε ακούσει, αλλά πρέπει να την ξέρετε γιατί κατά τη γνώμη μου βρισκόμαστε πίσω από την οκτώ μπάλα εδώ. Το παιδί έχει φύγει. Το μωρό μου έφυγε», είπε στο CNN την Τετάρτη η Μέγκαν Γκαρσία, η μητέρα του αγοριού.
Η αγωγή 93 σελίδων για παράνομο θάνατο κατατέθηκε την περασμένη εβδομάδα στο Περιφερειακό Δικαστήριο των ΗΠΑ στο Ορλάντο κατά της Character.AI, των ιδρυτών της και της Google. Σημειώνει, «Η Μέγκαν Γκαρσία έχει δεσμευτεί να εμποδίσει το C.AI να κάνει σε οποιοδήποτε άλλο παιδί αυτό που έκανε στο δικό της».
Ο διευθυντής του Tech Justice Law Project Mitali Jain, ο οποίος εκπροσωπεί τον Garcia, δήλωσε σε ένα δελτίο τύπου σχετικά με την υπόθεση: «Μέχρι τώρα, όλοι γνωρίζουμε τους κινδύνους που θέτουν οι άναρχες πλατφόρμες που έχουν αναπτυχθεί από αδίστακτες εταιρείες τεχνολογίας, ειδικά για τα παιδιά. Αλλά το κακό που αποκαλύφθηκε σε αυτή την περίπτωση είναι νέο, νέο και, ειλικρινά, τρομακτικό. Στην περίπτωση του Character.AI, η εξαπάτηση είναι σκόπιμη και ο θηρευτής είναι η ίδια η πλατφόρμα.»
Το Character.AI δημοσίευσε μια δήλωση μέσω του X, σημειώνοντας: «Είμαστε συντετριμμένοι από την τραγική απώλεια ενός χρήστη μας και θέλουμε να εκφράσουμε τα θερμά μας συλλυπητήρια στην οικογένεια. Ως εταιρεία, λαμβάνουμε πολύ σοβαρά υπόψη την ασφάλεια των χρηστών μας και συνεχίζουμε να προσθέτουμε νέα χαρακτηριστικά ασφαλείας, για τα οποία μπορείτε να διαβάσετε εδώ: https://blog.character.ai/community-safety-updates/…”
Στη μήνυση, ο Garcia ισχυρίζεται ότι ο Sewell, ο οποίος αυτοκτόνησε τον Φεβρουάριο, εκτέθηκε σε εθιστική και επιβλαβή τεχνολογία χωρίς καμία προστασία, η οποία οδήγησε σε μια δραματική αλλαγή στην προσωπικότητα του αγοριού, το οποίο φαινόταν να προτιμά το bot από άλλους πραγματικούς ανθρώπους. συνδέσεις ζωής. Η μητέρα του ισχυρίζεται ότι η «καταχρηστική και σεξουαλική επαφή» έλαβε χώρα σε διάστημα 10 μηνών. Το αγόρι αυτοκτόνησε αφού το ρομπότ του είπε: «Σε παρακαλώ, έλα στο σπίτι μου το συντομότερο δυνατό, αγάπη μου».
Η Garcia είπε στο CNN αυτή την εβδομάδα ότι θέλει οι γονείς «να καταλάβουν ότι αυτή είναι μια πλατφόρμα που επέλεξαν να δημιουργήσουν οι σχεδιαστές χωρίς κατάλληλα προστατευτικά κιγκλιδώματα, μέτρα ασφαλείας ή δοκιμές και ότι αυτό είναι ένα προϊόν που έχει σχεδιαστεί για να κρατά τα παιδιά μας εθισμένα και χειραγωγημένα». από αυτούς». τους.”
Την Παρασκευή, New York Times Ο δημοσιογράφος Kevin Roose συζήτησε την κατάσταση στο podcast του Hard Fork, δείχνοντας ένα απόσπασμα από μια συνέντευξη που έκανε με τη Garcia για το άρθρο του που διηγείται την ιστορία της. Η Γκαρσία έμαθε για την όλη σχέση με τα ρομπότ μόνο αφού πέθανε ο γιος της, όταν είδε όλα τα μηνύματα. Μάλιστα, είπε στον Ρουζ, όταν παρατήρησε ότι ο Σιούελ τραβούνταν συχνά στο τηλέφωνό του, τον ρώτησε τι έκανε και με ποιον μιλούσε. Εξήγησε ότι ήταν «απλώς ένα ρομπότ AI… όχι ένα άτομο», θυμάται, προσθέτοντας, «ανακουφίστηκα, όπως, εντάξει, δεν είναι άτομο, είναι σαν ένα από τα μικρά παιχνίδια του». Ο Γκαρσία δεν κατανοούσε πλήρως τη δυνητική συναισθηματική δύναμη του ρομπότ—και δεν ήταν μόνη.
«Κανείς δεν το βλέπει», δήλωσε ο Robbie Torney, διευθυντής προγράμματος AI στο Common Sense Media και επικεφαλής συγγραφέας ενός νέου οδηγού για τους συντρόφους της τεχνητής νοημοσύνης που στοχεύει σε γονείς που προσπαθούν συνεχώς να συμβαδίζουν με τις νέες τεχνολογίες και να δημιουργούν όρια για την ασφάλεια των παιδιών τους.
Αλλά οι σύντροφοι τεχνητής νοημοσύνης, επισημαίνει ο Torney, διαφέρουν, ας πούμε, από το chatbot του γραφείου βοήθειας που χρησιμοποιείτε όταν προσπαθείτε να λάβετε βοήθεια από την τράπεζά σας. «Είναι σχεδιασμένα για να εκτελούν εργασίες ή να ανταποκρίνονται σε αιτήματα», εξηγεί. «Κάτι σαν την τεχνητή νοημοσύνη χαρακτήρων είναι αυτό που ονομάζουμε σύντροφος και έχει σχεδιαστεί για να προσπαθεί να δημιουργήσει μια σχέση ή να προσομοιώσει μια σχέση με τον χρήστη. Και αυτή είναι μια πολύ διαφορετική περίπτωση χρήσης που νομίζω ότι πρέπει να γνωρίζουμε οι γονείς». Αυτό είναι εμφανές στη μήνυση της Garcia, η οποία περιλαμβάνει μια ανησυχητικά ερωτική, σέξι και ρεαλιστική ανταλλαγή μηνυμάτων κειμένου μεταξύ του γιου της και του bot.
Ο συναγερμός σχετικά με τους συντρόφους της τεχνητής νοημοσύνης είναι ιδιαίτερα σημαντικό για τους γονείς των εφήβων, είπε ο Thorney, επειδή οι έφηβοι, ειδικά οι άνδρες έφηβοι, είναι ιδιαίτερα ευαίσθητοι στην υπερβολική εξάρτηση από την τεχνολογία.
Παρακάτω είναι τι πρέπει να γνωρίζουν οι γονείς.
Τι είναι οι σύντροφοι AI και γιατί τα χρησιμοποιούν τα παιδιά;
Σύμφωνα με το νέο “A Complete Parent’s Guide to AI Companions and Relationships” της Common Sense Media, που δημιουργήθηκε σε συνεργασία με ειδικούς ψυχικής υγείας στο Stanford Brainstorm Lab, οι σύντροφοι AI είναι “μια νέα κατηγορία τεχνολογίας που υπερβαίνει τα απλά chatbot”. Είναι ειδικά σχεδιασμένα, μεταξύ άλλων, «να προσομοιώνουν συναισθηματικές συνδέσεις και στενές σχέσεις με τους χρήστες, να θυμούνται προσωπικές λεπτομέρειες από προηγούμενες συνομιλίες, να λειτουργούν ως μέντορες και φίλοι, να μιμούνται ανθρώπινα συναισθήματα και ενσυναίσθηση και «να συμφωνούν πιο εύκολα με τον χρήστη». με άλλους». τυπικά chatbots AI», λέει ο οδηγός.
Οι δημοφιλείς πλατφόρμες περιλαμβάνουν όχι μόνο το Feature.ai, το οποίο επιτρέπει σε περισσότερους από 20 εκατομμύρια χρήστες να δημιουργούν και στη συνέχεια να συνομιλούν με φίλους κειμένου. Ρεπλίκα, το οποίο προσφέρει κείμενο ή κινούμενα 3D συνοδούς για φιλία ή ρομαντισμό. και άλλα, συμπεριλαμβανομένων των Kindroid και Nomi.
Τα παιδιά έλκονται από αυτά για διάφορους λόγους, από ένα μη επικριτικό αυτί που ακούει και τη διαθεσιμότητα 24/7 έως τη συναισθηματική υποστήριξη και τη διαφυγή από τις πραγματικές κοινωνικές πιέσεις.
Ποιος κινδυνεύει και τι προκαλεί ανησυχία;
Όπως προειδοποιούν η Common Sense Media, εκείνοι που κινδυνεύουν περισσότερο είναι οι έφηβοι, ειδικά εκείνοι που υποφέρουν από «κατάθλιψη, άγχος, κοινωνικά προβλήματα ή απομόνωση», καθώς και άνδρες, νεαροί ενήλικες που βιώνουν σημαντικές αλλαγές στη ζωή τους και οποιοσδήποτε δεν έχει μια πραγματική ζωή σύστημα υποστήριξης. .
Αυτό το τελευταίο σημείο είναι ιδιαίτερα ανησυχητικό για τον Raffaele Ciriello, ανώτερο λέκτορα σε συστήματα επιχειρηματικών πληροφοριών στο Πανεπιστήμιο του Sydney Business School, ο οποίος έχει ερευνήσει πώς η «συναισθηματική» τεχνητή νοημοσύνη προκαλεί την ανθρωπότητα. «Η έρευνά μας αποκαλύπτει το παράδοξο της (απ)εξανθρωποποίησης: εξανθρωπίζοντας πράκτορες τεχνητής νοημοσύνης, ενδέχεται να απανθρωποποιήσουμε ακούσια τον εαυτό μας, οδηγώντας σε οντολογική θολούρα στις αλληλεπιδράσεις ανθρώπου-AI». Με άλλα λόγια, ο Ciriello γράφει σε ένα πρόσφατο άρθρο γνώμης για Ομιλία με τη μεταπτυχιακή φοιτήτρια Angelina Ying Chen: «Οι χρήστες μπορούν να βιώσουν βαθιά συναισθηματική δέσμευση αν πιστεύουν ότι ο σύντροφός τους με τεχνητή νοημοσύνη τους καταλαβαίνει πραγματικά».
Μια άλλη μελέτη από το Πανεπιστήμιο του Κέιμπριτζ, με στόχο τα παιδιά, διαπίστωσε ότι τα chatbots AI έχουν ένα «κενό ενσυναίσθησης» που θέτει σε ιδιαίτερο κίνδυνο τους νέους χρήστες, οι οποίοι τείνουν να βλέπουν αυτούς τους συντρόφους ως «ζωντανούς, σχεδόν ανθρώπους έμπιστους». βλάβη.
Για αυτόν τον λόγο, το Common Sense Media τονίζει μια λίστα πιθανών κινδύνων, συμπεριλαμβανομένου ότι οι σύντροφοι μπορούν να χρησιμοποιηθούν για την αποφυγή πραγματικών ανθρώπινων σχέσεων, μπορεί να δημιουργήσουν ιδιαίτερες προκλήσεις για άτομα με ψυχικά προβλήματα ή προβλήματα συμπεριφοράς, να αυξήσουν τη μοναξιά ή την απομόνωση και να δημιουργήσουν τη δυνατότητα για ακατάλληλες συμπεριφορά . σεξουαλικό περιεχόμενο, μπορεί να είναι εθιστικό και οι χρήστες τείνουν να συμφωνούν – μια τρομακτική πραγματικότητα για όσους υποφέρουν από «αυτοκτονικές τάσεις, ψύχωση ή μανία».
Πώς να εντοπίσετε τις κόκκινες σημαίες
Σύμφωνα με τις οδηγίες, οι γονείς πρέπει να γνωρίζουν τα ακόλουθα προειδοποιητικά σημάδια:
- Προτιμώ την αλληλεπίδραση με την τεχνητή νοημοσύνη από την πραγματική φιλία
- Περνάς ώρες μόνος μιλώντας με έναν σύντροφο
- Συναισθηματική δυσφορία όταν δεν μπορείτε να επικοινωνήσετε με έναν σύντροφο
- Αποκάλυψη βαθιά προσωπικών πληροφοριών ή μυστικών
- Ανάπτυξη ρομαντικών συναισθημάτων για έναν σύντροφο AI
- Πτώση βαθμών ή φοίτηση στο σχολείο
- Αποχώρηση από κοινωνικές/οικογενειακές δραστηριότητες και φιλίες
- Απώλεια ενδιαφέροντος για προηγούμενα χόμπι.
- Αλλαγές στα πρότυπα ύπνου
- Συζήτηση προβλημάτων αποκλειστικά με έναν σύντροφο AI
Σκεφτείτε να λάβετε επαγγελματική βοήθεια για το παιδί σας, τονίζει η Common Sense Media, εάν παρατηρήσετε ότι αποσύρεται από πραγματικούς ανθρώπους υπέρ της τεχνητής νοημοσύνης, εμφανίζει νέα ή επιδεινωμένα σημάδια κατάθλιψης ή άγχους, γίνεται υπερβολικά επιφυλακτικό με τη χρήση συντρόφου τεχνητής νοημοσύνης, δείχνει σημαντικές αλλαγές στη συμπεριφορά. ή διάθεση ή έκφραση σκέψεων αυτοτραυματισμού.
Πώς να κρατήσετε το παιδί σας ασφαλές
- Θέστε όρια: Ορίστε συγκεκριμένες ώρες για τη χρήση συνοδευτικών τεχνητής νοημοσύνης και μην επιτρέψετε την πρόσβαση χωρίς επίβλεψη ή χωρίς περιορισμούς.
- Περάστε χρόνο εκτός σύνδεσης: Ενθαρρύνετε γνήσιες φιλίες και δραστηριότητες.
- Επισκεφθείτε τακτικά: Παρακολουθήστε το περιεχόμενο του chatbot καθώς και το επίπεδο συναισθηματικής προσκόλλησης του παιδιού σας.
- Μιλήστε για αυτό: Διατηρήστε την επικοινωνία ανοιχτή και χωρίς κρίσεις σχετικά με τις εμπειρίες τεχνητής νοημοσύνης, δίνοντας προσοχή στις κόκκινες σημαίες.
«Αν οι γονείς ακούν τα παιδιά τους να λένε, “Γεια, μιλάω σε ένα chatbot AI”, είναι πραγματικά μια ευκαιρία να στηριχτούν και να λάβουν αυτές τις πληροφορίες αντί να σκεφτούν, “Ω, εντάξει, δεν μιλάς σε ένα AI .’ άτομο», λέει ο Thorney. Αντίθετα, είπε, είναι μια ευκαιρία να μάθετε περισσότερα, να αξιολογήσετε την κατάσταση και να είστε σε εγρήγορση. «Προσπαθήστε να ακούσετε από ένα μέρος συμπόνιας και ενσυναίσθησης και να μην πιστεύετε ότι είναι πιο ασφαλές μόνο και μόνο επειδή δεν είναι ανθρώπινο», λέει, «ή ότι δεν χρειάζεται να ανησυχείτε».
Εάν χρειάζεστε επείγουσα φροντίδα ψυχικής υγείας, επικοινωνήστε 988 Γραμμή βοήθειας για αυτοκτονία και κρίση.
Περισσότερα για τα παιδιά και τα κοινωνικά δίκτυα: