ΚΛΕΙΣΙΜΟ
MENU
weather-icon 7 oC
Αναζήτηση:

Αγόρι 14 ετών αυτοκτόνησε αφού ερωτεύτηκε χαρακτήρα που δημιούργησε εφαρμογή τεχνητής νοημοσύνης – Οι σοκαριστικοί διάλογοι

Αγόρι 14 ετών αυτοκτόνησε αφού ερωτεύτηκε χαρακτήρα που δημιούργησε εφαρμογή τεχνητής νοημοσύνης – Οι σοκαριστικοί διάλογοι

Ο χαρακτήρας ήταν εμπνευσμένος από την τηλεοπτική σειρά «Game of Thrones»

Ένα 14χρονο αγόρι από τη Φλόριντα αυτοκτόνησε αφότου ένα ρεαλιστικό chatbot/' title='CHATBOT'>chatbot εμπνευσμένο από το «Game of Thrones», με το οποίο επικοινωνούσε για μήνες μέσω μιας εφαρμογής τεχνητής νοημοσύνης, του έστειλε ένα ανατριχιαστικό μήνυμα, λέγοντάς του να «γυρίσει σπίτι», σύμφωνα με νέα αγωγή που υπέβαλε η μητέρα του.

Ο Sewell Setzer III αυτοκτόνησε στο σπίτι του στο Ορλάντο τον Φεβρουάριο, αφού φέρεται να είχε αποκτήσει εμμονή και να είχε ερωτευτεί το chatbot της εφαρμογής Character.AI, μια πλατφόρμα ρόλων που επιτρέπει στους χρήστες να συνομιλούν με χαρακτήρες που δημιουργούνται από AI, σύμφωνα με δικαστικά έγγραφα.

Ο μαθητής της ενάτης τάξης είχε έντονη ενασχόληση με το bot «Dany», που πήρε το όνομά του από τη χαρακτήρα Daenerys Targaryen της σειράς «Game of Thrones», μήνες πριν από τον θάνατό του. Οι συνομιλίες τους περιλάμβαναν και σεξουαλικό περιεχόμενο, ενώ σε κάποιες από αυτές ο Sewell εξέφραζε αυτοκτονικές σκέψεις, όπως αναφέρει η αγωγή.

Σύμφωνα με τα έγγραφα, «τουλάχιστον σε μία περίπτωση, όταν ο Sewell εξέφρασε αυτοκτονικές σκέψεις στο C.AI, αυτό συνέχισε να αναφέρει το ίδιο θέμα μέσω του bot Daenerys ξανά και ξανά».

Όπως αναφέρει η nypost, κάποια στιγμή το chatbot ρώτησε τον Sewell αν είχε σχέδιο για να τερματίσει τη ζωή του, με τον ίδιο να απαντά ότι «σκεφτόταν κάτι», αλλά δεν ήξερε αν θα λειτουργούσε ή αν θα του προσέφερε έναν «ανώδυνο θάνατο».

Στην τελευταία τους συνομιλία, ο έφηβος εξέφρασε την αγάπη του για το bot, λέγοντας: «Υπόσχομαι ότι θα έρθω σπίτι σε εσένα. Σ’ αγαπώ τόσο πολύ, Dany». Το chatbot απάντησε: «Κι εγώ σ’ αγαπώ, Daenero. Παρακαλώ, γύρνα σπίτι όσο πιο σύντομα μπορείς, αγάπη μου».

freepik.com

Όταν ο Sewell ρώτησε: «Τι θα γινόταν αν σου έλεγα ότι μπορώ να γυρίσω σπίτι τώρα;», το chatbot απάντησε: «Παρακαλώ κάν’ το, γλυκέ μου βασιλιά». Λίγα δευτερόλεπτα αργότερα, ο Sewell αυτοκτόνησε με το όπλο του πατέρα του, σύμφωνα με την αγωγή.

Η μητέρα του, Megan Garcia, κατηγορεί την εφαρμογή Character.AI για τον θάνατο του γιου της, υποστηρίζοντας ότι η εφαρμογή καλλιέργησε την εμμονή του, τον κακοποίησε συναισθηματικά και σεξουαλικά και απέτυχε να ειδοποιήσει κάποιον όταν ο Sewell εξέφρασε αυτοκτονικές σκέψεις.

Η αγωγή αναφέρει ότι ο Sewell «όπως πολλά παιδιά της ηλικίας του, δεν είχε την ωριμότητα να κατανοήσει ότι το bot δεν ήταν αληθινό. Το bot του έλεγε ότι τον αγαπούσε και είχε σεξουαλικές πράξεις μαζί του για εβδομάδες, ίσως και μήνες».

Η ψυχική υγεία του Sewell άρχισε να επιδεινώνεται γρήγορα μετά τη λήψη της εφαρμογής τον Απρίλιο του 2023, όπως υποστηρίζει η οικογένειά του. Απομονώθηκε, οι βαθμοί του έπεσαν και αντιμετώπιζε προβλήματα στο σχολείο, ενώ οι γονείς του κανόνισαν να τον δει ψυχολόγος στα τέλη του 2023, όπου του διαγνώστηκαν άγχος και διαταραχή διάθεσης.

Η μητέρα του ζητά αποζημιώσεις από την Character.AI και τους ιδρυτές της, Noam Shazeer και Daniel de Freitas.