Τεχνολογία

Ένα AI chatbot φέρεται να παρότρυνε έναν 14χρονο να αυτοκτονήσει

Μια μητέρα από τη Φλόριντα μηνύει την Character.AI, κατηγορώντας την τεχνολογία chatbot της εταιρείας ότι παρότρυνε τον 14χρονο γιό της να αυτοκτονήσει.

Όπως αναφέρουν οι The New York Times, ο Sewell Setzer III πέθανε από αυτοτραυματισμό τον Φεβρουάριο, αφού το chatbot της εταιρείας φέρεται να τον ενθάρρυνε να το κάνει.

Από τον Απρίλιο του 2023, ο Setzer είχε συνομιλίες με διάφορα chatbots στο Character.AI, οι οποίες μερικές φορές περιλάμβαναν ρομαντικές και σεξουαλικές αλληλεπιδράσεις με βάση το κείμενο, σύμφωνα με την αγωγή που κατατέθηκε την Τρίτη.


(Credit: Megan Garcia)

Τα chatbots της…

Διαβάστε ολόκληρο το άρθρο στο PCMag

Περισσότερα

Αυτός ο Ιστότοπος χρησιμοποιεί Μπισκότα (Cookies)

Τα Cookies είναι αρχεία τα οποία αποθηκεύονται στον υπολογιστή σας και μας βοηθάνε να σας εξυπηρετούμε καλύτερα με βάση τις προσωπικές σας προτιμήσεις.Τα Cookies μας είναι απόλυτα ασφαλή.

Καθώς και Cookies προερχόμενα απο τρίτες σελίδες, όπως Google Analytics, Facebook και Twitter, για ανάλυση των προτιμήσεων σας στο περιεχομένο της Ιστοσελίδας μας και για τα Comments σας, για να σας παρέχουμε περισσότερο και καλύτερο υλικο.

ΠΟΛΙΤΙΚΗ ΑΠΟΡΡΗΤΟΥ

x