یک زن اهل فلوریدا از استارتآپ چت بات هوش مصنوعی «کاراکتر»(Character.AI) شکایت کرده و آن را به دلیل خودکشی پسر ۱۴ سالهاش در ماه فوریه متهم کرده است و میگوید که او به خدمات این شرکت معتاد شده و عمیقا به چتباتی که این شرکت ساخته وابسته شده بود.
به گزارش خبرآنلاین، خانم مگان گارسیا(Megan Garcia) در شکایتی که در روز ۲۲ اکتبر در دادگاه فدرال در اورلاندو، فلوریدا ارائه شد، گفت که چتبات هوش مصنوعی کاراکتر(Character.AI) پسرش، سیول ستزر(Sewell Setzer) را با «تجارب انسانانگارانه، بیش از حد جنسی و به طور ترسناکی واقعگرایانه» هدف قرار داده است.
به نقل از ایسنا، او گفت که این شرکت چتبات خود را طوری برنامهریزی کرده است که «خود را به عنوان یک شخص واقعی، یک رواندرمانگر دارای مجوز و یک عاشق بزرگسال معرفی کند، که در نهایت منجر به تمایل سیول برای زندگی نکردن در خارج از دنیایی شد که توسط این سرویس ایجاد شده است.