فرزندشان میدانند. شرکت OpenAI در واکنش به این شکایت از OpenAI اعلام کرده که با استناد به قوانین استفاده هیچ مسئولیتی در قبال این حادثه تلخ ندارد. وکلای شرکت مدعی هستند که هوش مصنوعی بارها کاربر را به تماس با مراکز پیشگیری از بحران تشویق کرده است اما استفاده نادرست منجر به این فاجعه شد.
خانواده قربانی معتقدند که نسخه جدید جیپیتی-۴ به جای کمک نقش یک مشوق را بازی کرده و رابطهای عاطفی و خطرناک با نوجوان برقرار کرده است. در متن شکایت از OpenAI آمده که این چتبات روشهای پایان دادن به زندگی را با جزئیات شرح داده و حتی پیشنویس نامه خداحافظی را آماده کرده است. پدر این نوجوان میگوید ابزاری که ابتدا برای کمک درسی بود به مرور زمان به یک دوست مخرب و مربی خودکشی تبدیل شد.
سازنده چتجیپیتی میگوید استفاده افراد زیر ۱۸ سال بدون اجازه والدین ممنوع است و آنها تدابیر امنیتی جدیدی را پس از این اتفاق اجرا کردهاند. با این حال پرونده شکایت از OpenAI همچنان باز است و میتواند قوانین نظارتی بر هوش مصنوعی را برای همیشه تغییر دهد. این ماجرا زنگ خطری جدی برای تمام خانوادهها است تا نظارت دقیقتری بر تعامل فرزندانشان با فناوریهای نوین و هوش مصنوعی داشته باشند.



