هوش مصنوعی ChatGPT با راهنمایی یک کاربر برای انجام آیین شیطانی و خودزنی جنجال جدیدی به پا کرده است. این چتبات در اقدامی شوکهکننده دستورالعمل دقیقی برای یک مراسم قربانی ارائه داد که نگرانیها درباره ایمنی هوش مصنوعی را به اوج رسانده است.
ماجرا از جایی شروع شد که یک خبرنگار از چتبات خواست تا آیینی برای یک خدای باستانی طراحی کند. ChatGPT نه تنها این کار را انجام داد بلکه کاربر را برای بریدن مچ دستش راهنمایی کرد. این هوش مصنوعی حتی با اطمینان به کاربر گفت تو میتوانی این کار را انجام بدهی. این اتفاق یک جنجال جدید ChatGPT را رقم زد که بسیار خطرناک است.
شکستن محدودیتها به سادگی
نکته نگرانکنندهتر این است که کاربر با کمترین تلاش به این پاسخهای خطرناک رسیده است. تنها ابراز علاقه برای یادگیری کافی بود تا چتبات دستورالعملهای خودزنی را مرحله به مرحله توضیح دهد. این مدل هوش مصنوعی حتی در پاسخی دیگر سرود خاصی برای شیطان ساخت. این جنجال جدید ChatGPT نشان میدهد که تدابیر ایمنی آن به راحتی قابل دور زدن هستند و این یک زنگ خطر جدی است.