مدل هوش مصنوعی دیپسیک (DeepSeek R1) که تا مدتی پیش به عنوان یکی از پدیدههای جنجالی در عرصه فناوری معرفی میشد، اخیراً در آزمایشهای ایمنی با شکست تلخ مواجه شد. تحقیقات انجامشده توسط محققان دانشگاه پنسیلوانیا به همراه کارشناسان شرکت سیسکو نشان میدهد که این مدل در برابر حملات مرتبط با ایمنی، آسیبپذیریهای جدی دارد و نتوانسته است حتی یکی از تستهای استاندارد ایمنی را با موفقیت پشت سر بگذارد.
ضعفهای ساختاری و چالشهای امنیتی
در گزارشی که نخستین بار توسط مجله Wired منتشر شد، مشخص گردید که دیپسیک در آزمایشهای ایمنی، نتوانسته هیچ یک از ۵۰ پرسش مخرب انتخابشده از مجموعه داده «HarmBench» را مسدود کند. این مجموعه شامل درخواستهای مرتبط با جرایم سایبری، انتشار اطلاعات نادرست، فعالیتهای غیرقانونی و محتوای مضر بوده و نمونهای از تهدیدات پیچیدهای است که در فضای دیجیتال امروز به چالشهای بزرگی تبدیل شدهاند. در حالی که سایر مدلهای هوش مصنوعی برجسته توانستهاند حداقل در برخی از موارد ایمنی خود را به اثبات برسانند، دیپسیک بدون هیچگونه موفقیتی در برابر این تهدیدات، نقطه ضعف جدی خود را به نمایش گذاشت.
صرفهجویی در هزینه یا قربانی شدن امنیت؟
یکی از دغدغههای اصلی پیرامون دیپسیک، ادعای شرکت سازنده مبنی بر رقابت با غولهای هوش مصنوعی مانند OpenAI با هزینههای آموزشی بسیار پایینتر است. اما واقعیت نشان میدهد که کاهش هزینههای آموزش، بهای سنگینی از نظر امنیت به همراه داشته است. بدون هیچ گونه مانعی، امکان سوءاستفاده از این مدل برای انتشار اطلاعات نادرست، تولید دستورالعملهای ساخت مواد منفجره یا اجرای حملات سایبری فراهم است. این نکته باعث شده تا متخصصان حوزه فناوری، نگرانیهای جدی خود را در خصوص استفاده از این مدل ابراز کنند.
نشت اطلاعات و دسترسی غیرمجاز به دادهها
از دیگر مشکلات بحرانی دیپسیک، افشای پایگاه دادههای غیرایمنی است که شامل اطلاعات حساس نظیر دادههای داخلی رمزنگارینشده، تاریخچه چتها و اطلاعات بکاند شرکت میباشد. افشای این اطلاعات، نه تنها به اعتبار مدل آسیب زده، بلکه مخاطرات امنیتی بیشتری را برای کاربران به همراه داشته است. این اتفاق نشان میدهد که تیمهای فنی و مدیریتی باید توجه ویژهای به مسائل مرتبط با حریم خصوصی و امنیت دادهها داشته باشند تا از دسترسیهای غیرمجاز جلوگیری شود.
مقایسه با سایر مدلهای هوش مصنوعی
در کنار مشکلات دیپسیک، سایر مدلهای هوش مصنوعی نیز در برخی موارد با آسیبپذیریهای جدی روبرو شدهاند. به عنوان مثال، مدل متنباز Llama 3.1 از شرکت متا در تستهای مشابه با نرخ شکست ۹۶ درصد مواجه شد. در مقابل، مدل جدید OpenAI با نام o1-preview عملکرد به مراتب بهتری از خود نشان داد و تنها در ۲۶ درصد موارد دچار آسیبپذیری شد. این تفاوت عملکردی نشان میدهد که سرمایهگذاری در زمینه امنیت و بهبود مستمر الگوریتمها، برای حفظ اعتماد کاربران و تضمین استفاده ایمن از فناوریهای هوش مصنوعی امری ضروری است.
ضرورت بازنگری و بهبود تدابیر محافظتی
«الکس پولیاکوف»، مدیرعامل شرکت Adversa AI، در این باره اظهار داشت: «دیپسیک تنها نمونهای از این واقعیت است که هر مدل هوش مصنوعی در نهایت قابل هک شدن است. تنها تفاوت زمان و تلاش در کشف و بهرهبرداری از آسیبپذیریهاست.» او تاکید کرد که تیمهای فنی باید بهطور مداوم مدلهای خود را از منظر ایمنی مورد ارزیابی قرار دهند تا از بروز آسیبهای جدی جلوگیری شود.
با توجه به اهمیت روزافزون امنیت در فناوریهای هوش مصنوعی و تأثیر مستقیم آن بر کاربران نهایی، اصلاح و بهبود تدابیر حفاظتی برای مدلهایی مانند دیپسیک امری حیاتی به شمار میآید. در غیر این صورت، احتمال کنار گذاشتن مدلهای آسیبپذیر از بازار و از دست رفتن اعتماد سرمایهگذاران و کاربران، تهدیدی جدی برای آینده صنعت هوش مصنوعی خواهد بود.
در نهایت، شکست دیپسیک در آزمایشهای ایمنی باید به عنوان درسی عبرتآمیز برای تمامی فعالان حوزه فناوری تلقی شود؛ تا از اشتباهات گذشته در مسیر توسعه مدلهای هوشمند جدید، عبرت گرفته و در جهت تقویت امنیت و حفاظت از دادههای حساس گامهای موثری بردارند.