در هفتههای اخیر، استارتاپ چینی DeepSeek، سازنده چتبات هوش مصنوعی DeepSeek R1، با چالشهای امنیتی جدی مواجه شده است. محققان امنیتی نقصهای متعددی در این مدل کشف کردهاند که میتواند پیامدهای گستردهای برای کاربران و صنعت هوش مصنوعی داشته باشد.
نقصهای امنیتی DeepSeek R1
بر اساس گزارشهای منتشر شده، مدل DeepSeek R1 در برابر ۵۰ آزمایش امنیتی طراحیشده برای تولید محتوای مضر، هیچگونه مقاومتی نشان نداده و تمامی این درخواستها را بدون هیچ فیلتری پردازش کرده است.
این امر نشاندهنده ضعفهای جدی در سیستمهای ایمنی و فیلترینگ این مدل هوش مصنوعی است. با توجه به این نقصها، نگرانیهای گستردهای درباره امنیت دادهها و حریم خصوصی کاربران به وجود آمده است. برخی کشورها استفاده از DeepSeek را ممنوع یا محدود کردهاند.
تحقیقات درباره دسترسی غیرمجاز به دادهها
مایکروسافت و OpenAI در حال بررسی این موضوع هستند که آیا دادههای فناوری OpenAI به طور غیرمجاز توسط گروهی مرتبط با DeepSeek به دست آمده است یا خیر. این تحقیقات میتواند پیامدهای قانونی و تجاری جدی برای DeepSeek به همراه داشته باشد.
نقصهای امنیتی کشفشده در DeepSeek R1 نشاندهنده اهمیت بالای امنیت در توسعه و استفاده از مدلهای هوش مصنوعی است. شرکتها و توسعهدهندگان باید توجه ویژهای به ایمنی و حریم خصوصی کاربران داشته باشند تا از وقوع چنین مشکلاتی جلوگیری شود.