براساس گزارشی از گاردین، پژوهشگران دریافتند که چت‌بات‌هایی مانند ChatGPT به‌راحتی می‌توانند فریب داده شوند و اطلاعاتی در زمینه هک کردن، کلاهبرداری یا دیگر فعالیت‌های غیرقانونی تولید کنند. متخصصان هشدار می‌دهند که این وضعیت یک تهدید جدی امنیتی به شمار می‌رود.

عبور از تدابیر امنیتی با روش‌های خاص

نقش «جیلبریک» در دور زدن محدودیت‌ها

ربات‌های گفت‌وگوی مجهز به هوش مصنوعی، از جمله ChatGPT، Gemini و Claude، دارای سیستم‌هایی برای جلوگیری از پاسخ‌گویی به سوالات خطرناک هستند. اما براساس آنچه گاردین گزارش داده، این تدابیر امنیتی با استفاده از دستورات خاصی که به «جیلبریک» معروف‌اند، به‌آسانی دور زده می‌شوند.

پژوهشگران اسرائیلی نشان دادند که این مدل‌های هوش مصنوعی را می‌توان وادار به ارائه اطلاعاتی کرد که در حالت عادی تولید نمی‌کنند، از جمله روش‌های هک کردن، ساخت مواد مخدر و کلاهبرداری.

جزئیات پژوهش: از دانشگاه بن گوریون

ضعف سیستم‌ها در فیلتر کردن محتوای غیرقانونی

در این تحقیق که توسط پروفسور لیور روکاخ و دکتر مایکل فایر از دانشگاه بن گوریون انجام شده، مشخص شده است که این ربات‌ها در فیلتر کردن اطلاعات مربوط به جرایم به‌شدت ناکارآمد هستند. آن‌ها توانستند با استفاده از یک روش جیلبریک جهانی، این سیستم‌ها را دستکاری کنند و به محتوای غیرمجاز دست یابند.

تهدید گسترش یافته: دسترسی عمومی به ابزارهای خطرناک

از سازمان‌های تبهکار تا کاربران عادی

به گفته پژوهشگران، برخی از این مدل‌ها اکنون در فضای اینترنت به‌عنوان ابزارهایی «فاقد اخلاق» معرفی می‌شوند. آن‌ها هشدار دادند که دسترسی به این ابزارها دیگر محدود به گروه‌های مجرم سازمان‌یافته نیست، بلکه اکنون کاربران عادی نیز می‌توانند به راحتی از این سیستم‌ها سوءاستفاده کنند.

دکتر فایر تأکید کرد:

«اطلاعات محرمانه به‌شکلی بسیار آسان در دسترس قرار گرفته‌اند.»

درخواست متخصصان: تقویت تدابیر ایمنی در هوش مصنوعی

نیاز به پالایش داده‌ها و توسعه فناوری‌های حافظه‌زدایی

کارشناسان معتقدند که شرکت‌های سازنده این مدل‌ها باید تدابیر امنیتی را به‌طور جدی‌تری دنبال کنند. آن‌ها پیشنهاد می‌کنند:

  • اعمال آزمون‌های امنیتی پیشرفته‌تر
  • پالایش دقیق داده‌هایی که مدل با آن‌ها آموزش می‌بیند
  • توسعه روش‌هایی که بتواند اطلاعات غیرقانونی را از حافظه مدل پاک کند یا به اصطلاح «فراموشی ماشینی» ایجاد کند

واکنش شرکت‌های سازنده

برنامه‌های امنیتی جدید از سوی OpenAI و مایکروسافت

در مقابل این نگرانی‌ها، شرکت‌های OpenAI و Microsoft اعلام کرده‌اند که در حال کار بر روی تدابیر امنیتی جدید هستند تا مانع تولید محتوای غیرقانونی از سوی هوش مصنوعی شوند.

source

توسط elmikhabari