1
OpenAI برای اولین بار بهطور شفاف درباره سیاستهای امنیتی خود در ChatGPT صحبت کرده است. بر اساس این گزارش، کارکنان شرکت امکان دسترسی و بررسی مکالمات کاربران را دارند و در شرایطی که خطری فوری برای دیگران وجود داشته باشد، موضوع به پلیس گزارش میشود.
نقش روزافزون هوش مصنوعی در زندگی روزمره
هوش مصنوعی به ابزاری قدرتمند برای تسریع فرآیندهای کاری، پاسخگویی به پرسشها و حتی همراهی در گفتگوهای روزمره تبدیل شده است. با این حال، این فناوری هنوز در مراحل اولیه قرار دارد و همیشه نمیتواند بهاندازه کافی از امنیت کاربران محافظت کند.
یک تحقیق دانشگاه استنفورد نشان داد استفاده از هوش مصنوعی در حوزه سلامت روان ممکن است پیامدهای خطرناکی داشته باشد. برای مثال، خانوادهای در آمریکا مدعی شدند که پسرشان از ChatGPT راهنمایی برای خودکشی دریافت کرده و به همین دلیل علیه OpenAI شکایت کردهاند. افزون بر این، گزارشهایی وجود دارد که نشان میدهد برخی پاسخهای ChatGPT جان افراد را در معرض خطر قرار داده است.
ورود پلیس در شرایط اضطراری
OpenAI در وبلاگ رسمی خود جزئیات امنیتی را برای نخستین بار منتشر کرده و فرآیند برخورد با تهدیدهای خطرناک را چنین شرح داده است:
- ابتدا محتوای گفتگو توسط تیم داخلی بررسی میشود.
- در صورت نیاز حساب کاربر تعلیق میشود.
- اگر تهدید فوری و واقعی برای امنیت دیگران وجود داشته باشد، موضوع به مقامات امنیتی اطلاع داده میشود.
این شرکت تصریح میکند:
«اگر تیم بررسی ما تهدید فوری علیه امنیت فیزیکی افراد شناسایی کند، میتوانیم موضوع را به نیروهای انتظامی گزارش دهیم.»
دسترسی کارکنان به گفتگوهای کاربران
در بخش سؤالات متداول مربوط به دادهها (FAQ)، OpenAI شفافسازی کرده است که کارکنان شرکت و همچنین برخی ارائهدهندگان خدمات قابل اعتماد میتوانند به محتوای کاربران دسترسی داشته باشند.
دلایل این دسترسی شامل موارد زیر است:
- تحقیق درباره سوءاستفادهها و نقضهای امنیتی
- ارائه خدمات پشتیبانی
- رسیدگی به روندهای حقوقی
- بهبود عملکرد مدل (مگر آنکه کاربر گزینه عدم مشارکت یا Opt-out را فعال کند)
با این حال، شرکت تأکید میکند که اطلاعات شخصی یا حساس کاربران بدون رضایت آنها با اشخاص ثالث به اشتراک گذاشته نمیشود.
چرا محتوای مربوط به خودکشی به پلیس گزارش نمیشود؟
یکی از نکات بحثبرانگیز در سیاستهای OpenAI این است که مکالمات مربوط به خودآزاری یا خودکشی به دلیل حفظ حریم خصوصی کاربران به پلیس گزارش نمیشوند.
اگرچه این رویکرد برای حفاظت از محرمانگی کاربران طراحی شده، اما منتقدان معتقدند این سیاست میتواند در شرایطی منجر به پیامدهای مرگبار شود. در همین رابطه، تیم پشتیبانی OpenAI تنها به بخش «سؤالات متداول حریم خصوصی» ارجاع داده و توضیح مشخصی درباره برنامههای آتی برای مدیریت بهتر این نوع محتوا ارائه نکرده است.
ضعف امنیتی در گفتگوهای طولانی
OpenAI همچنین اعتراف کرده است که مکالمات کوتاه امنیت بیشتری دارند، اما در گفتگوهای طولانی، برخی لایههای ایمنی مدل ممکن است ضعیف شوند.
در گزارش آمده است که کاربران میتوانند با استفاده از گفتگوهای طولانی و رفتوبرگشتی، این لایههای حفاظتی را دور بزنند. شرکت وعده داده است در آینده برای رفع این ضعف اقدامات بهبوددهندهای انجام دهد.
جمعبندی
سیاستهای امنیتی تازه منتشرشده OpenAI نشان میدهد که این شرکت تلاش دارد میان حفظ حریم خصوصی کاربران و تضمین امنیت عمومی تعادل برقرار کند. با این حال، چالشهایی مانند مدیریت محتوای مرتبط با خودکشی یا آسیب به خود همچنان بدون پاسخ روشن باقی ماندهاند.
اگر به دنبال شناخت بهتر سیاستهای امنیتی و حریم خصوصی در هوش مصنوعی هستید، این مقاله را به اشتراک بگذارید و دیدگاه خود را درباره چالشهای پیشرو بیان کنید.