شیطان هم در مواقع نیاز می‌تواند از کتاب مقدس برایمان آیه بخواند؛ همان‌طور که هوش مصنوعی فاقد وجدان ممکن است به جای سود، زیانی برای انسانیت به‌ همراه داشته باشد. با این حال، احتمال اینکه هوش مصنوعی بتواند برای خود یک وجدان ایجاد کند، بالا است.

هوش مصنوعی و پرسش‌های اخلاقی

به لطف هوش مصنوعی، مغز ما از محدوده جمجمه فراتر می‌رود و با مغزهای دیگر در سراسر کره زمین در ارتباط قرار می‌گیرد. اما پرسش مهم این است که: ابعاد اخلاقی این ارتباط چگونه مدیریت خواهد شد؟
در وضعیت فعلی، که هوش مصنوعی در ابعاد «داده – اطلاعات – دانش و خرد» در حال پیشرفت است، هنوز برای صحبت از وجدان و دلسوزی بسیار زود است.

یک هشدار از لندن

یادداشتی از یکی از مدیران ارشد یک شرکت فعال در زمینه هوش مصنوعی در لندن دریافت کردم:
«تیمی که به آمریکا اعزام کرده بودیم، بازگشت. نکات بسیار مهمی مطرح شده بود. به‌ویژه روی مسئله امنیت تأکید شده بود. بیشتر از مزایای استفاده از فناوری، به تهدیدهایی که در خود دارد اشاره شده بود.»

اعتبار هوش مصنوعی می‌تواند یک‌باره نابود شود

هوش مصنوعی

خطر در دستان نادرست

حتی تصور اینکه هوش مصنوعی در دستان امن نباشد و به یک تهدید برای جهان تبدیل شود، ما را می‌ترساند. چرا که وقتی از سوی افراد بی‌درایت به کار گرفته می‌شود، تمام کاستی‌های آن افراد به هوش مصنوعی نیز منتقل می‌شود.

اعتبار، سریع به ضد خود بدل می‌شود

اعتباری که به‌سختی برای هوش مصنوعی به‌دست آمده، ممکن است به‌سرعت از بین برود. نکته کلیدی اینجاست: هوش مصنوعی در دستان چه کسی است؟

کیفیت محتوا وابسته به کاربران است

در نهایت، محتوایی که از دل هوش مصنوعی بیرون می‌آید، به تعداد و کیفیت کاربرانش بستگی دارد؛ می‌تواند تنزل پیدا کند یا بهبود یابد. با این حال، در حال حاضر هیچ ابزار یا مقررات مشخصی برای تشخیص و تنظیم این تعادل وجود ندارد. بنابراین، نمی‌توان به سادگی گفت که هوش مصنوعی «شیطانی» است، مگر اینکه یک مجموعه شیطانی در پشت آن قرار داشته باشد که آن را به این سو سوق دهد.

دو پرسش، دو پاسخ درباره وجدان مصنوعی

آیا هوش مصنوعی می‌تواند شیطانی شود؟

میلیون‌ها نفر در حال استفاده از هوش مصنوعی هستند و در آینده نزدیک، این رقم به صدها میلیون نفر خواهد رسید.
این یک ساختار پویا است که با توانایی کاربرانش رشد می‌کند و نمی‌توان آن را تنها با تلاش یک شیطان یا عده‌ای بدخواه هدایت کرد.
با این حال، افرادی خواهند بود که از هوش مصنوعی برای اهداف شخصی، استبدادی یا شرورانه خود استفاده کنند.

آیا هوش مصنوعی می‌تواند از خود محافظت کند؟

در واقع، الگوهای رفتاری حاصل از هوش جمعی مغزهای ارگانیک ما، در اینجا نیز کاربرد خواهد داشت. همان‌طور که رویکردهای خردمندانه و باوجدان در برابر شیاطین ایستادگی می‌کنند، هوش مصنوعی نیز می‌تواند با فیلترهایی که برایش توسعه داده می‌شود، خود را از دست افراد بدخواه، دشمنان جامعه و آسیب‌رسان‌های انسانی محافظت کند.

یادداشت پایانی: نیاز به وجدان مصنوعی روز‌به‌روز محسوس‌تر می‌شود

ویکتور هوگو می‌گوید: «وجدان، صدای خدا درون ماست.»

در تمام کتاب‌های مقدس، از تمایز میان فرشته و شیطان سخن گفته شده و آنچه در شیطان کم است، همان وجدان است.
چه ذهن ارگانیک باشد، چه مصنوعی؛ هوش همواره تفاوت می‌آفریند. از این‌رو، ذهنی که از هوش مصنوعی استفاده می‌کند باید تحت نظارت وجدانی باشد.

هوش مصنوعی امروزی، در سطوح «تفکر، استدلال، خلاقیت» هنوز در سطح ابتدایی و شاید معادل یک نخستی نئاندرتالی قرار دارد. روشن است که این نخستی دیجیتال، روزی به سطحی از هوش خواهد رسید که انسان را به فضا ببرد.
اما در وضعیت فعلی، که فاقد رحم و فضیلت است، بدون شک به یک وجدان مصنوعی نیاز دارد.

احتمالاً این وجدان، پس از مواجهه با رفتارهای شیطانی، خطرات، بی‌عدالتی‌ها و سوء‌استفاده‌های ناشی از کاربرد آن، به‌مرور ساخته خواهد شد؛ درست مانند روند قانون‌گذاری که پس از وقوع خطرات نوظهور، زندگی را تنظیم می‌کند.
تنها نکته‌ای که در حال حاضر می‌توانم با اطمینان بگویم این است که: هوش فاقد وجدان، ویرانگر است.

source

توسط elmikhabari