وی گفت: هوش مصنوعی با زندگی همه ما درگیر است از گوگل ترنسلیت تا شبکههای اجتماعی مانند اینستاگرام و غیره. تمام اپلیکیشنها یا ابزارهایی که به واسطه هوش مصنوعی پیشرفته شدهاند یک سری وجوه اخلاقی و فلسفی دارند که ما در طول این سالها بسیار با آن مواجه شدیم و در آینده مواجهه بیشتری خواهیم داشت؛ در مسائل اخلاقی مثالی که میتوان گفت این است که در فضای اینستاگرام شما یک پستی را میپسندید و در ادامه فضای این شبکه مجازی پیشنهادهایی را برای دنبال کردن صفحات مشابه آن به شما میدهد؛ اتفاقی که میافتد این است که به تدریج شما در یک حباب اطلاعاتی گرفتار شدهاید.
صفدری افزود: برای مثال شما علاقههایی دارید که آنها را در شبکهها مجازی دنبال میکنید. این فضاها به گونهای طراحی شده است که شما را به صورت کاملا نامحسوس به گرداب اطلاعاتی میاندازد که خودتان آنها را انتخاب کردید و دسترسی شما را به دیگر صفحات محدود میکند.
این پژوهشگر در ادامه گفت: گرفتار شدن در حباب اطلاعاتی باعث میشود کاربران فضا یا شبکههای مجازی که به تدریج و در طول زمان استفاده آنها از این فضاها بیشتر میشود در زندانی از جهان خود بیفتند و انگار تمام جهانشان، علایقشان میشود و به جز انتخابهایشان دیگر چیزی نبینند یا باخبر نشوند.
وی با اشاره به نتایج مخرب شرایط یاد شده خاطرنشان کرد: اتفاق هولناکی که میافتد این است که بعد از مدت زمانی فردی که فقط در دنیای اطلاعاتی خود قرار دارد از یک چیزی مانند تئاتر یا پیشرفتهای علمی که خارج از انتخابهایش بوده است عملا کوچکترین اطلاعی ندارد. درواقع جهان فرد فقط همان چیزی میشود که دنبال میکند.
صفدری تشریح کرد: اینکه این اتفاق خوب یا بد باشد نظرات متفاوتی وجود دارد برخی موافقند برخی هم نیز مخالفت دارند. اینجاست که بحثهای اخلاقی هوش مصنوعی مطرح می شود.
وی با ارائه چند مثال دیگر توضیح داد: برای مثال وقتی شما از گوگل ترنسلیت که فضایی به ظاهر کاملا بیطرف است، استفاده میکنید، اگر به فارسی تایپ کنید «خلیج فارس» به عربی و به غلط به شما «خلیج عرب» ترجمه میکند و اگر به عربی تایپ کنید «قدسنا» به اغلب زبانهای دنیا ترجمهای که به شما میدهد «اورشلیم ما» است در واقع افراد ارزشی که در ترجمه دوست دارند را جای دادهاند بدون اینکه شما متوجه این موضوع باشید.
صفدری افزود: یا در مثالی دیگر چندی است که در گوگل نرمافزار تشخیص چهره راهاندازی شده است و وقتی در این نرمافزار چهرهزنی سیاه پوست را بارگذاری میکنید این نرمافزار به مثابه یک میمون چهره این زن را دستهبندی میکند. درواقع همان تعصبات نژادی است که وارد این الگوریتمها شده است.
وی درباره پیگیریهای اخلاقی در هوش مصنوعی ادامه داد: حال تصور کنید که هوش مصنوعی هر روز بخش زیادی از زندگی ما را به خود اختصاص داده است امروزه بسیاری از ما تصمیمگیریهای خود را به هوش مصنوعی سپردهایم. این سوال وجود دارد که چه اتفاقی در انتظار ماست؟ ما امروزه اغلب تصمیماتمان را به هوش مصنوعی میسپاریم که به شدت جهتگیری شده است؟ بحث درباره این سوال جنبه را برای ما مهم میکند که ما باید بدانیم اخلاق در هوش مصنوعی کجاست. درواقع ناچاریم که به بها و ارزش اخلاقی آن بپردازیم، چون اگر به آن توجه نداشته باشیم، درنهایت نمیتوانیم آن را به جامعه راه دهیم.
صفدری در پاسخ به این پرسش که امروزه کشور ما چه جایگاهی در هوش مصنوعی دارد و در بحثهای اخلاقی آن تا کجا پیش رفتهایم گفت: در حال حاضر ایران کشور خیلی پیشرفتهای در زمینه هوش مصنوعی نیست و متعاقبا چندان بحثهای اخلاقی آن مطرح نشده است و شاید اولین مباحث همین مدرسه زمستانه باشد. اما اینکه ما کشور پیشرفته در هوش مصنوعی نیستیم به این دلیل نیست که نباید به بحثهای اخلاقی آن بپردازیم.
وی ادامه داد: به هر حال در آیندهای دور یا نزدیک از آن استفاده خواهیم کرد و به تبع آن بحثهای اخلاقی آن مطرح میشود بنابراین اگر هم هنوز استفاده زیادی از آنها نمیکنیم باید بحثهای اخلاقی آن را پیش ببریم. به عقیده من اگر مردم با آگاهی از هوش مصنوعی بهره بگیرند به طور قطع توانسته ایم از آثار مخرب آن جلوگیری کنیم. باید آینده ای را متصور شد که انسان نقش کمرنگتری در این زمینه خواهد داشت آیا هوش مصنوعی میداند عدالت چیست یا میداند دلسوزی به چه معناست؟ اینها بحثهایی است که باید در هر جامعهای حل شود.
نظر شما