به گزارش روابط عمومی پژوهشگاه فرهنگ و اندیشه اسلامی، به نقل از مرکز رشد و نوآوری پژوهشگاه، با توجه به تحولات شگرفی که توسط هوش مصنوعی در حوزههای مختلف بهوجود آمده است، هستههای حکمرانی فضای مجازی و حکمرانی هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه، نشستهایی را تحت عنوان کارگاه دانشافزایی هوش مصنوعی برگزار مینمایند.
هشتمین جلسه از این کارگاه علمی ـ آموزشی که حول موضوع اخلاق هوش مصنوعی بود، در تاریخ سهشنبه ۱۵ آبان ماه سال جاری با ارائه نرگس نراقی دانشجوی دکتری جامعه شناسی و اخلاق هوش مصنوعی دانشگاه KIT آلمان با عنوان «الگوریتمهای بیشعور: سوگیری و سالم سالاری هوش مصنوعی» و با حمایت سازمان توسعه همکاریهای علمی و فناورانه بینالمللی معاونت علمی، فناوری و اقتصاد دانشبنیان ریاست جمهوری برگزار شد.
نراقی بحث خود را با این سؤال آغاز کرد که چرا ارزیابی فناوری (TA)[۱] لازم است؟ وی در پاسخ به این سؤال به سه دیدگاه مطرح در مواجهۀ نظامهای اجتماعی و حقوقی با پیشرفتهای فناورانه اشاره کرد. اصل نخست، دیلمای کالینگریج، به این امر اشاره دارد که در ابتدای مسیر توسعۀ فناوری عواقبی که فناوری برای جامعه میتواند داشته باشد مشخص نیست و بنابراین تغییرات در آن، به نحوی که برای جامعه کمترین آسیب را داشته باشد، مقدور نخواهد بود. اما پس از آن که این عواقب عریان شدند، فرصت برای تغییر فناوری از دست رفته است؛ چراکه در این نقطه فناوری در جامعه نهادینه شده است.
مسئلۀ همقدم شدن بر این دلالت دارد که نظامهای حقوقی و قانونی همواره با سرعتی کمتر از تحولات فنی رشد کرده و همواره از پیشرفتهای تکنیکی عقب میمانند. موضوع سوم نیز اصل احتیاطگرا است که قائل به این است که تازمانیکه هنوز نمیدانیم فناوری چه عواقبی برای در جامعه دارد، نباید آن را توسعه دهیم. البته در عمل این اصل هرگز مورد استقبال توسعهدهندگان فناوری قرار نگرفت چراکه در اقتصاد بازار عمدتا گفته میشود اصل بر سود است و اگر فناوری میتواند به خلق ثروت ملی منجر شود نباید به سادگی جلوی آن را گرفت.
دانشجوی دانشگاه KIT درادامه به بیان چیستی ارزیابی فناوری پرداخت و در این خصوص گفت ارزیابی فناوری در ابتدا بهعنوان یک علم[۲] شناخته نمیشده و صرفا یک نهادِ پژوهشی سیاستی برای تصمیمگیری آگاهانه در سطوح پارلمانی در خصوص مسائل فناورانه بوده است که در قالب دفتر ارزیابی فناوری (OTA)[۳] توسط مجلس آمریکا فعالیت میکرده است. این دفتر پس از مدتی به دلیل اختلافات حزبی در آمریکا بسته میشود اما دانشگاه پرینستون امتیاز گزارشهای این دفتر را در اختیار مخاطبین عمومی قرار داده است. این گزارشها از سایت زیر قابلدسترسی است:
با این وجود، اکنون ارزیابی فناوری هم بهعنوان یک نهاد تصمیمگیری سیاستی و هم یک شاخۀ تئوریک کاربردی[۴] از پژوهش شناخته شده است. لذا اولویت آن رسیدن به پاسخ برای صورتمسئلههای سیاستی، در خصوص جوانب اجتماعی و زیستمحیطی توسعۀ فناوری است و از این حیث که یک شاخۀ کاربردیست، کمتر خود را درگیر معیارهای سختگیرانۀ روش علمی میکند.
پژوهشگر حوزه اخلاق و جامعهشناسی هوش مصنوعی در بخش بعدی ارائه خود درباره انواع ارزیابی فناوری صحبت و به سه نوع مطرح آن یعنی پارلمانی، مشارکتی و برساختی اشاره کرد. سپس به بیان مسئله اصلی بحث یعنی سرکوبهای الگوریتمی و لزومِ توسعۀ هوشمصنوعی شمولپذیر پرداخت.
نراقی سه مورد از سرکوبهای هوش مصنوعی را تحت عنوان الگوریتمهای جنسیتزده[۵]، الگوریتمهای نژادپرست[۶] و الگوریتمهای سالمسالار[۷] برشمرد و عمدۀ رفتارهای سوگیرانۀ هوش مصنوعی را به این سه نوع سرکوبهای فناورانه نسبت داد. بهعنوانمثال هوش مصنوعی اکنون با وجود دادههایی که منعکسکنندۀ دنیای واقعی بوده، و خود دارای سوگیری هستند، برای یک مرد سفیدپوست انگلیسیزبان ساکن در نیمکره شمالی سالم جوان سوگیری داشته و در تصمیمگیریهای خود برای این سوژه برتری قائل است. لذا باید در طراحی الگوریتم این اتفاق بیفتد که دادههای زندگی همۀ گروههای اجتماعی برای یادگیریِ هوش مصنوعی بازتاب داده شود؛ زیرا الگوریتم اساسا بیشعور است و باید با آموزش شمولپذیر شود.
ادامه نشست باتوجهبه اینکه حوزه تحقیقاتی سخنران، شمولپذیری هوش مصنوعی برای افراد دارای معلولیت[۸] است، به این مبحث اختصاص یافت. وی برای مواجهه با این مسئله به تدقیق واژه توانیابی و معلولیت در رویکردهای مختلف پرداخت:رویکرد معنوی[۹]، رویکرد پزشکی[۱۰]، رویکرد اجتماعی[۱۱]، رویکرد مبتنی بر نقش[۱۲]، و در نهایت رویکرد اجتماعی- رابطهای[۱۳]. بنا بر این رویکردها، این که چه فردی دارای معلولیت، یا توانیاب خوانده شود، بر اساس این مدلها پاسخ داده میشود. در نهایت اینکه برای شمولپذیری هوش مصنوعی برای افراد دارای معلولیت، بسته به نوع فناوری (روباتهای دستیار، یا مدلهای زبانی یا غیره) هر یک از این مدلها میتوانند راهگشا باشند.
در این نشست که بهصورت برخط برگزار شد، حدود ۱۶ نفر شرکت داشتند. پس از پایان سخنرانی پرسش و پاسخ حاضرین انجام شد و جلسه بعد از نزدیک به یک ساعت و نیم به پایان رسید.
[۱] Technology Assessment
[۲] Science
[۳] Office of Technology Assessment
[۴] Pragmatic
[۵] Algorithmic Sexism
[۶] Algorithmic Racism
[۷] Algorithmic Ablism
[۸] Disability
[۹] Spiritual
[۱۰] Medical
[۱۱] Social
[۱۲] Functional Limitation
[۱۳] Social-relational