آیا هوش مصنوعی می‌تواند بی‌طرف باشد؟

به گزارش روابط عمومی پژوهشگاه فرهنگ و اندیشه اسلامی، به نقل از مرکز رشد و نوآوری پژوهشگاه، با توجه به تحولات شگرفی که توسط هوش مصنوعی در حوزه‌های مختلف به‌وجود آمده است، هسته‌های حکمرانی فضای مجازی و حکمرانی هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه، نشست‌هایی را تحت عنوان کارگاه دانش‌افزایی هوش مصنوعی برگزار می‌نمایند.

هشتمین جلسه از این کارگاه علمی ـ آموزشی که حول موضوع اخلاق هوش مصنوعی بود، در تاریخ سه‌شنبه ۱۵ آبان ماه سال جاری با ارائه نرگس نراقی دانشجوی دکتری جامعه شناسی و اخلاق هوش مصنوعی دانشگاه KIT آلمان با عنوان «الگوریتم‌های بی‌شعور: سوگیری و سالم سالاری هوش مصنوعی» و با حمایت سازمان توسعه همکاری‌های علمی و فناورانه بین‌المللی معاونت علمی، فناوری و اقتصاد دانش‌بنیان ریاست جمهوری برگزار شد.

نراقی بحث خود را با این سؤال آغاز کرد که چرا ارزیابی فناوری (TA)[۱] لازم است؟ وی در پاسخ به این سؤال به سه دیدگاه مطرح در مواجهۀ نظام‌های اجتماعی و حقوقی با پیشرفت‌های فناورانه اشاره کرد. اصل نخست، دیلمای کالینگریج، به این امر اشاره دارد که در ابتدای مسیر توسعۀ فناوری عواقبی که فناوری برای جامعه می‌تواند داشته باشد مشخص نیست و بنابراین تغییرات در آن، به نحوی که برای جامعه کمترین آسیب را داشته باشد، مقدور نخواهد بود. اما پس از آن که این عواقب عریان شدند، فرصت برای تغییر فناوری از دست رفته است؛ چراکه در این نقطه فناوری در جامعه نهادینه شده است.

مسئلۀ هم‌قدم شدن بر این دلالت دارد که نظام‌های حقوقی و قانونی همواره با سرعتی کمتر از تحولات فنی رشد کرده و همواره از پیشرفت‌های تکنیکی عقب می‌مانند. موضوع سوم نیز اصل احتیاط‌گرا است که قائل به این است که تازمانی‌که هنوز نمی‌دانیم فناوری چه عواقبی برای در جامعه دارد، نباید آن را توسعه دهیم. البته در عمل این اصل هرگز مورد استقبال توسعه‌دهندگان فناوری قرار نگرفت چراکه در اقتصاد بازار عمدتا گفته می‌شود اصل بر سود است و اگر فناوری می‌تواند به خلق ثروت ملی منجر شود نباید به سادگی جلوی آن را گرفت.

دانشجوی دانشگاه KIT درادامه به بیان چیستی ارزیابی فناوری پرداخت و در این خصوص گفت ارزیابی فناوری در ابتدا به‌عنوان یک علم[۲] شناخته نمی‌شده و صرفا یک نهادِ پژوهشی سیاستی برای تصمیم‌گیری آگاهانه در سطوح پارلمانی در خصوص مسائل فناورانه بوده است که در قالب دفتر ارزیابی فناوری (OTA)[۳] توسط مجلس آمریکا فعالیت می‌کرده است. این دفتر پس از مدتی به دلیل اختلافات حزبی در آمریکا بسته می‌شود اما دانشگاه پرینستون امتیاز گزارش‌های این دفتر را در اختیار مخاطبین عمومی قرار داده است. این گزارش‌ها از سایت زیر قابل‌دسترسی است:

با این وجود، اکنون ارزیابی فناوری هم به‌عنوان یک نهاد تصمیم‌گیری سیاستی و هم یک شاخۀ تئوریک کاربردی[۴] از پژوهش شناخته شده است. لذا اولویت آن رسیدن به پاسخ برای صورت‌مسئله‌های سیاستی، در خصوص جوانب اجتماعی و زیست‌محیطی توسعۀ فناوری است و از این حیث که یک شاخۀ کاربردی‌ست، کمتر خود را درگیر معیارهای سخت‌گیرانۀ روش علمی می‌کند.

پژوهشگر حوزه اخلاق و جامعه‌شناسی هوش مصنوعی در بخش بعدی ارائه خود درباره انواع ارزیابی فناوری صحبت و به سه نوع مطرح آن یعنی پارلمانی، مشارکتی و برساختی اشاره کرد. سپس به بیان مسئله اصلی بحث یعنی سرکوب‌های الگوریتمی و لزومِ توسعۀ هوش‌مصنوعی شمول‌پذیر پرداخت.

نراقی سه مورد از سرکوب‌های هوش مصنوعی را تحت عنوان الگوریتم‌های جنسیت‌زده[۵]، الگوریتم‌های نژادپرست[۶] و الگوریتم‌های سالم‌سالار[۷] برشمرد و عمدۀ رفتارهای سوگیرانۀ هوش مصنوعی را به این سه نوع سرکوب‌های فناورانه نسبت داد. به‌عنوان‌مثال هوش مصنوعی اکنون با وجود داده‌هایی که منعکس‌کنندۀ دنیای واقعی بوده، و خود دارای سوگیری هستند، برای یک مرد سفیدپوست انگلیسی‌زبان ساکن در نیمکره شمالی سالم جوان سوگیری داشته و در تصمیم‌گیری‌های خود برای این سوژه برتری قائل است.  لذا باید در طراحی الگوریتم این اتفاق بیفتد که داده‌های زندگی همۀ گروه‌های اجتماعی برای یادگیریِ  هوش مصنوعی بازتاب داده شود؛ زیرا الگوریتم اساسا بی‌شعور است و باید با آموزش شمول‌پذیر شود.

ادامه نشست باتوجه‌به‌ این‌که حوزه تحقیقاتی سخنران، شمول‌پذیری هوش مصنوعی برای افراد دارای معلولیت[۸] است، به این مبحث اختصاص یافت. وی برای مواجهه با این مسئله به تدقیق واژه توان‌یابی و معلولیت در رویکردهای مختلف پرداخت:رویکرد معنوی[۹]، رویکرد پزشکی[۱۰]، رویکرد اجتماعی[۱۱]، رویکرد  مبتنی بر نقش[۱۲]، و در نهایت رویکرد اجتماعی- رابطه‌ای[۱۳]. بنا بر این رویکردها، این که چه فردی دارای معلولیت، یا توان‌یاب خوانده شود، بر اساس این مدل‌ها پاسخ داده می‌شود. در نهایت اینکه برای شمول‌پذیری هوش مصنوعی برای افراد دارای معلولیت، بسته به نوع فناوری (روبات‌های دستیار، یا مدل‌های زبانی یا غیره) هر یک از این مدل‌ها می‌توانند راهگشا باشند.

در این نشست که به‌صورت برخط برگزار شد، حدود ۱۶ نفر شرکت داشتند. پس از پایان سخنرانی پرسش و پاسخ حاضرین انجام شد و جلسه بعد از نزدیک به یک ساعت و نیم به پایان رسید.

[۱] Technology Assessment

[۲] Science

[۳] Office of Technology Assessment

[۴] Pragmatic

[۵] Algorithmic Sexism

[۶] Algorithmic Racism

[۷] Algorithmic Ablism

[۸] Disability

[۹] Spiritual

[۱۰] Medical

[۱۱] Social

[۱۲] Functional Limitation

[۱۳] Social-relational