به گزارش روابط عمومی پژوهشگاه فرهنگ و اندیشه اسلامی دومین جلسه از کارگاه “دانشافزایی هوش مصنوعی” با عنوان ” نقض حریم خصوصی؛ هزینه اخلاقی توسعه سامانههای هوش مصنوعی” توسط هسته حکمرانی و هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه به صورت مجازی برگزار شد.
با توجه به تحولات شگرفی که توسط هوش مصنوعی در حوزههای مختلف بهوجود آمده است، هسته حکمرانی و هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه فرهنگ و اندیشه اسلامی در نظر دارد نشستهایی را تحت عنوان کارگاه دانشافزایی هوش مصنوعی برگزار نماید. سومین جلسه از این کارگاه علمی- آموزشی که حول موضوع اخلاق هوش مصنوعی بود، در تاریخ یکشنبه ۲۹ مردادماه سال جاری با عنوان «نقض حریم خصوصی؛ هزینه اخلاقی توسعه سامانههای هوش مصنوعی» و با حمایت مرکز تعاملات بینالمللی علم و فناوری معاونت علمی، فناوری و اقتصاد دانشبنیان ریاست جمهوری برگزار شد.
در این نشست هاله عسگرینیا دانشجوی دکتری فلسفه و اخلاق فناوری دانشگاه توئینته هلند موضوع حریم خصوصی (Privacy) را تببین نمود و استدلال کرد که توسعه سامانههای هوش مصنوعی هزینههایی دارد که یکی از مهمترین آنها نقض حریم خصوصی است.
حریم خصوصی یکی از مسائل مهم در حوزه فناوری است تاجاییکه پیامدگراها (Consequentialists) آن را یک ارزش اخلاقی (Value) و نقض آن را یک عمل غیراخلاقی میدانند؛ اگرچه میزان اهمیت آن برای همگان یکسان نیست. افراد جامعه معمولا درمقابل حریمی که از آنها توسط دولت یا پلیس نقض میشود، موضع بسیار سختتری میگیرند از زمانیکه حریم خصوصی آنها توسط شرکتهایی که در حوزه فناوری فعالیت میکنند، مورد تعرض قرار میگیرد. طبیعتا میزان اهمیتی که حریم خصوصی برای کاربران دارد، تعیینکننده این است که توصعهدهندگان فناوری تا چه میزان اجازه استفاده از اطلاعات کاربران را برای انجام یک مبادله اقتصادی پردرآمد دارند، بدون اینکه نفعی برای کاربران داشته باشد. این استفاده بهطورخاص در حوزه هوش مصنوعی دیده میشود و نیازمند اعمال محدودیت بر سامانههای هوش مصنوعی، تدوین سیاستها، تنظیم قوانین و ابلاغ به دولتها و شرکتهاست.
عسگرینیا بحث خود پیرامون حریم خصوصی و نقض آن توسط سامانههای هوش مصنوعی با یک مثال آغاز کرد: فرض کنید خانمی به فروشگاه میرود و لوسیون، فرش آبی یک کیف خاص و … میخرد. اطلاعات مربوط به خرید این مشتری ظاهرا اطلاعات ارزشمندی نیست. اما کنار هم قرار دادن آنها برای یک سامانه هوش مصنوعی که بهخوبی آموزش دیده است، چندان بیارزش نیست. این سامانه میتواند با کنار هم قرار دادن این اطلاعات تشخیص دهد که خانم خریدار باردار است! شرکت تارگت (Target) از این تشخیص هوش مصنوعی استفاده کرد، برای این شخص هدیهای فرستاد و به او تبریک گفت! آیا شرکتها مجازند بدون اطلاع کاربران خود و با تحلیل اطلاعات بهظاهر بیارزش آنها پی به اطلاعات ارزشمندی که احتمالا جزو حریم خصوصی افراد است، برده و کنشی نیز بر طبق آن انجام دهند (مثلا هدیه بفرستند)؟
متخصص حوزه اخلاق هوش مصنوعی پس از بیان صورت مسئله در قالب مثال به تعریف حریم خصوصی در دو بعد توصیفی و هنجاری پرداخت و تفاوتهای آن را بیان کرد. در بعد توصیفی صرفا به محرمانه بودن اطلاعات اهمیت داده میشود و در بعد هنجاری به امکان کنترل صاحب اطلاعات بر روی آن. وی سخن خود را با تعریف حریم خصوصی از منظر سیاسی درمقابل منظری فردی (دو بعد توصیفی و هنجاری) ادامه داد و بعد به نقش فرامتن (Context) در تشخیص حریم خصوصی پرداخت.
عسگرینیا درادامه به بحث تزاحمات احتمالی حفظ حریم خصوصی با خیر عمومی (Common Good) پرداخت. وی گفت بهترین راهحل رسیدن به خیر عمومی بدون نقض حریم خصوصی است و این کار احتمالا شدنی است.
پس از ارائه، جلسه با پرسشها و نقد و نظرات حضار و پاسخهای ارائهدهنده ادامه یافت و بعد از نزدیک به دو ساعت جلسه به پایان رسید.