نقض حریم خصوصی؛ هزینه‌ توسعه سامانه‌های هوش مصنوعی

به گزارش روابط عمومی پژوهشگاه فرهنگ و اندیشه اسلامی دومین جلسه از کارگاه “دانش‌افزایی هوش مصنوعی” با عنوان ” نقض حریم خصوصی؛ هزینه اخلاقی توسعه سامانه‌های هوش مصنوعی” توسط هسته حکمرانی و هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه به صورت مجازی برگزار شد.

با توجه به تحولات شگرفی که توسط هوش مصنوعی در حوزه‌های مختلف به‌وجود آمده است، هسته حکمرانی و هوش مصنوعی مرکز رشد و خانه خلاق و نوآوری پژوهشگاه فرهنگ و اندیشه اسلامی در نظر دارد نشست‌هایی را تحت عنوان کارگاه دانش‌افزایی هوش مصنوعی برگزار نماید. سومین جلسه از این کارگاه علمی- آموزشی که حول موضوع اخلاق هوش مصنوعی بود، در تاریخ یکشنبه ۲۹ مردادماه سال جاری با عنوان «نقض حریم خصوصی؛ هزینه اخلاقی توسعه سامانه‌های هوش مصنوعی» و با حمایت مرکز تعاملات بین‌المللی علم و فناوری معاونت علمی، فناوری و اقتصاد دانش‌بنیان ریاست جمهوری برگزار شد.

در این نشست هاله عسگری‌نیا دانشجوی دکتری فلسفه و اخلاق فناوری دانشگاه توئینته هلند موضوع حریم خصوصی (Privacy) را تببین نمود و استدلال کرد که توسعه سامانه‌های هوش مصنوعی هزینه‌هایی دارد که یکی از مهم‌ترین آن‌ها نقض حریم خصوصی است.

حریم خصوصی یکی از مسائل مهم در حوزه فناوری است تاجایی‌که پیامدگراها (Consequentialists) آن را یک ارزش اخلاقی (Value) و نقض آن را یک عمل غیراخلاقی می‌دانند؛ اگرچه میزان اهمیت آن برای همگان یکسان نیست. افراد جامعه معمولا درمقابل حریمی که از آن‌ها توسط دولت یا پلیس نقض می‌شود، موضع بسیار سخت‌تری می‌گیرند از زمانی‌که حریم خصوصی آن‌ها توسط شرکت‌هایی که در حوزه فناوری فعالیت می‌کنند، مورد تعرض قرار می‌گیرد. طبیعتا میزان اهمیتی که حریم خصوصی برای کاربران دارد، تعیین‌کننده این است که توصعه‌دهندگان فناوری تا چه میزان اجازه استفاده از اطلاعات کاربران را برای انجام یک مبادله اقتصادی پردرآمد دارند، بدون این‌که نفعی برای کاربران داشته باشد. این استفاده به‌طورخاص در حوزه هوش مصنوعی دیده می‌شود و نیازمند اعمال محدودیت بر سامانه‌های هوش مصنوعی، تدوین سیاست‌ها، تنظیم قوانین و ابلاغ به دولت‌ها و شرکت‌هاست.

عسگری‌نیا بحث خود پیرامون حریم خصوصی و نقض آن توسط سامانه‌های هوش مصنوعی با یک مثال آغاز کرد: فرض کنید خانمی به فروشگاه می‌رود و لوسیون، فرش آبی یک کیف خاص و … می‌خرد. اطلاعات مربوط به خرید این مشتری ظاهرا اطلاعات ارزشمندی نیست. اما کنار هم قرار دادن آن‌ها برای یک سامانه هوش مصنوعی که به‌خوبی آموزش دیده است، چندان بی‌ارزش نیست. این سامانه می‌تواند با کنار هم قرار دادن این اطلاعات تشخیص دهد که خانم خریدار باردار است! شرکت تارگت (Target) از این تشخیص هوش مصنوعی استفاده کرد، برای این شخص هدیه‌ای فرستاد و به او تبریک گفت! آیا شرکت‌ها مجازند بدون اطلاع کاربران خود و با تحلیل اطلاعات به‌ظاهر بی‌ارزش آن‌ها پی به اطلاعات ارزشمندی که احتمالا جزو حریم خصوصی افراد است، برده و کنشی نیز بر طبق آن انجام دهند (مثلا هدیه بفرستند)؟

متخصص حوزه اخلاق هوش مصنوعی پس از بیان صورت مسئله در قالب مثال به تعریف حریم خصوصی در دو بعد توصیفی و هنجاری پرداخت و تفاوت‌های آن را بیان کرد. در بعد توصیفی صرفا به محرمانه بودن اطلاعات اهمیت داده می‌شود و در بعد هنجاری به امکان کنترل صاحب اطلاعات بر روی آن. وی سخن خود را با تعریف حریم خصوصی از منظر سیاسی درمقابل منظری فردی (دو بعد توصیفی و هنجاری) ادامه داد و بعد به نقش فرامتن (Context) در تشخیص حریم خصوصی پرداخت.

عسگری‌نیا درادامه به بحث تزاحمات احتمالی حفظ حریم خصوصی با خیر عمومی (Common Good) پرداخت. وی گفت بهترین راه‌حل رسیدن به خیر عمومی بدون نقض حریم خصوصی است و این کار احتمالا شدنی است.

پس از ارائه، جلسه با پرسش‌ها و نقد و نظرات حضار و پاسخ‌های ارائه‌دهنده ادامه یافت و بعد از نزدیک به دو ساعت جلسه به پایان رسید.