۲۹ آذر ۱۴۰۴ - ۱۱:۵۵
کد خبر: ۸۰۰۹۲۷
فدایی مطرح کرد؛

تعارض شفافیت و محرمانگی؛ بن‌بست اخلاقی پژوهش‌های مبتنی بر هوش مصنوعی

تعارض شفافیت و محرمانگی؛ بن‌بست اخلاقی پژوهش‌های مبتنی بر هوش مصنوعی
معاون پژوهشی دانشگاه باقرالعلوم(ع) با کالبدشکافی چالش‌های اخلاقی در فناوری‌های نوظهور اظهار داشت: یکی از پیچیده‌ترین دوراهی‌های اخلاقی در پژوهش‌های مبتنی بر هوش مصنوعی، تقابل میان ضرورت «شفافیت» برای بازتولید نتایج و الزام «محرمانگی» در حوزه‌های حساس پزشکی و امنیتی است که عبور از آن نیازمند تدوین پروتکل‌های میان‌رشته‌ای و مسئولیت‌پذیری آگاهانه پژوهشگر است.

به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، دکتر مهدی فدایی، مدیر گروه اخلاق و تربیت دانشگاه باقرالعلوم(ع) و معاون پژوهشی این دانشگاه ظهر پنجشنبه 27 آذر در پانزدهمین پیش‌‎‌نشست علمی همایش «دین، فرهنگ و فناوری» که در این دانشگاه با موضوع «چالش‌های روش شناختی پژوهشگران در کاربست هوش مصنوعی؛ از صحت داده تا اتکاپذیری نتایج» برگزار شد، با تأکید بر ضرورت بهره‌گیری از ظرفیت‌های علمی و پژوهشی کشور، به تبیین چالش‌های اخلاقی کاربست هوش مصنوعی در پژوهش‌های علمی پرداخت.

وی در ابتدای سخنان خود، بر اهمیت استفاده از توانمندی اساتید دانشگاهی و مراکز پژوهشی از جمله مرکز تحقیقات مجلس در ارتقای کیفی کمیته‌ها و نشست‌های علمی این همایش تأکید کرد و اظهار داشت: ورود به بحث هوش مصنوعی بدون صورت‌بندی دقیق اخلاقی، پژوهش را با خطاهای جدی مواجه می‌سازد.

فدایی با اشاره به سابقه بیش از یک دهه فعالیت خود در حوزه اخلاق کاربردی و اخلاق حرفه‌ای، در جهت طرح بحث، زاویه نگاه خود را ناظر به اخلاق پژوهش و چالش‌های اخلاقی ناشی از استفاده از هوش مصنوعی در فرآیندهای علمی معرفی کرد.

وی افزود: در ادبیات اخلاق کاربردی، مفهوم «چالش اخلاقی» دارای معانی متعددی است که عدم تفکیک آن‌ها موجب خلط مباحث و ارائه راهکارهای ناکارآمد می‌شود. از این‌رو، تبیین دقیق این مفاهیم، پیش‌نیاز هرگونه سیاست‌گذاری و راهنمای عملی در حوزه پژوهش‌های مبتنی بر هوش مصنوعی است.

این استاد دانشگاه در ادامه، با اشاره به اینکه نخستین گام در تحلیل اخلاقی، شفاف‌سازی مفاهیم است، خاطرنشان کرد: در این ارائه تلاش می‌شود چالش‌های اخلاقی در سه سطح ابهام نظری، آسیب اخلاقی و تعارض اخلاقی بررسی شود و نشان داده شود که این چالش‌ها در کدام بخش از چرخه پژوهش مبتنی بر هوش مصنوعی، از مرحله گردآوری داده تا مدل‌سازی، ارزیابی و گزارش‌دهی، بروز می‌یابد و چگونه می‌تواند به تضعیف صحت داده‌ها و کاهش اتکاپذیری نتایج پژوهش منجر شود.

سه‌گانه چالش اخلاقی در ادبیات اخلاق کاربردی

مدیر گروه اخلاق و تربیت دانشگاه باقرالعلوم(ع) با تشریح معنای نخست چالش اخلاقی، آن را ناظر به «تعارض اخلاقی» یا دوراهی‌های اخلاقی دانست و گفت: در این معنا، فاعل اخلاقی در موقعیتی قرار می‌گیرد که دو یا چند اصل اخلاقی به‌طور هم‌زمان و تصادفی با یکدیگر تعارض پیدا می‌کنند و پژوهشگر نمی‌داند کدام‌یک را باید مقدم بدارد. وی با اشاره به مثال معروف «مسئله تراموا»، این نوع تعارض را از زمینه‌های اصلی شکل‌گیری حوزه‌هایی مانند اخلاق مهندسی، اخلاق پزشکی و اخلاق پژوهش دانست که هدف آن‌ها، کمک به تصمیم‌گیری اخلاقی در موقعیت‌های پیچیده است.

وی افزود: در کشور ما نیز این رویکرد در قالب رشته‌ها و دروس رسمی نهادینه شده است؛ به‌گونه‌ای که در دانشکده‌های علوم پزشکی، دکتری تخصصی اخلاق پزشکی و در رشته‌های فنی و مهندسی، واحدهای درسی اخلاق مهندسی ارائه می‌شود. به گفته دکتر فدایی، تمرکز این حوزه‌ها عمدتاً بر حل تعارضات اخلاقی و مدیریت ریسک در فعالیت‌های حرفه‌ای است و همین تجربه‌ها می‌تواند در مواجهه با فناوری‌های نوظهور مانند هوش مصنوعی نیز مورد استفاده قرار گیرد.

دکتر فدایی در تبیین معنای دوم چالش اخلاقی، آن را «آسیب اخلاقی» دانست و تصریح کرد: گاهی از اصطلاح چالش اخلاقی استفاده می‌شود، در حالی که مراد، تعارض میان اصول اخلاقی نیست، بلکه بروز نوعی ضعف یا انحراف اخلاقی است. به عنوان مثال، وقتی پژوهشگری دچار رذیلت‌هایی مانند بی‌دقتی، سهل‌انگاری یا منفعت‌طلبی می‌شود، این وضعیت یک آسیب اخلاقی محسوب می‌شود. وی تأکید کرد: راه‌حل آسیب اخلاقی با راه‌حل تعارض اخلاقی متفاوت است و خلط این دو، موجب ناکارآمدی سیاست‌ها و دستورالعمل‌های اخلاق پژوهش می‌شود.

ابهام نظری؛ چالش پنهان پژوهش‌های مبتنی بر هوش مصنوعی

معاون پژوهشی دانشگاه باقرالعلوم(ع) معنای سوم چالش اخلاقی را «ابهام نظری» معرفی کرد و گفت: در این حالت، پژوهشگر یا داور اخلاقی با مفاهیم یا مصادیق اخلاقی آشنایی دقیق ندارد. برای مثال، مفهوم عدالت، انصاف یا حریم خصوصی در یک پژوهش خاص برای او روشن نیست یا نمی‌داند در چه شرایطی افشای داده مجاز یا غیرمجاز است. وی افزود: این نوع چالش، نه ناشی از تعارض اصول اخلاقی است و نه الزاماً به آسیب اخلاقی بازمی‌گردد، بلکه ریشه در فقدان شفافیت مفهومی و نظری دارد.

دکتر فدایی با اشاره به پیچیدگی زنجیره داده در پژوهش‌های مبتنی بر هوش مصنوعی اظهار داشت: استفاده از داده‌های عظیم، مدل‌های زبانی و داده‌های مصنوعی موجب می‌شود تعاریف مفاهیم کلیدی لغزنده شود و داوری اخلاقی با ابهام مواجه گردد. برای نمونه، زمانی که داده‌ها توسط هوش مصنوعی تولید یا پالایش می‌شوند، این پرسش جدی مطرح می‌شود که اعتبار و صحت این داده‌ها تا چه حد قابل اتکا است و اساساً «داده پاک» چه تعریفی دارد. وی تأکید کرد: این ابهامات نظری می‌تواند مستقیماً به خطاهای روش‌شناختی در پژوهش منجر شود.

وی تصریح کرد: اگر این ابهامات در مراحل مختلف چرخه پژوهش شناسایی و مدیریت نشوند، پیامد آن تضعیف دو رکن اساسی پژوهش، یعنی صحت داده‌ها و قابلیت اعتماد به نتایج خواهد بود. به گفته دکتر فدایی، اخلاق پژوهش در عصر هوش مصنوعی صرفاً ناظر به رفتار فردی پژوهشگر نیست، بلکه به فهم دقیق مفاهیم و سازوکارهای فنی نیز وابسته است.

آسیب‌های اخلاقی و وسوسه‌های پژوهشگر در عصر هوش مصنوعی

دکتر فدایی در ادامه به آسیب‌های اخلاقی ناشی از کاربست هوش مصنوعی در پژوهش پرداخت و گفت: فشار زمان، انگیزه‌های نهادی، تعارض منافع و حتی راحت‌طلبی پژوهشگر از جمله عواملی است که می‌تواند زمینه‌ساز آسیب اخلاقی شود. وی افزود: پژوهشگری که برای دفاع از پایان‌نامه یا ارائه گزارش پروژه تحت فشار زمانی قرار دارد، ممکن است به استفاده نادرست یا افراطی از ابزارهای هوش مصنوعی روی آورد؛ امری که اگرچه لزوماً خطای فنی نیست، اما می‌تواند به انحراف اخلاقی و روش‌شناختی منجر شود.

وی با ذکر مثالی توضیح داد: استفاده از هوش مصنوعی برای نگارش مقدمه مقاله، اگر بدون تسلط پژوهشگر بر روش تحقیق انجام شود، ممکن است محتوایی تولید کند که با ماهیت پژوهش، به‌ویژه در تحقیقات کیفی مانند تحلیل مضمون، همخوانی نداشته باشد. این ناتوانی در تشخیص، پژوهشگر را دچار خطاهای اخلاقی و علمی می‌کند. دکتر فدایی تأکید کرد: این آسیب‌ها به‌ویژه برای پژوهشگران تازه‌کار و دانشجویان تحصیلات تکمیلی جدی‌تر است.

معاون پژوهشی دانشگاه باقرالعلوم(ع) یکی از مصادیق بارز آسیب اخلاقی را «استفاده پنهان یا کم‌مستند از هوش مصنوعی» دانست و گفت: وسوسه پنهان‌کاری، مانند تلاش برای عبور از سامانه‌های مشابهت‌یاب یا عدم ثبت دقیق پرامپت‌ها، مصداق روشن چالش اخلاقی به معنای آسیب اخلاقی است. وی با اشاره به آیین‌نامه بنیاد ملی علم در خصوص استفاده از ابزارهای هوش مصنوعی، تصریح کرد: ارجاع حداقلی یا غیرشفاف به استفاده از AI، نقض اخلاق پژوهش محسوب می‌شود.

تعارض اخلاقی میان شفافیت و محرمانگی داده‌ها

دکتر فدایی بخش سوم و محوری بحث خود را به تعارض اخلاقی اختصاص داد و اظهار داشت: تعارض اخلاقی زمانی رخ می‌دهد که دو وظیفه اخلاقی معتبر به‌طور هم‌زمان بر عهده پژوهشگر قرار گیرد؛ مانند تعارض میان شفافیت و محرمانگی داده‌ها. وی افزود: در پژوهش‌های مبتنی بر هوش مصنوعی، برای امکان داوری و بازتولید نتایج، لازم است جزئیاتی مانند پرامپت‌ها، نسخه مدل‌ها و تنظیمات فنی گزارش شود، اما در برخی حوزه‌ها، به‌ویژه پژوهش‌های پزشکی، امنیتی یا قضایی، افشای این اطلاعات با اصل محرمانگی در تعارض قرار می‌گیرد.

وی با اشاره به نمونه‌هایی از پژوهش‌های رفتاری و قضایی، خاطرنشان کرد: در چنین موقعیت‌هایی، پژوهشگر ناگزیر از انتخاب اخلاقی است و هیچ پاسخ از پیش‌تعیین‌شده‌ای وجود ندارد. دکتر فدایی تأکید کرد: اخلاق کاربردی به پژوهشگر کمک می‌کند تا در این موقعیت‌ها، با در نظر گرفتن زمینه‌ها، اهداف و پیامدها، بهترین تصمیم اخلاقی ممکن را اتخاذ کند؛ تصمیمی که ممکن است از پژوهشگری به پژوهشگر دیگر متفاوت باشد.

وی راه‌حل این تعارض‌ها را در تدوین پروتکل‌های میان‌رشته‌ای دانست و گفت: پاسخ به این مسائل نه صرفاً در حوزه اخلاق و نه صرفاً در حوزه فنی قابل ارائه نیست، بلکه نیازمند همکاری متخصصان اخلاق، هوش مصنوعی و حوزه‌های تخصصی مانند اخلاق زیستی است. تدوین چنین پروتکل‌هایی می‌تواند پژوهشگران را در مواجهه با تعارض‌های اخلاقی یاری دهد و از بروز خطاهای جدی جلوگیری کند.

مسئولیت نهایی پژوهشگر در قبال نتایج تولیدشده با AI

دکتر فدایی در بخش پایانی سخنان خود به مسئله مسئولیت اخلاقی در زنجیره تولید تا مصرف داده پرداخت و تصریح کرد: بر اساس آیین‌نامه بنیاد ملی علم، مسئولیت نهایی محتوا، حتی در صورت استفاده از هوش مصنوعی، بر عهده پژوهشگر است. وی افزود: این آیین‌نامه تأکید می‌کند که هوش مصنوعی فاقد درک عمیق علمی، اخلاقی و اجتماعی است و بنابراین تصمیم‌گیری نهایی و تفسیر نتایج باید توسط پژوهشگر انجام شود.

وی با اشاره به امکان بازنگری دوره‌ای این آیین‌نامه، خاطرنشان کرد: اگرچه احتمال لایه‌بندی مسئولیت‌ها در آینده وجود دارد، اما در وضعیت کنونی، پژوهشگر باید خود را پاسخ‌گوی صحت علمی، دقت روش‌شناختی و انطباق اخلاقی پژوهش بداند. دکتر فدایی همچنین به دیدگاه‌های انتقادی نسبت به استفاده از هوش مصنوعی اشاره کرد و گفت: برخی اندیشمندان، استفاده از AI را به دلیل تهدید عاملیت انسانی، غیراخلاقی می‌دانند، اما واقعیت‌های اقتصادی و ساختار قدرت جهانی، استفاده از این فناوری را به یک واقعیت گریزناپذیر تبدیل کرده است.

دکتر فدایی در پایان تأکید کرد: آنچه امروز بیش از هر چیز اهمیت دارد، نه نفی یا پذیرش مطلق هوش مصنوعی، بلکه توسعه چارچوب‌های اخلاقی و مسئولانه برای استفاده از آن در پژوهش است؛ چارچوب‌هایی که بتواند از کرامت انسانی، اعتبار علمی و اعتماد عمومی به نتایج پژوهش‌ها صیانت کند.

ارسال نظرات