انتشار نخستین راهنمای رسمی استفاده از هوش مصنوعی در پژوهش توسط وزارت علوم + لینک دانلود
مؤسسه تحقیقات سیاست علمی کشور وابسته به وزارت علوم، نخستین ویراست «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» را منتشر کرد.
به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، نخستین ویراست «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» در آبان ۱۴۰۴ توسط این مؤسسه و زیر نظر وزارت علوم، تحقیقات و فناوری منتشر شد. این راهنما با هدف توانمندسازی و آشنایی پژوهشگران، اعضای هیأت علمی و دانشجویان با شیوههای اخلاقی، خلاقانه و مسئولانه در بهرهگیری از ابزارهای هوش مصنوعی تدوین شده است.
این سند با اشاره به فرصتها و چالشهای روزافزون فناوریهای هوش مصنوعی، بر ضرورت استفاده صحیح، آگاهانه و مسئولانه از این ابزارها در فرآیندهای علمی و پژوهشی تأکید دارد و مجموعهای از اصول اخلاقی، الزامات فنی و چارچوبهای نظارتی را ارائه میکند.
تأکید بر مسئولیتپذیری و شفافیت
بر اساس مفاد این راهنما، مسئولیت صحت و اصالت محتوای علمی همچنان بر عهده پژوهشگران است و ابزارهای هوش مصنوعی بههیچوجه بهعنوان پدیدآورنده اثر علمی شناخته نمیشوند. همچنین پژوهشگران ملزماند نوع، میزان و نحوه استفاده از این ابزارها را بهصورت شفاف در آثار علمی خود ذکر کنند.
ممنوعیت ورود دادههای محرمانه
در بخش الزامات امنیتی و اخلاقی، هرگونه بارگذاری دادهها و اطلاعات محرمانه پژوهشی در سرویسهای هوش مصنوعی برخط، ممنوع اعلام شده و بر لزوم رعایت اصول حریم خصوصی، امنیت دادهها و پیشگیری از سوگیری تأکید شده است.
تعریف مصادیق مجاز و غیرمجاز
مطابق راهنما، استفاده از هوش مصنوعی برای ویرایش متون، ایدهپردازی، تولید محتوای کمکی، تحلیل داده و کدنویسی – بهشرط نظارت و تأیید پژوهشگر – مجاز شمرده میشود.
در مقابل، تولید دادههای جعلی، جعل منابع، تهیه کامل مقاله توسط هوش مصنوعی، استفاده پنهان در تکالیف دانشجویی و نقض مالکیت فکری از مصادیق تخلف و تقلب علمی اعلام شده است.
الزامات استناد و ارائه بیانیه استفاده از هوش مصنوعی
راهنما تأکید میکند که پژوهشگران باید در بخش روششناسی یا در قالب «بیانیه استفاده از هوش مصنوعی»، نقش دقیق ابزارهای مورد استفاده را ذکر کنند. علاوه بر این، نمونههای استاندارد نحوه ارجاعدهی به ابزارهایی مانند ChatGPT و DALL-E در سبکهای مختلف استناد ارائه شده است.
دستورالعملهای اختصاصی برای حوزههای علمی مختلف
این سند برای حوزههای علوم انسانی، علوم پایه، مهندسی، علوم پزشکی و هنر دستورالعملهای خاصی ارائه میدهد. بهعنوان مثال، در علوم پزشکی، استفاده از هوش مصنوعی تنها در صورت اعتبارسنجی مدلها و تأیید متخصصان مربوطه مجاز است.
نظارت، داوری و سازوکارهای تشخیص تخلف
راهنما تصریح میکند که تصمیمگیری نهایی در داوری علمی باید توسط انسان انجام شود و استفاده از هوش مصنوعی برای داوری یا پردازش اطلاعات محرمانه مقالات ممنوع است. همچنین مؤسسات پژوهشی موظف به ایجاد کمیتههای اخلاق هوش مصنوعی و استفاده از فرمهای خوداظهاری هستند؛ با این حال تأکید شده است که ابزارهای تشخیص محتوای تولیدشده توسط هوش مصنوعی بهتنهایی مبنای قطعی اثبات تخلف نیستند.
سندی پویا و قابل بهروزرسانی
در پایان، این راهنما بهعنوان یک سند پویا معرفی شده که بر اساس پیشرفتهای فناوری و چالشهای اخلاقی، بهصورت دورهای مورد بازنگری و بهروزرسانی قرار خواهد گرفت.
علاقهمندان جهت دانلود میتوانند کلیک کنند.
ارسال نظرات