۲۷ آبان ۱۴۰۴ - ۱۱:۵۴
کد خبر: ۷۹۷۹۵۹

انتشار نخستین راهنمای رسمی استفاده از هوش مصنوعی در پژوهش توسط وزارت علوم + لینک دانلود

انتشار نخستین راهنمای رسمی استفاده از هوش مصنوعی در پژوهش توسط وزارت علوم + لینک دانلود
مؤسسه تحقیقات سیاست علمی کشور وابسته به وزارت علوم، نخستین ویراست «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» را منتشر کرد.
به گزارش خبرنگار سرویس فرهنگی و اجتماعی خبرگزاری رسا، نخستین ویراست «راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش» در آبان ۱۴۰۴ توسط این مؤسسه و زیر نظر وزارت علوم، تحقیقات و فناوری منتشر شد. این راهنما با هدف توانمندسازی و آشنایی پژوهشگران، اعضای هیأت علمی و دانشجویان با شیوه‌های اخلاقی، خلاقانه و مسئولانه در بهره‌گیری از ابزارهای هوش مصنوعی تدوین شده است.
 
این سند با اشاره به فرصت‌ها و چالش‌های روزافزون فناوری‌های هوش مصنوعی، بر ضرورت استفاده صحیح، آگاهانه و مسئولانه از این ابزارها در فرآیندهای علمی و پژوهشی تأکید دارد و مجموعه‌ای از اصول اخلاقی، الزامات فنی و چارچوب‌های نظارتی را ارائه می‌کند.
 
تأکید بر مسئولیت‌پذیری و شفافیت
 
بر اساس مفاد این راهنما، مسئولیت صحت و اصالت محتوای علمی همچنان بر عهده پژوهشگران است و ابزارهای هوش مصنوعی به‌هیچ‌وجه به‌عنوان پدیدآورنده اثر علمی شناخته نمی‌شوند. همچنین پژوهشگران ملزم‌اند نوع، میزان و نحوه استفاده از این ابزارها را به‌صورت شفاف در آثار علمی خود ذکر کنند.
 
ممنوعیت ورود داده‌های محرمانه
 
در بخش الزامات امنیتی و اخلاقی، هرگونه بارگذاری داده‌ها و اطلاعات محرمانه پژوهشی در سرویس‌های هوش مصنوعی برخط، ممنوع اعلام شده و بر لزوم رعایت اصول حریم خصوصی، امنیت داده‌ها و پیشگیری از سوگیری تأکید شده است.
 
تعریف مصادیق مجاز و غیرمجاز
 
مطابق راهنما، استفاده از هوش مصنوعی برای ویرایش متون، ایده‌پردازی، تولید محتوای کمکی، تحلیل داده و کدنویسی – به‌شرط نظارت و تأیید پژوهشگر – مجاز شمرده می‌شود.
در مقابل، تولید داده‌های جعلی، جعل منابع، تهیه کامل مقاله توسط هوش مصنوعی، استفاده پنهان در تکالیف دانشجویی و نقض مالکیت فکری از مصادیق تخلف و تقلب علمی اعلام شده است.
 
الزامات استناد و ارائه بیانیه استفاده از هوش مصنوعی
 
راهنما تأکید می‌کند که پژوهشگران باید در بخش روش‌شناسی یا در قالب «بیانیه استفاده از هوش مصنوعی»، نقش دقیق ابزارهای مورد استفاده را ذکر کنند. علاوه بر این، نمونه‌های استاندارد نحوه ارجاع‌دهی به ابزارهایی مانند ChatGPT و DALL-E در سبک‌های مختلف استناد ارائه شده است.
 
دستورالعمل‌های اختصاصی برای حوزه‌های علمی مختلف
 
این سند برای حوزه‌های علوم انسانی، علوم پایه، مهندسی، علوم پزشکی و هنر دستورالعمل‌های خاصی ارائه می‌دهد. به‌عنوان مثال، در علوم پزشکی، استفاده از هوش مصنوعی تنها در صورت اعتبارسنجی مدل‌ها و تأیید متخصصان مربوطه مجاز است.
 
نظارت، داوری و سازوکارهای تشخیص تخلف
 
راهنما تصریح می‌کند که تصمیم‌گیری نهایی در داوری علمی باید توسط انسان انجام شود و استفاده از هوش مصنوعی برای داوری یا پردازش اطلاعات محرمانه مقالات ممنوع است. همچنین مؤسسات پژوهشی موظف به ایجاد کمیته‌های اخلاق هوش مصنوعی و استفاده از فرم‌های خوداظهاری هستند؛ با این حال تأکید شده است که ابزارهای تشخیص محتوای تولیدشده توسط هوش مصنوعی به‌تنهایی مبنای قطعی اثبات تخلف نیستند.
 
سندی پویا و قابل ‌به‌روزرسانی
 
در پایان، این راهنما به‌عنوان یک سند پویا معرفی شده که بر اساس پیشرفت‌های فناوری و چالش‌های اخلاقی، به‌صورت دوره‌ای مورد بازنگری و به‌روزرسانی قرار خواهد گرفت.
 
علاقه‌مندان جهت دانلود می‌توانند  کلیک کنند.

 

ارسال نظرات