راهنمای استفاده از ابزارهای هوش مصنوعی در پژوهش
الزامات اخلاقی
رعایت اصول اخلاقی در استفاده از هوش مصنوعی در پژوهش نه تنها یک الزام حرفه ای بلکه بنیانی حیاتی برای حفظ صداقت علمی، اعتماد عمومی و اعتبار نهادهای علمی به شمار میرود. در جهانی که فناوریهای نوین به سرعت در حال نفوذ به فعالیتهای علمی هستند استفاده نادرست یا غیر شفاف از هوش مصنوعی میتواند به تحریف واقعیتها، تولید دانش غیرقابل اتکاء و در نهایت بی اعتمادی جامعه علمی و عمومی منجر شود.
با این مقدمه، مصادیق اخلاق پژوهشی هوش مصنوعی به شرح زیر است:
2-1.انسانمحوری: هوش مصنوعی باید در خدمت نیازها و ارزشهای انسانی باشد و کرامت و حقوق افراد را تضمین کند.
2-2.شفافیتسازی در استفاده از هوش مصنوعی: چنانچه در هر مرحله از تهیه یا تحلیل محتوای علمی از ابزارهای هوش مصنوعی استفاده شده باشد پدیدآورندگان موظف هستند تمامی موارد استفاده از هوش مصنوعی (نوع استفاده، ابزار استفاده شده، نحوه کنترل خروجی توسط انسان و ...) را ذکر نمایند.
2-3.مسئولیتپذیری علمی، اخلاقی و حقوقی: مسئولیت کامل محتوای علمی اعم از صحت، اصالت و تطابق با معیارهای علمی و اخلاقی همچنان برعهده پژوهشگران، اساتید و دانشجویان است و استفاده از ابزارهای هوش مصنوعی هیچگونه مسئولیتی را از آنها سلب نمیکند. همچنین این ابزارها تحت هیچ شرایطی به عنوان صاحب امتیاز یا پدیدآورنده آثار علمی شناخته نمیشوند. کاربران و توسعهدهندگان هوش مصنوعی باید مسئولیت نتایج و عواقب استفاده از این ابزارها را برعهده گیرند.
2-4.حفظ صداقت علمی: در بهرهگیری از ابزارهای هوش مصنوعی، حفظ اصول صداقت و امانتداری علمی الزامی است. صحت و درستی مطالب علمی باید حاکم و مانع جعل، تحریف یا سرقت ادبی و علمی شد.
2-5.حفظ حریم خصوصی، محرمانگی، امنیت داده و حقوق مالکیت فردی در زمان اشتراکگذاری اطلاعات با ابزارهای هوش مصنوعی: در استفاده از ابزارهای هوش مصنوعی، پژوهشگران باید آگاهی کامل از جنبه های فنی و اخلاقی از جمله ملاحظات و سیاستهای حریم خصوصی، مالکیت داده، امنیت اطلاعات، محل میزبانی و نحوه پردازش اطلاعات داشته باشند. به ویژه توجه شود که برخی ابزارها ممکن است دادههای ورودی را برای آموزش مجدد مدلها ذخیره کنند.
وارد کردن اطلاعات حساس، شخصی یا منتشر نشده به ابزارهای عمومی تنها درصورتی مجاز است که تضمین روشنی درباره عدم استفاده مجدد از داده ها موجود و مخاطرات افشای اطلاعات به دقت ارزیابی شده باشد. پژوهشگران باید از سازوکارهای امن (مانند اجرای مدلهای هوش مصنوعی که به صورت آفلاین یا بر روی سرویسهای امن دانشگاهی) برای تحلیل دادههای حساس بهره گیرند. بدین منظور وارد کردن دادهها و اطلاعات حساس یا محرمانه پژوهش به سرویسهای هوش مصنوعی برخط که تحت کنترل پژوهشگر نیستند اکیداً ممنوع است.
2-6.رعایت دستورالعملهای ناشران و کارفرمایان در خصوص بکارگیری هوش مصنوعی: پژوهشگران موظف هستند پیش از ارسال آثار پژوهشی به ناشران علمی یا ارائه آنها به کارفرمایان از دستورالعملها و سیاستهای مرتبط با استفاده از هوش مصنوعی در هر نهاد یا ناشر اطلاع کامل کسب و آنها را رعایت کنند. برخی ناشران یا سازمانها ممکن است استفاده از هوش مصنوعی را در مراحل خاصی از فرآیند پژوهش، محدود یا مشروط نمایند. عدم رعایت این دستورالعملها میتواند به رد اثر، ابطال انتشار یا پیامدهای حقوقی و اخلاقی منجر شود. بدیهی است ناآگاهی از دستورالعملها از صاحب اثر رفع مسئولیت نمیکند.
2-7.پایبندی به قوانین مالکیت فکری و قانون پیشگیری و مقابله با تقلب در تهیه آثار علمی: پژوهشگران موظف خواهند بود که کلیه قوانین و مقررات مصوب مجلس شورای اسلامی؛ وزارت علوم، تحقیقات و فناوری و سایر مراجع ذیصلاح درخصوص موضوع مالکیت فکری، قانون پیشگیری و مقابله با تقلب در تهیه آثار علمی و همچنین منشور و موازین اخلاق پژوهش را مطالعه و رعایت نمایند.
3.مصادیق استفاده مجاز از هوش مصنوعی
با گسترش روزافزون فناوریهای نوین، هوش مصنوعی به یکی از ابزارهای تأثیرگذار در حوزه پژوهش تبدیل شده است. استفاده از این فناوری در صورتی مجاز و قابل قبول است که در راستای ارتقای کیفیت علمی، تسهیل فرآیندهای پژوهشی و افزایش بهرهوری باشد. از جمله مصادیق استفاده مجاز از هوش مصنوعی به شرح زیر است:
3-1.ویرایش و بهبود زبانی متون: بازنویسی، ویرایش و ترجمه متون علمی (مثلاً استفاده از ابزارهای ترجمه ماشینی و اصلاح آن) تحت نظارت مؤلف.
3-2.مرور و تحلیل منابع علمی: خلاصهسازی مقالات، بررسی حجم وسیعی از اطلاعات و کمک به شناسایی مطالعات مرتبط با موضوع پژوهش.
3-3.تولید تصویر و نمودار: استفاده از هوش مصنوعی برای تولید تصاویر، نمودارها یا اشکال گرافیکی به منظور کمک به بیان بهتر مطالب علمی با اشاره به منبع و نحوه تولید و استفاده از ابزار هوش مصنوعی به صورت مشخص (نام ابزار، نسخه و تاریخ استفاده)
4.مصادیق استفاده غیر مجاز از هوش مصنوعی
در کنار مزایای گسترده هوش مصنوعی در آموزش و پرورش، برخی کاربردهای آن به دلایل اخلاقی، علمی یا حقوقی ممنوع یا مستلزم کنترل دقیق است. از جمله این مصادیق میتوان به موارد زیر اشاره کرد:
4-1.تولید دادهها و نتایج ساختگی: تولید تصاویر یا نمودارهای علمی در بخشهای اصلی پژوهش بدون ذکر منبع، روش تولید، ایجاد مقالات جعلی، دادههای دستکاری شده یا جعل نتایج آزمایشی و پژوهشی توسط هوش مصنوعی مطلقاً غیرمجاز اما تولید دادههای مصنوعی برای استفاده در فرآیندهای پژوهشی مشکلی ندارد.
4-2.جعل و تحریف منابع: تولید منابع جعلی، ایجاد ارجاعات غیرواقعی، تغییر نادرست متون علمی یا ادعای مطالعات و دادههای ساختگی با کمک هوش مصنوعی مجاز نیست.
4-3.جایگزینی کامل مسئولیت پژوهش: سپردن تهیه کامل پیشنویس مقاله یا انجام کل پژوهش به هوش مصنوعی بدون بازنگری دقیق و اصلاح توسط پژوهشگر انسانی مجاز نیست.
4-4.سوء استفاده آموزشی: استفاده از ابزارهای هوش مصنوعی برای انجام تکالیف درسی یا پروژههای دانشجویی به صورت پنهان/ مخفی از استاد و بدون تأیید وی مجاز نیست.
4-5.نقض حقوق مالکیت فکری: تولید محتوای خلاقانه توسط هوش مصنوعی و ادعای آن به عنوان اثر انسان بدون ذکر منبع یا مشارکت انسانی ممنوع است.
4-6.تولید محتوای بازنویسیشده از آثار دیگران بدون ارجاع مناسب: بازنویسی آثار دیگران بدون ارجاع و ذکر منبع حتی با تغییر واژگان یا ساختار متن، غیرمجاز و نقض اصول اخلاق پژوهش محسوب میگردد.
مثالهایی برای شناخت مرز استفاده مجاز و غیر مجاز
استفاده مجاز (ابزار کمک آموزشی):
استفاده غیر مجاز (تقلب):
5.الزامات استناد و ارجاع به استفاده از ابزارهای هوش مصنوعی
در استفاده از ابزارهای هوش مصنوعی برای پژوهش و آموزش، یکی از الزامات اساسی، استناد و ارجاع شفاف به نقش و میزان استفاده از این ابزارها است. این اقدام نه تنها به حفظ صداقت علمی کمک میکند. بلکه امکان ارزیابی دقیقتر فرآیند تحقیق یا تولید محتوا را برای دیگران فراهم میسازد. پژوهشگران و دانشجویان باید در مواردی که از ابزارهای هوش مصنوعی برای تولید متن، تحلیل داده، ترجمه یا پیشنهاددهی علمی استفاده میکنند به صورت صریح و مستند به نوع ابزار، عملکرد و میزان تأثیر آن در نتایج را مورد اشاره قرار دهند.
5-1.شفافسازی استفاده از هوش مصنوعی: استفاده از هر ابزار هوش مصنوعی باید به طور شفاف گزارش شود. اگر از هوش مصنوعی برای کمک به نگارش، ویرایش یا ترجمه استفاده یا اگر در فرآیند تحلیل داده، تولید کد، مرور منابع یا ایدهپردازی نقش داشته، باید جزئیات آن به دقت توضیح داده شود. این توضیحات باید شامل نقش دقیق هوش مصنوعی (ترجمه، ایدهپردازی، نگارش بخش خاص یا ...) و نحوه اعتبارسنجی خروجی توسط پژوهشگر باشد. این موارد باید در بخش "تقدیر و تشکر" یا "بیانیه استفاده از هوش مصنوعی" ذکر شود.
5-2.ارجاعدهی مناسب: اگر هوش مصنوعی در تولید ایده یا متن خاصی نقش داشته باشد باید مانند سایر منابع علمی به شکل متناسب (مانند ارجاع به مقاله مربوط به مدل AI یا ذکر جزئیات ابزار) ارجاع داده شود. در این بخش باید الگوی ارجاعدهی استنادارد، مدنظر قرار گیرد. نمونه ارجاعدهی استاندارد در بخش منابع و متن به شرح زیر است:
5-2-1.ارجاعدهی استاندارد در بخش منابع، ارجاعدهی باید به ترتیب شامل نام ناشر/نویسنده، سال، نام ابزار، نسخه، توضیحات مرتبط با قالب هوش مصنوعی و نشانی ابزار باشد.
5-2-1-1.سبک APA
در این سبک باید از OpenAI به عنوان نویسنده استفاده و تاریخ دسترسی و نسخه مورد استفاده از ChatGPT نیز ذکر گردد.
مثال:
ارجاع درون متنی: (OpenAI, 2023)
5-2-1-2.سبک MLA
در سبک MLA از OpenAI به عنوان نویسنده ذکر و نام ابزار ChatGPT و تاریخ دسترسی نیز اضافه میشود.
مثال:
OpenAI. ChatGPT. OpenAI, 22 October 2023, https://chat.openai.com/.
ارجاع درون متنی: (ChatGPT)
5-2-1-3.سبک شیکاگو
در این سبک، ChatGPT بع عنوان یک ارتباط شخصی در پاورقی ذکر و نیازی به قراردادن آن در فهرست منابع نیست.
مثال پانوشت:
ChatGPT، پاسخ به "خلاصهای از نظریه نسبیت"، 22 اکتبر 2023، https://chat.openai.com
5-2-1-4.سبک هاروارد
در این سبک باید OpenAI به عنوان نویسنده ذکر و تاریخ دسترسی نیز قید شود.
مثال:
.(دسترسی: 22 اکتبر 2023)OpenAI’ Available at: https://chat.openai.com/ گفتگو با (2023), ‘ ChatGPT
5-2-2.ارجاعدهی استاندارد به تصاویر و شکلهای تهیه شده با هوش مصنوعی
5-2-2-1.ارجاعدهی درون متن: (OpenAI, 2023)
5-2-2-2.ارجاعدهی در فهرست منابع:
OpenAI. (2023). DALL-E 2. [AI image generator].
https://openai.com/dall-e-2
5-3.رعایت سیاستهای ناشران علمی: براساس راهنمایی ناشران معتبر (نیچر[1]، الزویر[2]، تیلور و فرانسیس[3]، سیج[4] و اشپرینگر[5]) اعلام و ارجاع صریح به کاربرد هوش مصنوعی در مقالات علمی الزامی است. بسیاری از این ناشران تأکید دارند که هوش مصنوعی فاقد صلاحیت اخلاقی و حقوقی برای نویسندگی است. بنابراین نباید به عنوان نویسنده ذکر و صرفاً باید کاربرد آن گزارش شود.
6.ثبت سوابق و بازتولید پذیری
6-1.کاربران موظف هستند در بخشی با عنوان "بیانیه استفاده از هوش مصنوعی" یا در بخش "روششناسی"، نقش دقیق ابزار مورد استفاده را شرح دهند. این شرح باید مشخص کند در کدام مراحل (مانند ایده پردازی، تحلیل داده یا ویرایش متن) و با چه هدفی از هوش مصنوعی استفاده شده است.
6-2.با توجه به اینکه خروجی مدلهای ابری ممکن است تکرارپذیر نباشد پژوهشگران باید این محدودیت را در بخش روششناسی گزارش دهند.
7.سیاست ناشران درباره استفاده از هوش مصنوعی در فرآیند داوری[6]
ناشران معتبر بینالمللی به طور فزایندهای سیاستهای مشخصی برای استفاده از هوش مصنوعی در فرآیند داوری علمی تدوین کردهاند. این سیاستها بر استفاده مسئولانه از ابزارهای هوش مصنوعی تأکید دارد و هدف آنها حفظ کیفیت علمی، صداقت پژوهش و رعایت محرمانگی اطلاعات است. لازم است در استفاده از هوش مصنوعی در فرآیند داوری به موارد زیر توجه شود:
7-1.ممنوعیت استفاده از هوش مصنوعی برای تصمیمگیری نهایی داوری:
ناشران معتبر بینالمللی مانند نیچر، الزویر، اشپرینگر و دیگر ناشران معتبر تصریح کردهاند که داوران نباید از ابزارهای هوش مصنوعی (مانند ChatGPT) برای نگارش گزارش داوری یا اتخاذ تصمیم نهایی استفاده کنند.
7-2.ممنوعیت بارگذاری اطلاعات محرمانه مقالات در پلتفرمهای هوش مصنوعی: سیاستهای ناشران بینالمللی بیانگر آن است که اطلاعات محرمانه مقالات ارسالی که در فرآیند داوری هستند نباید وارد پلتفرمهای شخص ثالث شوند حتی برای تحلیل یا خلاصهسازی نیز این امر مجاز نیست.
7-3.مسئولیت کامل داور انسانی: اگر داور به نحوی از ابزار هوش مصنوعی استفاده نماید (مثلاً برای خلاصهسازی مقاله به منظور فهم بهتر)، باز هم مسئولیت کامل تحلیل، قضاوت و گزارش نهایی با خود ایشان است، به عبارت دیگر، هوش مصنوعی نمیتواند نقش داور مستقل را داشته باشد یا جایگزین تحلیل انتقادی و قضاوت علمی شود.
8.سیاستهای ناشران برای ویراستاران علمی مجلات در استفاده از هوش مصنوعی
ناشران بینالمللی به ظور شفاف موارد زیر را در راستای استفاده ویراستاران علمی مجلات از ابزارهای هوش مصنوعی بیان داشتهاند:
8-1.حفاظت از محرمانگی اطلاعات مقالات: ویراستاران علمی اجازه ندارند محتوای محرمانه مقالات ارسالی (مانند یافتههای منتشرنشده) را حتی برای تحلیل یا ویراستاری زبانی در پلتفرمهای هوش مصنوعی بارگذاری نمایند.
8-2.مسئولیت کامل اخلاقی، حقوقی و علمی: ویراستاران علمی باید مسئولیت کامل تصمیمها و نتایج حاصل از استفاده از هوش مصنوعی را بر عهده گیرند و نمیتوانند آن را به ابزار یا مدل زبانی نسبت دهند.
9.استانداردهای استفاده از ابزارهای هوش مصنوعی در علوم انسانی
بهره گیری از ابزارهای هوش مصنوعی در هر حوزه علمی، مستلزم تطبیق با ماهیت آن علم، حساسیت دادهها، و رعایت اصول اخلاقی خاص آن حوزه است. براین اساس، استانداردهای استفاده از هوش مصنوعی در علوم انسانی به شرح زیر است:
در پژوهشهای علوم انسانی که غالباً بر تحلیل متون، مفاهیم، زبان و تفسیرهای فرهنگی و تاریخی استوار هستند استفاده از ابزارهای هوش مصنوعی برای تحلیل محتوای متنی، خلاصهسازی، بازنویسی زبانی و ترجمه مجاز است مشروط بر آنکه تأیید نهایی از سوی پژوهشگر انسانی انجام شود. در حوزههایی همچون ادبیات، فلسفه، زبانشناسی یا مطالعات فرهنگی، از ابزارهای هوشمند نباید به جای تفسیر و نقد انسانی استفاده کرد. همچنین تولید خودکار آثار خلاقانه (نثر، شعر و تحلیل) بدون ذکر استفاده از ابزار هوش مصنوعی، مصداق تخلف اخلاقی است. شفافیت در استفاده از ابزارها و رعایت حقوق مؤلف الزامی است.
[1]. Nature
[2]. Elsevier
[3]. Taylor & Francis
[4]. SAGE
[5]. Springer
[6]. Peer Review