You are currently viewing توجه به جامعه پژوهشی: استفاده از فناوری هوش مصنوعی مولد در فرآیند ارزیابی شایستگی NSF |  NSF

توجه به جامعه پژوهشی: استفاده از فناوری هوش مصنوعی مولد در فرآیند ارزیابی شایستگی NSF | NSF


هوش مصنوعی مولد1 سیستم های (GAI) پتانسیل زیادی برای حمایت از ماموریت بنیاد ملی علوم ایالات متحده برای پیشبرد پیشرفت علم دارند. آنها می توانند خلاقیت را تسهیل کنند و به توسعه بینش های علمی جدید و ساده سازی فرآیندهای آژانس با افزایش بهره وری از طریق خودکار کردن وظایف معمول کمک کنند. در حالی که NSF به حمایت از پیشرفت های این فناوری جدید ادامه می دهد، آژانس باید خطرات بالقوه مرتبط با آن را نیز در نظر بگیرد. آژانس نمی تواند از اطلاعات غیر عمومی افشا شده به یک GAI شخص ثالث در برابر ضبط و اشتراک گذاری محافظت کند. برای محافظت از یکپارچگی توسعه و ارزیابی پیشنهاد در فرآیند ارزیابی شایستگی، این یادداشت دستورالعمل هایی را برای استفاده از آن توسط بازبینان و پیشنهاد دهندگان ایجاد می کند:

  • بازبینان NSF از آپلود محتوای پیشنهادی، اطلاعات بررسی و سوابق مرتبط در ابزارهای تولید AI تایید نشده منع می شوند.
  • متقاضیان تشویق می شوند تا در توضیحات پروژه میزان استفاده از فناوری هوش مصنوعی مولد و نحوه استفاده از آن برای توسعه پیشنهاد خود را در صورت وجود مشخص کنند.

یکی از مشاهدات کلیدی برای بازبینان این است که به اشتراک گذاری اطلاعات در مورد پیشنهادهای فناوری هوش مصنوعی مولد از طریق اینترنت باز، اصول محرمانه بودن و یکپارچگی فرآیند بررسی شایستگی NSF را نقض می کند. هر گونه اطلاعات آپلود شده در ابزارهای تولید کننده هوش مصنوعی که پشت فایروال NSF نیست2 در حوزه عمومی در نظر گرفته می شود. در نتیجه، NSF نمی تواند محرمانه بودن این اطلاعات را حفظ کند. از دست دادن کنترل بر اطلاعات بارگذاری شده می تواند خطرات قابل توجهی را برای محققان و کنترل آنها بر ایده هایشان ایجاد کند. علاوه بر این، منبع و صحت اطلاعات به دست آمده از این فناوری همیشه روشن نیست، که می تواند منجر به نگرانی در مورد یکپارچگی تحقیق، از جمله صحت تألیف شود.

NSF باید یکپارچگی فرآیند بررسی شایستگی خود را حفظ کند. انتشار محتوای پروپوزال، اطلاعات بررسی3 و سوابق مرتبط نقض محرمانه بودن و افشای عمومی تلقی می شود. افشای اطلاعات را می توان گسترش داد زیرا این فناوری می تواند آن را در مجموعه داده مورد استفاده برای آموزش برای استفاده بیشتر توسط سایر کاربران ابزار قرار دهد.

اگر اطلاعات حاصل از فرآیند بررسی شایستگی بدون مجوز برای نهادهای خارج از آژانس، از طریق هوش مصنوعی مولد یا موارد دیگر افشا شود، NSF توانایی محافظت از آن را در برابر انتشار بیشتر از دست می دهد. این نوع افشا، به ویژه اگر خصوصی یا ممتاز باشد، مسئولیت قانونی بالقوه ایجاد می کند و اعتبار آژانس را تضعیف می کند. آژانس با اطمینان از اینکه از ایده های علمی، داده های غیر عمومی و اطلاعات شخصی که از پیشنهادات، اطلاعات بررسی و سوابق مربوطه در فرآیند بررسی شایستگی ناشی می شود، اعتماد عمومی را حفظ می کند.

استفاده از هوش مصنوعی مولد توسط بازبینان در ارزیابی شایستگی. بازبینان NSF، از جمله کسانی که بررسی‌های موقت و اعضای میزگرد را انجام می‌دهند، به عنوان کارمندان ویژه دولتی در فرآیند بررسی شایستگی NSF شرکت می‌کنند. طبق این اساسنامه، قوانین، مقررات و سیاست هایی که بر افشای اطلاعات پرسنل NSF نظارت می کنند، برای بازبینان نیز اعمال می شود. بعلاوه، بازبینان NSF یک تعهد محرمانه را به عنوان بخشی از فرم تضاد منافع و بیانیه حریم خصوصی برای اعضای هیئت مدیره NSF امضا می کنند که اغلب با نام آن “فرم 1230P” نامیده می شود.

الزامات محرمانه بودن در فرم 1230P وظیفه بازبینان را برای حفظ محرمانه بودن پیشنهادات، متقاضیان جایزه NSF، فرآیند بررسی و هویت بازبینی کنندگان توصیف می کند. وظیفه حفظ محرمانه بودن اطلاعات بررسی شایستگی به استفاده از ابزارهای هوش مصنوعی مولد گسترش می یابد. بازبینان NSF از آپلود محتوای پیشنهادی، اطلاعات بررسی و سوابق مرتبط در ابزارهای تولید AI تایید نشده منع می شوند. اگر بازرسان این اقدام را انجام دهند، NSF آن را نقض تعهد آژانس مبنی بر محرمانه بودن و سایر قوانین، مقررات و سیاست های قابل اجرا در نظر خواهد گرفت. بازبینان NSF می توانند اطلاعات در دسترس عموم را با نسل فعلی ابزارهای هوش مصنوعی مولد به اشتراک بگذارند.

استفاده از هوش مصنوعی مولد در تهیه پروپوزال. متقاضیان تشویق می شوند تا در توضیحات پروژه میزان استفاده از فناوری هوش مصنوعی مولد و نحوه استفاده از آن برای توسعه پیشنهاد خود را در صورت وجود مشخص کنند.4 NSF در حال بررسی استفاده از GAI در تهیه پروپوزال است و به دنبال این است که ابتدا چگونگی استفاده از آن توسط جامعه برای به حداقل رساندن الزامات اداری و ایجاد فرآیندها و منابع مناسب برای فرآیند بررسی شایستگی را درک کند. NSF ممکن است دستورالعمل های اضافی را برای استفاده در صورت لزوم منتشر کند.

پیشنهاد دهندگان مسئول صحت و صحت پیشنهادهای ارائه شده خود هستند که برای ارزیابی شایستگی در نظر گرفته می شوند، از جمله محتوای توسعه یافته با استفاده از ابزارهای تولید هوش مصنوعی. پیشنهادات NSF و راهنمای سیاست و رویه‌های NSF (PAPPG) به رفتار نادرست تحقیقاتی می‌پردازد که شامل جعل، جعل یا سرقت ادبی در پیشنهاد یا انجام تحقیقات با بودجه NSF یا گزارش نتایج با بودجه NSF است. ابزارهای مولد هوش مصنوعی می توانند این خطرات را ایجاد کنند و پیشنهاد دهندگان و برندگان جایزه مسئول اطمینان از یکپارچگی پیشنهاد و گزارش نتایج تحقیقات خود هستند. این سیاست مانع از مطالعه هوش مصنوعی مولد به عنوان یک موضوع تحقیقاتی نمی شود.

کاربرد و دستورالعمل برای استفاده مناسب. NSF PAPPG 2025 را به روز می کند تا با الزامات ذکر شده در این یادداشت یا با راهنمایی ها و الزامات اضافی در صورت لزوم هماهنگ شود. NSF همچنین به طور مداوم کاربردهای آینده فناوری هوش مصنوعی مولد را برای استفاده کارکنان و جامعه تحقیقاتی ارزیابی خواهد کرد.

سوالات مربوط به این خط مشی باید به سمت آنها باشد [email protected].

_____________

فن آوری است که می تواند محتوا، مانند متن، تصویر، صدا یا ویدئو را در صورت درخواست کاربر ایجاد کند. سیستم‌های هوش مصنوعی مولد پاسخ‌ها را با استفاده از الگوریتم‌هایی که اغلب بر روی مجموعه‌های بزرگی از اطلاعات، مانند متن و تصاویر از اینترنت آموزش داده می‌شوند، ایجاد می‌کنند. (منبع: دفتر پاسخگویی دولت ایالات متحده، مرکز علم و فناوری: هوش مصنوعی مولد، ژوئن 2023، موجود در www.gao.gov/assets/830/826491.pdf)

این اخطار و خط مشی مرتبط با تکامل فناوری. با این حال، در زمان نوشتن این یادداشت، نسل فعلی هوش مصنوعی مولد استانداردهای حریم خصوصی NSF را برآورده نمی‌کند زیرا اطلاعات را می‌توان با شخص ثالث به اشتراک گذاشت.

شامل خلاصه های پانل، تجزیه و تحلیل بررسی، توصیه های مالی، نظرات PO، و سایر سوابق مشابه است.

همچنین برای هر محتوایی که توسط پیشنهاد دهنده توسعه نیافته است اعمال می شود.



Source link