You are currently viewing محققان اجماع جهانی در مورد استفاده اخلاقی از هوش مصنوعی را اندازه گیری می کنند

محققان اجماع جهانی در مورد استفاده اخلاقی از هوش مصنوعی را اندازه گیری می کنند


برای بررسی وضعیت جهانی اخلاق هوش مصنوعی، تیمی از محققان از برزیل یک بررسی سیستماتیک و متاآنالیز دستورالعمل های جهانی برای استفاده از هوش مصنوعی را انجام دادند. منتشر شده در 13 اکتبر در مجله الگوهامحققان دریافتند که در حالی که بیشتر دستورالعمل‌ها به حریم خصوصی، شفافیت و مسئولیت‌پذیری اهمیت می‌دهند، تعداد کمی از آنها به حقیقت، مالکیت معنوی یا حقوق کودکان اهمیت می‌دهند. علاوه بر این، بیشتر دستورالعمل ها اصول و ارزش های اخلاقی را بدون ارائه روش های عملی برای اجرای آنها و بدون اصرار بر مقررات الزام آور قانونی توصیف می کنند.

جیمز ویلیام سانتوس، جامعه شناس و نویسنده همکار از پاپ می گوید: «ایجاد دستورالعمل های اخلاقی روشن و ساختارهای حاکمیتی برای استقرار هوش مصنوعی در سراسر جهان، اولین گام در جهت تقویت اعتماد و اطمینان، کاهش خطرات و اطمینان از توزیع عادلانه مزایای آن است. دانشگاه کاتولیک ریو گراند دو سول.

نیکلاس کلوگه کوریا از دانشگاه کاتولیک پاپی گفت: «کار قبلی عمدتاً بر اسناد آمریکای شمالی و اروپایی متمرکز شده بود، که ما را بر آن داشت تا فعالانه به دنبال چشم اندازهایی از مناطقی مانند آسیا، آمریکای لاتین، آفریقا و فراتر از آن باشیم. ریو گرانده دو سول و دانشگاه بن.

برای تعیین اینکه آیا یک اجماع جهانی در مورد توسعه اخلاقی و استفاده از هوش مصنوعی وجود دارد یا خیر، و برای کمک به هدایت چنین اجماع، محققان یک بررسی سیستماتیک از سیاست‌ها و دستورالعمل‌های اخلاقی منتشر شده بین سال‌های 2014 و 2022 انجام دادند. از این میان، آنها 200 سند مرتبط با هوش مصنوعی را شناسایی کردند. اخلاق و حکمرانی از 37 کشور و شش قاره و به پنج زبان مختلف (انگلیسی، پرتغالی، فرانسوی، آلمانی و اسپانیایی) نوشته یا ترجمه شده است. این اسناد شامل توصیه ها، راهنماهای عملی، چارچوب های خط مشی، دستورالعمل های قانونی و آیین نامه های رفتاری است.

این تیم سپس یک متاآنالیز این اسناد را برای شناسایی رایج‌ترین اصول اخلاقی، بررسی توزیع جهانی آنها و ارزیابی سوگیری‌ها در مورد نوع سازمان‌ها یا افرادی که این اسناد را تهیه می‌کنند، انجام داد.

محققان دریافتند که رایج ترین اصول شفافیت، امنیت، انصاف، محرمانه بودن و پاسخگویی است که به ترتیب در 82.5، 78، 75.5، 68.5 و 67 درصد اسناد ظاهر شده است. کم‌تکرارترین اصول حقوق کار، صداقت، مالکیت معنوی و حقوق کودکان/نوجوانان است که در 19.5، 8.5، 7 و 6 درصد اسناد وجود دارد و نویسندگان تأکید می‌کنند که این اصول شایسته توجه بیشتر است. به عنوان مثال، صداقت – این ایده که هوش مصنوعی باید اطلاعات واقعی را ارائه دهد – با راه اندازی فناوری های هوش مصنوعی مولد مانند ChatGPT به طور فزاینده ای مرتبط می شود. و از آنجایی که هوش مصنوعی این پتانسیل را دارد که کارگران را جابجا کند و روش کار ما را تغییر دهد، اقدامات عملی اجتناب از بیکاری گسترده یا انحصار است.

بیشتر (96٪) دستورالعمل ها “هنجاری” بودند – ارزش های اخلاقی را توصیف می کردند که باید در توسعه و استفاده از هوش مصنوعی در نظر گرفته شوند – در حالی که تنها 2٪ روش های عملی را برای اجرای اخلاق هوش مصنوعی توصیه می کردند و فقط 4.5٪ فرم های الزام آور قانونی را ارائه می کردند. مقررات هوش مصنوعی

سانتوس می‌گوید: «اینها عمدتاً تعهدات داوطلبانه هستند که می‌گویند «اینها برخی از اصول هستند که ما فکر می‌کنیم مهم هستند»، اما فاقد کاربردهای عملی و الزامات قانونی هستند. اگر می‌خواهید سیستم‌های هوش مصنوعی بسازید، یا اگر از سیستم‌های هوش مصنوعی در شرکت خود استفاده می‌کنید، باید به مواردی مانند حریم خصوصی و حقوق کاربر احترام بگذارید، اما نحوه انجام این کار ناحیه خاکستری است که در این موارد ظاهر نمی‌شود. دستورالعمل ها “

محققان همچنین چندین سوگیری در مورد اینکه این دستورالعمل‌ها کجا ایجاد شده‌اند و چه کسی آنها را تولید کرده است، شناسایی کردند. محققان به تفاوت جنسیتی در نویسندگی اشاره کردند. اگرچه 66 درصد از نمونه هیچ اطلاعات تألیفی نداشتند، نویسندگان اسناد باقیمانده اغلب نام مرد داشتند (549 = 66 درصد مرد، 281 = 34 درصد زن).

از نظر جغرافیایی، بیشتر دستورالعمل ها از کشورهای اروپای غربی (31.5٪)، آمریکای شمالی (34.5٪) و آسیا (11.5٪) ارائه شده است، در حالی که کمتر از 4.5٪ از مقالات از آمریکای جنوبی، آفریقا و اقیانوسیه روی هم آمده اند. برخی از این عدم توازن‌های توزیع ممکن است به دلیل محدودیت‌های زبان و دسترسی عمومی باشد، اما این تیم می‌گوید این نتایج نشان می‌دهد که بسیاری از بخش‌های جنوب جهانی در گفتمان جهانی در مورد اخلاق هوش مصنوعی کمتر حضور دارند. در برخی موارد، این شامل کشورهایی می شود که به شدت در تحقیق و توسعه هوش مصنوعی مشارکت دارند، مانند چین، که بازده تحقیقات مرتبط با هوش مصنوعی بین سال های 2016 تا 2019 بیش از 120 درصد افزایش یافته است.

کامیلا گالوائو از دانشگاه کاتولیک پاپی ریو گراند دو سول، یکی از نویسندگان این مقاله می گوید: «تحقیق ما فراخوان ما را برای بیدار شدن جنوب جهانی و فراخوانی برای شمال جهانی برای شنیدن و استقبال از ما نشان می دهد و تقویت می کند. ما نباید فراموش کنیم که در جهانی متکثر، نابرابر و متنوع زندگی می کنیم. ما باید صداهایی را به خاطر بسپاریم که تا به حال این فرصت را نداشته اند که ترجیحات خود را بیان کنند، زمینه خود را توضیح دهند و شاید چیزی را که هنوز نمی دانیم به ما بگویند.”

محققان می گویند علاوه بر گنجاندن صداهای بیشتر، تلاش های آتی باید بر نحوه اجرای اصول اخلاق هوش مصنوعی متمرکز شود. سانتوس می گوید: «گام بعدی ایجاد پلی بین اصول انتزاعی اخلاق و توسعه عملی سیستم ها و برنامه های کاربردی هوش مصنوعی است.



Source link