روز دوشنبه، جو بایدن، رئیس جمهور ایالات متحده، فرمان اجرایی گسترده و بلندپروازانه ای صادر کرد در مورد هوش مصنوعی (AI) – منجنیق کردن ایالات متحده به خط مقدم مذاکرات مقررات هوش مصنوعی.
با انجام این کار، ایالات متحده در رقابت برای قدرت بر هوش مصنوعی از سایر ایالت ها جلوتر است. پیش از آن، اروپا با خود پیشتاز بود قانون هوش مصنوعیکه در ژوئن 2023 توسط پارلمان اروپا تصویب شد اما تا سال 2025 لازم الاجرا نخواهد شد.
فرمان اجرایی رئیس جمهور مجموعه ای از ابتکارات برای تنظیم هوش مصنوعی است که برخی از آنها خوب هستند و برخی از آنها بسیار ناقص به نظر می رسند. هدف آن رسیدگی به آسیبهایی از فوری، مانند دیپفیکهای ایجاد شده توسط هوش مصنوعی، تا آسیبهای میانی، مانند از دست دادن شغل، تا آسیبهای طولانیمدت، مانند تهدید وجودی مورد بحث که ممکن است هوش مصنوعی برای انسانها ایجاد کند، میپردازد.
طرح جاه طلبانه بایدن
کنگره ایالات متحده در تصویب مقررات قابل توجهی در مورد شرکت های بزرگ فناوری کند بوده است. این فرمان اجرایی ریاست جمهوری احتمالاً هم تلاشی برای دور زدن کنگره است که اغلب به بن بست رسیده است و هم برای تحریک اقدام. برای مثال، این فرمان از کنگره میخواهد تا قانون حفظ حریم خصوصی دادهها را تصویب کند.
حمایت دو حزبی در شرایط فعلی؟ موفق باشید آقای رئیس جمهور.
طبق گزارش ها، این فرمان اجرایی طی سه ماه تا یک سال آینده اجرا خواهد شد. این هشت حوزه را پوشش می دهد:
- استانداردهای ایمنی و امنیتی برای هوش مصنوعی
- حفاظت از حریم خصوصی
- عدالت و حقوق شهروندی
- حقوق کاربر
- مکان های کاری
- نوآوری و رقابت
- رهبری بین المللی
- مدیریت هوش مصنوعی
از یک طرف، این دستور بسیاری از نگرانی های مطرح شده توسط دانشگاه و عموم را پوشش می دهد. به عنوان مثال، یکی از دستورالعملهای آن، صدور دستورالعملهای رسمی درباره نحوه واترمارک کردن محتوای تولید شده توسط هوش مصنوعی برای کاهش خطر تقلبی عمیق است.
همچنین از شرکتهایی که مدلهای هوش مصنوعی را توسعه میدهند میخواهد قبل از عرضه برای استفاده گستردهتر، ثابت کنند که ایمن هستند. رئیس جمهور بایدن گفت:
این بدان معناست که شرکتها باید سیستمهای هوش مصنوعی در مقیاس بزرگ را که توسعه میدهند به دولت اطلاع دهند و نتایج آزمایشهای مستقل دقیق را به اشتراک بگذارند تا ثابت کنند که خطری برای امنیت ملی یا ایمنی مردم آمریکا ندارند.
استفاده بالقوه فاجعه آمیز از هوش مصنوعی در جنگ
در عین حال، دستور تعدادی از مشکلات فوری را حل نمی کند. به عنوان مثال، به طور مستقیم به نحوه برخورد با روبات های قاتل هوش مصنوعی نمی پردازد، موضوعی آزاردهنده که در دو هفته گذشته در مورد آن بحث شده است. مجمع عمومی سازمان ملل.
این نگرانی را نباید نادیده گرفت. این پنتاگون است در حال توسعه ازدحام پهپادهای خودمختار کم هزینه به عنوان بخشی از برنامه Replicator که اخیراً اعلام شده است. به طور مشابه، اوکراین پهپادهای تهاجمی بومی را توسعه داده است که از هوش مصنوعی بهره می برند که می توانند نیروهای روسی را بدون شناسایی و حمله کنند. دخالت انسان.
آیا میتوانیم در دنیایی قرار بگیریم که ماشینها تصمیم میگیرند چه کسی زندگی کند یا بمیرد؟ فرمان اجرایی صرفاً ارتش را ملزم میکند که از هوش مصنوعی اخلاقی استفاده کند، اما مشخص نمیکند که این به چه معناست.
و در مورد محافظت از انتخابات در برابر سلاح های متقاعد کننده جمعی مبتنی بر هوش مصنوعی چطور؟ تعدادی از رسانه ها در مورد چگونگی انجام انتخابات اخیر در اسلواکی گزارش داده اند تحت تأثیر قرار گرفت توسط دیپ فیک. بسیاری از کارشناسان، از جمله من، نگران سوء استفاده از هوش مصنوعی در انتخابات ریاست جمهوری آینده آمریکا هستند.
مگر اینکه کنترل های سختگیرانه ای اعمال شود، ما در معرض خطر زندگی در عصری هستیم که به هیچ چیزی که آنلاین می بینید یا می شنوید قابل اعتماد نیست. اگر اغراق آمیز به نظر می رسد، در نظر بگیرید که حزب جمهوری خواه ایالات متحده قبلاً این کار را انجام داده است یک تبلیغ کمپین اجرا کرد که به نظر می رسد کاملاً هوش مصنوعی تولید شده است.
فرصت های از دست رفته
بسیاری از ابتکارات در فرمان اجرایی میتوانند و باید در جاهای دیگر، از جمله استرالیا، تکرار شوند. ما همچنین، همانطور که در این دستور لازم است، باید به کارفرمایان، برنامه های دولتی و پیمانکاران دولتی در مورد چگونگی اطمینان از عدم استفاده از الگوریتم های هوش مصنوعی برای تبعیض علیه افراد، راهنمایی ارائه دهیم.
همچنین، همانطور که دستور ایجاب می کند، باید به تبعیض الگوریتمی در سیستم عدالت کیفری رسیدگی کنیم، جایی که هوش مصنوعی به طور فزاینده ای در محیط های پرمخاطره، از جمله مجازات، آزادی مشروط و مشروط، آزادی پیش از محاکمه و بازداشت، ارزیابی خطر، نظارت و پلیس پیش بینی استفاده می شود. چند نام ببرید
هوش مصنوعی برای چنین کاربردهایی در استرالیا نیز مورد بحث قرار گرفته است، مانند طرح مدیریت ارجاع مشکوک که برای نظارت بر جوانان استفاده می شود. در نیو ساوت ولز.
شاید بحثبرانگیزترین جنبه فرمان اجرایی مربوط به آسیبهای احتمالی قدرتمندترین مدلهای به اصطلاح «مرز» هوش مصنوعی باشد. برخی از کارشناسان بر این باورند که این مدلها – که توسط شرکتهایی مانند Open AI، Google و Anthropic ساخته میشوند – یک تهدید وجودی برای بشریت محسوب میشوند.
دیگران، از جمله من، معتقدند که چنین نگرانی هایی بیش از حد است و می تواند حواس را از آسیب های فوری تر، مانند اطلاعات نادرست و بی عدالتی که در حال حاضر به جامعه آسیب می زند، منحرف کند.
دستور بایدن از اختیارات نظامی اضطراری (مخصوصاً در سال 1950) استفاده می کند قانون دادرسی دفاعی در طول جنگ کره معرفی شد) تا شرکت ها را ملزم کند که در هنگام آموزش چنین مدل های مرزی به دولت فدرال اطلاع دهند. همچنین آنها را ملزم به اشتراک گذاری نتایج “تیم قرمز“تستهای ایمنی، که در آن هکرهای داخلی از حملات برای بررسی نرمافزار برای باگها و آسیبپذیریها استفاده میکنند.
من استدلال می کنم که کنترل توسعه الگوهای مرزی دشوار و شاید غیرممکن خواهد بود. دستورالعمل های فوق شرکت ها را از توسعه چنین مدل هایی در خارج از کشور، جایی که دولت ایالات متحده اختیارات محدودی دارد، باز نخواهد داشت. جامعه منبع باز همچنین می تواند آنها را به روشی توزیع شده توسعه دهد – راهی که دنیای فناوری را “بدون مرز” می کند.
تأثیر فرمان اجرایی احتمالاً بیشترین تأثیر را بر خود دولت و نحوه استفاده از هوش مصنوعی خواهد داشت نه بر مشاغل.
با این حال، این یک حرکت خوشایند است. اجلاس ایمنی هوش مصنوعی ریشی سوناک، نخست وزیر بریتانیا در حال برگزاری است دو روز آیندهاکنون در مقایسه تا حدودی شبیه یک جشنواره گفتگوی دیپلماتیک به نظر می رسد.
این باعث می شود که برای انجام کارها به قدرت ریاست جمهوری حسادت کند.
توبی والشاستاد هوش مصنوعی، رئیس گروه پژوهشی، UNSW سیدنی
این مقاله توسط گفتگو تحت مجوز Creative Commons. ادامه مطلب مقاله اصلی.