![ربات شکسته هوش مصنوعی](https://scitechdaily.com/images/Broken-Robot-Artifical-Intelligence-777x518.jpg)
محققان دانشگاه کپنهاگ ثابت کردهاند که الگوریتمهای یادگیری ماشینی کاملاً قوی برای مشکلات پیچیده دست نیافتنی هستند و نیاز حیاتی به آزمایش کامل و آگاهی از محدودیتهای هوش مصنوعی را برجسته میکند. اعتبار: SciTechDaily.com
محققان دانشگاه کپنهاگ برای اولین بار در جهان به اثبات رساندند که جدای از مسائل ساده، توسعه الگوریتمهای هوش مصنوعی همیشه پایدار غیرممکن است.
ChatGPT و موارد مشابه فراگیری ماشینفن آوری های مبتنی بر در حال افزایش است. اما حتی پیشرفته ترین الگوریتم ها نیز با محدودیت هایی روبرو هستند. محققان از دانشگاه کپنهاگ یک کشف پیشگامانه انجام داد و از نظر ریاضی نشان داد که فراتر از مسائل اساسی، توسعه الگوریتمهای هوش مصنوعی که همیشه پایدار باشند غیرممکن است. این تحقیق میتواند راه را برای بهبود پروتکلهای آزمایش الگوریتم هموار کند و تفاوتهای ذاتی بین پردازش ماشین و هوش انسانی را برجسته کند.
مقاله علمی که نتیجه را توصیف می کند برای انتشار در یکی از کنفرانس های بین المللی پیشرو در علوم کامپیوتر نظری پذیرفته شده است.
ماشینها اسکنهای پزشکی را دقیقتر از پزشکان تفسیر میکنند، زبانهای خارجی را ترجمه میکنند و ممکن است به زودی بتوانند با خیال راحتتر از انسانها خودروها را رانندگی کنند. اما حتی بهترین الگوریتم ها نیز نقاط ضعفی دارند. یک تیم تحقیقاتی از دپارتمان علوم کامپیوتر دانشگاه کپنهاگ در تلاش برای کشف آنها هستند.
به عنوان مثال یک وسیله نقلیه خودکار را در نظر بگیرید که علائم راهنمایی و رانندگی را می خواند. اگر کسی برچسبی روی تابلو بگذارد، حواس یک راننده انسان را پرت نمی کند. اما یک ماشین را می توان به راحتی به تعویق انداخت زیرا علامت قبلاً با مواردی که روی آن آموزش داده شده متفاوت است.
ما دوست داریم الگوریتمها قوی باشند به این معنا که اگر ورودی کمی تغییر کند، خروجی تقریباً یکسان میماند. پروفسور امیر یهودایوف، رهبر گروه، می گوید: زندگی واقعی شامل انواع صداهایی است که انسان ها عادت به نادیده گرفتن آنها دارند، در حالی که ماشین ها ممکن است اشتباه کنند.
زبانی برای بحث در مورد نقاط ضعف
به عنوان اولین جهانی، این گروه به همراه محققان کشورهای دیگر از نظر ریاضی ثابت کرده اند که جدای از مسائل ساده، امکان ایجاد الگوریتم های یادگیری ماشین همیشه پایدار وجود ندارد. مقاله علمی که نتیجه را توصیف می کند برای انتشار در یکی از کنفرانس های بین المللی پیشرو در علوم کامپیوتر نظری، مبانی علوم کامپیوتر (FOCS) پذیرفته شد.
میخواهم اشاره کنم که ما مستقیماً روی برنامههای خودکار خودرو کار نکردهایم. با این حال، به نظر می رسد این مشکلی است که برای الگوریتم ها بسیار پیچیده است که همیشه پایدار باشد.
“اگر الگوریتم فقط در چند مورد بسیار نادر اشتباه باشد، ممکن است قابل قبول باشد.” اما اگر این کار در شرایط زیادی انجام شود، خبر بدی است.
مقاله علمی نمی تواند توسط صنعت برای شناسایی خطاها در الگوریتم های آن اعمال شود. پروفسور توضیح می دهد که هدف این نبود:
“ما در حال توسعه زبانی برای بحث در مورد نقاط ضعف در الگوریتم های یادگیری ماشین هستیم. این می تواند منجر به توسعه دستورالعمل هایی شود که نحوه آزمایش الگوریتم ها را توضیح می دهد. و در دراز مدت، این ممکن است دوباره منجر به توسعه الگوریتمهای بهتر و قویتر شود.
از شهود تا ریاضیات
یک برنامه ممکن می تواند برای آزمایش الگوریتم ها برای محافظت از حریم خصوصی دیجیتال باشد.
برخی از شرکت ها ممکن است ادعا کنند که یک راه حل کاملاً ایمن برای حفاظت از حریم خصوصی ایجاد کرده اند. اول، روش شناسی ما می تواند کمک کند تا مشخص شود که راه حل نمی تواند کاملاً قطعی باشد. دوم، میتواند نقاط ضعف را شناسایی کند.»
با این حال، اول و مهمتر از همه، مقاله علمی به نظریه کمک می کند. او می افزاید: «ما به طور شهودی درک می کنیم که یک الگوریتم قوی باید تقریباً مانند قبل عمل کند، وقتی در معرض مقدار کمی نویز ورودی قرار می گیرد. درست مثل تابلوی راه که برچسبی روی آن است. اما به عنوان دانشمندان نظری کامپیوتر، ما به یک تعریف محکم نیاز داریم. ما باید بتوانیم مسئله را به زبان ریاضیات توصیف کنیم. اگر بخواهیم الگوریتم را پایدار فرض کنیم، الگوریتم باید چقدر نویز را تحمل کند، و خروجی چقدر باید به خروجی اصلی نزدیک باشد؟ این چیزی است که ما به آن پاسخ دادیم.
مهم است که محدودیت ها را در نظر داشته باشید
مقاله علمی مورد توجه بسیاری از همکاران در دنیای علم کامپیوتر نظری قرار گرفت، اما از طرف صنعت فناوری نه. حداقل الان نه.
امیر یهودایوف با لبخندی میگوید: «همیشه باید بین توسعه نظری جدید و علاقه افرادی که در برنامهها کار میکنند، فاصله داشته باشید.
با این حال، او چنین اتفاقی را در این مورد نمیبیند: «یادگیری ماشینی به سرعت به پیشرفت خود ادامه میدهد، و مهم است که به یاد داشته باشیم که حتی راهحلهایی که در دنیای واقعی بسیار موفق هستند، هنوز محدودیتهایی دارند. گاهی ممکن است به نظر برسد که ماشینها میتوانند فکر کنند، اما در نهایت از هوش انسانی برخوردار نیستند. این مهم است که در نظر داشته باشید.”
مرجع: “تکرارپذیری و استحکام در یادگیری” توسط Zachary Chase، Shay Moran و Amir Yehudayoff، کنفرانس مبانی علوم کامپیوتر (FOCS) 2023.
DOI: 10.48550/arXiv.2304.03757