You are currently viewing تحقیقات جدید نقاط ضعف اساسی پیدا می کند

تحقیقات جدید نقاط ضعف اساسی پیدا می کند


ربات شکسته هوش مصنوعی

محققان دانشگاه کپنهاگ ثابت کرده‌اند که الگوریتم‌های یادگیری ماشینی کاملاً قوی برای مشکلات پیچیده دست نیافتنی هستند و نیاز حیاتی به آزمایش کامل و آگاهی از محدودیت‌های هوش مصنوعی را برجسته می‌کند. اعتبار: SciTechDaily.com

محققان دانشگاه کپنهاگ برای اولین بار در جهان به اثبات رساندند که جدای از مسائل ساده، توسعه الگوریتم‌های هوش مصنوعی همیشه پایدار غیرممکن است.

ChatGPT و موارد مشابه فراگیری ماشینفن آوری های مبتنی بر در حال افزایش است. اما حتی پیشرفته ترین الگوریتم ها نیز با محدودیت هایی روبرو هستند. محققان از دانشگاه کپنهاگ یک کشف پیشگامانه انجام داد و از نظر ریاضی نشان داد که فراتر از مسائل اساسی، توسعه الگوریتم‌های هوش مصنوعی که همیشه پایدار باشند غیرممکن است. این تحقیق می‌تواند راه را برای بهبود پروتکل‌های آزمایش الگوریتم هموار کند و تفاوت‌های ذاتی بین پردازش ماشین و هوش انسانی را برجسته کند.

مقاله علمی که نتیجه را توصیف می کند برای انتشار در یکی از کنفرانس های بین المللی پیشرو در علوم کامپیوتر نظری پذیرفته شده است.

ماشین‌ها اسکن‌های پزشکی را دقیق‌تر از پزشکان تفسیر می‌کنند، زبان‌های خارجی را ترجمه می‌کنند و ممکن است به زودی بتوانند با خیال راحت‌تر از انسان‌ها خودروها را رانندگی کنند. اما حتی بهترین الگوریتم ها نیز نقاط ضعفی دارند. یک تیم تحقیقاتی از دپارتمان علوم کامپیوتر دانشگاه کپنهاگ در تلاش برای کشف آنها هستند.

به عنوان مثال یک وسیله نقلیه خودکار را در نظر بگیرید که علائم راهنمایی و رانندگی را می خواند. اگر کسی برچسبی روی تابلو بگذارد، حواس یک راننده انسان را پرت نمی کند. اما یک ماشین را می توان به راحتی به تعویق انداخت زیرا علامت قبلاً با مواردی که روی آن آموزش داده شده متفاوت است.

ما دوست داریم الگوریتم‌ها قوی باشند به این معنا که اگر ورودی کمی تغییر کند، خروجی تقریباً یکسان می‌ماند. پروفسور امیر یهودایوف، رهبر گروه، می گوید: زندگی واقعی شامل انواع صداهایی است که انسان ها عادت به نادیده گرفتن آنها دارند، در حالی که ماشین ها ممکن است اشتباه کنند.

زبانی برای بحث در مورد نقاط ضعف

به عنوان اولین جهانی، این گروه به همراه محققان کشورهای دیگر از نظر ریاضی ثابت کرده اند که جدای از مسائل ساده، امکان ایجاد الگوریتم های یادگیری ماشین همیشه پایدار وجود ندارد. مقاله علمی که نتیجه را توصیف می کند برای انتشار در یکی از کنفرانس های بین المللی پیشرو در علوم کامپیوتر نظری، مبانی علوم کامپیوتر (FOCS) پذیرفته شد.

می‌خواهم اشاره کنم که ما مستقیماً روی برنامه‌های خودکار خودرو کار نکرده‌ایم. با این حال، به نظر می رسد این مشکلی است که برای الگوریتم ها بسیار پیچیده است که همیشه پایدار باشد.

“اگر الگوریتم فقط در چند مورد بسیار نادر اشتباه باشد، ممکن است قابل قبول باشد.” اما اگر این کار در شرایط زیادی انجام شود، خبر بدی است.

مقاله علمی نمی تواند توسط صنعت برای شناسایی خطاها در الگوریتم های آن اعمال شود. پروفسور توضیح می دهد که هدف این نبود:

“ما در حال توسعه زبانی برای بحث در مورد نقاط ضعف در الگوریتم های یادگیری ماشین هستیم. این می تواند منجر به توسعه دستورالعمل هایی شود که نحوه آزمایش الگوریتم ها را توضیح می دهد. و در دراز مدت، این ممکن است دوباره منجر به توسعه الگوریتم‌های بهتر و قوی‌تر شود.

از شهود تا ریاضیات

یک برنامه ممکن می تواند برای آزمایش الگوریتم ها برای محافظت از حریم خصوصی دیجیتال باشد.

برخی از شرکت ها ممکن است ادعا کنند که یک راه حل کاملاً ایمن برای حفاظت از حریم خصوصی ایجاد کرده اند. اول، روش شناسی ما می تواند کمک کند تا مشخص شود که راه حل نمی تواند کاملاً قطعی باشد. دوم، می‌تواند نقاط ضعف را شناسایی کند.»

با این حال، اول و مهمتر از همه، مقاله علمی به نظریه کمک می کند. او می افزاید: «ما به طور شهودی درک می کنیم که یک الگوریتم قوی باید تقریباً مانند قبل عمل کند، وقتی در معرض مقدار کمی نویز ورودی قرار می گیرد. درست مثل تابلوی راه که برچسبی روی آن است. اما به عنوان دانشمندان نظری کامپیوتر، ما به یک تعریف محکم نیاز داریم. ما باید بتوانیم مسئله را به زبان ریاضیات توصیف کنیم. اگر بخواهیم الگوریتم را پایدار فرض کنیم، الگوریتم باید چقدر نویز را تحمل کند، و خروجی چقدر باید به خروجی اصلی نزدیک باشد؟ این چیزی است که ما به آن پاسخ دادیم.

مهم است که محدودیت ها را در نظر داشته باشید

مقاله علمی مورد توجه بسیاری از همکاران در دنیای علم کامپیوتر نظری قرار گرفت، اما از طرف صنعت فناوری نه. حداقل الان نه.

امیر یهودایوف با لبخندی می‌گوید: «همیشه باید بین توسعه نظری جدید و علاقه افرادی که در برنامه‌ها کار می‌کنند، فاصله داشته باشید.

با این حال، او چنین اتفاقی را در این مورد نمی‌بیند: «یادگیری ماشینی به سرعت به پیشرفت خود ادامه می‌دهد، و مهم است که به یاد داشته باشیم که حتی راه‌حل‌هایی که در دنیای واقعی بسیار موفق هستند، هنوز محدودیت‌هایی دارند. گاهی ممکن است به نظر برسد که ماشین‌ها می‌توانند فکر کنند، اما در نهایت از هوش انسانی برخوردار نیستند. این مهم است که در نظر داشته باشید.”

مرجع: “تکرارپذیری و استحکام در یادگیری” توسط Zachary Chase، Shay Moran و Amir Yehudayoff، کنفرانس مبانی علوم کامپیوتر (FOCS) 2023.
DOI: 10.48550/arXiv.2304.03757





Source link