هوش مصنوعی (AI) دههها است که وجود داشته است، اما امسال یک پیشرفت بزرگ برای فناوری شبحها بود، با ChatGPT OpenAI که هوش مصنوعی مقرونبهصرفه و کاربردی را برای تودهها ایجاد کرد. با این حال، هوش مصنوعی تاریخ بحثبرانگیزی دارد و پیش از فناوری امروزی، سابقه کوتاهی از آزمایشهای ناموفق وجود دارد.
در بیشتر موارد، به نظر می رسد نوآوری هوش مصنوعی برای بهبود مواردی مانند تشخیص پزشکی و اکتشافات علمی آماده است. برای مثال، یک مدل هوش مصنوعی میتواند تشخیص دهد که آیا شما در معرض خطر بالای ابتلا به سرطان ریه هستید یا خیر تجزیه و تحلیل یک اسکن اشعه ایکس. در طول COVID-19، دانشمندان همچنین الگوریتمی ساختند که می توانست ویروس را از طریق آن تشخیص دهد گوش دادن به تفاوت های ظریف در صدای سرفه های افراد. هوش مصنوعی نیز به آن عادت کرده است طراحی آزمایش در فیزیک کوانتومی فراتر از آنچه مردم تصور می کردند.
اما همه نوآوریها چندان خوشایند نیستند. از پهپادهای قاتل گرفته تا هوش مصنوعی که آینده بشریت را تهدید میکند، در اینجا برخی از ترسناکترین اکتشافات هوش مصنوعی که احتمالاً در سال 2024 اتفاق میافتد، آورده شده است.
س* — دوران هوش عمومی مصنوعی (AGI)؟
ما دقیقاً نمی دانیم که چرا سام آلتمن، مدیر عامل OpenAI در پایان سال 2023 برکنار شد و دوباره به سمت خود بازگردانده شد. اما در میان هرج و مرج شرکتی در OpenAI، شایعاتی در مورد فناوری پیشرفته ای که می تواند آینده بشریت را تهدید کند، منتشر شد. این سیستم OpenAI، به نام Q* (با تلفظ Q-star)، میتواند یک پیادهسازی بالقوه پیشگامانه از هوش عمومی مصنوعی (AGI) باشد. رویترز گزارش شده است. اطلاعات کمی در مورد این سیستم مرموز وجود دارد، اما اگر گزارش ها درست باشد، می تواند قابلیت های هوش مصنوعی را چند درجه افزایش دهد.
متصل: هوش مصنوعی همه جنبه های علم را متحول می کند. اینگونه است.
AGI یک نقطه اوج فرضی است که به عنوان “تکینگی” نیز شناخته می شود، جایی که هوش مصنوعی از انسان هوشمندتر می شود. نسلهای فعلی هوش مصنوعی هنوز در زمینههایی که انسانها در آن برتری دارند، مانند تفکر مبتنی بر زمینه و خلاقیت واقعی، عقب هستند. بیشتر، اگر نه همه، محتوای تولید شده توسط هوش مصنوعی به سادگی داده های مورد استفاده برای آموزش آن را به نوعی دور می اندازد.
اما AGI به طور بالقوه می تواند وظایف خاصی را بهتر از بسیاری از انسان ها انجام دهد، دانشمندان گفتند. همچنین میتوان از آن به عنوان مثال برای ایجاد عوامل بیماریزا، حملات سایبری گسترده، یا سازماندهی دستکاری تودهها استفاده کرد.
ایده AGI مدت هاست که به داستان های علمی تخیلی و بسیاری از دانشمندان محدود شده است من معتقدم هرگز به آنجا نخواهیم رسید. برای OpenAI رسیدن به این نقطه اوج مطمئنا یک شوک خواهد بود – اما نه خارج از محدوده امکان. به عنوان مثال، می دانیم که سم آلتمن در فوریه 2023 در حال ایجاد زمینه برای AGI است و رویکرد OpenAI به AGI را در پست وبلاگ. همچنین می دانیم که کارشناسان شروع به پیش بینی یک پیشرفت قریب الوقوع کرده اند، از جمله مدیر عامل انویدیا، جنسن هوانگ، که در ماه نوامبر گفت که AGI طی پنج سال آینده به دست خواهد آمد. بارنس گزارش شده است. آیا سال 2024 می تواند سال موفقیت آمیز AGI باشد؟ فقط زمان می تواند بگوید.
تقلب در انتخابات جعلی عمیق بیش از حد واقعی
یکی از مهمترین تهدیدات سایبری، جعلیهای عمیق است – تصاویر یا ویدیوهای کاملاً ساختگی از افراد که میتواند آنها را به اشتباه معرفی کند، آنها را متهم کند یا آزار دهد. فناوری دیپ فیک هوش مصنوعی هنوز آنقدر خوب نیست که یک تهدید مهم باشد، اما ممکن است تغییر کند.
هوش مصنوعی اکنون میتواند در زمان واقعی – فیدهای ویدیویی زنده – تولید کند و اکنون در تولید چهرههای انسانی آنقدر خوب عمل میکند که مردم دیگر نمی توانند تفاوت بین واقعی و جعلی را تشخیص دهند. مطالعه دیگری منتشر شده در علم روانشناسی در 13 نوامبر این پدیده را کشف کردهایپررئالیسم“، جایی که محتوای تولید شده توسط هوش مصنوعی بیشتر به عنوان محتوای واقعی “واقعی” تلقی می شود.
این امر عملاً تشخیص واقعیت از خیال با چشم غیرمسلح را برای مردم غیرممکن می کند. اگرچه ابزارها می توانند به افراد کمک کنند تا دیپ فیک ها را شناسایی کنند، اما هنوز رایج نیستند. به عنوان مثال، اینتل یک آشکارساز واقعی جعلی عمیق ایجاد کرده است که با استفاده از هوش مصنوعی برای تجزیه و تحلیل جریان خون کار می کند. اما همانطور که مشخص است FakeCatcher نتایج متفاوتی را به همراه داشته است بی بی سی.
همانطور که هوش مصنوعی مولد بالغ می شود، یک احتمال ترسناک این است که انسان ها برای تحت تاثیر قرار دادن انتخابات دست به تقلب عمیق بزنند. این فایننشال تایمز (FT) به عنوان مثال، گزارش داد که بنگلادش خود را برای انتخابات ژانویه آماده می کند که با تقلب عمیق همراه خواهد بود. همانطور که ایالات متحده برای انتخابات ریاست جمهوری در نوامبر 2024 آماده می شود، فرصتی برای هوش مصنوعی و دیپ فیک وجود دارد تا نتیجه این رای گیری مهم را تغییر دهند. یو سی برکلی نظارت بر استفاده از هوش مصنوعی در کمپین ها، به عنوان مثال، و NBC News همچنین گزارش داد که بسیاری از کشورها قوانین یا ابزار لازم برای مقابله با هرگونه افزایش اطلاعات نادرست تولید شده توسط هوش مصنوعی را ندارند.
ربات های قاتل پایه با هوش مصنوعی
دولتها در سراسر جهان به طور فزایندهای هوش مصنوعی را در ابزارهای جنگی قرار میدهند. دولت ایالات متحده در 22 نوامبر اعلام کرد که 47 کشور اعلامیه ای را تأیید کرده اند استفاده مسئولانه از هوش مصنوعی در ارتش – برای اولین بار در ماه فوریه در لاهه راه اندازی شد. چرا چنین اعلامیه ای ضروری بود؟ زیرا استفاده “غیر مسئولانه” چشم اندازی واقعی و وحشتناک است. ما دیده ایم به عنوان مثال گفته می شود پهپادهای هوش مصنوعی سربازان را در لیبی تعقیب می کنند بدون دخالت انسان
هوش مصنوعی میتواند الگوها را تشخیص دهد، خود را یاد بگیرد، پیشبینی کند یا توصیههایی را در زمینه نظامی ایجاد کند، و مسابقه تسلیحاتی هوش مصنوعی در حال حاضر در جریان است. در سال 2024، این احتمال وجود دارد که ما نه تنها شاهد استفاده از هوش مصنوعی در سیستمهای تسلیحاتی باشیم، بلکه در سیستمهای لجستیک و پشتیبانی تصمیمگیری و همچنین در تحقیق و توسعه نیز استفاده میشود. به عنوان مثال، در سال 2022، هوش مصنوعی تولید می کند 40000 سلاح شیمیایی جدید و فرضی. شاخه های مختلف ارتش آمریکا دارند پهپاد سفارش داد که می تواند تشخیص هدف و ردیابی رزمی را بهتر از انسان انجام دهد. اسرائیل همچنین از هوش مصنوعی برای شناسایی سریع اهداف حداقل 50 برابر سریعتر از انسان در آخرین جنگ اسرائیل و حماس استفاده کرد. NPR.
اما یکی از ترسناک ترین زمینه های توسعه، سیستم های تسلیحاتی مرگبار (LAWS) یا روبات های قاتل است. چندین دانشمند و فنشناس برجسته نسبت به روباتهای قاتل هشدار دادهاند، از جمله استیون هاوکینگ در سال 2015 و ایلان ماسک در سال 2017اما این فناوری هنوز در مقیاس انبوه محقق نشده است.
با این حال، برخی از تحولات نگران کننده نشان می دهد که امسال می تواند پیشرفتی برای روبات های قاتل باشد. به عنوان مثال، در اوکراینبر اساس گزارشی از روسیه، روسیه مدعی است که یک پهپاد KYB-UAV Zala مستقر کرده است که می تواند اهداف را بدون دخالت انسان شناسایی و به آنها حمله کند. بولتن دانشمندان اتمی. استرالیا نیز توسعه یافت یک کوسه روح – یک سیستم زیر آب خودمختار برای تولید “در مقیاس”، بر اساس بررسی مالی استرالیا. به گزارش دیتانا، میزانی که کشورهای سراسر جهان برای هوش مصنوعی خرج میکنند نیز یک شاخص است، چین هزینههای هوش مصنوعی خود را از مجموع 11.6 میلیون دلار در سال 2010 به 141 میلیون دلار تا سال 2019 افزایش داده است. رویترز گزارش داد. این به این دلیل است که، این روزنامه می افزاید، چین در رقابت با ایالات متحده برای معرفی قوانین قفل شده است. در مجموع، این پیشرفتها نشان میدهد که ما در حال ورود به طلوع جدیدی از جنگ هوش مصنوعی هستیم.