counter create hit ردپای هوش‌مصنوعی در رقابت خطرناک تسلیحاتی؛ در مغز رهبران جهان چه می‌گذرد؟ +تصویر
۲۰ تير ۱۴۰۲ - ۱۹:۰۲
کد خبر: ۳۸۹۷۷۸

ردپای هوش‌مصنوعی در رقابت خطرناک تسلیحاتی؛ در مغز رهبران جهان چه می‌گذرد؟ +تصویر

«روشی که الگوریتم‌ها با استفاده از آن اطلاعات را پردازش می‌کنند، باعث می‌شود حتی توسعه‌دهندگان سیستم‌های مذکور نتوانند تصمیمات آن‌ها را کاملاً درک کنند. این فناوری آن‌قدر سریع حرکت می‌کند که حتی پاسخ به پرسش‌هایی مانند «آیا می‌تواند انسان را بکشد یا نه؟» را همچنان بی‌پاسخ باقی گذاشته است.»

مستند جدید نتفلیکس نشان می‌دهد که نیروهای نظامی سرتاسر جهان برای تولید سلاح‌های جدید مبتنی‌بر هوش مصنوعی رقابت می‌کنند.

جسی سویت، کارگردان فیلم «ناشناخته: ربات‌های مرگ‌بار» (UNKNOWN: Killer Robots) می‌گوید: «رهبران جهان در روسیه و چین و آمریکا اعلام کرده‌اند که هوش مصنوعی مزیت‌های بسیاری در جنگ‌ها به‌ارمغان خواهد آورد.»

سویت که قبلاً جایزه‌ی امی را به‌دست آورده است، هشدار داد: «انقلاب هوش مصنوعی در حال رخ‌دادن است؛ اما فکر می‌کنم آگاهی ما از سرعت رشد این فناوری عقب مانده است.»

سویت در مستند خود نشان می‌دهد که استفاده از ربات‌ها و پهپادهای درجه‌یک در نبردها موضوع جدیدی نیست؛ اما بهره‌گرفتن از هوش مصنوعی سخت‌افزارهای موجود را تقویت و جنگ‌ها را مدرن می‌کند.

پهپاد در جنگ

به‌گفته‌ی کارشناسان، پیشرفت‌های هوش مصنوعی ما را به نقطه‌ای سوق داده‌ است که قدرت‌های جهانی اکنون چاره‌ای غیر از بازنگری استراتژی‌های نظامی خود ندارند.

ناتان مایکل، مدیر ارشد فناوری Shield AI، اعلام کرد: «انتظار اینکه هوش مصنوعی جنگنده‌ی F-16 را خلبانی کند، واقع‌بینانه است و دستیابی به چنین سطحی از فناوری، چندان دور از ذهن نیست.» Shield AI شرکتی است که هدفش ساخت بهترین خلبان هوش مصنوعی جهان است.

به‌هرحال، برخی از فیلم‌سازان و ازجمله کسانی که آثارشان درباره‌ی هوش مصنوعی است، درباره‌ی نظامی‌سازی سریع رباتیک ابراز نگرانی کرده‌اند و هشدار داده‌اند که از آنچه می‌سازیم، درک درستی نداریم.

تانک کوچک نظامی

سویت اظهار کرد: «روشی که الگوریتم‌ها با استفاده از آن اطلاعات را پردازش می‌کنند، باعث می‌شود حتی توسعه‌دهندگان سیستم‌های مذکور نتوانند تصمیمات آن‌ها را کاملاً درک کنند. این فناوری آن‌قدر سریع حرکت می‌کند که حتی پاسخ به پرسش‌هایی مانند «آیا می‌تواند انسان را بکشد یا نه؟» را همچنان بی‌پاسخ باقی گذاشته است.»

روشی که الگوریتم‌ها با استفاده از آن اطلاعات را پردازش می‌کنند، باعث می‌شود حتی توسعه‌دهندگان سیستم‌های مذکور نتوانند تصمیمات آن‌ها را به‌طور کامل درک کنند

علاوه‌براین، تکیه‌ بر دقت و صحت فناوری که به‌عنوان سوگیری اتوماسیون از آن یاد می‌شود، باردیگر مطرح خواهد شد.

نگرانی دیگر به نرم‌افزار تشخیص چهره‌ی هوش مصنوعی ارتباط دارد که برای تقویت ربات یا پهپادهای خودران هنگام نبرد استفاده می‌شود. درحال‌حاضر، تیراندازی نهایی در چنین ابزارهایی برعهده‌ی انسان است؛ اما درصورتی‌که عامل انسانی برداشته شود، چنین سیستم‌هایی برای غیرنظامیان بسیار خطرناک خواهند بود.

سرباز درحال استفاده از پهپاد

سویت می‌گوید: «هوش مصنوعی در شناسایی افراد سفیدپوست عملکرد بهتری دارد؛ بنابراین، افراد تیره‌پوست تیره را به‌راحتی می‌تواند با یکدیگر اشتباه بگیرد. وقتی در میدان نبرد باشیم و چنین سیستمی نتواند دوست و دشمن را به‌درستی تشخیص دهد، آن زمان با فاجعه‌ای بزرگ مواجه خواهیم شد.»

قطعاً تاکنون فیلم‌های اکشن آینده‌نگرانه‌ای دیده‌اید که در آن‌ها، ربات‌ها و سلاح‌های قدرتمند هوش مصنوعی علیه انسان‌ها اقدام می‌کنند. سویت در بخش دیگری از توضیحاتش گفت: «با هوش مصنوعی، رخ‌دادن سناریو مذکور واقعاً امکان‌پذیر است و همین تفکر باعث ایجاد تنش در نیروهای ارتش سرتاسر جهان شده است.»

نبود پیچیدگی موردنیاز برای نفوذ به سیستم‌های جنگی، باید همه‌ی مردم را نگران کند

علاوه‌براین، نگرانی‌هایی درباره‌ی امنیت سایبری هوش مصنوعی و توانایی دولت‌های خارجی یا افراد مستقل برای در دست‌گرفتن ابزارهای حیاتی ارتش‌ها وجود دارد. سویت دراین‌باره گفت: «فکر نمی‌کنم همچنان پاسخ روشنی برای این نگرانی‌ها وجود داشته باشد و همه می‌دانند هرچه ارتش بیشتر به اتوماسیون روی بیاورد، افراد بدنیت می‌توانند بیشتر از این فناوری‌ها سوءاستفاده کنند.»

کارشناسان می‌گویند نبود پیچیدگی موردنیاز برای نفوذ به سیستم‌های جنگی باید همه‌ی مردم را نگران کند. سویت اظهار کرد: «قبلاً برای سوءاستفاده از تجهیزات ارتش‌ها به دانش فنی بسیار زیاد در حوزه‌ی کامپیوتر نیاز داشتید؛ اما درحال‌حاضر تقریباً هرکسی با هر ضریب هوشی می‌تواند چنین کارهایی انجام دهد.»

سرباز درحال استفاده از پهپاد

درحالی‌که هوش مصنوعی در فناوری‌های پزشکی و دارویی و برای درمان بیماری‌ها پیشرفت می‌کند، دانشمندان هشدار می‌دهند چیزی به سادگی تغییر صفر به یک در کامپیوتر می‌تواند ازطریق اجرای هزاران شبیه‌سازی که به تولید ترکیبات سمی منجر می‌شود، سلاح‌های شیمیایی بسازد.

دکتر شان اکینز، مدیرعامل شرکت Collaborations Pharmaceuticals، در مستند سویت داستانی را بیان می‌کند که گروه ناظر هوش مصنوعی سوئیسی چگونه در سال ۲۰۲۱ به او مأموریت دادند تا امکان طراحی سلاح بیولوژیکی را آزمایش کند.

اکینز در گفت‌وگو با NYPost اعلام کرد: «در حال ساخت مدل‌های یادگیری ماشینی مختلفی هستیم تا احتمال سمی‌بودن مولکول‌ها را بررسی کنیم. ما به‌معنای واقعی کلمه، سوئیچ‌ را روی یکی از مدل‌ها چرخاندیم و یک‌شبه مولکول‌های سلاح شیمیایی تولید کرد. جالب اینکه چنین کاری را شرکت کوچکی با مک رومیزی مدل ۲۰۱۵ انجام داد.»

در میان مدل‌های تولیدشده با هوش مصنوعی، ترکیبات مشابهی با VX وجود داشت که یکی از کشنده‌ترین عوامل عصبی شناخته‌شده در جهان است.

دکتر اکینز افزود: «از فناوری‌های مولد برای انجام این کار استفاده کردیم که البته در سال ۲۰۲۱ بسیار ابتدایی بودند. اکنون تقریباً دو سال از آن زمان گذشته و فکر می‌کنم کاری که انجام دادیم درمقایسه‌با آنچه امروز امکان‌پذیر شده، بسیار ناچیز است.»

پهپاد درحال بررسی وضعیت زمین

اکینز نگران است که دانشمندان سرکش یا افراد فاقد صلاحیت کافی با استفاده از هوش مصنوعی سلاح‌های زیستی و شیمیایی خطرناک تولید کنند. او می‌گوید: «فکر می‌کنم خطر واقعی این است به‌نقطه‌ای برسیم که به مولکول‌های جدید با سنتر بسیار آسان‌تر دست یابیم. این موضوع واقعاً جای نگرانی دارد و هوش مصنوعی می‌تواند به انسان‌ها کمک کند تا مولکول‌هایی ده‌هاهزار برابر سمی‌تر تولید کنند.»

اکینز می‌گوید همچنان اقدامی جدی برای جلوگیری از ساخت سلاح‌های شیمیایی با هوش مصنوعی صورت نگرفته و دلیل آن درک‌نکردن خطر بالقوه‌ی فناوری مذکور است. دکتر اکینز سرعت سرسام‌آور ارتقای فناوری یادگیری ماشینی را در رشته‌ی خود با دانشمندان سازنده‌ی بمب اتم مقایسه کرد؛ زیرا آن‌ها نیز به عواقب کار خود فکر نمی‌کردند.

اکینز همچنین اشاره کرد: «حتی پدرخوانده‌ی هوش مصنوعی نیز اکنون متوجه شده است که این فناوری چقدر خطرناک است و گسترش آن چه خطرهای دیگری به‌دنبال خواهد داشت. همچنین، فکر می‌کنم بازگرداندن شرایط به حالت قبل بسیار دشوار خواهد بود.»

منبع: زومیت
ارسال نظرات
نام:
ایمیل:
* نظر: