header

دسته بندی :

دانش و فناوری

اشتراک گذاری

1402/10/06

طرح جدید پنتاگون درباره هوش مصنوعی

هوش مصنوعی به یکی از سلاح‌های استراتژیک وزارت دفاع آمریکا برای تقویت عملیات‌های نظامی، تسهیل تصمیم‌گیری، افزایش فعالیت‌های عملکردی در حین مواجهه با موانع فنی و در هنگام واگذاری کنترل سلاح‌های کشنده به انسان، تبدیل شده است

به گزارش ملت ما، شبکه خبری اسپوتنیک در گزارشی می‌نویسد: منابع رسانه‌ای گزارش کردند که پنتاگون از طرح جدید و جامعی برای اجرای تحلیل‌های داده‌ای پیشرفته و هوش مصنوعی رونمایی کرده است. این استراتژی بر افزایش بودجه در فناوری‌های مبتنی بر هوش مصنوعی، تجزیه و تحلیل الگوریتمی پیچیده و توسعه سیستم‌های خودمختار مانند پهپادها تاکید می‌کند.

این چارچوب جدید که یک تکرار تکامل یافته از استراتژی اولیه مربوط به سال 2018 است، بازتاب پیش بینی دور اندیشانه وزارت دفاع درباره پتانسیل قابل تغییر هوش مصنوعی در صنایع مختلف و اجرا و تحقق آن در دفاع ملی است. به گفته "کرگ مارتل"، رئیس دفتر امور هوش مصنوعی و دیجیتال وزارت دفاع آمریکا، این سند اصلاح شده شامل گسترش قابل ملاحظه هوش مصنوعی در داخل بخش دفاعی است.

پنتاگون همچنین با ایجاد دفتر اصلی هوش دیجیتال و هوش مصنوعی به اختصار "CDAO" در سال 2021، رویکرد خود را در زمینه مدیریت هوش مصنوعی و با ایجاد نهادهایی مانند "مرکز مشترک هوش مصنوعی"، "سرویس دیجیتال دفاعی"، "پلتفرم داده موسوم به Advana" و "موقعیت افسر ارشد داده" توضیح داده است.

استفاده ارتش آمریکا از هوش مصنوعی اقدامی مناقشه برانگیز به ویژه بابت پتانسیل آن در حیطه‌های ساده سازی و احتمال سوءاستفاده در حملات سایبری و اشاعه اطلاعات نادرست محسوب می‌شود.

"کاتلین هیکس"، معاون وزیر دفاع آمریکا تاکید کرده که بشر همچنان بر تصمیم گیری‌های مربوط به نیروی کشنده و تسلیحات اتمی با وجود ادغام هوش مصنوعی در بازبینی اخیر پنتاگون درباره تسلیحات اتمی، کنترل دارد.

وی همچنین به خطرات بالقوه هوش مصنوعی اشاره و بر کاستن از آنها تاکید کرد.

این رونمایی همزمان با نشست هوش مصنوعی در لندن، با حضور معاون رئیس جمهوری آمریکا کامالا هریس و به دنبال دستور اجرایی جو بایدن، رئیس جمهوری ایالات متحده در مورد امنیت و حریم خصوصی هوش مصنوعی انجام شده است. با وجود تلاش‌های چاک شومر، سناتور آمریکایی کنگره در مورد این موضوع قانونی وضع نکرده است.

پنتاگون 1.4 میلیارد دلار برای هوش مصنوعی برای سال مالی 2024 درخواست کرده و سطح بودجه فعلی تا اواسط نوامبر حفظ می‌شود.

گزارش‌های اخیر به ‌دست ‌آمده توسط منابع خبری در مورد اجلاس اخیر هوش مصنوعی، خطرات بالقوه‌ای را نشان می‌دهد که فقط مختص ظهور هوش مصنوعی است. مهمترین این خطرات شامل تکثیر اطلاعات نادرست ناشی از هوش مصنوعی و چشم‌انداز نگران ‌کننده دخالت هوش مصنوعی در سیستم‌های انتخاباتی است.

در ضمن، چنین پیشرفت‌هایی تهدیدی برای عمیق‌تر کردن شکاف‌های اجتماعی و از بین بردن اعتماد در میان مردم جهان است.

یک نگرانی اساسی این است که هوش مصنوعی می‌تواند توسعه تسلیحات بیولوژیکی را تسریع کند یا از محدودیت‌های اقدامات ایمنی فعلی فراتر رود.

در مه سال جاری میلادی گزارش شد که سران صنایع دفاعی هشداری بسیار جدی را مربوط به تهدید موجودی هوش مصنوعی منتشر کنند که با خطرات مربوط به پاندمی‌ها و جنگ اتمی برابری می‌کند. این نگرانی جمعی بر فوریت مدیریت خطرات هوش مصنوعی، به ویژه با توجه به پیشرفت‌های اخیر در مدل‌های زبان بزرگ که باعث ترس از سوء استفاده از آنها در انتشار اطلاعات نادرست و جابجایی شغلی شده است، تاکید دارد.

این توسعه و تحول سریع در حوزه هوش مصنوعی شامل مدل‌های زبانی بزرگ از جمله ChatGPT در سال جاری میلادی در مرکز توجه قرار گرفته اگرچه اینها هنوز استانداردهای وزارت دفاع آمریکا را ندارند.

با این حال، پنتاگون در حال توسعه مدل‌های خود است.

معاون وزیر دفاع آمریکا اذعان کرده که بیش از 180 برنامه احتمالی برای هوش مصنوعی در داخل پنتاگون مشخص شده که شامل تحلیل میدانی تا تحلیل و ارزیابی داده‌های محرمانه می‌شود. همچنین تاکنون بیش از 685 پروژه مرتبط با هوش مصنوعی توسط دفتر مسئولیت دولتی در اوایل 2021 گزارش شده است.

انتهای پیام/

آدرس کوتاه شده صفحه

اشتراک گذاری

shareItem1shareItem2shareItem3shareItem4shareItem5

ارسال نظر

captcha
ارسال نظر