ماشین جنگی: DOD را اصول اخلاقی برای میدان جنگ AI

در اوایل سال جاری وزارت دفاع اعلام کرد که تصویب آن اصول اخلاقی برای هوش مصنوعی است. ZDNet شده است ردیابی ای

توسط HEKAYATFARDAYEEMAAA در 24 خرداد 1399

در اوایل سال جاری وزارت دفاع اعلام کرد که تصویب آن اصول اخلاقی برای هوش مصنوعی است. ZDNet شده است ردیابی این روند پس از آن اوج گرفت اما DoD رسمی تصویب این اصول تحت الشعاع قرار بود در کل رسانه ها زمانی که COVID ضربه زدن به ما است.

برای برخی از چشم انداز در چه چارچوب جدید به معنی رشد استفاده از هوش مصنوعی در جنگ من رسیده به جاستین Neroda در Booz همیلتون که توسط معاون رئیس جمهور و رهبر در این شرکت را تجزیه و تحلیل و هوش مصنوعی کسب و کار.

یک چیز Neroda روشن ساخته است که این اصول به هیچ وجه انتزاعی است. در واقع هوش مصنوعی در حال حاضر در حال استفاده در انواع برنامه های کاربردی در دفاع ملی. مثالها عبارتند از: AI تابع ایجاد موثر تر سایبر دفاع استفاده از آن پیش بینی و تعمیر تجهیزات نظامی قبل از آن شکسته و همچنین پیاده سازی طراحی شده برای بهبود عملکرد و آمادگی سربازان.

"در ابتدا با هوش مصنوعی متمرکز بود. پشت در اتاق عملیات و نشان داده که می تواند به طور موثر افزایش بهره وری از این عملیات" توضیح می دهد که Neroda. "در حال حاضر وجود دارد یک افزایش تمرکز در operationalizing AI به حرکت خلبانان و نمونه در خارج از آزمایشگاه و به عملیات های که در آن آنها می توانند افزایش تاثیر است."

به عنوان Neroda امتیاز یک عامل کلیدی در ادامه گسترش برنامه های کاربردی هوش مصنوعی در دفاع بهبود اتوماسیون و استانداردهای مرتبط با آنچه که به نام MLOPs این ساختار فرایند توسعه, تست, استقرار, و نظارت از AI/ML راه حل. سلام واقعا که بسیاری از کار متمرکز شده است در حال حاضر.

پس چه هستند DOD به تازگی به تصویب اصول اخلاقی تصویب هوش مصنوعی ؟

این DOD اصول اخلاقی تصویب هوش مصنوعی طرح یک چارچوب از عواملی که باید در نظر گرفته شود در هنگام طراحی هوش مصنوعی راه حل های برای دفاع و آنها را برجسته عناصر حیاتی هستند که برای حفظ اخلاق در خط مقدم هنگام اجرای راه حل های هوش مصنوعی. اصول گسترده اما به طور کلی آنها عبارتند از قیمومیت است که هوش مصنوعی بود عادلانه و قابل تعقیب است. به عبارت دیگر سطح تعصب در داده های آموزشی استفاده می شود برای توسعه هوش مصنوعی است که یک کلید ضعف در هر big data, نرم افزار باید قابل شناسایی و قابل اندازه گیری است.

"این نیاز به قوی مدیریت پیکربندی از مدل آموزش داده برای اطمینان از روت مدل را می توان به طور مستقیم مرتبط به آموزش داده می گوید:" Neroda.

اصول استرس و اطمینان است. "برای اندازه گیری سطح از قابلیت اطمینان معیارهای استاندارد مورد نیاز خواهد بود و بر اساس توافق و سپس به طور مداوم نظارت از طریق توسعه و به کارگیری برای اطمینان از قابلیت اطمینان نگهداری در یک سطح قابل قبول با توجه به خطر از هوش مصنوعی استفاده شود."

Governability نیز یک مسئله کلیدی است. هوش مصنوعی نیاز به یک قابلیت مانیتورینگ که ثابت می کند یک سطح مهارت. بیش از آن است که آن را نیاز به یک مکانیزم برای رهاسازی و بازگشت به روش های جایگزین و یا ماشه خودکار بازآموزی زمانی که مهارت ملاقات نکرده است.

جایی که ما در AI و دفاع نسبت به کشورهای دیگر ؟

خبر خوب شاید در جهانی که به طور فزاینده ای احساس شکسته و جدا شده است که آمریکا نمی, اقدام یک جانبه. در واقع آمریکا و اروپا به تصویب رسید بسیار شبیه هوش مصنوعی اصول این سال است. آمریکا نیز به تازگی به عضویت G7 AI پنل برای تنظیم دستورالعمل های اخلاقی برای استفاده از هوش مصنوعی که ایجاد شد به راهنمای مسئول تصویب AI-بر اساس اصول مشترک حقوق بشر و ورود تنوع و نوآوری و رشد اقتصادی است.

همه رژیم ها از یک ذهن وقتی که می آید به هوش مصنوعی ،

"کشورهای دیگر گرفته اند بیشتر در موضع تهاجمی نسبت به هوش مصنوعی در چگونه آنها را به اجرا آن می گوید:" Neroda "اما حرکت در این سرعت و بدون در نظر گرفتن چیزهایی مثل هوش مصنوعی اصول در دراز مدت خواهد شد یا در نتیجه کاربردهای هوش مصنوعی است که برآورده نمی مورد نیاز آستانه عملکرد و یا پتانسیل را دارند که در نتیجه غیر مطلوب پیاده سازی هوش مصنوعی و نیاز به توجهی دوباره به دیدار با هوش مصنوعی حل اهداف است. از لحاظ تاریخی adopters اولیه از فن آوری های جدید را نه لزوما شده است موفق ترین."

خواهد منتقدان رو به رشد استفاده از اتوماسیون فن آوری در نبرد بود راضی هستید ؟ این احتمال وجود دارد اگر چه اصول مطرح شده توسط وزارت دفاع به نظر می رسد برای نشان دادن یک اصل تعامل با نصب نگرانی از استفاده از تغییر الگوی فن آوری در نبرد.

"این اصول شروع در سفر به برآوردن این منتقدان اما به طور کامل آدرس آنها کمی بیشتر تعریف چارچوب و فرآیند برای اندازه گیری با رعایت این اصول مورد نیاز خواهد بود برای اطمینان از آینده هوش مصنوعی راه حل های پایبند به این اصول در یک سطح قابل قبول."

هوش مصنوعی



tinyurlis.gdv.gdv.htu.nuclck.ruulvis.netshrtco.detny.im
آخرین مطالب
مقالات مشابه
نظرات کاربرن