ماشین‌های مرگبار؛ هوش مصنوعی منطق جنگ را بازنویسی می‌کند

ماشین‌های مرگبار؛ هوش مصنوعی منطق جنگ را بازنویسی می‌کند

در نگاه نخست، ایده ماشین‌هایی که بتوانند همانند یک سرباز انسانی بجنگند، تصمیم بگیرند و شلیک کنند، بیش از آن که ریشه در واقعیت داشته باشد، به قلمرو داستان‌های علمی‌تخیلی تعلق داشت.

به گزارش خبرنگار مهر، با این حال، شتاب کم‌سابقه پیشرفت‌های هوش مصنوعی در حوزه‌هایی مانند بینایی ماشین، یادگیری عمیق و پردازش بلادرنگ داده‌های میدانی، این تصور را طی یک دهه گذشته به‌تدریج به واقعیتی عملیاتی نزدیک کرده است. در همین بستر، بازار مشخص و رو به رشدی برای «سامانه‌های تسلیحاتی خودمختار» پدید آمده؛ سامانه‌هایی که با تکیه بر الگوریتم‌های پیچیده، داده‌های حسگرها، پهپادها و شبکه‌های شناسایی را تحلیل کرده و قادر هستند با شناسایی و اولویت‌بندی اهداف بالقوه در شرایطی خاص بدون دخالت مستقیم انسان درگیر شوند.

این تحول، صرفاً یک جهش فناورانه نیست، بلکه بیانگر تغییر پارادایم در طراحی و به‌کارگیری قدرت نظامی محسوب می‌شود. دولت‌ها، مجذوب وعده دستیابی به برتری راهبردی، افزایش سرعت واکنش در میدان نبرد و هم‌زمان کاهش هزینه‌های انسانی و سیاسی جنگ، به‌سرعت به سوی این فناوری‌ها گرایش یافته‌اند و آن‌ها را ابزاری بالقوه تعیین‌کننده در موازنه‌های آینده قدرت و حتی بازتعریف مفهوم بازدارندگی می‌دانند.

تغییر محاسبات جنگ و پیامدهای راهبردی

استقبال دولت‌ها از این فناوری صرفاً ناشی از پیشرفت فنی نیست. تسلیحات خودمختار مبتنی بر هوش مصنوعی، محاسبه دولت‌ها برای ورود به درگیری نظامی را نیز دگرگون می‌کند. هنگامی که تصور شود می‌توان با تکیه بر ماشین‌ها و نه انسان‌ها جنگید، آستانه تصمیم برای توسل به زور کاهش می‌یابد.

این تحول، اگرچه ممکن است از منظر برخی سیاست‌گذاران جذاب به نظر برسد، اما در عمل خطر عادی‌سازی خشونت و گسترش درگیری‌های کم‌هزینه اما مداوم را به همراه دارد. به همین دلیل، بسیاری از تحلیلگران این فناوری‌ها را نه‌تنها ابزار نظامی، بلکه عامل تغییر ماهیت جنگ‌های مدرن می‌دانند.

مسئولیت اخلاقی در عصر الگوریتم‌ها

یکی از جدی‌ترین چالش‌های تسلیحات خودمختار، مسئله مسئولیت در تصمیم‌های مرگ و زندگی است. برخلاف تصور رایج، حتی در پیشرفته‌ترین سامانه‌ها نیز هنوز انسان نقش نهایی را در شلیک ایفا می‌کند. با این حال، هنگامی که سامانه دچار خطا می‌شود، تعیین مسئول واقعی به مسئله‌ای پیچیده تبدیل می‌گردد.

تجربه‌های گزارش‌شده نشان می‌دهد که معمولاً فردی که آخرین تصمیم عملیاتی را گرفته، مسئول نتایج شناخته می‌شود؛ حتی اگر اطلاعات ارائه‌شده از سوی سامانه نادرست یا ناقص بوده باشد. این وضعیت، عدم توازن قدرت در زنجیره فرماندهی را تشدید کرده و عملاً سطوح بالاتر را از پاسخ‌گویی مصون می‌سازد.

منتقدان این فناوری‌ها هشدار می‌دهند که هوش مصنوعی، ذاتاً قادر به درک ارزش اخلاقی جان انسان نیست. در منطق الگوریتمی، افراد به نقاطی در یک شبکه داده تقلیل می‌یابند که باید با سرعت و کارایی حذف شوند. چنین رویکردی، اگرچه ممکن است فرآیند تصمیم‌گیری نظامی را تسریع کند، اما ظرایف انسانی میدان نبرد را نادیده می‌گیرد. انسان می‌تواند در لحظه‌ای بحرانی تشخیص دهد که ادامه یک اقدام مرزهای انسانیت را نقض می‌کند و این قابلیت در سامانه‌های خودمختار تعریف نشده است. از همین روی، واگذاری اختیار بیشتر به این فناوری‌ها، به معنای واگذاری بخشی از مسئولیت اخلاقی جنگ به ماشین است.

رقابت ژئوپلیتیکی و منطق مسابقه تسلیحاتی

با وجود مجموعه گسترده‌ای از دغدغه‌های اخلاقی، حقوقی و انسانی، تقاضا برای تسلیحات خودمختار مبتنی بر هوش مصنوعی نه‌تنها متوقف نشده، بلکه با شتابی فزاینده در حال گسترش است. قدرت‌های بزرگ نظامی، با درک این فناوری‌ها به‌عنوان یکی از مؤلفه‌های تعیین‌کننده جنگ‌های آینده، نگران آن هستند که هرگونه تعلل در سرمایه‌گذاری یا استقرار عملیاتی، به عقب‌ماندن راهبردی از رقبا منجر شود.

از همین روی، منابع مالی، نهادی و پژوهشی قابل توجهی به ادغام سامانه‌های هوشمند در ساختارهای تسلیحاتی موجود اختصاص یافته است. در ایالات متحده، این روند به‌طور مستقیم با حساسیت فزاینده نسبت به پیشرفت‌های چین در حوزه نظامی هوش مصنوعی گره خورده و به‌تدریج رنگ‌وبوی یک رقابت تسلیحاتی نوین و فناورانه به خود گرفته است؛ رقابتی که نه‌تنها بر سر تعداد یا قدرت تخریبی تسلیحات، بلکه بر سر سرعت پردازش، کیفیت الگوریتم‌ها و برتری تصمیم‌سازی ماشینی شکل می‌گیرد. در چنین فضایی، سیاست‌گذاری محتاطانه و مبتنی بر ملاحظات اخلاقی به امری دشوار و حتی پرهزینه تبدیل می‌شود و منطق بازدارندگی فناورانه، که بر پیشی‌گرفتن از رقیب به هر قیمت تأکید دارد، به‌تدریج جایگزین خویشتن‌داری و مسئولیت‌پذیری اخلاقی در حوزه نظامی می‌شود.

بسیاری از دولت‌ها تأکید می‌کنند که در استفاده از این تسلیحات، همواره «کنترل انسانی» حفظ خواهد شد. با این حال، شواهد موجود نشان می‌دهد که این اصل در عمل همیشه رعایت نمی‌شود. در همین راستا، شتاب برای بهره‌برداری از مزیت‌های نظامی، اغلب بر ضرورت تدوین قواعد شفاف غلبه می‌کند. نتیجه آن است که هنجارهای بین‌المللی پیش از آن که تثبیت گردند، توسط واقعیت‌های میدانی کنار زده می‌شوند. این شکاف میان گفتار رسمی و رفتار عملی، خطر استفاده بی‌مهابا از این فناوری‌ها را افزایش می‌دهد.

ضرورت تنظیم‌گری و همکاری چندجانبه

در چنین شرایطی، تسلیحات خودمختار مبتنی بر هوش مصنوعی به یکی از کانونی‌ترین و مناقشه‌برانگیزترین محورهای بحث درباره آینده جنگ و امنیت بین‌المللی تبدیل شده‌اند. ابهام عمیق در خصوص مسئولیت‌پذیری حقوقی و اخلاقی این سامانه‌ها، به‌ویژه در مواقعی که تصمیم‌های مرگ‌بار بر مبنای پردازش‌های الگوریتمی اتخاذ می‌شود، در کنار جذابیت راهبردی آن‌ها برای افزایش سرعت، دقت و برتری عملیاتی، سیاست‌گذاران را در وضعیتی دوگانه و بعضاً متناقض قرار داده است.

از یک سو، دغدغه‌های انسانی، حقوق بشردوستانه و نگرانی از فرسایش معیارهای اخلاقی در جنگ، فشار قابل توجهی برای احتیاط و محدودسازی این فناوری‌ها ایجاد می‌کند و از سوی دیگر، ملاحظات ژئوپلیتیکی، رقابت قدرت‌های بزرگ و ترس از عقب‌ماندن در یک رقابت فناورانه سرنوشت‌ساز، دولت‌ها را به سمت پذیرش و تسریع به‌کارگیری آن‌ها سوق می‌دهد. این تعارض بنیادین نشان می‌دهد که در غیاب همکاری مؤثر چندجانبه و تدوین قواعد مشترک و مورد اجماع، نه‌تنها امکان مهار پیامدهای منفی این فناوری‌ها کاهش می‌یابد، بلکه خطر شکل‌گیری نظمی ناپایدار و پرتنش در عرصه امنیت جهانی نیز به‌طور جدی افزایش خواهد یافت.

معاهده‌ای برای مهار ماشین‌های جنگی

در واکنش به این وضعیت، سازمان‌های مدنی، نهادهای حقوق بشری و بخشی از جامعه بین‌المللی به شکل فزاینده‌ای خواستار تدوین یک معاهده جهانی الزام‌آور شده‌اند که توسعه، استقرار و به‌کارگیری تسلیحات خودمختار مبتنی بر هوش مصنوعی را در چارچوب قواعد روشن حقوقی و اخلاقی قرار دهد. این تلاش‌ها از این درک مشترک نشأت می‌گیرد که خلأ مقرراتی موجود، می‌تواند به عادی‌سازی استفاده از سامانه‌هایی بینجامد و تصمیم به اعمال خشونت را به فرآیندهای الگوریتمی واگذار می‌کنند.

چنین توافقی در صورت تحقق، می‌تواند دولت‌ها را ملزم سازد که اصل «کنترل معنادار انسانی» را نه صرفاً در سطح شعار بلکه در تمام چرخه طراحی، آزمایش و استفاده عملیاتی این تسلیحات رعایت کنند و هم‌زمان، توسعه سامانه‌هایی با سطح بالای استقلال عملیاتی و فقدان امکان مداخله انسانی مؤثر را محدود یا ممنوع سازد. همچنین، هدف اصلی این ابتکارها، توقف یا انکار پیشرفت فناوری نیست، بلکه مهار پیامدهای انسانی و اخلاقی آن و جلوگیری از تبدیل هوش مصنوعی به عاملی بی‌ضابطه در کشتار سازمان‌یافته به شمار می‌رود.

با وجود همه نگرانی‌های ذکر شده، در نهایت، آینده جنگ‌های مدرن بیش از هر زمان دیگری به تصمیم‌هایی گره خورده است که امروز درباره مرز اختیارات ماشین، جایگاه قضاوت انسانی و چارچوب مسئولیت اخلاقی و حقوقی اتخاذ می‌شود و در مقطع کنونی، قدرت‌های نظامی بزرگ جهان، توجه چندانی به اصول اخلاقی مطرح شده از سوی مخالفان توسعه ماشین‌های کشتار ندارند.

کد خبر 6741665

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha