به گزارش خبرگزاری مهر به نقل از گیزمودو، وی گفت: متقاعد شده که هوش مصنوعی از پتانسیل لازم برای تغییر اساسی آگاهی انسان برخوردار است و درک انسان از خود و نحوه تصمیم گیری های استراتژیک اشخاص را متحول می کند. وی توسعه دهندگان هوش مصنوعی را سرزنش کرد و گفت که آنها به اندازه کافی در مورد پیامدهای تولیداتشان فکر نمی کنند.
کیسینجر ۹۶ ساله در کنفرانس قدرت از طریق نوآوری در واشنگتن سخن می گفت که توسط کمیته هوش مصنوعی کنگره با هدف ارزیابی آینده هوش مصنوعی در امریکا و جایگاه آن به منظور تامین امنیت ملی ایالات متحده برگزار شده بود.
کیسینجر در این مورد گفت: من به مقوله هوش مصنوعی به عنوان یک فرد فنی نمی نگرم و دغدغه من مربوط به جنبه های تاریخی، فلسفی و استراتژیک آن است.
وی تاثیرگذاری هوش مصنوعی را مشابه تاثیر ناشی از آغاز عصر روشنگری و رنسانس در غرب دانست و افزود: هوش مصنوعی به شکلی تغییر ناپذیر شیوه تعامل انسانها و ماشین ها را تغییر می دهد و این تغییر لزوما به معنای بهتر شدن این تعامل نخواهد بود. البته من ضد هوش مصنوعی نیستم و این ابزار ممکن است بتواند ما را نجات دهد.
مشاور اسبق امنیت ملی آمریکا تصریح کرد: هوش مصنوعی ماهیت استراتژی و جنگ را تغییر می دهد ولی هنوز بسیاری از تصمیم گیران و فعالان این عرصه به هوش مصنوعی تنها به مثابه یک نقطه عزیمت فنی جدید می نگرند. آنها هنوز نفهمیده اند که هوش مصنوعی برداشت فلسفی ما را از جهان متحول می کند و به طور اساسی بر درک انسان تاثیر می گذارد.
کیسینجر با اظهار نگرانی در مورد پیامدهای کاربرد هوش مصنوعی در عرصه نظامی گفت: ممکن است دیپلماسی در آینده دیگر نتواند برای متوقف کردن نظامی گری مبتنی بر هوش مصنوعی کارآیی داشته باشد. ماهیت مخفی و به سرعت متحول شونده هوش مصنوعی بدان معناست که بازیگران دولتی نمی توانند آن را به عنوان یک تهدید قطعی مانند تسلیحات هسته ای بر روی میز گذاشته و در موردش مذاکره کنند.
وی افزود: در حال حرکت به حوزه ای هستیم که با توانایی های خارق العاده ای مواجه خواهیم شد و دشمن نمی تواند به سرعت دریابد که تهدید از کجا فرا می رسد. همین سردرگمی می تواند به هرج و مرج در میدان نبرد یا اشتباه یک کشور در شناسایی منبع حمله منجر شود و لذا هوش مصنوعی خطر جنگ هسته ای را افزایش می دهد. لذا ما باید در مورد ماهیت پدیده کنترل تسلیحاتی و کاربرد آن در آینده از نو فکر کنیم.
کیسینجر با اشاره به سیستم های هوش مصنوعی گوگل که به عنوان مثال می توانند هر انسانی را در بازی شطرنج شکست دهند، گفت: ما باید درک کنیم که چنین تحولاتی در مقیاس بزرگتر چه معانی دارد و باید در زمینه تولید مخلوقاتی که توان درک ندارند، مطالعه کنیم. ما در جامعه خود هنوز در این زمینه آگاهی نداریم.
او پیش بینی کرد که الگوریتم های هوش مصنوعی روزی به عنوان بخشی از فرایند تصمیم گیری نظامی به کار گرفته می شوند. اما برنامه ریزان استراتژیک باید این موضوع را در بازی های جنگی و حتی در موقعیت های واقعی از قبل آزمایش کنند تا میزان کارآیی آن مشخص شود و ما دریابیم که آیا ما از پس استفاده از چنین الگوریتم هایی برمی آییم و پیامدهای آن چیست.
وی شرایط فعلی جهان را به شرایط قبل از آغاز جنگ اول جهانی تشبیه کرد که در نهایت مجموعه ای از رویدادهای به نظر منطقی پیامدهایی پیش بینی نشده و ناخواسته را به وجود آورد و جنگ آغاز شد. وی گفت: اگر پیامدهای فناوری ها و از جمله ظرفیتهای عاطفی و احساسی انسان ها را برای مدیریت پیامدهای غیرقابل پیش بینی فناوری ها، مورد توجه قرار ندهید، در حوزه استراتژیک هم شکست می خورید. هنوز مشخص نیست بازیگران دولتی چگونه قادر به اعمال دیپلماسی در شرایطی خواهند بود که از طرز فکر طرف مقابل مطمئن نیستند یا حتی قادر به ارائه تضمین به آن طرف نمی باشند. زمانی که با استفاده از هوش مصنوعی سلاح های پرقدرت می سازیم باید به طور جدی به این موضوع فکر کنیم که چگونه می خواهیم در مورد آنها گفتگو کنیم و چگونه می خواهیم برای استفاده از آنها خویشتن داری پیشه کنیم؟
کیسینجر تاکید کرد: در این شرایط سلاح شما به شریک شما مبدل می شود و اگر این سلاح برای انجام وظیفه ای خاص طراحی شود، شما چگونه می توانید آن را تحت شرایطی خاص متحول و دستکاری کنید. باید به این سوالات پاسخداد. هوش مصنوعی چالش فلسفی آینده ماست، زیرا ما با اشیای هوشمندی تعامل خواهیم کرد که قبلا هرگز تصورش را هم نداشتیم و محدودیت های ما نیز بسیار وسیع است.
نظر شما