۶ بهمن ۱۴۰۴، ۸:۱۸

هوش مصنوعی و جنگ اطلاعاتی در عصر دیجیتال

هوش مصنوعی و جنگ اطلاعاتی در عصر دیجیتال

اراک- نقش هوش مصنوعی در تولید و گسترش روایت‌سازی های دروغین معاندین و اثرگذاری بر افکار عمومی، امنیت ملی و ثبات اجتماعی در ناآرامی‌های اخیر را باید در نظر داشت.

یادداشت مهمان - حسین معافی، مدرس دانشگاه و پژوهشگر هوش مصنوعی؛ در دهه‌های اخیر، تحولات فناوری به‌ویژه پیشرفت‌های چشمگیر در حوزه هوش مصنوعی (AI)، تحولات عمیقی در ساختار جنگ اطلاعاتی و رسانه‌ای ایجاد کرده است. این فناوری، نه تنها ابزاری برای بهبود کارایی در بخش‌های مختلف اقتصادی و اجتماعی شده، بلکه به ابزاری کلیدی در دست‌یابی به تأثیرگذاری سیاسی و تغییر نگرش‌های عمومی تبدیل شده است.

در این میان، کشورهایی که با چالش‌های داخلی و خارجی مواجه هستند، به‌ویژه ایران، شاهد گسترش گسترده استفاده از هوش مصنوعی توسط گروه‌های مخالف و معاند در قالب روایت‌سازی‌های دروغین، تحریف اطلاعات و تولید محتوای مخرب هستند.

هوش مصنوعی به عنوان ابزار تولید محتوای مخرب، به‌ویژه مدل‌های زبانی بزرگ (LLMs) مانند GPT، GEMINI ,GROK و مدل‌های تولید تصویر و ویدئو (مانند DALL·E، MidJourney و Synthesia)، امکان تولید محتوای بسیار واقع‌گرایانه و مقرون به صرفه را فراهم کرده است. این فناوری‌ها به گروه‌های مخالف اجازه می‌دهند:

تولید متن‌های سیاسی کاذب با سبک‌های متنوع (خبر، مصاحبه، گزارش، نظریه توطئه) که به‌گونه‌ای طراحی می‌شوند که از منابع معتبر به نظر برسند.
تولید تصاویر و ویدئوهای مصنوعی (Deepfakes) که شخصیت‌های سیاسی، مقامات امنیتی یا حتی شهروندان عادی را در موقعیت‌های نامناسب (مثلاً خشونت، یا تهدید به مرگ) نشان می‌دهند.

تولید محتوای چندزبانه با سرعت بالا و بدون نیاز به منابع انسانی گسترده، که به گسترش پیام‌های مخرب در سطح جهانی کمک می‌کند.

این محتواها به‌سرعت در شبکه‌های اجتماعی، پلتفرم‌های فیلترشده و حتی در میان ارتباطات غیرمستقیم (مانند چت‌های پیام‌رسانی) منتشر می‌شوند و به‌عنوان "روایت‌های معتبر" در نظر گرفته می‌شوند.

در طول ناآرامی‌ها و حوادث تروریستی اخیر در ایران که در دیماه با اعتراضات کسبه و بازاریان شروع شد و در روزهای 18 و 19 دی به اوج خود رسید، گروه‌های مخالف و معاند به‌طور فعال از هوش مصنوعی برای تولید تصاویر و ویدئوهای مصنوعی از خشونت‌های احتمالی نیروهای امنیتی که در واقعیت اتفاق نیفتاده است استفاده کردند.

تولید گزارش‌های کاذب درباره مرگ‌ومیر، زخمی‌شدگی‌ها یا تجاوزات با جزئیات دقیق و احساسی که باعث تحریک افکار عمومی و تشدید اغتشاشات می‌شود و تولید متن‌هایی با سبک روزنامه‌نگاری معتبر که به‌نام رسانه‌های خارجی منتشر می‌شوند، سوءاستفاده کرده و می‌کنند.

به‌عنوان مثال، در یکی از موارد، یک ویدئوی مصنوعی از یک زن جوان که در حال فریاد برای کمک در خیابان بود، با استفاده از هوش مصنوعی تولید شد، این ویدئو به‌سرعت در شبکه‌های اجتماعی گسترش یافت و به‌عنوان "مورد واقعی" از خشونت نیروهای امنیتی معرفی شد، در حالی که هیچ شواهدی از وقوع آن در واقعیت وجود نداشت و یا تصویری از انبوه جنازه‌ها در پزشکی قانونی منتشر شد که حتی لوگوی هوش مصنوعی تولید کننده آن را هم در گوشه تصویر پاک نکرده بودند.

استفاده از هوش مصنوعی در تولید محتوای مخرب، تأثیرات عمیقی بر افکار عمومی از جمله موجب تخریب اعتماد به منابع اطلاعاتی معتبر می شود، وقتی مردم مدام با محتوای مصنوعی مواجه می‌شوند، اعتماد به رسانه‌های داخلی و خارجی کاهش می‌یابد و به‌تدریج به هر چیزی که می‌بینند، شک می‌کنند.

تغییر نگرش‌های عمومی:محتوای مصنوعی با سبک احساسی و تحریک‌کننده، افکار عمومی را به سمت تشدید تنش، بی‌اعتمادی به حکومت و توجیه خشونت‌های اجتماعی سوق می‌دهد.

تسریع در گسترش اغتشاشات: محتوای مخرب به‌سرعت در شبکه‌های اجتماعی پخش می‌شود و باعث می‌شود اعتراضات به سرعت از سطح مطالبه‌های سیاسی به سطح خشونت و اغتشاش برسند.

تضعیف امنیت ملی: این فعالیت‌ها به‌عنوان بخشی از جنگ اطلاعاتی خارجی (مانند تحریک از طریق نهادهای خارجی یا گروه‌های تروریستی) عمل می‌کنند و به تضعیف ثبات داخلی کمک می‌کنند.

بنابراین داشتن سواد رسانه و سواد هوش مصنوعی می‌تواند به افراد جامعه در تشخیص اصلی یا جعلی بودن اخبار، تصاویر، فیلم ها و رویدادها کمک زیادی کند و از تأثیرات منفی و احساسی اینگونه خبرها بکاهد. امروزه در عصر هوش مصنوعی با کمی تأمل، جستجو و تشکیک، می‌توان واقعیت ماجرا را به درستی درک کرد و تحت تأثیر جوسازی‌ها و روایت‌سازی‌های دروغین قرار نگرفت.

کد خبر 6730183

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
  • نظرات حاوی توهین و هرگونه نسبت ناروا به اشخاص حقیقی و حقوقی منتشر نمی‌شود.
  • نظراتی که غیر از زبان فارسی یا غیر مرتبط با خبر باشد منتشر نمی‌شود.
  • captcha