پنجشنبه ۱۳ شهريور ۱۴۰۴

مه ادراکی در جنگ شناختی

ادامه از صفحه 1
مورد سندرم هاوانا – که در آن مقامات آمریکایی مظنون به هدف قرار گرفتن با تشعشعات ناشی از آسیب عصبی-زیستی بودند – نشان می‌دهد که جنگ شناختی حتی می‌تواند به حوزه‌های فیزیکی نیز گسترش یابد و ادراکات و رفتار را به روش‌هایی که تشخیص آنها دشوار است، تغییر دهد. آسیب‌پذیری‌های شناختی به طور سیستماتیک از طریق شرطی‌سازی روانی، با تکیه بر سوگیری‌هایی مانند سوگیری تأیید، اثر ارابه‌ی همرنگی و توجه انتخابی ، مورد سوءاستفاده قرار می‌گیرند. سوگیری تأییدی افراد را به جستجوی اطلاعاتی سوق می‌دهد که با باورهایشان همسو باشد، در حالی که شواهد خلاف آن را نادیده می‌گیرد و آنها را بیشتر در معرض اطلاعات نادرست قرار می‌دهد. الگوریتم‌های رسانه‌های اجتماعی با نمایش محتوایی که دیدگاه‌های موجود کاربران را تقویت می‌کند، ایجاد اتاق‌های پژواک و جداسازی آنها از دیدگاه‌های جایگزین، به این امر دامن می‌زنند. اثر ارابه‌ی همرنگی، روایت‌های نادرست را تقویت می‌کند، زیرا مردم صرفاً به این دلیل که چیزی محبوب یا به طور گسترده پذیرفته شده است، شروع به باور آن می‌کنند. توجه انتخابی، اوضاع را بدتر می‌کند – محتوایی که از نظر احساسی یا ترس برانگیز باشد – تمرکز افراد را جلب می‌کند و توانایی آنها را برای تفکر انتقادی تضعیف می‌کند. این امر در طول همه‌گیری کووید-۱۹ مشهود بود ، جایی که ترس از ویروس باعث شد افراد بدون تأیید، اطلاعات نادرست را بیشتر به اشتراک بگذارند و باور کنند. دستکاری الگوریتمی این آسیب‌پذیری‌ها را تشدید می‌کند. پلتفرم‌های رسانه‌های اجتماعی محتوای احساسی یا هیجان‌انگیز را در اولویت قرار می‌دهند، زیرا باعث تعامل بیشتر می‌شود که می‌تواند به سرعت اطلاعات نادرست را منتشر کند. این سوگیری الگوریتمی، حباب‌های فیلتر را تقویت می‌کند و افراد را در برابر دیدگاه‌های مخالف و تلاش‌های بررسی واقعیت مقاوم می‌سازد. اثر توهم حقیقت – که در آن قرار گرفتن مکرر در معرض اطلاعات نادرست، آن را معتبرتر جلوه می‌دهد – این چرخه را حتی خطرناک‌تر می‌کند. سیستم پاداش مبتنی بر دوپامین در پس لایک‌ها و اشتراک‌گذاری‌های رسانه‌های اجتماعی، افراد را به تعامل با محتوای گمراه‌کننده تشویق می‌کند و باورهای نادرست را بیشتر تقویت می‌کند. فناوری‌های مبتنی بر هوش مصنوعی، مانند جعل عمیق و پولشویی اطلاعات، دستکاری شناختی را به سطح جدیدی می‌برند. ویدیوهای جعل عمیق و اخبار جعلی تولید شده توسط هوش مصنوعی، روایت‌های دروغین بسیار قانع‌کننده‌ای ایجاد می‌کنند و تشخیص بین واقعیت و جعلی بودن را دشوارتر می‌کنند. وقتی کمپین‌های هماهنگ این اطلاعات نادرست را از طریق منابع به ظاهر قابل اعتماد تقویت می‌کنند، درگیر پولشویی اطلاعات می‌شوند و به دروغ‌ها اعتبار می‌بخشند. این دستکاری استراتژیک الگوریتم‌ها و سوگیری‌های انسانی نه تنها اطلاعات نادرست را منتشر می‌کند، بلکه اعتماد به منابع اطلاعاتی قابل اعتماد را از بین می‌برد و باعث می‌شود مردم بیشتر به روایت‌های دستکاری شده متکی باشند تا به حقایق عینی.
 پیمایش و مقابله با تهدیدات
از آنجایی که جنگ شناختی شکل نسبتاً جدیدی از درگیری است، هنوز مشخص نیست که کدام استراتژی‌ها مؤثرتر هستند. با این حال، هم دولت‌ها و هم افراد می‌توانند رویکردی جامع برای دفاع در برابر آن اتخاذ کنند. ایجاد سواد دیجیتال و تاب‌آوری شناختی: اولین خط دفاعی، جمعیتی آگاه است. برنامه‌های آموزشی باید بر تفکر انتقادی، سواد رسانه‌ای و مهارت‌های بررسی واقعیت تمرکز کنند. مدارس، دانشگاه‌ها و مؤسسات دولتی باید به مردم آموزش دهند که چگونه منابع را ارزیابی کنند، اطلاعات نادرست را تشخیص دهند و در برابر دستکاری عاطفی مقاومت کنند. واکنش‌های سیاسی و همکاری بین‌المللی: مقررات قوی در مبارزه با جنگ شناختی بسیار مهم هستند. دولت‌ها باید با سازمان‌های بین‌المللی همکاری کنند تا سیاست‌هایی ایجاد کنند که با عملیات نفوذ دیجیتال مقابله کنند، بازیگران مخرب را پاسخگو نگه دارند و استانداردهای اخلاقی را برای تبلیغات تولید شده توسط هوش مصنوعی تعیین کنند. تقویت قوانین امنیت سایبری و به اشتراک گذاری اطلاعات در مقیاس جهانی در این تلاش ضروری است. تدوین تاکتیک‌های مقابله با جنگ شناختی: سازمان‌های نظامی و اطلاعاتی باید استراتژی‌های جنگ شناختی را در برنامه‌های دفاع ملی بگنجانند. این شامل مقابله با تبلیغات، راه‌اندازی کمپین‌های ارتباطات استراتژیک و ارائه آموزش تاب‌آوری روانی برای غیرنظامیان و ارتش می‌شود تا برای دستکاری روانی بالقوه آماده شوند. ایجاد انسجام و اعتماد اجتماعی: جوامعی که مستعد جنگ شناختی هستند، اغلب از اختلافات سیاسی عمیق و بی‌اعتمادی به نهادهای مستقر رنج می‌برند. برای ایجاد تاب‌آوری، جوامع باید بر تقویت تعامل، ترویج بحث‌های آزاد و تضمین حاکمیت شفاف تمرکز کنند. همزمان با تکامل جنگ شناختی، یک سوال بزرگ مطرح می‌شود: آیا این جنگ می‌تواند در نهایت جایگزین اشکال سنتی جنگ شود؟ برخلاف جنگ متعارف که بر تخریب فیزیکی متکی است، جنگ شناختی ادراک، اعتماد و تصمیم‌گیری را هدف قرار می‌دهد. این تغییر نشان می‌دهد که جنگ‌های آینده ممکن است در میدان‌های نبرد انجام نشوند، بلکه در ذهن افراد و کل جوامع رخ دهند. با ظهور هوش مصنوعی، کلان‌داده‌ها و عملیات روانی، جنگ شناختی پیچیده‌تر شده و به دشمنان اجازه می‌دهد بدون استفاده از نیروی فیزیکی، جمعیت‌ها را دستکاری کنند. پیامدهای این تغییر عمیق است. فناوری‌هایی مانند جعل عمیق، سوگیری‌های الگوریتمی و شرطی‌سازی روانی، تفکیک واقعیت از دستکاری را دشوارتر می‌کنند. اگر جنگ شناختی کنترل نشود، می‌تواند جهانی ایجاد کند که در آن خود حقیقت به یک میدان نبرد رقابتی تبدیل شود، حاکمیت جهانی را تضعیف کند و جوامع را بی‌ثبات سازد. با توجه به این خطرات، جهان باید از خود بپرسد: آیا ما برای درگیری‌هایی که نه با سلاح، بلکه با ایده‌ها، روایت‌ها و تاکتیک‌های روانشناختی انجام می‌شوند، آماده‌ایم؟ جوامع چگونه می‌توانند در عصری که ادراک هدف اصلی است، از استقلال ذهنی و عاطفی خود محافظت کنند؟ خطر فقط نفوذ آهسته نیست – بلکه احتمال حمله برق‌آسای ذهن است که در آن جوامع قبل از اینکه حتی فرصتی برای واکنش داشته باشند، بی‌ثبات می‌شوند.