ادامه از صفحه 1
مورد سندرم هاوانا – که در آن مقامات آمریکایی مظنون به هدف قرار گرفتن با تشعشعات ناشی از آسیب عصبی-زیستی بودند – نشان میدهد که جنگ شناختی حتی میتواند به حوزههای فیزیکی نیز گسترش یابد و ادراکات و رفتار را به روشهایی که تشخیص آنها دشوار است، تغییر دهد. آسیبپذیریهای شناختی به طور سیستماتیک از طریق شرطیسازی روانی، با تکیه بر سوگیریهایی مانند سوگیری تأیید، اثر ارابهی همرنگی و توجه انتخابی ، مورد سوءاستفاده قرار میگیرند. سوگیری تأییدی افراد را به جستجوی اطلاعاتی سوق میدهد که با باورهایشان همسو باشد، در حالی که شواهد خلاف آن را نادیده میگیرد و آنها را بیشتر در معرض اطلاعات نادرست قرار میدهد. الگوریتمهای رسانههای اجتماعی با نمایش محتوایی که دیدگاههای موجود کاربران را تقویت میکند، ایجاد اتاقهای پژواک و جداسازی آنها از دیدگاههای جایگزین، به این امر دامن میزنند. اثر ارابهی همرنگی، روایتهای نادرست را تقویت میکند، زیرا مردم صرفاً به این دلیل که چیزی محبوب یا به طور گسترده پذیرفته شده است، شروع به باور آن میکنند. توجه انتخابی، اوضاع را بدتر میکند – محتوایی که از نظر احساسی یا ترس برانگیز باشد – تمرکز افراد را جلب میکند و توانایی آنها را برای تفکر انتقادی تضعیف میکند. این امر در طول همهگیری کووید-۱۹ مشهود بود ، جایی که ترس از ویروس باعث شد افراد بدون تأیید، اطلاعات نادرست را بیشتر به اشتراک بگذارند و باور کنند. دستکاری الگوریتمی این آسیبپذیریها را تشدید میکند. پلتفرمهای رسانههای اجتماعی محتوای احساسی یا هیجانانگیز را در اولویت قرار میدهند، زیرا باعث تعامل بیشتر میشود که میتواند به سرعت اطلاعات نادرست را منتشر کند. این سوگیری الگوریتمی، حبابهای فیلتر را تقویت میکند و افراد را در برابر دیدگاههای مخالف و تلاشهای بررسی واقعیت مقاوم میسازد. اثر توهم حقیقت – که در آن قرار گرفتن مکرر در معرض اطلاعات نادرست، آن را معتبرتر جلوه میدهد – این چرخه را حتی خطرناکتر میکند. سیستم پاداش مبتنی بر دوپامین در پس لایکها و اشتراکگذاریهای رسانههای اجتماعی، افراد را به تعامل با محتوای گمراهکننده تشویق میکند و باورهای نادرست را بیشتر تقویت میکند. فناوریهای مبتنی بر هوش مصنوعی، مانند جعل عمیق و پولشویی اطلاعات، دستکاری شناختی را به سطح جدیدی میبرند. ویدیوهای جعل عمیق و اخبار جعلی تولید شده توسط هوش مصنوعی، روایتهای دروغین بسیار قانعکنندهای ایجاد میکنند و تشخیص بین واقعیت و جعلی بودن را دشوارتر میکنند. وقتی کمپینهای هماهنگ این اطلاعات نادرست را از طریق منابع به ظاهر قابل اعتماد تقویت میکنند، درگیر پولشویی اطلاعات میشوند و به دروغها اعتبار میبخشند. این دستکاری استراتژیک الگوریتمها و سوگیریهای انسانی نه تنها اطلاعات نادرست را منتشر میکند، بلکه اعتماد به منابع اطلاعاتی قابل اعتماد را از بین میبرد و باعث میشود مردم بیشتر به روایتهای دستکاری شده متکی باشند تا به حقایق عینی.
پیمایش و مقابله با تهدیدات
از آنجایی که جنگ شناختی شکل نسبتاً جدیدی از درگیری است، هنوز مشخص نیست که کدام استراتژیها مؤثرتر هستند. با این حال، هم دولتها و هم افراد میتوانند رویکردی جامع برای دفاع در برابر آن اتخاذ کنند. ایجاد سواد دیجیتال و تابآوری شناختی: اولین خط دفاعی، جمعیتی آگاه است. برنامههای آموزشی باید بر تفکر انتقادی، سواد رسانهای و مهارتهای بررسی واقعیت تمرکز کنند. مدارس، دانشگاهها و مؤسسات دولتی باید به مردم آموزش دهند که چگونه منابع را ارزیابی کنند، اطلاعات نادرست را تشخیص دهند و در برابر دستکاری عاطفی مقاومت کنند. واکنشهای سیاسی و همکاری بینالمللی: مقررات قوی در مبارزه با جنگ شناختی بسیار مهم هستند. دولتها باید با سازمانهای بینالمللی همکاری کنند تا سیاستهایی ایجاد کنند که با عملیات نفوذ دیجیتال مقابله کنند، بازیگران مخرب را پاسخگو نگه دارند و استانداردهای اخلاقی را برای تبلیغات تولید شده توسط هوش مصنوعی تعیین کنند. تقویت قوانین امنیت سایبری و به اشتراک گذاری اطلاعات در مقیاس جهانی در این تلاش ضروری است. تدوین تاکتیکهای مقابله با جنگ شناختی: سازمانهای نظامی و اطلاعاتی باید استراتژیهای جنگ شناختی را در برنامههای دفاع ملی بگنجانند. این شامل مقابله با تبلیغات، راهاندازی کمپینهای ارتباطات استراتژیک و ارائه آموزش تابآوری روانی برای غیرنظامیان و ارتش میشود تا برای دستکاری روانی بالقوه آماده شوند. ایجاد انسجام و اعتماد اجتماعی: جوامعی که مستعد جنگ شناختی هستند، اغلب از اختلافات سیاسی عمیق و بیاعتمادی به نهادهای مستقر رنج میبرند. برای ایجاد تابآوری، جوامع باید بر تقویت تعامل، ترویج بحثهای آزاد و تضمین حاکمیت شفاف تمرکز کنند. همزمان با تکامل جنگ شناختی، یک سوال بزرگ مطرح میشود: آیا این جنگ میتواند در نهایت جایگزین اشکال سنتی جنگ شود؟ برخلاف جنگ متعارف که بر تخریب فیزیکی متکی است، جنگ شناختی ادراک، اعتماد و تصمیمگیری را هدف قرار میدهد. این تغییر نشان میدهد که جنگهای آینده ممکن است در میدانهای نبرد انجام نشوند، بلکه در ذهن افراد و کل جوامع رخ دهند. با ظهور هوش مصنوعی، کلاندادهها و عملیات روانی، جنگ شناختی پیچیدهتر شده و به دشمنان اجازه میدهد بدون استفاده از نیروی فیزیکی، جمعیتها را دستکاری کنند. پیامدهای این تغییر عمیق است. فناوریهایی مانند جعل عمیق، سوگیریهای الگوریتمی و شرطیسازی روانی، تفکیک واقعیت از دستکاری را دشوارتر میکنند. اگر جنگ شناختی کنترل نشود، میتواند جهانی ایجاد کند که در آن خود حقیقت به یک میدان نبرد رقابتی تبدیل شود، حاکمیت جهانی را تضعیف کند و جوامع را بیثبات سازد. با توجه به این خطرات، جهان باید از خود بپرسد: آیا ما برای درگیریهایی که نه با سلاح، بلکه با ایدهها، روایتها و تاکتیکهای روانشناختی انجام میشوند، آمادهایم؟ جوامع چگونه میتوانند در عصری که ادراک هدف اصلی است، از استقلال ذهنی و عاطفی خود محافظت کنند؟ خطر فقط نفوذ آهسته نیست – بلکه احتمال حمله برقآسای ذهن است که در آن جوامع قبل از اینکه حتی فرصتی برای واکنش داشته باشند، بیثبات میشوند.