هوش مصنوعی به‌سرعت به یکی از ارکان اصلی تصمیم‌گیری‌های امنیت ملی تبدیل شده و شیوه ارزیابی تهدیدها، واکنش‌های نظامی و محاسبات بازدارندگی را دگرگون کرده است؛ فناوری‌ای که از یک‌سو با افزایش سرعت و دقت تحلیل‌ها می‌تواند توان دفاعی و قدرت بازدارنده دولت‌ها را تقویت کند، اما از سوی دیگر در صورت مسموم‌سازی داده‌ها، عملیات نفوذ و جنگ اطلاعاتی، این ظرفیت را دارد که قضاوت رهبران، افکار عمومی و اعتبار بازدارندگی کشورها را تضعیف کرده و مسیر بحران‌های آینده را به شکلی خطرناک تغییر دهد.

به گزارش سرویس بین‌الملل جماران، فارن افرز نوشت: هوش مصنوعی به‌سرعت در حال تبدیل شدن به عنصری ضروری در تصمیم‌گیری‌های امنیت ملی است. ارتش‌های سراسر جهان هم‌اکنون به مدل‌های هوش مصنوعی متکی هستند تا تصاویر ماهواره‌ای را تحلیل کنند، توانمندی‌های دشمنان را بسنجند و توصیه‌هایی درباره اینکه نیروها چه زمانی، کجا و چگونه باید به‌کار گرفته شوند، ارائه دهند. با پیشرفت این سامانه‌ها، انتظار می‌رود شیوه واکنش دولت‌ها به تهدیدها به‌طور اساسی دگرگون شود. با این حال، پلتفرم‌های پیشرفته هوش مصنوعی در عین حال می‌توانند بازدارندگی را ـ که برای دهه‌ها شالوده اصلی راهبرد امنیتی ایالات متحده بوده است ـ تضعیف کنند.

بازدارندگی مؤثر مستلزم آن است که یک کشور به‌طور باورپذیر هم توانایی و هم اراده وارد کردن آسیبی غیرقابل‌قبول به دشمن را داشته باشد. هوش مصنوعی برخی از پایه‌های این اعتبار را تقویت می‌کند. اطلاعات دقیق‌تر، ارزیابی‌های سریع‌تر و تصمیم‌گیری‌های منسجم‌تر می‌توانند بازدارندگی را با انتقال شفاف‌تر توان دفاعی یک کشور و نیز عزم ظاهری آن برای استفاده از این توان تقویت کنند. با این حال، دشمنان نیز می‌توانند از هوش مصنوعی برای تضعیف همین اهداف بهره ببرند: آن‌ها می‌توانند داده‌های آموزشی مدل‌هایی را که کشورها به آن‌ها متکی هستند آلوده یا «مسموم» کنند و از این طریق خروجی این مدل‌ها را تغییر دهند، یا عملیات نفوذ مبتنی بر هوش مصنوعی را برای اثرگذاری بر رفتار مقامات کلیدی به راه بیندازند. در یک بحران پرمخاطره، چنین دستکاری‌هایی می‌تواند توان یک دولت را برای حفظ بازدارندگی معتبر محدود کرده و تصمیم‌گیری رهبران آن را مخدوش یا حتی فلج سازد.

سناریوی بحرانی را در نظر بگیرید که در آن چین تحریم‌های اقتصادی گسترده‌ای علیه تایوان اعمال کرده و رزمایش‌های نظامی وسیعی را در اطراف این جزیره آغاز کرده است. مقام‌های دفاعی آمریکا برای تدوین پاسخ ایالات متحده به سامانه‌های مبتنی بر هوش مصنوعی رجوع می‌کنند، بی‌آنکه بدانند عملیات اطلاعاتی چین پیش‌تر این سامانه‌ها را با مسموم‌سازی داده‌های آموزشی و ورودی‌های اصلی آن‌ها آلوده کرده است. در نتیجه، مدل‌ها توان واقعی چین را بیش‌برآورد و میزان آمادگی آمریکا را کم‌برآورد می‌کنند و ارزیابی‌ای منحرف‌شده تولید می‌شود که در نهایت آمریکا را از بسیج نیروها بازمی‌دارد. هم‌زمان، کارزارهای نفوذ چین ـ که با سیل ناگهانی محتوای جعلی تولیدشده با هوش مصنوعی در پلتفرم‌هایی مانند فیس‌بوک و تیک‌تاک تقویت شده‌اند ـ حمایت افکار عمومی آمریکا از مداخله را تضعیف می‌کنند. رهبران آمریکا که دیگر قادر نیستند اطلاعات خود را به‌درستی تفسیر کنند و احساسات عمومی را با دقت بسنجند، ممکن است به این جمع‌بندی برسند که اقدام قاطع بیش از حد پرخطر است.

چین که این وضعیت را فرصتی مناسب می‌بیند، در ادامه محاصره‌ای کامل علیه تایوان را آغاز کرده و حملات پهپادی را به جریان می‌اندازد. هم‌زمان، جزیره را با دیپ‌فیک‌هایی از مقامات آمریکایی که ظاهراً آمادگی خود را برای واگذاری تایوان اعلام می‌کنند، نظرسنجی‌های جعلی که از فروپاشی حمایت عمومی در آمریکا خبر می‌دهند، و شایعاتی درباره رهاشدن تایوان از سوی واشنگتن، اشباع می‌کند. در چنین سناریویی، ارسال سیگنال‌های معتبر از سوی ایالات متحده مبنی بر تمایل به واکنش می‌توانست چین را از تشدید تنش بازدارد؛ سیگنال‌هایی که احتمالاً اگر مقام‌های آمریکایی تحت تأثیر سامانه‌های هوش مصنوعی مسموم و افکار عمومی تحریف‌شده دلسرد نشده بودند، ارسال می‌شد. در این وضعیت، به‌جای تقویت بازدارندگی، هوش مصنوعی اعتبار آمریکا را تضعیف کرده و راه را برای تهاجم چین هموار کرده است.

با مرکزی‌تر شدن سامانه‌های هوش مصنوعی در فرآیند تصمیم‌گیری رهبران، جنگ اطلاعاتی می‌تواند نقشی به‌مراتب قدرتمندتر در اجبار و منازعه ایفا کند. از این‌رو، برای تقویت بازدارندگی در عصر هوش مصنوعی، سیاست‌گذاران، برنامه‌ریزان دفاعی و نهادهای اطلاعاتی باید با شیوه‌هایی که از طریق آن‌ها مدل‌های هوش مصنوعی می‌توانند به سلاح تبدیل شوند، به‌طور جدی مواجه شوند و اطمینان حاصل کنند که دفاع‌های دیجیتال در برابر این تهدیدها همگام با آن‌ها توسعه می‌یابد. سرنوشت بحران‌های آینده ممکن است به این مسئله وابسته باشد.

 

بازدارندگی در عصر هوش مصنوعی

برای آنکه بازدارندگی کارآمد باشد، دشمن باید باور کند که مدافع هم قادر به تحمیل هزینه‌های سنگین است و هم در صورت به چالش کشیده شدن، مصمم به انجام آن خواهد بود. برخی عناصر قدرت نظامی آشکار هستند، اما برخی دیگر ـ مانند توانمندی‌های تسلیحاتی خاص، سطح آمادگی و ظرفیت‌های بسیج ـ از بیرون دشوارتر قابل ارزیابی‌اند. عزم و اراده حتی مبهم‌تر است: معمولاً فقط رهبران یک کشور دقیقاً می‌دانند تا چه اندازه حاضرند وارد جنگ شوند. از این‌رو، بازدارندگی به میزان توانایی یک کشور در ارسال سیگنال‌های باورپذیر درباره هم توانمندی‌ها و هم آمادگی‌اش برای اقدام وابسته است.

اقدامات نظامی پرهزینه ـ مانند جابه‌جایی نیروها یا افزایش سطح آمادگی ـ به این دلیل که مستلزم صرف زمان، منابع و پذیرش ریسک سیاسی هستند، اعتبار می‌آفرینند. برای نمونه، پس از آنکه یک گروه شبه‌نظامی پاکستانی در سال ۲۰۰۱ به پارلمان هند حمله کرد، هند نیروهای خود را در امتداد مرز با پاکستان مستقر کرد و با ارسال سیگنال‌های معتبر از توان و عزم خود، از حملات بیشتر به خاکش جلوگیری کرد. فشارهای سیاسی داخلی در نظام‌های دموکراتیک نیز می‌تواند اعتبار را تقویت کند. رهبران دموکراتیک در برابر شهروندان پاسخ‌گو هستند و تهدید دادن و سپس عقب‌نشینی می‌تواند به واکنش منفی سیاسی منجر شود. برای مثال، در سال ۱۹۸۲، پس از آنکه آرژانتین جزایر فالکلند را تصرف کرد، فشار شدید افکار عمومی در بریتانیا عزم مارگارت تاچر، نخست‌وزیر وقت، برای اقدام را تقویت کرد و به تهدید واکنش نظامی بریتانیا اعتبار بیشتری بخشید. چنین سازوکار پاسخ‌گویی‌ای معمولاً به تهدیدهای بازدارنده دولت‌های دموکراتیک وزن بیشتری نسبت به دولت‌های اقتدارگرا می‌دهد. سرعت نیز عامل مهمی است: تهدیدهای یک دولت بازدارنده زمانی معتبرتر تلقی می‌شوند که آن دولت قادر باشد سریع و حتی به‌صورت خودکار به تهدید واکنش نشان دهد.

در نگاه نخست، هوش مصنوعی به‌خوبی می‌تواند بازدارندگی را تقویت کند. با پردازش حجم عظیمی از داده‌ها، هوش مصنوعی قادر است اطلاعات دقیق‌تری فراهم آورد، سیگنال‌ها را شفاف‌تر کند و با ارائه تحلیل‌های سریع‌تر و جامع‌تر، تصمیم‌گیری رهبران را شتاب بخشد. در جنگ اوکراین، ابزارهای هوش مصنوعی به ارتش این کشور امکان می‌دهند تصاویر ماهواره‌ای و پهپادی را برای شناسایی جابه‌جایی نیروها و تجهیزات روسیه، سایت‌های موشکی و مسیرهای تدارکاتی تحلیل کنند؛ داده‌های راداری، صوتی و رادیویی را استخراج و تجمیع کنند؛ و به‌سرعت انبوهی از دفترچه‌های آموزشی، گزارش‌های اطلاعاتی و دیگر منابع را بررسی کنند تا تصویری کامل‌تر از قدرت نیروهای روسیه به دست آورند. برای برنامه‌ریزان دفاعی، چنین اطلاعاتی امکان ارزیابی روشن‌تر توان نظامی خود در مقایسه با دشمن را فراهم می‌کند.

هوش مصنوعی همچنین می‌تواند بازدارندگی را از طریق تضمین انتقال شفاف اقدامات هر طرف به طرف مقابل تقویت کند. از آنجا که دولت‌ها اغلب انگیزه‌هایی برای بلوف‌زدن دارند، ممکن است در اثبات آمادگی واقعی خود برای اجرای تهدیدها با دشواری روبه‌رو شوند. در مقابل، ابزارهای مبتنی بر هوش مصنوعی می‌توانند اطمینان دهند که وقتی کشوری برای نشان دادن عزم خود دست به اقدامات پرهزینه می‌زند، این اقدامات به‌سرعت، شفاف و به‌طور منسجم منتقل می‌شوند. سپس سامانه‌های هوش مصنوعی طرف مقابل می‌توانند این سیگنال‌ها را به‌طور کارآمد تفسیر کرده و خطر سوءبرداشت را کاهش دهند. برای مثال، با رصد لحظه‌ای افکار عمومی داخلی، ابزارهای هوش مصنوعی می‌توانند به یک کشور دموکراتیک کمک کنند نشان دهد که برای اقدام آماده است، از طریق نمایش اینکه واکنش تهدیدشده آن از حمایت واقعی سیاسی برخوردار است. طرف مقابل نیز می‌تواند با ابزارهای هوش مصنوعی خود صحت این حمایت را تأیید کند. همچنین استفاده از هوش مصنوعی برای شناسایی الگوها و ناهنجاری‌هایی که ممکن است از چشم انسان پنهان بماند ـ مانند تغییرات ناگهانی در جابه‌جایی نیروها، جریان‌های مالی یا فعالیت‌های سایبری ـ می‌تواند به رهبران درک روشن‌تری از نیت‌های دشمن بدهد.

از آنجا که یک مهاجم می‌تواند حتی از تأخیرهای بسیار جزئی در واکنش کشورِ هدف سوءاستفاده کند—برای تصرف قلمرو یا پیشبرد اهداف دیگر—بازدارندگی زمانی بیشترین اثربخشی را دارد که کشور مدافع بتواند مهاجم را متقاعد کند به‌قدری سریع واکنش نشان خواهد داد که هیچ مزیت زمانی برای او باقی نماند. هوش مصنوعی با امکان شناسایی زودهنگام تهدیدها و تسریع پاسخ‌ها، این برداشت را تقویت می‌کند. بهبود برنامه‌ریزی بلندمدت رهبران نیز می‌تواند اعتبار بازدارندگی را در بحران‌های طولانی‌تر تقویت و حفظ کند. با اجرای حجم گسترده‌ای از سناریوهای «اگر–آنگاه»—بر پایه داده‌هایی درباره نیروها، جغرافیا، خطوط تدارکاتی و ائتلاف‌ها—هوش مصنوعی می‌تواند تصویری روشن‌تر از مسیر احتمالی یک منازعه ارائه دهد و به رهبران کمک کند هم‌زمان با تغییر شرایط، راهبردهای منسجم خود را حفظ کنند.

 

قدرت و آسیب‌پذیری

همان فناوری‌های هوش مصنوعی که بازدارندگی را تقویت می‌کنند، می‌توانند آن را در برابر سوءاستفاده نیز آسیب‌پذیر سازند. به‌جای آنکه به یک کشور کمک کنند شناخت خود از توانمندی‌ها و عزمش را به‌طور باورپذیر منتقل کند، سامانه‌های هوش مصنوعی—اگر دستکاری شوند—می‌توانند رهبران را نسبت به قابلیت‌ها و اراده خودشان دچار تردید کنند. دشمنان می‌توانند از هوش مصنوعی برای تحریف افکار عمومی یا مسموم‌سازی همان سامانه‌هایی استفاده کنند که رهبران یک کشور برای تصمیم‌گیری به آن‌ها متکی‌اند. با به‌کارگیری هم‌زمان این دو تاکتیک—عملیات نفوذ مبتنی بر هوش مصنوعی و مسموم‌سازی مدل‌ها—یک دشمن قادر است محیط اطلاعاتی یک کشور را به شکلی بازآرایی کند که مستقیماً بازدارندگی آن را تضعیف کند. در بدترین حالت، چنین سردرگمی‌ای می‌تواند حتی زمانی که توانمندی‌ها و عزم بنیادین یک کشور قوی است، به شکست بازدارندگی بینجامد.

دشمن می‌تواند عملیات نفوذ را نه‌تنها متوجه افکار عمومی، بلکه معطوف به چهره‌های اثرگذار در شکل‌دهی به مباحث ملی—از جمله تصمیم‌گیران دولتی—کند. پیشرفت‌های اخیر در علم داده و هوش مصنوعی مولد، عملیات نفوذ را در سه حوزه به‌هم‌پیوسته به‌طور چشمگیری قدرتمندتر کرده است: شناسایی هدف، خلق «پرسونا» و تولید محتوای متناسب با هر فرد. در گذشته، دشمنان برای تبلیغات هدفمند ناچار بودند افراد را صرفاً بر اساس ویژگی‌های مشابه در خوشه‌هایی کلی دسته‌بندی کنند. اما هوش مصنوعی مدرن این فرایند را خودکار کرده و امکان هدف‌گیری افراد را در مقیاسی وسیع فراهم آورده است.

با این ابزارها، هوش مصنوعی می‌تواند میزان پذیرش‌پذیری افراد نسبت به روایت‌های خاص یا پروفایل‌های جعلی شبکه‌های اجتماعی—که برای جلب توجه آن‌ها طراحی شده‌اند—را پیش‌بینی کند. در حالی که ربات‌ها زمانی ناشیانه و به‌راحتی قابل شناسایی بودند، هوش مصنوعی مولد اکنون قادر است «پرسوناهای مصنوعی» بسازد که ظاهری کاملاً واقعی دارند و به‌سادگی شناسایی نمی‌شوند. این پروفایل‌های جعلی می‌توانند به‌تدریج توسعه یابند و از نظر الگوی انتشار، علایق و ویژگی‌های زبانی، از کاربران واقعی غیرقابل تمایز شوند. افزون بر این، ایجاد و اداره حساب‌های جعلی در مقیاسی عظیم اکنون امکان‌پذیر است و همین امر شناسایی آن‌ها را دشوارتر می‌کند.

این تحولات به پرسوناهای مصنوعی اجازه می‌دهد محتوای ساختگی را در جوامع هدف تزریق کنند. با استقرار هم‌زمان در چندین پلتفرم شبکه اجتماعی، آن‌ها می‌توانند مسیر مباحث عمومی را هدایت کرده و شکاف‌های اجتماعی را تشدید کنند. برای نمونه، به‌منظور تضعیف عزم عمومی در ایالات متحده، چنین پرسوناهایی ممکن است روایت‌هایی را ترویج کنند مبنی بر اینکه ارتش آمریکا بیش از حد فرسوده شده، متحدان از امنیت آمریکا «سواری مجانی» می‌گیرند یا برخی اهداف بین‌المللی ارزش جنگیدن ندارند. تقویت این پیام‌ها در پلتفرم‌های متعدد می‌تواند اطلاعات نادرست را واقعی جلوه دهد یا دست‌کم سطحی از سردرگمی ایجاد کند که اجماع عمومی پیرامون یک موضوع را از میان ببرد.

با استفاده از هزاران حساب جعلی منحصربه‌فرد، ابزارهای هوش مصنوعی به‌زودی قادر خواهند بود محتوای کاملاً شخصی‌سازی‌شده را به‌صورت بلادرنگ در سراسر یک جمعیت منتشر کنند. این پدیده «جنگ شناختی» است و پیامدهای آن برای بازدارندگی روشن است. از آنجا که بخش بزرگی از اعتبار بازدارندگی در دموکراسی‌ها به فشارهای سیاسی داخلی گره خورده، عملیات‌هایی که احساسات عمومی را دستکاری می‌کنند می‌توانند سیگنال‌های عزم یک دولت را تضعیف کنند. چنین دستکاری‌هایی ممکن است افکار عمومی داخلی را کمتر مایل به حمایت از پاسخ نظامی قاطع به تجاوز خارجی—به‌ویژه علیه یک متحد—سازد و در نتیجه داده‌های نظرسنجی و دیگر شاخص‌های ظاهراً عینی افکار عمومی را که رهبران دموکراتیک به آن‌ها اتکا دارند، مخدوش کند. این وضعیت می‌تواند رهبران را نسبت به میزان واقعی حمایت مردمی و حجم واکنش منفی احتمالی دچار تردید سازد؛ تردیدی که به تعلل، تضعیف عزم و ابهام در تصمیم‌گیری می‌انجامد و تهدیدهای بازدارنده را کمتر قانع‌کننده جلوه می‌دهد.

گروه‌های همسو با دولت‌ها هم‌اکنون در حال آزمودن راه‌هایی برای تضعیف امنیت اطلاعات از طریق عملیات نفوذ مبتنی بر هوش مصنوعی هستند. یکی از نمونه‌ها شرکت چینی «گو‌لکسی» (GoLaxy) است که با بهره‌گیری از هوش مصنوعی مولد و مجموعه‌داده‌های عظیم متن‌باز، پروفایل‌های روان‌شناختی دقیق از افراد تحت پایش تهیه می‌کند و در مقیاسی گسترده پرسوناهای مصنوعی‌ای را به کار می‌گیرد که کاربران واقعی را تقلید می‌کنند. کارزارهای این شرکت معمولاً شامل گردآوری اطلاعات تفصیلی درباره چهره‌های تأثیرگذار، تولید پیام‌هایی متناسب با مخاطبان هدف بر اساس همان اطلاعات، و سپس انتشار آن پیام‌ها از طریق پرسوناهای دقیقاً طراحی‌شده در شبکه‌های اجتماعی است. این سطح از دقت، همراه با تقویت روایت‌های گمراه‌کننده در چندین پلتفرم، می‌تواند سردرگمی ایجاد کند، گفت‌وگوی عمومی را فرسایش دهد و پایگاه داخلی‌ای را که سیگنال‌های بازدارنده را در خارج معتبر می‌کند، تضعیف سازد.

اسنادی که در مؤسسه امنیت ملی دانشگاه وندربیلت بررسی شده نشان می‌دهد گو‌لکسی پیش‌تر در هنگ‌کنگ و تایوان عملیات انجام داده و در حال گردآوری پرونده‌هایی درباره اعضای کنگره آمریکا و دیگر چهره‌های عمومی در سراسر جهان بوده است. اطلاعات متن‌باز به دشمنان امکان می‌دهد برای اهداف راهبردی، پرونده‌های جامعی درباره سیاستمداران، فرماندهان نظامی و سربازان تهیه کنند. سپس عملیات پرسوناهای هدفمند می‌تواند از این اطلاعات بهره گیرد. برای مثال، دشمنان می‌توانند برای دستیابی به دستاوردهای تاکتیکی، سربازان را با پیام‌های دیپ‌فیک حاوی برداشت‌های نادرست از شرایط میدان نبرد یا وضعیت خانواده‌ها در داخل کشور هدف قرار دهند؛ افزودن جزئیات شخصی دقیق می‌تواند این جعل‌ها را آن‌قدر واقعی جلوه دهد که تمرکز افراد را برهم زند یا انسجام یگان‌ها را مختل کند. در عرصه سیاسی نیز می‌توان تصاویر واقعی سیاستمداران را با صداها یا چهره‌های شبیه‌سازی‌شده ترکیب کرد. حتی اگر چنین محتواهایی هرگز منتشر نشوند، تهدید افشای آن‌ها می‌تواند لحن سیاسی را تعدیل کند، روندهای قانون‌گذاری را متوقف سازد یا عزم رهبران را تضعیف کند. از منظر راهبردی، بازیگران متخاصم حتی می‌توانند مقامات را شبیه‌سازی کنند که دستورهای جعلی برای عقب‌نشینی یا تغییر مسیر ارتباطی صادر می‌کنند؛ امری که می‌تواند فرصتی حیاتی برای پیشروی دشمن فراهم آورد. حاصل این وضعیت، شکل‌گیری «مه شناختیِ جنگ» است.

 

مسموم‌سازی منبع

مسیر دیگر ایجاد عدم قطعیت برای مدافعان، «مسموم‌سازی مدل» است: دستکاری راهبردی سامانه‌های هوش مصنوعی‌ای که دولت‌ها برای تحلیل اطلاعات و پشتیبانی تصمیم‌گیری به آن‌ها تکیه دارند. با فاسد کردن داده‌های آموزشی یا به خطر انداختن زنجیره‌های تحلیلی این سامانه‌ها، دشمنان می‌توانند درک مدافع از قدرت نسبی خود و فوریت تهدید را تحریف کنند. سامانه‌ای که توان دشمن را دست‌کم بگیرد می‌تواند به اعتمادبه‌نفس بی‌پایه بینجامد؛ سامانه‌ای که تهدید را بزرگ‌نمایی کند می‌تواند تردید ایجاد کند. در هر دو حالت، دستکاری مؤثر چنین سامانه‌هایی نه‌تنها مدیریت بحران را دشوارتر می‌کند، بلکه اعتبار سیگنال‌های بازدارنده را نیز تضعیف کرده و خطرات جدی به همراه دارد.

در اصل، مسموم‌سازی مدل با دستکاری خط لوله داده‌های یک سامانه انجام می‌شود تا اطلاعات مهم نادیده گرفته شود و ورودی‌های نادرست جذب گردد؛ امری که مدل را به ارزیابی‌های گمراه‌کننده یا تضعیف‌شده سوق می‌دهد. یکی از روش‌ها، کاشت اطلاعات جعلی در مجموعه‌داده‌هایی است که سامانه برای یادگیری مصرف می‌کند. این اطلاعات ممکن است برای بازبین‌های انسانی بی‌ضرر به نظر برسد، اما می‌تواند توان استدلال مدل را به‌شدت تضعیف یا سوگیرانه کند—برای مثال با فریب دادن آن به اینکه برخی انواع بدافزار را بی‌خطر تشخیص دهد و به دشمن امکان عبور از دیوارهای آتش مبتنی بر هوش مصنوعی را بدهد. اگرچه تاکنون نمونه عملی ثبت‌شده‌ای گزارش نشده، پژوهش‌های جاری نشان می‌دهد مجموعه‌داده‌های موجود در برابر این نوع حملات مسموم‌سازی آسیب‌پذیرند؛ آنچه زمانی صرفاً نظری بود، اکنون در عمل امکان‌پذیر شده است.

مدل‌ها همچنین می‌توانند از طریق ایجاد وب‌سایت‌های آلوده مسموم شوند. سامانه‌های هوش مصنوعی به‌طور مداوم جست‌وجوهای زنده اینترنتی انجام می‌دهند و این صفحات می‌توانند دستورالعمل‌های پنهانی به آن‌ها تزریق کرده و ارزیابی مدل را منحرف کنند. اگر فیلترهای پالایش داده‌های ورودی ضعیف باشند، حتی تعداد اندکی از وب‌سایت‌های آلوده می‌تواند پاسخ‌های نادرست تولید کند.

مسموم‌سازی مدل—به‌عنوان شکلی بسیار پنهان‌کارانه از جنگ اطلاعاتی—به دشمنان امکان می‌دهد با دستکاری خودِ ابزارهایی که برای شفافیت و درک واقعیت به کار می‌روند، برداشت مدافع از توانمندی‌ها و عزم—چه عزم و توان خود و چه دیگران—را تحریف کنند. در شرایط بحرانی، چنین مسموم‌سازی‌ای می‌تواند رهبران را به تردید یا حتی محاسبه‌ای خطا بکشاند، بازدارندگی را تضعیف کند و مسیر تشدید تنش را هموار سازد.

 

پیش‌دستی راهبردی

ظهور سامانه‌های هوش مصنوعی قرار بود با ارسال سیگنال‌های شفاف‌تر به دشمنان درباره توانمندی‌ها و عزم مدافع، بازدارندگی را تقویت کند. اما گسترش جنگ اطلاعاتی—که خود به‌واسطه همین سامانه‌ها هدایت می‌شود—این خطر را ایجاد کرده است که نتیجه‌ای معکوس به بار آورد. حتی در مراحل ابتدایی، این شکل نوین از جنگ اطلاعاتی نشان داده است که فناوری‌های هوش مصنوعی می‌توانند بر نحوه تفسیر اطلاعات اثر بگذارند، عدم قطعیت را به فرایندهای قضاوت وارد کنند و داده‌هایی را که شالوده تصمیم‌گیری‌اند، دچار تحریف سازند. با پیشرفت بیشتر هوش مصنوعی، این تهدیدها نه‌تنها کاهش نخواهند یافت، بلکه به‌مراتب قدرتمندتر خواهند شد.

حتی کشوری قدرتمند مانند ایالات متحده نیز ممکن است در صورت قرار گرفتن در معرض جنگ اطلاعاتی پیشرفته مبتنی بر هوش مصنوعی، در ارسال سیگنال‌های معتبر بازدارنده با دشواری جدی روبه‌رو شود. برای سیاست‌گذاران و شهروندان به‌یکسان، چالش اصلی آن است که چگونه می‌توان از مزایای هوش مصنوعی بهره گرفت، بی‌آنکه اجازه داد این فناوری به ابزار تهاجمی و سلاح تبدیل شود. راهبردهای مقابله با این تهدید نوظهور باید هم‌زمان و هم‌شتاب با توسعه فناوری‌های زیربنایی آن طراحی و اجرا شوند.

پاسخ مؤثر به این چالش مستلزم آن است که دولت‌ها و پژوهشگران، به‌طور هم‌زمان، دو مسیر را دنبال کنند: نخست، مقاوم‌سازی سامانه‌های تحلیلی در برابر مسموم‌سازی مدل‌ها؛ و دوم، مقابله فعال و فوری با عملیات نفوذ مبتنی بر هوش مصنوعی هر زمان که شناسایی می‌شوند. برای نمونه، جهت خنثی‌سازی فعالیت شرکت‌هایی مانند «گو‌لکسی»، ایالات متحده و متحدانش باید قادر باشند شبکه‌های مصنوعی را به‌سرعت شناسایی و مختل کنند؛ با استفاده از ابزارهایی که توانایی شناسایی و بی‌اثر کردن پرسوناهای مبتنی بر هوش مصنوعی را پیش از تثبیت و نفوذ آن‌ها دارند. افزون بر این، اجرای کارزارهای آموزشی درباره رسانه‌های مصنوعی و شیوه‌های تشخیص آن‌ها می‌تواند آگاهی عمومی نسبت به این تهدید را به‌طور معناداری افزایش دهد. دولت‌های دموکراتیک، پلتفرم‌های شبکه‌های اجتماعی و هوش مصنوعی، و پژوهشگران میان‌رشته‌ای باید در قالب همکاری‌های نهادی، چنین راه‌حل‌هایی را توسعه دهند.

در سطح راهبردی، ایالات متحده باید در فناوری‌هایی سرمایه‌گذاری کند که قادرند پیام‌های مصنوعی و دستکاری‌شده را به‌سرعت شناسایی کنند. دولت، دانشگاه‌ها و بخش خصوصی لازم است به‌طور مشترک سازوکارهای حفاظتی جدید در تصمیم‌گیری و سامانه‌های پالایش داده طراحی کنند که در برابر ورودی‌های آلوده و دستکاری‌شده تاب‌آوری داشته باشند. هم‌زمان، همکاری با متحدان آمریکا برای افشای عاملان کارزارهای گسترده اطلاعاتی و تحمیل هزینه سیاسی و حقوقی بر آن‌ها ضروری است. افزون بر این، این ائتلاف باید مدل‌های جدید هوش مصنوعی را به‌صورت نظام‌مند و برنامه‌ریزی‌شده آزمایش کند تا کاستی‌ها—از جمله انواع مسموم‌سازی داده که ممکن است در استفاده روزمره آشکار نشوند—شناسایی و برطرف شوند. این فرایند باید با شفافیتی سخت‌گیرانه انجام گیرد تا امکان ارزیابی و بازبینی همتایان فراهم شود. تنها از طریق ایجاد سازوکارهای مقاوم و انجام آزمون‌های دقیق می‌توان اطمینان یافت که سامانه‌های هوش مصنوعی در شرایط فشار شدید یا بحران‌های بزرگ، عملکردی قابل‌اتکا خواهند داشت.

در عصر هوش مصنوعی، بازدارندگی دیگر نمی‌تواند صرفاً بر توانمندی‌های سخت و عزم سیاسی استوار باشد. بازدارندگی مؤثر مستلزم آن است که رهبران، راهبردپردازان دفاعی و دیگر تصمیم‌گیران بتوانند—even در میانه تحریف گسترده دیجیتال و آشوب اطلاعاتی—قابلیت اتکای محیط اطلاعاتی خود را حفظ کنند. بدون چنین قابلیتی، حتی قدرتمندترین دولت‌ها نیز ممکن است در لحظه بحران، از ارسال سیگنال‌های بازدارنده معتبر بازبمانند.

 

انتهای پیام
این مطلب برایم مفید است
0 نفر این پست را پسندیده اند

موضوعات داغ

نظرات و دیدگاه ها

مسئولیت نوشته ها بر عهده نویسندگان آنهاست و انتشار آن به معنی تایید این نظرات نیست.