هوش مصنوعی بهسرعت به یکی از ارکان اصلی تصمیمگیریهای امنیت ملی تبدیل شده و شیوه ارزیابی تهدیدها، واکنشهای نظامی و محاسبات بازدارندگی را دگرگون کرده است؛ فناوریای که از یکسو با افزایش سرعت و دقت تحلیلها میتواند توان دفاعی و قدرت بازدارنده دولتها را تقویت کند، اما از سوی دیگر در صورت مسمومسازی دادهها، عملیات نفوذ و جنگ اطلاعاتی، این ظرفیت را دارد که قضاوت رهبران، افکار عمومی و اعتبار بازدارندگی کشورها را تضعیف کرده و مسیر بحرانهای آینده را به شکلی خطرناک تغییر دهد.
به گزارش سرویس بینالملل جماران، فارن افرز نوشت: هوش مصنوعی بهسرعت در حال تبدیل شدن به عنصری ضروری در تصمیمگیریهای امنیت ملی است. ارتشهای سراسر جهان هماکنون به مدلهای هوش مصنوعی متکی هستند تا تصاویر ماهوارهای را تحلیل کنند، توانمندیهای دشمنان را بسنجند و توصیههایی درباره اینکه نیروها چه زمانی، کجا و چگونه باید بهکار گرفته شوند، ارائه دهند. با پیشرفت این سامانهها، انتظار میرود شیوه واکنش دولتها به تهدیدها بهطور اساسی دگرگون شود. با این حال، پلتفرمهای پیشرفته هوش مصنوعی در عین حال میتوانند بازدارندگی را ـ که برای دههها شالوده اصلی راهبرد امنیتی ایالات متحده بوده است ـ تضعیف کنند.
بازدارندگی مؤثر مستلزم آن است که یک کشور بهطور باورپذیر هم توانایی و هم اراده وارد کردن آسیبی غیرقابلقبول به دشمن را داشته باشد. هوش مصنوعی برخی از پایههای این اعتبار را تقویت میکند. اطلاعات دقیقتر، ارزیابیهای سریعتر و تصمیمگیریهای منسجمتر میتوانند بازدارندگی را با انتقال شفافتر توان دفاعی یک کشور و نیز عزم ظاهری آن برای استفاده از این توان تقویت کنند. با این حال، دشمنان نیز میتوانند از هوش مصنوعی برای تضعیف همین اهداف بهره ببرند: آنها میتوانند دادههای آموزشی مدلهایی را که کشورها به آنها متکی هستند آلوده یا «مسموم» کنند و از این طریق خروجی این مدلها را تغییر دهند، یا عملیات نفوذ مبتنی بر هوش مصنوعی را برای اثرگذاری بر رفتار مقامات کلیدی به راه بیندازند. در یک بحران پرمخاطره، چنین دستکاریهایی میتواند توان یک دولت را برای حفظ بازدارندگی معتبر محدود کرده و تصمیمگیری رهبران آن را مخدوش یا حتی فلج سازد.
سناریوی بحرانی را در نظر بگیرید که در آن چین تحریمهای اقتصادی گستردهای علیه تایوان اعمال کرده و رزمایشهای نظامی وسیعی را در اطراف این جزیره آغاز کرده است. مقامهای دفاعی آمریکا برای تدوین پاسخ ایالات متحده به سامانههای مبتنی بر هوش مصنوعی رجوع میکنند، بیآنکه بدانند عملیات اطلاعاتی چین پیشتر این سامانهها را با مسمومسازی دادههای آموزشی و ورودیهای اصلی آنها آلوده کرده است. در نتیجه، مدلها توان واقعی چین را بیشبرآورد و میزان آمادگی آمریکا را کمبرآورد میکنند و ارزیابیای منحرفشده تولید میشود که در نهایت آمریکا را از بسیج نیروها بازمیدارد. همزمان، کارزارهای نفوذ چین ـ که با سیل ناگهانی محتوای جعلی تولیدشده با هوش مصنوعی در پلتفرمهایی مانند فیسبوک و تیکتاک تقویت شدهاند ـ حمایت افکار عمومی آمریکا از مداخله را تضعیف میکنند. رهبران آمریکا که دیگر قادر نیستند اطلاعات خود را بهدرستی تفسیر کنند و احساسات عمومی را با دقت بسنجند، ممکن است به این جمعبندی برسند که اقدام قاطع بیش از حد پرخطر است.
چین که این وضعیت را فرصتی مناسب میبیند، در ادامه محاصرهای کامل علیه تایوان را آغاز کرده و حملات پهپادی را به جریان میاندازد. همزمان، جزیره را با دیپفیکهایی از مقامات آمریکایی که ظاهراً آمادگی خود را برای واگذاری تایوان اعلام میکنند، نظرسنجیهای جعلی که از فروپاشی حمایت عمومی در آمریکا خبر میدهند، و شایعاتی درباره رهاشدن تایوان از سوی واشنگتن، اشباع میکند. در چنین سناریویی، ارسال سیگنالهای معتبر از سوی ایالات متحده مبنی بر تمایل به واکنش میتوانست چین را از تشدید تنش بازدارد؛ سیگنالهایی که احتمالاً اگر مقامهای آمریکایی تحت تأثیر سامانههای هوش مصنوعی مسموم و افکار عمومی تحریفشده دلسرد نشده بودند، ارسال میشد. در این وضعیت، بهجای تقویت بازدارندگی، هوش مصنوعی اعتبار آمریکا را تضعیف کرده و راه را برای تهاجم چین هموار کرده است.
با مرکزیتر شدن سامانههای هوش مصنوعی در فرآیند تصمیمگیری رهبران، جنگ اطلاعاتی میتواند نقشی بهمراتب قدرتمندتر در اجبار و منازعه ایفا کند. از اینرو، برای تقویت بازدارندگی در عصر هوش مصنوعی، سیاستگذاران، برنامهریزان دفاعی و نهادهای اطلاعاتی باید با شیوههایی که از طریق آنها مدلهای هوش مصنوعی میتوانند به سلاح تبدیل شوند، بهطور جدی مواجه شوند و اطمینان حاصل کنند که دفاعهای دیجیتال در برابر این تهدیدها همگام با آنها توسعه مییابد. سرنوشت بحرانهای آینده ممکن است به این مسئله وابسته باشد.
بازدارندگی در عصر هوش مصنوعی
برای آنکه بازدارندگی کارآمد باشد، دشمن باید باور کند که مدافع هم قادر به تحمیل هزینههای سنگین است و هم در صورت به چالش کشیده شدن، مصمم به انجام آن خواهد بود. برخی عناصر قدرت نظامی آشکار هستند، اما برخی دیگر ـ مانند توانمندیهای تسلیحاتی خاص، سطح آمادگی و ظرفیتهای بسیج ـ از بیرون دشوارتر قابل ارزیابیاند. عزم و اراده حتی مبهمتر است: معمولاً فقط رهبران یک کشور دقیقاً میدانند تا چه اندازه حاضرند وارد جنگ شوند. از اینرو، بازدارندگی به میزان توانایی یک کشور در ارسال سیگنالهای باورپذیر درباره هم توانمندیها و هم آمادگیاش برای اقدام وابسته است.
اقدامات نظامی پرهزینه ـ مانند جابهجایی نیروها یا افزایش سطح آمادگی ـ به این دلیل که مستلزم صرف زمان، منابع و پذیرش ریسک سیاسی هستند، اعتبار میآفرینند. برای نمونه، پس از آنکه یک گروه شبهنظامی پاکستانی در سال ۲۰۰۱ به پارلمان هند حمله کرد، هند نیروهای خود را در امتداد مرز با پاکستان مستقر کرد و با ارسال سیگنالهای معتبر از توان و عزم خود، از حملات بیشتر به خاکش جلوگیری کرد. فشارهای سیاسی داخلی در نظامهای دموکراتیک نیز میتواند اعتبار را تقویت کند. رهبران دموکراتیک در برابر شهروندان پاسخگو هستند و تهدید دادن و سپس عقبنشینی میتواند به واکنش منفی سیاسی منجر شود. برای مثال، در سال ۱۹۸۲، پس از آنکه آرژانتین جزایر فالکلند را تصرف کرد، فشار شدید افکار عمومی در بریتانیا عزم مارگارت تاچر، نخستوزیر وقت، برای اقدام را تقویت کرد و به تهدید واکنش نظامی بریتانیا اعتبار بیشتری بخشید. چنین سازوکار پاسخگوییای معمولاً به تهدیدهای بازدارنده دولتهای دموکراتیک وزن بیشتری نسبت به دولتهای اقتدارگرا میدهد. سرعت نیز عامل مهمی است: تهدیدهای یک دولت بازدارنده زمانی معتبرتر تلقی میشوند که آن دولت قادر باشد سریع و حتی بهصورت خودکار به تهدید واکنش نشان دهد.
در نگاه نخست، هوش مصنوعی بهخوبی میتواند بازدارندگی را تقویت کند. با پردازش حجم عظیمی از دادهها، هوش مصنوعی قادر است اطلاعات دقیقتری فراهم آورد، سیگنالها را شفافتر کند و با ارائه تحلیلهای سریعتر و جامعتر، تصمیمگیری رهبران را شتاب بخشد. در جنگ اوکراین، ابزارهای هوش مصنوعی به ارتش این کشور امکان میدهند تصاویر ماهوارهای و پهپادی را برای شناسایی جابهجایی نیروها و تجهیزات روسیه، سایتهای موشکی و مسیرهای تدارکاتی تحلیل کنند؛ دادههای راداری، صوتی و رادیویی را استخراج و تجمیع کنند؛ و بهسرعت انبوهی از دفترچههای آموزشی، گزارشهای اطلاعاتی و دیگر منابع را بررسی کنند تا تصویری کاملتر از قدرت نیروهای روسیه به دست آورند. برای برنامهریزان دفاعی، چنین اطلاعاتی امکان ارزیابی روشنتر توان نظامی خود در مقایسه با دشمن را فراهم میکند.
هوش مصنوعی همچنین میتواند بازدارندگی را از طریق تضمین انتقال شفاف اقدامات هر طرف به طرف مقابل تقویت کند. از آنجا که دولتها اغلب انگیزههایی برای بلوفزدن دارند، ممکن است در اثبات آمادگی واقعی خود برای اجرای تهدیدها با دشواری روبهرو شوند. در مقابل، ابزارهای مبتنی بر هوش مصنوعی میتوانند اطمینان دهند که وقتی کشوری برای نشان دادن عزم خود دست به اقدامات پرهزینه میزند، این اقدامات بهسرعت، شفاف و بهطور منسجم منتقل میشوند. سپس سامانههای هوش مصنوعی طرف مقابل میتوانند این سیگنالها را بهطور کارآمد تفسیر کرده و خطر سوءبرداشت را کاهش دهند. برای مثال، با رصد لحظهای افکار عمومی داخلی، ابزارهای هوش مصنوعی میتوانند به یک کشور دموکراتیک کمک کنند نشان دهد که برای اقدام آماده است، از طریق نمایش اینکه واکنش تهدیدشده آن از حمایت واقعی سیاسی برخوردار است. طرف مقابل نیز میتواند با ابزارهای هوش مصنوعی خود صحت این حمایت را تأیید کند. همچنین استفاده از هوش مصنوعی برای شناسایی الگوها و ناهنجاریهایی که ممکن است از چشم انسان پنهان بماند ـ مانند تغییرات ناگهانی در جابهجایی نیروها، جریانهای مالی یا فعالیتهای سایبری ـ میتواند به رهبران درک روشنتری از نیتهای دشمن بدهد.
از آنجا که یک مهاجم میتواند حتی از تأخیرهای بسیار جزئی در واکنش کشورِ هدف سوءاستفاده کند—برای تصرف قلمرو یا پیشبرد اهداف دیگر—بازدارندگی زمانی بیشترین اثربخشی را دارد که کشور مدافع بتواند مهاجم را متقاعد کند بهقدری سریع واکنش نشان خواهد داد که هیچ مزیت زمانی برای او باقی نماند. هوش مصنوعی با امکان شناسایی زودهنگام تهدیدها و تسریع پاسخها، این برداشت را تقویت میکند. بهبود برنامهریزی بلندمدت رهبران نیز میتواند اعتبار بازدارندگی را در بحرانهای طولانیتر تقویت و حفظ کند. با اجرای حجم گستردهای از سناریوهای «اگر–آنگاه»—بر پایه دادههایی درباره نیروها، جغرافیا، خطوط تدارکاتی و ائتلافها—هوش مصنوعی میتواند تصویری روشنتر از مسیر احتمالی یک منازعه ارائه دهد و به رهبران کمک کند همزمان با تغییر شرایط، راهبردهای منسجم خود را حفظ کنند.
قدرت و آسیبپذیری
همان فناوریهای هوش مصنوعی که بازدارندگی را تقویت میکنند، میتوانند آن را در برابر سوءاستفاده نیز آسیبپذیر سازند. بهجای آنکه به یک کشور کمک کنند شناخت خود از توانمندیها و عزمش را بهطور باورپذیر منتقل کند، سامانههای هوش مصنوعی—اگر دستکاری شوند—میتوانند رهبران را نسبت به قابلیتها و اراده خودشان دچار تردید کنند. دشمنان میتوانند از هوش مصنوعی برای تحریف افکار عمومی یا مسمومسازی همان سامانههایی استفاده کنند که رهبران یک کشور برای تصمیمگیری به آنها متکیاند. با بهکارگیری همزمان این دو تاکتیک—عملیات نفوذ مبتنی بر هوش مصنوعی و مسمومسازی مدلها—یک دشمن قادر است محیط اطلاعاتی یک کشور را به شکلی بازآرایی کند که مستقیماً بازدارندگی آن را تضعیف کند. در بدترین حالت، چنین سردرگمیای میتواند حتی زمانی که توانمندیها و عزم بنیادین یک کشور قوی است، به شکست بازدارندگی بینجامد.
دشمن میتواند عملیات نفوذ را نهتنها متوجه افکار عمومی، بلکه معطوف به چهرههای اثرگذار در شکلدهی به مباحث ملی—از جمله تصمیمگیران دولتی—کند. پیشرفتهای اخیر در علم داده و هوش مصنوعی مولد، عملیات نفوذ را در سه حوزه بههمپیوسته بهطور چشمگیری قدرتمندتر کرده است: شناسایی هدف، خلق «پرسونا» و تولید محتوای متناسب با هر فرد. در گذشته، دشمنان برای تبلیغات هدفمند ناچار بودند افراد را صرفاً بر اساس ویژگیهای مشابه در خوشههایی کلی دستهبندی کنند. اما هوش مصنوعی مدرن این فرایند را خودکار کرده و امکان هدفگیری افراد را در مقیاسی وسیع فراهم آورده است.
با این ابزارها، هوش مصنوعی میتواند میزان پذیرشپذیری افراد نسبت به روایتهای خاص یا پروفایلهای جعلی شبکههای اجتماعی—که برای جلب توجه آنها طراحی شدهاند—را پیشبینی کند. در حالی که رباتها زمانی ناشیانه و بهراحتی قابل شناسایی بودند، هوش مصنوعی مولد اکنون قادر است «پرسوناهای مصنوعی» بسازد که ظاهری کاملاً واقعی دارند و بهسادگی شناسایی نمیشوند. این پروفایلهای جعلی میتوانند بهتدریج توسعه یابند و از نظر الگوی انتشار، علایق و ویژگیهای زبانی، از کاربران واقعی غیرقابل تمایز شوند. افزون بر این، ایجاد و اداره حسابهای جعلی در مقیاسی عظیم اکنون امکانپذیر است و همین امر شناسایی آنها را دشوارتر میکند.
این تحولات به پرسوناهای مصنوعی اجازه میدهد محتوای ساختگی را در جوامع هدف تزریق کنند. با استقرار همزمان در چندین پلتفرم شبکه اجتماعی، آنها میتوانند مسیر مباحث عمومی را هدایت کرده و شکافهای اجتماعی را تشدید کنند. برای نمونه، بهمنظور تضعیف عزم عمومی در ایالات متحده، چنین پرسوناهایی ممکن است روایتهایی را ترویج کنند مبنی بر اینکه ارتش آمریکا بیش از حد فرسوده شده، متحدان از امنیت آمریکا «سواری مجانی» میگیرند یا برخی اهداف بینالمللی ارزش جنگیدن ندارند. تقویت این پیامها در پلتفرمهای متعدد میتواند اطلاعات نادرست را واقعی جلوه دهد یا دستکم سطحی از سردرگمی ایجاد کند که اجماع عمومی پیرامون یک موضوع را از میان ببرد.
با استفاده از هزاران حساب جعلی منحصربهفرد، ابزارهای هوش مصنوعی بهزودی قادر خواهند بود محتوای کاملاً شخصیسازیشده را بهصورت بلادرنگ در سراسر یک جمعیت منتشر کنند. این پدیده «جنگ شناختی» است و پیامدهای آن برای بازدارندگی روشن است. از آنجا که بخش بزرگی از اعتبار بازدارندگی در دموکراسیها به فشارهای سیاسی داخلی گره خورده، عملیاتهایی که احساسات عمومی را دستکاری میکنند میتوانند سیگنالهای عزم یک دولت را تضعیف کنند. چنین دستکاریهایی ممکن است افکار عمومی داخلی را کمتر مایل به حمایت از پاسخ نظامی قاطع به تجاوز خارجی—بهویژه علیه یک متحد—سازد و در نتیجه دادههای نظرسنجی و دیگر شاخصهای ظاهراً عینی افکار عمومی را که رهبران دموکراتیک به آنها اتکا دارند، مخدوش کند. این وضعیت میتواند رهبران را نسبت به میزان واقعی حمایت مردمی و حجم واکنش منفی احتمالی دچار تردید سازد؛ تردیدی که به تعلل، تضعیف عزم و ابهام در تصمیمگیری میانجامد و تهدیدهای بازدارنده را کمتر قانعکننده جلوه میدهد.
گروههای همسو با دولتها هماکنون در حال آزمودن راههایی برای تضعیف امنیت اطلاعات از طریق عملیات نفوذ مبتنی بر هوش مصنوعی هستند. یکی از نمونهها شرکت چینی «گولکسی» (GoLaxy) است که با بهرهگیری از هوش مصنوعی مولد و مجموعهدادههای عظیم متنباز، پروفایلهای روانشناختی دقیق از افراد تحت پایش تهیه میکند و در مقیاسی گسترده پرسوناهای مصنوعیای را به کار میگیرد که کاربران واقعی را تقلید میکنند. کارزارهای این شرکت معمولاً شامل گردآوری اطلاعات تفصیلی درباره چهرههای تأثیرگذار، تولید پیامهایی متناسب با مخاطبان هدف بر اساس همان اطلاعات، و سپس انتشار آن پیامها از طریق پرسوناهای دقیقاً طراحیشده در شبکههای اجتماعی است. این سطح از دقت، همراه با تقویت روایتهای گمراهکننده در چندین پلتفرم، میتواند سردرگمی ایجاد کند، گفتوگوی عمومی را فرسایش دهد و پایگاه داخلیای را که سیگنالهای بازدارنده را در خارج معتبر میکند، تضعیف سازد.
اسنادی که در مؤسسه امنیت ملی دانشگاه وندربیلت بررسی شده نشان میدهد گولکسی پیشتر در هنگکنگ و تایوان عملیات انجام داده و در حال گردآوری پروندههایی درباره اعضای کنگره آمریکا و دیگر چهرههای عمومی در سراسر جهان بوده است. اطلاعات متنباز به دشمنان امکان میدهد برای اهداف راهبردی، پروندههای جامعی درباره سیاستمداران، فرماندهان نظامی و سربازان تهیه کنند. سپس عملیات پرسوناهای هدفمند میتواند از این اطلاعات بهره گیرد. برای مثال، دشمنان میتوانند برای دستیابی به دستاوردهای تاکتیکی، سربازان را با پیامهای دیپفیک حاوی برداشتهای نادرست از شرایط میدان نبرد یا وضعیت خانوادهها در داخل کشور هدف قرار دهند؛ افزودن جزئیات شخصی دقیق میتواند این جعلها را آنقدر واقعی جلوه دهد که تمرکز افراد را برهم زند یا انسجام یگانها را مختل کند. در عرصه سیاسی نیز میتوان تصاویر واقعی سیاستمداران را با صداها یا چهرههای شبیهسازیشده ترکیب کرد. حتی اگر چنین محتواهایی هرگز منتشر نشوند، تهدید افشای آنها میتواند لحن سیاسی را تعدیل کند، روندهای قانونگذاری را متوقف سازد یا عزم رهبران را تضعیف کند. از منظر راهبردی، بازیگران متخاصم حتی میتوانند مقامات را شبیهسازی کنند که دستورهای جعلی برای عقبنشینی یا تغییر مسیر ارتباطی صادر میکنند؛ امری که میتواند فرصتی حیاتی برای پیشروی دشمن فراهم آورد. حاصل این وضعیت، شکلگیری «مه شناختیِ جنگ» است.
مسمومسازی منبع
مسیر دیگر ایجاد عدم قطعیت برای مدافعان، «مسمومسازی مدل» است: دستکاری راهبردی سامانههای هوش مصنوعیای که دولتها برای تحلیل اطلاعات و پشتیبانی تصمیمگیری به آنها تکیه دارند. با فاسد کردن دادههای آموزشی یا به خطر انداختن زنجیرههای تحلیلی این سامانهها، دشمنان میتوانند درک مدافع از قدرت نسبی خود و فوریت تهدید را تحریف کنند. سامانهای که توان دشمن را دستکم بگیرد میتواند به اعتمادبهنفس بیپایه بینجامد؛ سامانهای که تهدید را بزرگنمایی کند میتواند تردید ایجاد کند. در هر دو حالت، دستکاری مؤثر چنین سامانههایی نهتنها مدیریت بحران را دشوارتر میکند، بلکه اعتبار سیگنالهای بازدارنده را نیز تضعیف کرده و خطرات جدی به همراه دارد.
در اصل، مسمومسازی مدل با دستکاری خط لوله دادههای یک سامانه انجام میشود تا اطلاعات مهم نادیده گرفته شود و ورودیهای نادرست جذب گردد؛ امری که مدل را به ارزیابیهای گمراهکننده یا تضعیفشده سوق میدهد. یکی از روشها، کاشت اطلاعات جعلی در مجموعهدادههایی است که سامانه برای یادگیری مصرف میکند. این اطلاعات ممکن است برای بازبینهای انسانی بیضرر به نظر برسد، اما میتواند توان استدلال مدل را بهشدت تضعیف یا سوگیرانه کند—برای مثال با فریب دادن آن به اینکه برخی انواع بدافزار را بیخطر تشخیص دهد و به دشمن امکان عبور از دیوارهای آتش مبتنی بر هوش مصنوعی را بدهد. اگرچه تاکنون نمونه عملی ثبتشدهای گزارش نشده، پژوهشهای جاری نشان میدهد مجموعهدادههای موجود در برابر این نوع حملات مسمومسازی آسیبپذیرند؛ آنچه زمانی صرفاً نظری بود، اکنون در عمل امکانپذیر شده است.
مدلها همچنین میتوانند از طریق ایجاد وبسایتهای آلوده مسموم شوند. سامانههای هوش مصنوعی بهطور مداوم جستوجوهای زنده اینترنتی انجام میدهند و این صفحات میتوانند دستورالعملهای پنهانی به آنها تزریق کرده و ارزیابی مدل را منحرف کنند. اگر فیلترهای پالایش دادههای ورودی ضعیف باشند، حتی تعداد اندکی از وبسایتهای آلوده میتواند پاسخهای نادرست تولید کند.
مسمومسازی مدل—بهعنوان شکلی بسیار پنهانکارانه از جنگ اطلاعاتی—به دشمنان امکان میدهد با دستکاری خودِ ابزارهایی که برای شفافیت و درک واقعیت به کار میروند، برداشت مدافع از توانمندیها و عزم—چه عزم و توان خود و چه دیگران—را تحریف کنند. در شرایط بحرانی، چنین مسمومسازیای میتواند رهبران را به تردید یا حتی محاسبهای خطا بکشاند، بازدارندگی را تضعیف کند و مسیر تشدید تنش را هموار سازد.
پیشدستی راهبردی
ظهور سامانههای هوش مصنوعی قرار بود با ارسال سیگنالهای شفافتر به دشمنان درباره توانمندیها و عزم مدافع، بازدارندگی را تقویت کند. اما گسترش جنگ اطلاعاتی—که خود بهواسطه همین سامانهها هدایت میشود—این خطر را ایجاد کرده است که نتیجهای معکوس به بار آورد. حتی در مراحل ابتدایی، این شکل نوین از جنگ اطلاعاتی نشان داده است که فناوریهای هوش مصنوعی میتوانند بر نحوه تفسیر اطلاعات اثر بگذارند، عدم قطعیت را به فرایندهای قضاوت وارد کنند و دادههایی را که شالوده تصمیمگیریاند، دچار تحریف سازند. با پیشرفت بیشتر هوش مصنوعی، این تهدیدها نهتنها کاهش نخواهند یافت، بلکه بهمراتب قدرتمندتر خواهند شد.
حتی کشوری قدرتمند مانند ایالات متحده نیز ممکن است در صورت قرار گرفتن در معرض جنگ اطلاعاتی پیشرفته مبتنی بر هوش مصنوعی، در ارسال سیگنالهای معتبر بازدارنده با دشواری جدی روبهرو شود. برای سیاستگذاران و شهروندان بهیکسان، چالش اصلی آن است که چگونه میتوان از مزایای هوش مصنوعی بهره گرفت، بیآنکه اجازه داد این فناوری به ابزار تهاجمی و سلاح تبدیل شود. راهبردهای مقابله با این تهدید نوظهور باید همزمان و همشتاب با توسعه فناوریهای زیربنایی آن طراحی و اجرا شوند.
پاسخ مؤثر به این چالش مستلزم آن است که دولتها و پژوهشگران، بهطور همزمان، دو مسیر را دنبال کنند: نخست، مقاومسازی سامانههای تحلیلی در برابر مسمومسازی مدلها؛ و دوم، مقابله فعال و فوری با عملیات نفوذ مبتنی بر هوش مصنوعی هر زمان که شناسایی میشوند. برای نمونه، جهت خنثیسازی فعالیت شرکتهایی مانند «گولکسی»، ایالات متحده و متحدانش باید قادر باشند شبکههای مصنوعی را بهسرعت شناسایی و مختل کنند؛ با استفاده از ابزارهایی که توانایی شناسایی و بیاثر کردن پرسوناهای مبتنی بر هوش مصنوعی را پیش از تثبیت و نفوذ آنها دارند. افزون بر این، اجرای کارزارهای آموزشی درباره رسانههای مصنوعی و شیوههای تشخیص آنها میتواند آگاهی عمومی نسبت به این تهدید را بهطور معناداری افزایش دهد. دولتهای دموکراتیک، پلتفرمهای شبکههای اجتماعی و هوش مصنوعی، و پژوهشگران میانرشتهای باید در قالب همکاریهای نهادی، چنین راهحلهایی را توسعه دهند.
در سطح راهبردی، ایالات متحده باید در فناوریهایی سرمایهگذاری کند که قادرند پیامهای مصنوعی و دستکاریشده را بهسرعت شناسایی کنند. دولت، دانشگاهها و بخش خصوصی لازم است بهطور مشترک سازوکارهای حفاظتی جدید در تصمیمگیری و سامانههای پالایش داده طراحی کنند که در برابر ورودیهای آلوده و دستکاریشده تابآوری داشته باشند. همزمان، همکاری با متحدان آمریکا برای افشای عاملان کارزارهای گسترده اطلاعاتی و تحمیل هزینه سیاسی و حقوقی بر آنها ضروری است. افزون بر این، این ائتلاف باید مدلهای جدید هوش مصنوعی را بهصورت نظاممند و برنامهریزیشده آزمایش کند تا کاستیها—از جمله انواع مسمومسازی داده که ممکن است در استفاده روزمره آشکار نشوند—شناسایی و برطرف شوند. این فرایند باید با شفافیتی سختگیرانه انجام گیرد تا امکان ارزیابی و بازبینی همتایان فراهم شود. تنها از طریق ایجاد سازوکارهای مقاوم و انجام آزمونهای دقیق میتوان اطمینان یافت که سامانههای هوش مصنوعی در شرایط فشار شدید یا بحرانهای بزرگ، عملکردی قابلاتکا خواهند داشت.
در عصر هوش مصنوعی، بازدارندگی دیگر نمیتواند صرفاً بر توانمندیهای سخت و عزم سیاسی استوار باشد. بازدارندگی مؤثر مستلزم آن است که رهبران، راهبردپردازان دفاعی و دیگر تصمیمگیران بتوانند—even در میانه تحریف گسترده دیجیتال و آشوب اطلاعاتی—قابلیت اتکای محیط اطلاعاتی خود را حفظ کنند. بدون چنین قابلیتی، حتی قدرتمندترین دولتها نیز ممکن است در لحظه بحران، از ارسال سیگنالهای بازدارنده معتبر بازبمانند.