بر اساس گزارش پایگاه خبری اکسیوس، ارتش ایالات متحده در جریان عملیات بازداشت نیکلاس مادورو، رئیس‌جمهور سابق ونزوئلا، از مدل هوش مصنوعی «کلود» متعلق به شرکت آنتروپیک (آنتروپیک) استفاده کرده است. این خبر به نقل از دو منبع آگاه منتشر شده و به گفته منابع مطلع، موجب بروز تنش‌هایی میان پنتاگون و این شرکت فناوری شده است. جزئیات دقیقی از نقش «کلود» در این عملیات منتشر نشده، اما منابع اعلام کرده‌اند این مدل هوش مصنوعی در جریان اجرای عملیات و نه صرفاً در مرحله برنامه‌ریزی به کار گرفته شده است. بر اساس این گزارش، احتمال می‌رود از این سامانه برای تحلیل تصاویر ماهواره‌ای، پردازش داده‌های اطلاعاتی یا پشتیبانی از تصمیم‌گیری‌های سریع عملیاتی استفاده شده باشد.

به گزارش سرویس بین‌الملل جماران، دو منبع آگاه به پایگاه خبری آکسیوس اعلام کرده‌اند که ارتش ایالات متحده در جریان عملیات بازداشت نیکلاس مادورو، رئیس‌جمهور ونزوئلا، از مدل هوش مصنوعی «کلود» متعلق به شرکت آنتروپیک استفاده کرده است؛ موضوعی که اکنون می‌تواند همکاری این شرکت با پنتاگون را با چالش جدی روبه‌رو کند.

بازنگری پنتاگون در همکاری با آنتروپیک 

پس از انتشار گزارش‌هایی درباره استفاده از «کلود» در این عملیات، یک مقام ارشد دولت آمریکا به آکسیوس گفت پنتاگون در حال بازنگری در شراکت خود با آنتروپیک است. به گفته این مقام، شرکت آنتروپیک پرس‌وجو کرده بود که آیا نرم‌افزارش در عملیات بازداشت مادورو به کار گرفته شده است یا نه؛ اقدامی که به گفته او «نگرانی‌های جدی در سراسر وزارت جنگ ایجاد کرد» و این برداشت را به وجود آورد که شاید این شرکت با چنین استفاده‌ای موافق نبوده باشد.

این مقام تأکید کرد: «هر شرکتی که موفقیت عملیاتی نیروهای ما در میدان را به خطر بیندازد، شریکی است که باید در ادامه همکاری با آن تجدیدنظر کنیم.»

در مقابل، سخنگوی آنتروپیک این ادعا را رد کرد و گفت: «آنتروپیک هیچ تماس یا درخواستی از این دست با وزارت جنگ نداشته است.»

نقش هوش مصنوعی در عملیات نظامی

آکسیوس نتوانسته نقش دقیق «کلود» را در این عملیات تأیید کند. با این حال، منابع مطلع گفته‌اند این مدل نه‌تنها در مرحله آماده‌سازی، بلکه در جریان عملیات فعال نیز مورد استفاده قرار گرفته است.

پیش‌تر نیز ارتش آمریکا از «کلود» برای تحلیل تصاویر ماهواره‌ای و داده‌های اطلاعاتی بهره گرفته بود. توانایی پردازش سریع و بلادرنگ داده‌ها، مزیتی است که در محیط‌های پیچیده و پرآشوب عملیات نظامی برای پنتاگون اهمیت بالایی دارد.

در این عملیات هیچ آمریکایی کشته نشد، اما کوبا و ونزوئلا اعلام کرده‌اند که ده‌ها نفر از نیروهای نظامی و امنیتی آن‌ها جان باخته‌اند.

نقطه اصطکاک: محدودیت‌های استفاده

پنتاگون خواهان آن است که شرکت‌های بزرگ هوش مصنوعی اجازه دهند مدل‌هایشان در هر سناریویی مورد استفاده قرار گیرد، مشروط بر آنکه استفاده‌ها مطابق قانون باشد.

آنتروپیک که خود را پیشگام «هوش مصنوعی ایمن‌محور» معرفی می‌کند، در حال مذاکره با پنتاگون درباره شرایط استفاده از فناوری خود است. این شرکت به‌ویژه تأکید دارد که فناوری‌اش نباید برای نظارت گسترده بر شهروندان آمریکایی یا به‌کارگیری در تسلیحات کاملاً خودمختار استفاده شود.

یک منبع آگاه گفته است آنتروپیک اطمینان دارد که ارتش در همه موارد از سیاست‌های فعلی استفاده که شامل محدودیت‌های اضافی است، تبعیت کرده است.

سخنگوی این شرکت نیز اظهار داشت: «ما نمی‌توانیم درباره این‌که آیا کلود یا هر مدل هوش مصنوعی دیگری در عملیات مشخصی — چه طبقه‌بندی‌شده و چه غیر آن — استفاده شده است یا نه اظهار نظر کنیم. هرگونه استفاده از کلود، چه در بخش خصوصی و چه در نهادهای دولتی، باید مطابق سیاست‌های استفاده ما باشد و ما با شرکای خود برای تضمین رعایت این مقررات همکاری نزدیک داریم.»

رقابت با چین و فشار برای ادغام سریع AI

پیت هگست، وزیر دفاع آمریکا، از حامیان جدی ادغام سریع هوش مصنوعی در تمامی ابعاد فعالیت‌های نظامی است و این رویکرد را بخشی از تلاش برای پیشی گرفتن از چین می‌داند.

با این حال، به گفته یک منبع مطلع، برخی مقامات ارشد پنتاگون از رویکرد سخت‌گیرانه آنتروپیک در زمینه اعمال محدودیت‌های حفاظتی ابراز نارضایتی کرده‌اند.

تصویر کلی: رقابت غول‌های هوش مصنوعی برای حضور در سامانه‌های محرمانه

آنتروپیک یکی از چند شرکت بزرگ سازنده مدل‌های هوش مصنوعی است که با پنتاگون همکاری دارند. شرکت‌های OpenAI، Google و xAI نیز قراردادهایی منعقد کرده‌اند که دسترسی کاربران نظامی به مدل‌های آن‌ها را با محدودیت‌های کمتری نسبت به کاربران عادی فراهم می‌کند. مشخص نیست آیا در عملیات ونزوئلا از مدل‌های دیگری نیز استفاده شده است یا خیر.

با این حال، حساس‌ترین فعالیت‌های نظامی آمریکا — از آزمایش تسلیحات تا ارتباطات در جریان عملیات فعال — بر روی سامانه‌های طبقه‌بندی‌شده انجام می‌شود و در حال حاضر تنها سامانه آنتروپیک بر روی این بسترهای محرمانه در دسترس است.

آنتروپیک همچنین با شرکت پالانتیر که قراردادهای گسترده‌ای با پنتاگون دارد همکاری دارد و این همکاری به پالانتیر امکان می‌دهد از «کلود» در محصولات امنیتی خود استفاده کند. هنوز مشخص نیست که استفاده از «کلود» در این عملیات به این شراکت مرتبط بوده است یا خیر.

در حال حاضر، مذاکرات میان پنتاگون و شرکت‌های OpenAI، Google و xAI درباره امکان استفاده از ابزارهای آن‌ها در سامانه‌های طبقه‌بندی‌شده ادامه دارد. همزمان آنتروپیک و پنتاگون نیز در حال گفت‌وگو درباره احتمال کاهش برخی محدودیت‌های مربوط به «کلود» هستند؛ گفت‌وگوهایی که می‌تواند مسیر آینده همکاری ارتش آمریکا با شرکت‌های هوش مصنوعی را تعیین کند.

انتهای پیام
این مطلب برایم مفید است
0 نفر این پست را پسندیده اند

موضوعات داغ

نظرات و دیدگاه ها

مسئولیت نوشته ها بر عهده نویسندگان آنهاست و انتشار آن به معنی تایید این نظرات نیست.