در سطح تأثیر فرهنگی و شناختی، وب‌سایت «آکسیوس» پدیده عجیبی را رصد می‌کند که به «اشغال زبان» معروف است، به جای اینکه ماشین از انسان تقلید کند، این انسان است که از ماشین تقلید می‌کند، به طوری که توانایی خلاقیت کاهش یافته و سبکی زبانی یکنواخت و بی‌روح شبیه به پست‌های پلتفرم‌های استخدامی غالب شده است.

به گزارش جماران، در حالی که وعده های اولیه هوش مصنوعی نوید بهشتی فنی را می داد که در آن زمان و تلاش صرفه جویی می شود، سال 2026 با چهره ای تیره تر ظاهر می شود، زیرا به گفته بسیاری از رسانه های غربی، این وعده ها به چیزی شبیه «رفاه سمی» تبدیل شده است.

در گزارش های تعدادی از وب سایت های بزرگترین روزنامه های جهان مانند ایندیپندنت، وال استریت ژورنال، اکسیوس و لیبراسیون، نشانه های یک مرحله تعیین کننده آشکار می شود، به طوری که همه توافق دارند که انسان به سوخت واقعی در یک مسابقه تب آلود بین امپراتوران دره سیلیکون تبدیل شده است. همانطور که در وب سایت اینترسپت آمریکا آمده است این دره به سمت سودهایی که اخلاقیات نمی شناسد و خطرات وجودی دیگر محدود به فیلم های علمی تخیلی نیست می رود.

این وبسایت ها تصویری مشابه از مرحله هوش مصنوعی در سال 2026 ترسیم می کنند، به طوری که فناوری سودهای هنگفتی را به دست می آورد و نوید یک جهش تولید بی سابقه را می دهد، اما در عین حال، کار، زبان و روابط انسانی را به روشی فشرده بازسازی می کند، که باعث افزایش خستگی و کاهش تمرکز و باز کردن درها به روی خطرات اجتماعی و امنیتی فزاینده می شود.

اینترسپت به نقل از  ایلان ماسک، مالک گروک، می گوید که روز سه شنبه گذشته در جریان شهادت خود در دادگاهی در کالیفرنیا در چارچوب پرونده ای که علیه سام آلتمن، رئیس اوپن ای آی، مطرح کرده بود، گفت که این موضوع یک خطر وجودی برای بشریت است: «ممکن است همه ما را نابود کند.»

اینترسپت: زمان اضافی که هوش مصنوعی فراهم می کند، به جای بهبود کیفیت زندگی، به فشار مضاعف برای افزایش تولید تبدیل می شود، و این باعث می شود که انسان هم مشغول تر و هم ناراحت تر شود.

این وب سایت اضافه می کند که جامعه ایمنی هوش مصنوعی اغلب این سناریوهای غم انگیز را به یاد می آورد تا به مردم در مورد خطرات این فناوری هشدار دهد و به طور ضمنی از قدرت فوق العاده آن ببالد، و در حالی که این آینده علمی تخیلی ممکن است محتمل باشد، این هشدارها واقعیت مخرب را نادیده می گیرند. به گفته این سایت، هوش مصنوعی در حال حاضر با حمایت ماسک و رقبای او، انسان ها را هدف قرار می دهد.

در حالی که لیبراسیون فرانسه معتقد است که کارگران بخش فناوری به دلیل تعدد ابزارها و تورم وظایف از «خستگی هوش مصنوعی» رنج می برند، وب سایت اسرائیلی وای نت معتقد است که مشکل عمیق تر است، زیرا زمان اضافی به فشار مضاعف برای افزایش تولید به جای بهبود کیفیت زندگی تبدیل می شود و این باعث می شود که انسان هم مشغول تر و هم ناراحت تر شود.

از منظری متفاوت، آتلانتیک توضیح می‌دهد که بحث پیرامون «آگاهی هوش مصنوعی» بازتاب‌دهنده تنشی بین گفتمان بازاریابی و واقعیت علمی است، جایی که ایده‌هایی مانند «رفاه مدل‌ها» یا «دکمه خروج» مطرح می‌شوند، در حالی که محققان معتقدند آنچه رخ می‌دهد چیزی فراتر از شبیه‌سازی زبانی نیست که از تمایل انسان به انسان‌انگاری ماشین‌ها سوء استفاده می‌کند، و در حالی که «آگاهی ماشین» مورد بحث قرار می‌گیرد، آثار واقعی مانند اعتیاد دیجیتال و فرسایش توجه در پس‌زمینه در حال افزایش است.

در مورد «آگاهی ماشین»، ایندیپندنت از ادعای شرکت آنتروپیک مبنی بر وجود «سلول‌های عصبی اضطراب» در مدل خود (کلود) و اینکه روانپزشکی را برای ارزیابی وضعیت آن استخدام می‌کند، نقل می‌کند، اما کارشناسان زبان‌شناسی معتقدند که این چیزی جز «تخیل تعاملی» و هوش بازاریابی نیست.

ایندیپندنت: هدف از «انسان‌انگاری» ماشین و استفاده از ضمایر اول شخص، ایجاد ارتباط عاطفی کاذب در کاربر است.

آنها معتقدند که هدف از «انسان‌انگاری» ماشین و استفاده از ضمایر اول شخص، ایجاد ارتباط عاطفی کاذب در کاربر است، که گزارش‌ها آن را «فناوری انزوا» توصیف کرده‌اند که برخی از کاربران را پس از فریب دادن آنها با روابط عاشقانه و جاودانگی دیجیتال، به آستانه روان‌پریشی، و حتی خودکشی، سوق داده است.

وال استریت ژورنال به دخالت مستقیم ربات‌های گفتگو در ارائه اطلاعاتی که در برنامه‌ریزی حملات مسلحانه استفاده شده است، اشاره می‌کند، که شکافی را در داخل شرکت‌های هوش مصنوعی بین حفاظت از حریم خصوصی و وظیفه گزارش‌دهی خطرات نشان می‌دهد، که توسعه‌دهندگان را در برابر مسئولیت قانونی و اخلاقی نامشخصی قرار می‌دهد.

اکنون این سوال مطرح است: آیا هوش مصنوعی صرفاً ابزاری بی‌طرف است یا مغز متفکری که مسئولیت کیفری دارد؟ 

تحقیقات نشان داده است که عاملان حملات مسلحانه از ربات‌هایی مانند (چت جی پی تی) برای برنامه‌ریزی عملیات خود و دریافت مشاوره فنی در مورد سلاح‌ها و نقشه‌های مدارس استفاده کرده‌اند. در حالی که (کلود) در امتناع سرسختانه عمل کرد، اوپن ای‌آی با اتهاماتی مبنی بر کوتاهی در اطلاع‌رسانی به مقامات مواجه شد، و ترجیح داد «حریم خصوصی کاربر» را بر ایمنی عمومی ترجیح دهد، که این سوال دشوار را مطرح می‌کند: آیا هوش مصنوعی صرفاً ابزاری بی‌طرف است یا مغز متفکری که مسئولیت کیفری دارد؟

آکسیوس: به جای اینکه ماشین از انسان تقلید کند، این انسان است که از ماشین تقلید می‌کند، به طوری که توانایی خلاقیت کاهش یافته و سبکی زبانی یکنواخت و بی‌روح شبیه به پست‌های پلتفرم‌های استخدامی غالب شده است.

در سطح تأثیر فرهنگی و شناختی، وب‌سایت «آکسیوس» پدیده عجیبی را رصد می‌کند که به «اشغال زبان» معروف است، به جای اینکه ماشین از انسان تقلید کند، این انسان است که از ماشین تقلید می‌کند، به طوری که توانایی خلاقیت کاهش یافته و سبکی زبانی یکنواخت و بی‌روح شبیه به پست‌های پلتفرم‌های استخدامی غالب شده است.

به گفته این وب‌سایت، این الگوبرداری زبانی صرفاً از دست دادن زیبایی‌شناسی نیست، بلکه فرسایش خود «تفکر» است، زیرا واگذاری نوشتن به ماشین به معنای چشم‌پوشی از توانایی اصلاح ایده‌ها و هویت شخصی، از ترس «خودشکوفایی» یا اتهام استفاده از هوش مصنوعی است.

در زمینه ژئوپلیتیک، اینترسپت بر این باور است که در حالی که سیلیکون ولی در حال ترویج ترس‌های آینده از هوش مصنوعی «سرکش» است، عملاً در قراردادهای نظامی و توسعه ابزارهایی که در عملیات جنگی دخالت می‌کنند، شرکت دارد، که این امر تضادی بین گفتمان اخلاقی که از خطر هشدار می‌دهد و واقعیتی که در تولید آن مشارکت دارد، ایجاد می‌کند.

لیبراسیون: توانایی انجام سریع کارها هرگز به معنای کار کمتر نبوده است، بلکه به معنای تولید بیشتر در زمان کمتر به نفع امپراتورهای سیلیکون ولی است، در حالی که انسان همچنان طرفی است که هزینه آن را از سلامت روان، هویت و امنیت خود می‌پردازد.

گزارشی در وب‌سایت مدیابارت فرانسه برای تعمیق این بعد می‌آید و فاش می‌کند که درگیری در داخل صنعت دیگر تئوریک نیست، بلکه مستقیماً به استفاده از هوش مصنوعی در جنگ‌ها مرتبط است. در حالی که ایلان ماسک شرکت‌هایی مانند اوپن ای‌آی را به رها کردن مأموریت اخلاقی خود به نفع گسترش سودآور و نظامی متهم می‌کند، گزارش‌ها تأیید می‌کنند که شرکت‌های بزرگی مانند مایکروسافت، گوگل، آمازون و غیره برای به دست آوردن قراردادهای دفاعی که شامل تجزیه و تحلیل اطلاعات و هدایت عملیات نظامی می‌شود، رقابت می‌کنند. بنابراین تضادی شدید آشکار می‌شود: هشدارهایی در مورد «خطرات وجودی آینده» در مقابل مشارکت واقعی در سیستم‌هایی که بر زندگی و مرگ انسان‌ها امروز تأثیر می‌گذارند.

لیبراسیون اشاره کرد که ما در پارادوکس 2026 زندگی می‌کنیم: توانایی انجام سریع کارها هرگز به معنای کار کمتر نبوده است، بلکه به معنای تولید بیشتر در زمان کمتر به نفع امپراتورهای سیلیکون ولی است، در حالی که انسان همچنان طرفی است که هزینه آن را از سلامت روان، هویت و امنیت خود می‌پردازد.

در حالی که این سیستم به طور مداوم در حال شتاب گرفتن است، سوال اصلی همچنان باز است: آیا این توسعه واقعاً به انسان خدمت می‌کند، یا او را دوباره شکل می‌دهد تا با سرعتی مطابقت داشته باشد که توانایی همگامی با آن را ندارد؟

 

انتهای پیام
این مطلب برایم مفید است
0 نفر این پست را پسندیده اند

موضوعات داغ

کلمات کلیدی هوش مصنوعی
نظرات و دیدگاه ها

مسئولیت نوشته ها بر عهده نویسندگان آنهاست و انتشار آن به معنی تایید این نظرات نیست.