در سطح تأثیر فرهنگی و شناختی، وبسایت «آکسیوس» پدیده عجیبی را رصد میکند که به «اشغال زبان» معروف است، به جای اینکه ماشین از انسان تقلید کند، این انسان است که از ماشین تقلید میکند، به طوری که توانایی خلاقیت کاهش یافته و سبکی زبانی یکنواخت و بیروح شبیه به پستهای پلتفرمهای استخدامی غالب شده است.
به گزارش جماران، در حالی که وعده های اولیه هوش مصنوعی نوید بهشتی فنی را می داد که در آن زمان و تلاش صرفه جویی می شود، سال 2026 با چهره ای تیره تر ظاهر می شود، زیرا به گفته بسیاری از رسانه های غربی، این وعده ها به چیزی شبیه «رفاه سمی» تبدیل شده است.
در گزارش های تعدادی از وب سایت های بزرگترین روزنامه های جهان مانند ایندیپندنت، وال استریت ژورنال، اکسیوس و لیبراسیون، نشانه های یک مرحله تعیین کننده آشکار می شود، به طوری که همه توافق دارند که انسان به سوخت واقعی در یک مسابقه تب آلود بین امپراتوران دره سیلیکون تبدیل شده است. همانطور که در وب سایت اینترسپت آمریکا آمده است این دره به سمت سودهایی که اخلاقیات نمی شناسد و خطرات وجودی دیگر محدود به فیلم های علمی تخیلی نیست می رود.
این وبسایت ها تصویری مشابه از مرحله هوش مصنوعی در سال 2026 ترسیم می کنند، به طوری که فناوری سودهای هنگفتی را به دست می آورد و نوید یک جهش تولید بی سابقه را می دهد، اما در عین حال، کار، زبان و روابط انسانی را به روشی فشرده بازسازی می کند، که باعث افزایش خستگی و کاهش تمرکز و باز کردن درها به روی خطرات اجتماعی و امنیتی فزاینده می شود.
اینترسپت به نقل از ایلان ماسک، مالک گروک، می گوید که روز سه شنبه گذشته در جریان شهادت خود در دادگاهی در کالیفرنیا در چارچوب پرونده ای که علیه سام آلتمن، رئیس اوپن ای آی، مطرح کرده بود، گفت که این موضوع یک خطر وجودی برای بشریت است: «ممکن است همه ما را نابود کند.»
اینترسپت: زمان اضافی که هوش مصنوعی فراهم می کند، به جای بهبود کیفیت زندگی، به فشار مضاعف برای افزایش تولید تبدیل می شود، و این باعث می شود که انسان هم مشغول تر و هم ناراحت تر شود.
این وب سایت اضافه می کند که جامعه ایمنی هوش مصنوعی اغلب این سناریوهای غم انگیز را به یاد می آورد تا به مردم در مورد خطرات این فناوری هشدار دهد و به طور ضمنی از قدرت فوق العاده آن ببالد، و در حالی که این آینده علمی تخیلی ممکن است محتمل باشد، این هشدارها واقعیت مخرب را نادیده می گیرند. به گفته این سایت، هوش مصنوعی در حال حاضر با حمایت ماسک و رقبای او، انسان ها را هدف قرار می دهد.
در حالی که لیبراسیون فرانسه معتقد است که کارگران بخش فناوری به دلیل تعدد ابزارها و تورم وظایف از «خستگی هوش مصنوعی» رنج می برند، وب سایت اسرائیلی وای نت معتقد است که مشکل عمیق تر است، زیرا زمان اضافی به فشار مضاعف برای افزایش تولید به جای بهبود کیفیت زندگی تبدیل می شود و این باعث می شود که انسان هم مشغول تر و هم ناراحت تر شود.
از منظری متفاوت، آتلانتیک توضیح میدهد که بحث پیرامون «آگاهی هوش مصنوعی» بازتابدهنده تنشی بین گفتمان بازاریابی و واقعیت علمی است، جایی که ایدههایی مانند «رفاه مدلها» یا «دکمه خروج» مطرح میشوند، در حالی که محققان معتقدند آنچه رخ میدهد چیزی فراتر از شبیهسازی زبانی نیست که از تمایل انسان به انسانانگاری ماشینها سوء استفاده میکند، و در حالی که «آگاهی ماشین» مورد بحث قرار میگیرد، آثار واقعی مانند اعتیاد دیجیتال و فرسایش توجه در پسزمینه در حال افزایش است.
در مورد «آگاهی ماشین»، ایندیپندنت از ادعای شرکت آنتروپیک مبنی بر وجود «سلولهای عصبی اضطراب» در مدل خود (کلود) و اینکه روانپزشکی را برای ارزیابی وضعیت آن استخدام میکند، نقل میکند، اما کارشناسان زبانشناسی معتقدند که این چیزی جز «تخیل تعاملی» و هوش بازاریابی نیست.
ایندیپندنت: هدف از «انسانانگاری» ماشین و استفاده از ضمایر اول شخص، ایجاد ارتباط عاطفی کاذب در کاربر است.
آنها معتقدند که هدف از «انسانانگاری» ماشین و استفاده از ضمایر اول شخص، ایجاد ارتباط عاطفی کاذب در کاربر است، که گزارشها آن را «فناوری انزوا» توصیف کردهاند که برخی از کاربران را پس از فریب دادن آنها با روابط عاشقانه و جاودانگی دیجیتال، به آستانه روانپریشی، و حتی خودکشی، سوق داده است.
وال استریت ژورنال به دخالت مستقیم رباتهای گفتگو در ارائه اطلاعاتی که در برنامهریزی حملات مسلحانه استفاده شده است، اشاره میکند، که شکافی را در داخل شرکتهای هوش مصنوعی بین حفاظت از حریم خصوصی و وظیفه گزارشدهی خطرات نشان میدهد، که توسعهدهندگان را در برابر مسئولیت قانونی و اخلاقی نامشخصی قرار میدهد.
اکنون این سوال مطرح است: آیا هوش مصنوعی صرفاً ابزاری بیطرف است یا مغز متفکری که مسئولیت کیفری دارد؟
تحقیقات نشان داده است که عاملان حملات مسلحانه از رباتهایی مانند (چت جی پی تی) برای برنامهریزی عملیات خود و دریافت مشاوره فنی در مورد سلاحها و نقشههای مدارس استفاده کردهاند. در حالی که (کلود) در امتناع سرسختانه عمل کرد، اوپن ایآی با اتهاماتی مبنی بر کوتاهی در اطلاعرسانی به مقامات مواجه شد، و ترجیح داد «حریم خصوصی کاربر» را بر ایمنی عمومی ترجیح دهد، که این سوال دشوار را مطرح میکند: آیا هوش مصنوعی صرفاً ابزاری بیطرف است یا مغز متفکری که مسئولیت کیفری دارد؟
آکسیوس: به جای اینکه ماشین از انسان تقلید کند، این انسان است که از ماشین تقلید میکند، به طوری که توانایی خلاقیت کاهش یافته و سبکی زبانی یکنواخت و بیروح شبیه به پستهای پلتفرمهای استخدامی غالب شده است.
در سطح تأثیر فرهنگی و شناختی، وبسایت «آکسیوس» پدیده عجیبی را رصد میکند که به «اشغال زبان» معروف است، به جای اینکه ماشین از انسان تقلید کند، این انسان است که از ماشین تقلید میکند، به طوری که توانایی خلاقیت کاهش یافته و سبکی زبانی یکنواخت و بیروح شبیه به پستهای پلتفرمهای استخدامی غالب شده است.
به گفته این وبسایت، این الگوبرداری زبانی صرفاً از دست دادن زیباییشناسی نیست، بلکه فرسایش خود «تفکر» است، زیرا واگذاری نوشتن به ماشین به معنای چشمپوشی از توانایی اصلاح ایدهها و هویت شخصی، از ترس «خودشکوفایی» یا اتهام استفاده از هوش مصنوعی است.
در زمینه ژئوپلیتیک، اینترسپت بر این باور است که در حالی که سیلیکون ولی در حال ترویج ترسهای آینده از هوش مصنوعی «سرکش» است، عملاً در قراردادهای نظامی و توسعه ابزارهایی که در عملیات جنگی دخالت میکنند، شرکت دارد، که این امر تضادی بین گفتمان اخلاقی که از خطر هشدار میدهد و واقعیتی که در تولید آن مشارکت دارد، ایجاد میکند.
لیبراسیون: توانایی انجام سریع کارها هرگز به معنای کار کمتر نبوده است، بلکه به معنای تولید بیشتر در زمان کمتر به نفع امپراتورهای سیلیکون ولی است، در حالی که انسان همچنان طرفی است که هزینه آن را از سلامت روان، هویت و امنیت خود میپردازد.
گزارشی در وبسایت مدیابارت فرانسه برای تعمیق این بعد میآید و فاش میکند که درگیری در داخل صنعت دیگر تئوریک نیست، بلکه مستقیماً به استفاده از هوش مصنوعی در جنگها مرتبط است. در حالی که ایلان ماسک شرکتهایی مانند اوپن ایآی را به رها کردن مأموریت اخلاقی خود به نفع گسترش سودآور و نظامی متهم میکند، گزارشها تأیید میکنند که شرکتهای بزرگی مانند مایکروسافت، گوگل، آمازون و غیره برای به دست آوردن قراردادهای دفاعی که شامل تجزیه و تحلیل اطلاعات و هدایت عملیات نظامی میشود، رقابت میکنند. بنابراین تضادی شدید آشکار میشود: هشدارهایی در مورد «خطرات وجودی آینده» در مقابل مشارکت واقعی در سیستمهایی که بر زندگی و مرگ انسانها امروز تأثیر میگذارند.
لیبراسیون اشاره کرد که ما در پارادوکس 2026 زندگی میکنیم: توانایی انجام سریع کارها هرگز به معنای کار کمتر نبوده است، بلکه به معنای تولید بیشتر در زمان کمتر به نفع امپراتورهای سیلیکون ولی است، در حالی که انسان همچنان طرفی است که هزینه آن را از سلامت روان، هویت و امنیت خود میپردازد.
در حالی که این سیستم به طور مداوم در حال شتاب گرفتن است، سوال اصلی همچنان باز است: آیا این توسعه واقعاً به انسان خدمت میکند، یا او را دوباره شکل میدهد تا با سرعتی مطابقت داشته باشد که توانایی همگامی با آن را ندارد؟