این تغییر نشان‌دهندهٔ یک میل جهانی برای بازپس‌گیری کنترل فضای عمومی و محافظت از آن در برابر فرسایش شناختی است که مدل‌های مولدِ خودکار ایجاد می‌کنند.

به گزارش جماران  به نقل از الجزیره،  جهان دیجیتال وارد مرحله‌ای بحرانی شده است که در زمان آغاز انقلاب هوش مصنوعی مولد، انتظارش نمی‌رفت. در حالی که هدف تقویت خلاقیت انسانی بود، استفاده مهارناپذیر از این فناوری‌ها پدیدۀ «پسماند هوش مصنوعی» (AI Slop) را ایجاد کرده است؛ پدیده‌ای که می‌تواند باعث فروپاشی این انقلاب شود.

اصطلاح پسماند هوش مصنوعی فقط به محتوای بی‌کیفیت اشاره نمی‌کند، بلکه از حالتی سخن می‌گوید که می‌توان آن را «آلودگی شناختی» نامید. این آلودگی از آغاز شبکه اینترنت را تغییر داده و آن را از یک معدن اطلاعات به یک مرداب از داده‌های تکراری و جعلی تبدیل کرده است؛ داده‌هایی که می‌توانند امنیت مدل‌های هوشمند را تهدید کنند و همچنین توانایی انسان‌ها برای دسترسی به حقیقت را کاهش دهند.

 

 اقتصادِ سایۀ دیجیتال

نمی‌توان پدیدۀ «پسماند هوش مصنوعی» را بدون در نظر گرفتن انگیزه‌های اقتصادی‌ای که آن را تغذیه می‌کنند فهمید. در فضایی که الگوریتم‌های موتورهای جست‌وجو، تولید انبوه و به‌روزرسانی سریع را پاداش می‌دهند، «تولیدکنندگان محتوای خودکار» در هوش مصنوعی ابزاری یافته‌اند تا هر روز هزاران مقاله را با کمترین هزینه ممکن تزریق کنند.

 از این موضوع فراتر رفته و تنها به‌عنوان متن‌های بی‌کیفیت و سست مطرح نمی‌شود، بلکه به یک راهبردِ عامدانه برای غرق‌کردن فضای دیجیتال با محتوایی تبدیل شده که در ظاهر «مفید» به نظر می‌رسد، اما در جوهره‌ی خود فاقد ارزش است.

گزارش‌های فنیِ امسال نشان می‌دهد که این محتوا اکنون به مانعی برای نوآوری تبدیل شده است؛ به‌طوری‌که شرکت‌ها و نهادها مجبورند هزینه‌های هنگفتی را صرف فناوری‌های پالایش و دسته‌بندی کنند تا کیفیت خروجی‌های دانشی خود را بازیابی کنند. این مسئله نوعی «مالیات پنهان» بر دانش دیجیتال ایجاد کرده است.

 

 معضلِ فروپاشیِ درونی

«فروپاشیِ مدل‌ها» خطرناک‌ترین بُعد این «آفت دیجیتال» را تشکیل می‌دهد؛ چیزی شبیه به «فرسایش ژنتیکی» برای هوش مصنوعی. هنگامی که مدل‌های زبانی بزرگ شروع به یادگیری از داده‌هایی می‌کنند که توسط مدل‌های دیگر تولید شده است ـ و این امر با گسترش «زباله‌های هوش مصنوعی» عملاً اجتناب‌ناپذیر شده ـ در دام «بازخوردِ کشنده» می‌افتند.

 پژوهش‌های منتشرشده در مجله انگلیسی نیچر  نشان می‌دهند که این فرایند باعث از بین رفتن اطلاعات کمیاب و دیدگاه‌های متنوع می‌شود؛ به‌گونه‌ای که الگوریتم‌ها شروع به تکرار الگوهای رایج‌تر کرده و جزئیات دقیق را به حاشیه می‌برند.

نتیجه، یک هوش مصنوعی «تک‌چشم‌انداز» است که از خلاقیت بی‌بهره بوده و دچار بزرگ شدن خطاها و توهمات می‌شود؛ بنابراین، اتکا به آن در حوزه‌های حساس مانند پزشکی و قانون امری پرخطر است.

 

 بازآفرینی نقشهٔ اعتماد و جست‌وجوی دیجیتال

 

این سیلِ زباله‌های دیجیتال موجب یک دگرگونی ریشه‌ای در رفتار کاربران و شرکت‌های فناوری به‌عنوان واکنشی دفاعی شد؛ به همین دلیل دیگر «رتبه‌گرفتن در نتایج جست‌وجو» برای اثبات اعتبار کافی نیست.

مؤسسهٔ «گارتنر» (آمریکا) در گزارشی که امسال منتشر کرده پیش‌بینی می‌کند حجم جست‌وجوی سنتی به دلیل گرایش کاربران به «یارهای هوشمند» یا «پلتفرم‌های بسته» می‌تواند تا ۲۵٪ کاهش یابد.

این تغییر، موتورهای جست‌وجو را وادار کرده است معیارهای خود را برای ««تجربه، تخصص، اعتبارپذیری، قابلیت اعتماد»(E-E-A-T) سخت‌گیرانه‌تر کنند. همچنین طبق گفتهٔ گارتنر، سایت‌هایی که دوام می‌آورند آن‌هایی هستند که محتوای منحصربه‌فرد مبتنی بر تجربهٔ انسانی ارائه می‌دهند.

در نتیجهٔ این تحول، موتورهای جست‌وجو تعریف معیارهای کیفیت را به‌گونه‌ای مجدد بازتعریف کرده‌اند تا به‌طور جدی بر «اصالت انسانی» و تجربهٔ میدانیِ مستند تمرکز کنند. اکنون شاهد بازگشت قدرتمند پلتفرم‌هایی هستیم که بر اعتبارسنجی انسانی  و شهرت فردی تکیه دارند و در این مسیر، «امضای انسانی» روی اطلاعات به‌عنوان تنها تضمین واقعی در برابر جعل و دستکاریِ خودکار عمل می‌کند.

این تغییر نشان‌دهندهٔ یک میل جهانی برای بازپس‌گیری کنترل فضای عمومی و محافظت از آن در برابر فرسایش شناختی است که مدل‌های مولدِ خودکار ایجاد می‌کنند.

کارشناسان هوش مصنوعی، از جمله پیشگامان در حوزه «اخلاقیات داده»، بر این باورند که به نقطه‌ی عطف رسیده‌ایم. در حالی که برخی معتقدند راه‌حل در توسعه «هوش مصنوعی برای مقابله با پسماندهای هوش مصنوعی» نهفته است، برخی دیگر هشدار می‌دهند که این موضوع تنها نوعی فرار رو به جلو است.

در همین حال، کارشناسانی از سازمان ملل تأکید می‌کنند که جهان امروز به نقطه‌ای رسیده که برای حفاظت از حقوق دیجیتال در برابر محتوای مخربِ تولیدشده به‌صورت خودکار، نیازمند مداخله‌ای قانون‌گذارانه است. هم‌زمان، بسیاری از صداها در این حوزه می‌گویند مقابله با این «همه‌گیری» نیازمند «قراردادی دیجیتال»  جدید است؛ قراردادی که دوباره شأن «مالکیت فکری انسانی» را به رسمیت بشناسد و شفافیت کامل را در برچسب‌گذاری محتوای تولیدشده به‌صورت خودکار الزامی کند.

از نگاه آن‌ها، آینده نه در افزایش حجم داده‌ها، بلکه در «پاکیزگی» و «سلامت» داده‌هاست. همان‌طور که یکی از پژوهشگران این حوزه می‌گوید: «اگر امروز در حفاظت از حقیقت داده‌های انسانی موفق نشویم، فردا هوش مصنوعی‌ای را به ارث می‌بریم که آیینه‌اش مخدوش است؛ جهانی را از طریق پسماندهای خودش می‌بیند، نه از طریق واقعیت.»

بدین ترتیب، شرط اصلی موفقیت در این است که بتوانیم «انسان» را به‌عنوان مرجع نهایی و اصیلِ اطلاعات، در میان هیاهوی بی‌پایانِ ماشین‌ها حفظ کنیم.

انتهای پیام
این مطلب برایم مفید است
0 نفر این پست را پسندیده اند

موضوعات داغ

کلمات کلیدی هوش مصنوعی
نظرات و دیدگاه ها

مسئولیت نوشته ها بر عهده نویسندگان آنهاست و انتشار آن به معنی تایید این نظرات نیست.