این تغییر نشاندهندهٔ یک میل جهانی برای بازپسگیری کنترل فضای عمومی و محافظت از آن در برابر فرسایش شناختی است که مدلهای مولدِ خودکار ایجاد میکنند.
به گزارش جماران به نقل از الجزیره، جهان دیجیتال وارد مرحلهای بحرانی شده است که در زمان آغاز انقلاب هوش مصنوعی مولد، انتظارش نمیرفت. در حالی که هدف تقویت خلاقیت انسانی بود، استفاده مهارناپذیر از این فناوریها پدیدۀ «پسماند هوش مصنوعی» (AI Slop) را ایجاد کرده است؛ پدیدهای که میتواند باعث فروپاشی این انقلاب شود.
اصطلاح پسماند هوش مصنوعی فقط به محتوای بیکیفیت اشاره نمیکند، بلکه از حالتی سخن میگوید که میتوان آن را «آلودگی شناختی» نامید. این آلودگی از آغاز شبکه اینترنت را تغییر داده و آن را از یک معدن اطلاعات به یک مرداب از دادههای تکراری و جعلی تبدیل کرده است؛ دادههایی که میتوانند امنیت مدلهای هوشمند را تهدید کنند و همچنین توانایی انسانها برای دسترسی به حقیقت را کاهش دهند.
اقتصادِ سایۀ دیجیتال
نمیتوان پدیدۀ «پسماند هوش مصنوعی» را بدون در نظر گرفتن انگیزههای اقتصادیای که آن را تغذیه میکنند فهمید. در فضایی که الگوریتمهای موتورهای جستوجو، تولید انبوه و بهروزرسانی سریع را پاداش میدهند، «تولیدکنندگان محتوای خودکار» در هوش مصنوعی ابزاری یافتهاند تا هر روز هزاران مقاله را با کمترین هزینه ممکن تزریق کنند.
از این موضوع فراتر رفته و تنها بهعنوان متنهای بیکیفیت و سست مطرح نمیشود، بلکه به یک راهبردِ عامدانه برای غرقکردن فضای دیجیتال با محتوایی تبدیل شده که در ظاهر «مفید» به نظر میرسد، اما در جوهرهی خود فاقد ارزش است.
گزارشهای فنیِ امسال نشان میدهد که این محتوا اکنون به مانعی برای نوآوری تبدیل شده است؛ بهطوریکه شرکتها و نهادها مجبورند هزینههای هنگفتی را صرف فناوریهای پالایش و دستهبندی کنند تا کیفیت خروجیهای دانشی خود را بازیابی کنند. این مسئله نوعی «مالیات پنهان» بر دانش دیجیتال ایجاد کرده است.
معضلِ فروپاشیِ درونی
«فروپاشیِ مدلها» خطرناکترین بُعد این «آفت دیجیتال» را تشکیل میدهد؛ چیزی شبیه به «فرسایش ژنتیکی» برای هوش مصنوعی. هنگامی که مدلهای زبانی بزرگ شروع به یادگیری از دادههایی میکنند که توسط مدلهای دیگر تولید شده است ـ و این امر با گسترش «زبالههای هوش مصنوعی» عملاً اجتنابناپذیر شده ـ در دام «بازخوردِ کشنده» میافتند.
پژوهشهای منتشرشده در مجله انگلیسی نیچر نشان میدهند که این فرایند باعث از بین رفتن اطلاعات کمیاب و دیدگاههای متنوع میشود؛ بهگونهای که الگوریتمها شروع به تکرار الگوهای رایجتر کرده و جزئیات دقیق را به حاشیه میبرند.
نتیجه، یک هوش مصنوعی «تکچشمانداز» است که از خلاقیت بیبهره بوده و دچار بزرگ شدن خطاها و توهمات میشود؛ بنابراین، اتکا به آن در حوزههای حساس مانند پزشکی و قانون امری پرخطر است.
بازآفرینی نقشهٔ اعتماد و جستوجوی دیجیتال
این سیلِ زبالههای دیجیتال موجب یک دگرگونی ریشهای در رفتار کاربران و شرکتهای فناوری بهعنوان واکنشی دفاعی شد؛ به همین دلیل دیگر «رتبهگرفتن در نتایج جستوجو» برای اثبات اعتبار کافی نیست.
مؤسسهٔ «گارتنر» (آمریکا) در گزارشی که امسال منتشر کرده پیشبینی میکند حجم جستوجوی سنتی به دلیل گرایش کاربران به «یارهای هوشمند» یا «پلتفرمهای بسته» میتواند تا ۲۵٪ کاهش یابد.
این تغییر، موتورهای جستوجو را وادار کرده است معیارهای خود را برای ««تجربه، تخصص، اعتبارپذیری، قابلیت اعتماد»(E-E-A-T) سختگیرانهتر کنند. همچنین طبق گفتهٔ گارتنر، سایتهایی که دوام میآورند آنهایی هستند که محتوای منحصربهفرد مبتنی بر تجربهٔ انسانی ارائه میدهند.
در نتیجهٔ این تحول، موتورهای جستوجو تعریف معیارهای کیفیت را بهگونهای مجدد بازتعریف کردهاند تا بهطور جدی بر «اصالت انسانی» و تجربهٔ میدانیِ مستند تمرکز کنند. اکنون شاهد بازگشت قدرتمند پلتفرمهایی هستیم که بر اعتبارسنجی انسانی و شهرت فردی تکیه دارند و در این مسیر، «امضای انسانی» روی اطلاعات بهعنوان تنها تضمین واقعی در برابر جعل و دستکاریِ خودکار عمل میکند.
این تغییر نشاندهندهٔ یک میل جهانی برای بازپسگیری کنترل فضای عمومی و محافظت از آن در برابر فرسایش شناختی است که مدلهای مولدِ خودکار ایجاد میکنند.
کارشناسان هوش مصنوعی، از جمله پیشگامان در حوزه «اخلاقیات داده»، بر این باورند که به نقطهی عطف رسیدهایم. در حالی که برخی معتقدند راهحل در توسعه «هوش مصنوعی برای مقابله با پسماندهای هوش مصنوعی» نهفته است، برخی دیگر هشدار میدهند که این موضوع تنها نوعی فرار رو به جلو است.
در همین حال، کارشناسانی از سازمان ملل تأکید میکنند که جهان امروز به نقطهای رسیده که برای حفاظت از حقوق دیجیتال در برابر محتوای مخربِ تولیدشده بهصورت خودکار، نیازمند مداخلهای قانونگذارانه است. همزمان، بسیاری از صداها در این حوزه میگویند مقابله با این «همهگیری» نیازمند «قراردادی دیجیتال» جدید است؛ قراردادی که دوباره شأن «مالکیت فکری انسانی» را به رسمیت بشناسد و شفافیت کامل را در برچسبگذاری محتوای تولیدشده بهصورت خودکار الزامی کند.
از نگاه آنها، آینده نه در افزایش حجم دادهها، بلکه در «پاکیزگی» و «سلامت» دادههاست. همانطور که یکی از پژوهشگران این حوزه میگوید: «اگر امروز در حفاظت از حقیقت دادههای انسانی موفق نشویم، فردا هوش مصنوعیای را به ارث میبریم که آیینهاش مخدوش است؛ جهانی را از طریق پسماندهای خودش میبیند، نه از طریق واقعیت.»
بدین ترتیب، شرط اصلی موفقیت در این است که بتوانیم «انسان» را بهعنوان مرجع نهایی و اصیلِ اطلاعات، در میان هیاهوی بیپایانِ ماشینها حفظ کنیم.