نظریه «اینترنت مرده»: از حاشیه تا کانون توجه

مدیرعامل اپنایآی اعلام کرده است که هرگز نظریه اینترنت مرده را جدی نگرفته است اما این موضوع در آینده عامل بروز مسائلی میشود.
سام آلتمن، مدیرعامل شرکت اُپنایآی و خالق محبوبترین ابزار تولید متن با هوش مصنوعی (ChatGPT)، هفته گذشته در پستی در پلتفرم ایکس نوشت: «هرگز نظریه اینترنت مرده را جدی نگرفته بودم، اما به نظر میرسد واقعا حسابهای کاربری زیادی در توییتر وجود دارند که توسط مدلهای زبانی بزرگ اداره میشوند.»
این اظهار نظر که از سوی یکی از چهرههای اصلی دنیای هوش مصنوعی مطرح شد، واکنشهای طنزآمیز زیادی در پی داشت. یکی از کاربران در پاسخی با تقلید از لحن اغراقآمیز متنهای تولیدشده توسط چتجیپیتی نوشت: «کاملا درست میگویید! این مشاهده نه تنها هوشمندانه است، بلکه نشان میدهد شما در سطح بالاتری عمل میکنید.»
خاستگاه یک نظریه
اشاره آلتمن به ایدهای بود که نخستین بار در سال ۲۰۲۱ در یک فروم اینترنتی با نام «کافه مکینتاش جاده آگورا» مطرح شد. در آنجا نویسندهای ناشناس با نام کاربری «IlluminatiPirate» نوشت: «اینترنت خالی و عاری از انسان بهنظر میرسد. وعده تبادل آزاد اندیشهها از بین رفته و اینترنت توسط گروهی قدرتمند ربوده شده است.»
بر اساس این نظریه، اینترنت که روزی پر از فعالیت انسانی بود، اکنون «مرده» است و توسط رباتها اداره میشود. در آن زمان، این تصور بیشتر شبیه به یک نظریه توطئه بهنظر میرسید، همانند ادعای عجیبی که میگفت «دولت آمریکا با استفاده از هوش مصنوعی در حال دستکاری روانی کل جمعیت جهان است». مجله آتلانتیک همان سال مقالهای با تیتر «نظریه اینترنت مرده نادرست است اما واقعی به نظر میرسد» منتشر کرد.
واقعیت این بود که در آن دوره، رباتها نقش پررنگی در اینترنت داشتند، اما بیشتر برای رتبهبندی وبسایتها در موتورهای جستجو یا تولید محتوای سطحی برای شبکههای اجتماعی استفاده میشدند و هنوز توانایی تولید متنهای قانعکننده را نداشتند.
آدام آلکسیک، زبانشناس و نویسنده کتاب Algospeak، در گفتوگو با مجله تایم توضیح میدهد: «در آن زمان، هوش مصنوعی در مقیاسی کار نمیکرد که بتوان حسابهای کاربری واقعینما داشت که کل اینترنت را بچرخانند. نظریه اینترنت مرده پیشتر یک توطئه حاشیهای محسوب میشد، اما حالا بسیار واقعیتر به نظر میرسد.»
مدل کسبوکار در خطر
اینترنت سالها بر یک منطق ساده اقتصادی استوار بود: تبلیغکنندگان به خالقان محتوا بر اساس تعداد کاربران انسانی جذبشده پول میدادند. اما در سالهای اخیر، انسانها به بخشی فرعی از این چرخه تبدیل شدهاند.
گزارشی از شرکت تحلیل تبلیغات «آدالیتیکس» در مارس ۲۰۲۴ نشان داد که از سال ۲۰۲۰، میلیونها تبلیغ، از برندهایی مانند فایزر گرفته تا پلیس نیویورک، به جای کاربران واقعی برای رباتها نمایش داده شده است. حتی مواردی ثبت شده که تبلیغات توسط سرور گوگل به رباتهای خود گوگل نشان داده شده است.
بر اساس دادههای شرکت امنیت سایبری «ایمپروا»، سهم ترافیک رباتها طی یک دهه گذشته بهطور مداوم افزایش یافته و در سال ۲۰۲۴ برای نخستین بار از ترافیک انسانی پیشی گرفته است؛ رقمی که به ۵۱ درصد رسیده است.
تغییر ماهیت محتوا
اگرچه رباتها در گذشته بیشتر ناظرانی منفعل بودند، اما با معرفی چتجیپیتی توسط اُپنایآی در سال ۲۰۲۲ شرایط تغییر کرد. از آن زمان، حجم محتوای تولیدشده توسط هوش مصنوعی بهطور سرسامآوری رشد کرده است.
براساس گزارش استارتآپ «Originality AI»، سهم وبسایتهای دارای محتوای تولیدشده توسط هوش مصنوعی در میان ۲۰ نتیجه نخست گوگل، از زمان عرضه چتجیپیتی، بیش از ۴۰۰ درصد افزایش داشته است.
آلکسیک در این باره میگوید: «از نگاه پلتفرمها، پر کردن فضای اینترنت با محتوای کمکیفیت (Slop) بهصرفه است، چون در این صورت هزینه کمتری به خالقان انسانی پرداخت میکنند.»
این روند همزمان با تغییر موتورهای جستجو پیش میرود. گوگل اکنون خلاصههای هوش مصنوعی را در بالای نتایج جستجو ارائه میدهد؛ چیزی که کاربران را از کلیک روی مقالات اصلی بینیاز میکند و در نتیجه درآمد تبلیغاتی تولیدکنندگان محتوا کاهش مییابد.
فراتر از شبکههای اجتماعی
تأثیر هوش مصنوعی به پلتفرمهای اجتماعی محدود نمانده است. در اوت ۲۰۲۴، وبسایت Dispatch گزارش داد که مجموعهای از مقالات منتشرشده در مجله Wired و چند نشریه دیگر، پس از مشخص شدن اینکه نویسنده آنها یک هوش مصنوعی با نام «مارگو بلانشار» بوده، حذف شدند. این نمونه نشان داد که برای کلاهبرداران، هوش مصنوعی فرصتی تازه برای سوءاستفاده ایجاد کرده است.
در چنین شرایطی، تصویر «IlluminatiPirate» از اینترنتی متروکه که تنها توسط رباتها اداره میشود، بیش از هر زمان دیگری واقعی بهنظر میرسد.
پیامدهای انسانی
انبوه محتوای کمکیفیت نهتنها کاربران، بلکه خود توسعهدهندگان هوش مصنوعی را هم با مشکل روبهرو کرده است. مدلهای زبانی بزرگ (LLMs) بر اساس دادههای اینترنت آموزش میبینند. اگر محتوای باکیفیت کمتر شود و مدلها مجبور شوند بر دادههای تولیدشده توسط خودشان تکیه کنند، دچار «فروپاشی» میشوند.
مقالهای در نشریه Nature در سال ۲۰۲۴ نشان داد که این مدلها هنگام آموزش بر روی دادههای مصنوعی خود، کیفیتشان بهشدت افت میکند.
برخی شرکتها مانند «کلادفلر» پیشنهاد دادهاند دسترسی رباتها به وبسایتها محدود و مشروط به پرداخت هزینه شود. متیو پرینس، مدیرعامل این شرکت، در مصاحبهای گفت: «دیدگاه آرمانی من جهانی است که در آن انسانها محتوا را رایگان دریافت کنند و رباتها مجبور به پرداخت هزینه گزاف باشند.»
تأثیر بر درک جمعی
این پدیده تنها بر اینترنت تأثیر نمیگذارد، بلکه ادراک جمعی انسانها را هم دگرگون میکند. آلکسیک هشدار میدهد: «مشکل این نیست که رباتها ما را فرا گرفتهاند، بلکه این است که ما هم به تدریج شبیه رباتها شدهایم.»
Scientific American در ژوئیه ۲۰۲۴ گزارش داد که واژههایی چون delve (کاوش کردن) و meticulous (دقیق و وسواسی)، که در نوشتههای چتجیپیتی رایجاند، پس از عرضه این ابزار در پادکستهای مکالمهای نیز بیشتر به کار رفتهاند.
حتی خود آلتمن هم در پستی اشاره کرد که «افراد واقعی ویژگیهای زبانی مدلهای زبانی بزرگ را تقلید کردهاند.»
هرچند استفاده از این زبان ذاتا بد نیست، اما الگوریتمهایی که محتوا را گزینش و تقویت میکنند، پیشتر هم واقعیت را بهگونهای تحریف میکردند. حالا با تولید انبوه متنهای ماشینی، خطر آن وجود دارد که ورودی انسانی به گفتوگوی آنلاین کمتر و «واقعیت جمعی» بیش از پیش متزلزل شود.
آلکسیک در پایان هشدار میدهد: «امروز در آمریکا شکاف ادراکی رو به گسترشی داریم؛ جایی که مردم فکر میکنند دیدگاه دیگران افراطیتر از آن چیزی است که واقعا هست. این همان روانپریشی هوش مصنوعی در مقیاس انبوه است.»
نظرات
دیدگاه خود را اشتراک گذارید