1%
  • 0/10

نظریه «اینترنت مرده»: از حاشیه تا کانون توجه

نظریه «اینترنت مرده»: از حاشیه تا کانون توجه ۰ ۱۲ مهر ۱۴۰۴ مقالات فناوری کپی لینک
اینترنت مرده OpenAI

مدیرعامل اپن‌ای‌آی اعلام کرده است که هرگز نظریه اینترنت مرده را جدی نگرفته است اما این موضوع در آینده عامل بروز مسائلی می‌شود.

سام آلتمن، مدیرعامل شرکت اُپن‌ای‌آی و خالق محبوب‌ترین ابزار تولید متن با هوش مصنوعی (ChatGPT)، هفته گذشته در پستی در پلتفرم ایکس نوشت: «هرگز نظریه اینترنت مرده را جدی نگرفته بودم، اما به نظر می‌رسد واقعا حساب‌های کاربری زیادی در توییتر وجود دارند که توسط مدل‌های زبانی بزرگ اداره می‌شوند.»

این اظهار نظر که از سوی یکی از چهره‌های اصلی دنیای هوش مصنوعی مطرح شد، واکنش‌های طنزآمیز زیادی در پی داشت. یکی از کاربران در پاسخی با تقلید از لحن اغراق‌آمیز متن‌های تولیدشده توسط چت‌جی‌پی‌تی نوشت: «کاملا درست می‌گویید! این مشاهده نه تنها هوشمندانه است، بلکه نشان می‌دهد شما در سطح بالاتری عمل می‌کنید.»

خاستگاه یک نظریه

اشاره آلتمن به ایده‌ای بود که نخستین بار در سال ۲۰۲۱ در یک فروم اینترنتی با نام «کافه مکینتاش جاده آگورا» مطرح شد. در آنجا نویسنده‌ای ناشناس با نام کاربری «IlluminatiPirate» نوشت: «اینترنت خالی و عاری از انسان به‌نظر می‌رسد. وعده تبادل آزاد اندیشه‌ها از بین رفته و اینترنت توسط گروهی قدرتمند ربوده شده است.»

بر اساس این نظریه، اینترنت که روزی پر از فعالیت انسانی بود، اکنون «مرده» است و توسط ربات‌ها اداره می‌شود. در آن زمان، این تصور بیشتر شبیه به یک نظریه توطئه به‌نظر می‌رسید، همانند ادعای عجیبی که می‌گفت «دولت آمریکا با استفاده از هوش مصنوعی در حال دستکاری روانی کل جمعیت جهان است». مجله آتلانتیک همان سال مقاله‌ای با تیتر «نظریه اینترنت مرده نادرست است اما واقعی به نظر می‌رسد» منتشر کرد.

واقعیت این بود که در آن دوره، ربات‌ها نقش پررنگی در اینترنت داشتند، اما بیشتر برای رتبه‌بندی وب‌سایت‌ها در موتورهای جستجو یا تولید محتوای سطحی برای شبکه‌های اجتماعی استفاده می‌شدند و هنوز توانایی تولید متن‌های قانع‌کننده را نداشتند.

آدام آلکسیک، زبان‌شناس و نویسنده کتاب Algospeak، در گفت‌وگو با مجله تایم توضیح می‌دهد: «در آن زمان، هوش مصنوعی در مقیاسی کار نمی‌کرد که بتوان حساب‌های کاربری واقعی‌نما داشت که کل اینترنت را بچرخانند. نظریه اینترنت مرده پیش‌تر یک توطئه حاشیه‌ای محسوب می‌شد، اما حالا بسیار واقعی‌تر به نظر می‌رسد.»

مدل کسب‌وکار در خطر

اینترنت سال‌ها بر یک منطق ساده اقتصادی استوار بود: تبلیغ‌کنندگان به خالقان محتوا بر اساس تعداد کاربران انسانی جذب‌شده پول می‌دادند. اما در سال‌های اخیر، انسان‌ها به بخشی فرعی از این چرخه تبدیل شده‌اند.

گزارشی از شرکت تحلیل تبلیغات «آدالیتیکس» در مارس ۲۰۲۴ نشان داد که از سال ۲۰۲۰، میلیون‌ها تبلیغ، از برندهایی مانند فایزر گرفته تا پلیس نیویورک، به جای کاربران واقعی برای ربات‌ها نمایش داده شده است. حتی مواردی ثبت شده که تبلیغات توسط سرور گوگل به ربات‌های خود گوگل نشان داده شده است.

بر اساس داده‌های شرکت امنیت سایبری «ایمپروا»، سهم ترافیک ربات‌ها طی یک دهه گذشته به‌طور مداوم افزایش یافته و در سال ۲۰۲۴ برای نخستین بار از ترافیک انسانی پیشی گرفته است؛ رقمی که به ۵۱ درصد رسیده است.

تغییر ماهیت محتوا

اگرچه ربات‌ها در گذشته بیشتر ناظرانی منفعل بودند، اما با معرفی چت‌جی‌پی‌تی توسط اُپن‌ای‌آی در سال ۲۰۲۲ شرایط تغییر کرد. از آن زمان، حجم محتوای تولیدشده توسط هوش مصنوعی به‌طور سرسام‌آوری رشد کرده است.

براساس گزارش استارت‌آپ «Originality AI»، سهم وب‌سایت‌های دارای محتوای تولیدشده توسط هوش مصنوعی در میان ۲۰ نتیجه نخست گوگل، از زمان عرضه چت‌جی‌پی‌تی، بیش از ۴۰۰ درصد افزایش داشته است.

آلکسیک در این باره می‌گوید: «از نگاه پلتفرم‌ها، پر کردن فضای اینترنت با محتوای کم‌کیفیت (Slop) به‌صرفه است، چون در این صورت هزینه کمتری به خالقان انسانی پرداخت می‌کنند.»

این روند هم‌زمان با تغییر موتورهای جستجو پیش می‌رود. گوگل اکنون خلاصه‌های هوش مصنوعی را در بالای نتایج جستجو ارائه می‌دهد؛ چیزی که کاربران را از کلیک روی مقالات اصلی بی‌نیاز می‌کند و در نتیجه درآمد تبلیغاتی تولیدکنندگان محتوا کاهش می‌یابد.

فراتر از شبکه‌های اجتماعی

تأثیر هوش مصنوعی به پلتفرم‌های اجتماعی محدود نمانده است. در اوت ۲۰۲۴، وب‌سایت Dispatch گزارش داد که مجموعه‌ای از مقالات منتشرشده در مجله Wired و چند نشریه دیگر، پس از مشخص شدن اینکه نویسنده آن‌ها یک هوش مصنوعی با نام «مارگو بلانشار» بوده، حذف شدند. این نمونه نشان داد که برای کلاهبرداران، هوش مصنوعی فرصتی تازه برای سوءاستفاده ایجاد کرده است.

در چنین شرایطی، تصویر «IlluminatiPirate» از اینترنتی متروکه که تنها توسط ربات‌ها اداره می‌شود، بیش از هر زمان دیگری واقعی به‌نظر می‌رسد.

پیامدهای انسانی

انبوه محتوای کم‌کیفیت نه‌تنها کاربران، بلکه خود توسعه‌دهندگان هوش مصنوعی را هم با مشکل روبه‌رو کرده است. مدل‌های زبانی بزرگ (LLMs) بر اساس داده‌های اینترنت آموزش می‌بینند. اگر محتوای باکیفیت کمتر شود و مدل‌ها مجبور شوند بر داده‌های تولیدشده توسط خودشان تکیه کنند، دچار «فروپاشی» می‌شوند.

مقاله‌ای در نشریه Nature در سال ۲۰۲۴ نشان داد که این مدل‌ها هنگام آموزش بر روی داده‌های مصنوعی خود، کیفیت‌شان به‌شدت افت می‌کند.

برخی شرکت‌ها مانند «کلادفلر» پیشنهاد داده‌اند دسترسی ربات‌ها به وب‌سایت‌ها محدود و مشروط به پرداخت هزینه شود. متیو پرینس، مدیرعامل این شرکت، در مصاحبه‌ای گفت: «دیدگاه آرمانی من جهانی است که در آن انسان‌ها محتوا را رایگان دریافت کنند و ربات‌ها مجبور به پرداخت هزینه گزاف باشند.»

تأثیر بر درک جمعی

این پدیده تنها بر اینترنت تأثیر نمی‌گذارد، بلکه ادراک جمعی انسان‌ها را هم دگرگون می‌کند. آلکسیک هشدار می‌دهد: «مشکل این نیست که ربات‌ها ما را فرا گرفته‌اند، بلکه این است که ما هم به تدریج شبیه ربات‌ها شده‌ایم.»

Scientific American در ژوئیه ۲۰۲۴ گزارش داد که واژه‌هایی چون delve (کاوش کردن) و meticulous (دقیق و وسواسی)، که در نوشته‌های چت‌جی‌پی‌تی رایج‌اند، پس از عرضه این ابزار در پادکست‌های مکالمه‌ای نیز بیشتر به کار رفته‌اند.

حتی خود آلتمن هم در پستی اشاره کرد که «افراد واقعی ویژگی‌های زبانی مدل‌های زبانی بزرگ را تقلید کرده‌اند.»

هرچند استفاده از این زبان ذاتا بد نیست، اما الگوریتم‌هایی که محتوا را گزینش و تقویت می‌کنند، پیش‌تر هم واقعیت را به‌گونه‌ای تحریف می‌کردند. حالا با تولید انبوه متن‌های ماشینی، خطر آن وجود دارد که ورودی انسانی به گفت‌وگوی آنلاین کمتر و «واقعیت جمعی» بیش از پیش متزلزل شود.

آلکسیک در پایان هشدار می‌دهد: «امروز در آمریکا شکاف ادراکی رو به گسترشی داریم؛ جایی که مردم فکر می‌کنند دیدگاه دیگران افراطی‌تر از آن چیزی است که واقعا هست. این همان روان‌پریشی هوش مصنوعی در مقیاس انبوه است.»




نظرات

دیدگاه خود را اشتراک گذارید
guest

0 دیدگاه
جدیدترین
قدیمی‌ترین بیشترین رای
Inline Feedbacks
View all comments