برگزیده
📣 پخش زنده مسابقات زولا هر روز ساعت 17 از آپارات
1%
  • 0/10

آیا ChatGPT امن است؟

آنچه باید قبل از شروع چت با ربات هوش مصنوعی بدانید

آیا ChatGPT امن است؟ ۰ ۱۳ اردیبهشت ۱۴۰۳ مقالات فناوری کپی لینک
chatGPT

اواخر سال ۲۰۲۲ شرکت OpenAI در اقدامی از ربات هوش مصنوعی ChatGPT با قابلیت‌هایی که تقریباً باورنکردنی به نظر می‌رسید، دنیای فناوری را تغییر داد و حالا نگرانی‌هایی در رابطه با امنیت این ربات وجود دارد.

برای سال‌ها، فناوری هوش مصنوعی با نسخه‌های اولیه که می‌توانستند متن‌های نامفهوم یا عکس‌های تقریبا منسجم تولید کنند، توسعه یافته بود. همه چیز جالب به نظر می‌رسید، اما این به‌معنای مفید و کاربردی بودن صرف نبود. در مقایسه، ChatGPT و بعداً Bing مایکروسافت، می‌توانستند به انگلیسی صحبت کنند و قادر به تحقیق و جستجوی اطلاعات به روش‌هایی بودند که قبلا هرگز ندیده بودیم. این موضوع یک جهش بزرگ رو به جلو بود و جهان را تغییر داد. تنها در عرض دو ماه، تعداد کاربران ChatGPT به صد میلیون نفر در سراسر دنیا رسید و از آن زمان، دنیا با وجود هوش مصنوعی تغییرات شگرفی را به‌خود دیده است.

اما آیا هوش مصنوعی جایگزین ما در حرفه و شغل‌مان خواهد شد؟ آیا هوش مصنوعی به «ماتریکس» یا «نابودگر» تبدیل می‌شود؟ و آیا می‌توانیم بگوییم که این هوش می‌توان جای انسان را بگیرد؟

اما همان‌طور که پیش‌بینی می‌شود برخی از بدترین ترس‌ها در مورد هوش مصنوعی هنوز محقق نشده که البته این موضوع به‌معنا امن بودن ChatGPT یا رقبای آن نیست. نگرانی‌های واقع بینانه زیادی درباره‌ی فناوری آنها وجود دارد که به مدل‌های زبان بزرگ (LLM) معروف است، از حریم خصوصی داده‌‌ها تا انتشار اطلاعات غلط خطرناک و حتی سوء‌استفاده از هوش مصنوعی توسط عوامل مخرب. بنابراین، در اینجا خطرات واقعی چت ربات‌های هوش مصنوعی مانند ChatGPT وجود دارد، بر این اساس می‌دانید هنگام استفاده از آن‌ها چه چیزهایی را درباره خودتان به آنها می‌آموزید.

ChatGPT چیست و چگونه کار می‌کند؟

قبل از اینکه بتوانیم خطرات و نگرانی‌های ایمنی ناشی از ChatGPT و دیگر چت‌بات‌های مشابه را درک کنیم، باید نحوه عملکرد آن‌ها در سطح پایه را درک کنیم. ChatGPT نوعی هوش مصنوعی است که LLM نامیده می‌شود، به این معنی که با حجم عظیمی از اطلاعات، از کتاب گرفته تا مقالات دانشگاهی، محتوای اینترنتی و هر چیز دیگری آموزش دیده است. این منابع را تجزیه و تحلیل می‌کند و زمانی‌که شما یک اعلان را تایپ می‌کنید، پاسخی بر اساس احتمالات آماری به‌دست آمده از داده‌های آموزشی خود به‌شما می‌دهد.

برای مثال، اگر بپرسید “2+2 چیست؟” ChatGPT ریاضی را به روشی که بیشتر انسان‌ها می‌دانند نمی‌داند. درعوض، بر الگوهایی که دریافت کرده، تکیه دارد. از آنجایی که اغلب معادلاتی مانند “2+2=4” را در داده‌های خود شناسایی کرده است، به احتمال زیاد پاسخی که می‌دهد عدد “4” است. با‌این‌حال، از آنجا که همیشه اینطور نیست، گاهی اوقات به شما می‌گوید که 2+2 برابر است با ایالت یوتا، یا چیزی مشابه، که فرضیه اشتباه غیرقابل درکی است.

ChatGPT و چت‌بات‌های مشابه به دور از توانایی استدلال انسانی، فقط بر اساس اطلاعاتی که از قبل دریافت کرده‌اند به‌شما پاسخ می‌دهند. البته معمولاً این چت‌بات‌ها خوب کار می‌کند، اما به این معنی است که LLM ها اغلب اشتباه می‌کنند و هوش مصنوعی احتمالاً تفاوت را نمی‌داند.

البته اطلاعات بیشتری در مورد نحوه عملکرد هوش مصنوعی وجود دارد که در اینجا امکان پرداختن به همه این موضوعات وجود ندارد. حتی قبل از در نظر گرفتن پیامدهای اجتماعی LLM‌ها، مهم است که به یاد داشته باشید بسیاری از آنها از طریق اینترنت کار می‌کنند. جالب است بدانید هر بار که درخواستی را در ChatGPT، Bing Chat، Google Gemini یا هر LLM دیگری تایپ می‌کنید، کلمات شما از طریق اینترنت به سیستم‌های کامپیوتری شرکت مربوطه منتقل می‌شوند.

اما ChatGPT با داده‌های شما چه می‌کند. سیاست حفظ حریم خصوصی OpenAI روشن می‌کند که قصد دارد از داده‌های شما برای آموزش بیشتر مدل‌های خود استفاده کند و ممکن است اطلاعات شخصی شما را بدون اطلاع‌تان در اختیار اشخاص ثالث قرار دهد، مگر اینکه طبق قانون الزامی‌ شود. کارمندان این شرکت همچنین به داده‌های کاربران برای پاسخ‌ به‌سوالات دسترسی دارند.

اما این فقط OpenAI نیست که اطلاعات شما را در اختیار دارد. شرکای آن که شامل مایکروسافت و شرکت ذخیره‌سازی ابری Snowflake می‌شود، نیز دسترسی دارند. البته همین امر در مورد بسیاری از هوش مصنوعی‌های رقیب نیز صدق می‌کند. Google Gemini در حال حاضر پیامی را نشان می‌دهد که به کاربر هشدار می‌دهد: مکالمات شما توسط بازبین‌های انسانی پردازش می‌شوند… چیزی را که نمی‌خواهید بازبینی یا استفاده شود وارد نکنید.

این نگرانی‌های حفظ حریم خصوصی تئوری نیست. در ژوئیه ۲۰۲۳، واشنگتن پست گزارش داد که کمیسیون تجارت فدرال ایالات متحده تحقیقات OpenAI را به دلیل نشت داده‌ها و عدم دقت عمومی این فناوری آغاز کرده است. در همین‌حال، یک محقق حریم خصوصی در اتحادیه اروپا شکایتی را مبنی‌بر اینکه OpenAI قوانین حریم خصوصی اروپا را نقض می‌کند، ارائه کرد.

جدای از نگرانی‌های مربوط به حفظ حریم خصوصی، خطر دیگر LLM ها مانند ChatGPT این است که آنها مستعد ایجاد و انتشار اطلاعات نادرست هستند. پاسخ‌های نادرست اغلب به‌عنوان “توهم” شناخته می‌شوند، اما این یک نام اشتباه است. LLM‌‌ها نمی‌فهمند چه می‌گویند. هدف آنها توزیع احتمال روی توالی کلمات یا توالی نشانه‌ها است که به آنها اجازه می‌دهد تا پیش‌بینی کنند کلمه بعدی در یک توالی چیست. به عبارت دیگر، صرف‌نظر از اشتباه بودن مدل‌های آماری، هوش مصنوعی با اطمینان کلمه نادرست را بیان می‌کند.

معنی آن برای شما این است که اگر سوالی مانند “چه مدت می‌توان شیر را خارج از یخچال نگه‌داری کرد؟” وارد کنید. براساس اطلاعات آماری که پیشتر دریافت کرده با عباراتی مانند “بیشتر از دو ساعت نیست”، به شما می‌گوید که این طولانی‌ترین زمانی است که باید شیر خارج از یخچال نگه‌داری کنید. اما در مورد چیزی که کمتر شناخته شده یا ثابت است سؤال می‌کنید چه می‌گوید؟ هنگامی که از ChatGPT در مورد مسیرهای پیاده روی در Red Rocks در کلرادو سؤال شد، ChatGPT بیشتر موارد را به درستی دریافت کرد، اما مسیرهایی را نام برد که وجود ندارند.

علیرغم تلاش‌هایی که شرکت‌هایی مانند OpenAI می‌کنند تا از ارائه توصیه‌های خطرناک یا اطلاعات نادرست توسط هوش مصنوعی به کاربران جلوگیری کنند، می‌توان این اطلاعات را دور زد یا هوش مصنوعی را به‌سادگی فریب داد. یک استاد دانشگاه A&M تگزاس پس از اینکه از ChatGPT پرسید که آیا مقالات دانشجویانش توسط یک هوش مصنوعی نوشته شده است یا خیر، تلاش کرد کار همه دانشجویان را زیر سوال ببرد. براین اساس تا زمانی که نتوانید بین هوش مصنوعی و کار انسان، تفاوت را تشخیص دهید کار سختی خواهد بود.

در واقع، زمانی که ChatGPT را با پاراگراف قبلی که توسط انسان نوشته شده بود در همین مقاله مورد آزمایش قرار دادند، هوش مصنوعی ادعا کرد که آن را نوشته است. تا‌کنون، روی خطراتی که ChatGPT می‌تواند برای افراد و کار آنها ایجاد کند، تمرکز شده است. اما باید به بررسی نگرانی‌های ایمنی برای جامعه پرداخت. به هر حال، در جامعه‌ای که LLM ها به سرعت در حال تبدیل شدن به جریان اصلی هستند، چقدر ایمن هستید؟ به نظر نمی‌رسد که ربات‌ها هنوز قادر به قیام علیه بشریت باشند. اما انسان‌ها از این فناوری به روش‌های ترسناک سوء‌استفاده می‌کنند و ادامه خواهند داد و از آنجایی که آنها بر روی داده‌های انسانی آموزش دیده‌اند، LLM‌ها برخی از بدترین نقص‌های ما را شناسایی می‌کنند.

شرکت‌ها تلاش کرده‌اند تا برخی از این مشکلات را حل کنند. به خاطر داشته باشید که هوش مصنوعی اساساً در مورد همه چیز در اینترنت، از جمله انبوهی از نژادپرستی، تبعیض جنسی و سایر سوگیری‌های مضر آموزش دیده است. بنابراین، شرکت‌ها سعی کرده‌اند هوش مصنوعی خود را برنامه ریزی کنند تا فعالانه از این مشکلات در پاسخ‌های خود جلوگیری کنند. این از نظر تئوری خوب به‌نظر می‌رسد، اما در فوریه 2024، Gemini LLM گوگل تصاویری را ایجاد کرد که نازی‌ها را به عنوان رنگین پوستان نشان می‌داد و سروصدای زیادی به‌پا کرد.

از LLM ها برای خواندن درخواست‌های شغلی نیز استفاده می‌شود، این مشکل زمانی است که بر اساس تحقیقات قبلی متوجه شدند که مدیران استخدام انسانی نسبت به نام، نژاد، جنسیت و عوامل دیگر تعصب دارند. در واقع، هنگامی که رزومه‌ای از متقاضیان واجد شرایط یکسان داده شد، محققان دریافتند که LLM نیز تصمیمات مغرضانه‌ای می‌گیرد. این یک یادآوری خوب است که اگر ما هوش مصنوعی‌های نسل فعلی را خیلی سریع بپذیریم، سناریوهای وحشتناک ممکن است شروع به ظهور کنند.




نظرات

دیدگاه خود را اشتراک گذارید
اشتراک
به من اطلاع بده
guest

0 دیدگاه
Inline Feedbacks
View all comments