آیا میتوانید به پاسخهای چتبات هوش مصنوعی اعتماد کنید؟

همچنان که افراد بیشتری به رباتهای هوش مصنوعی برای ارائه پاسخ به هر پرسشی که ممکن است داشته باشند، اعتماد میکنند، سوالاتی در مورد چگونگی تأثیر صاحبان رباتهای هوش مصنوعی و معنای آن برای جریان دقیق اطلاعات در سراسر وب مطرح میشود. اما آیا چتبات هوش مصنوعی قابل اعتمادند؟
هفته گذشته، چتبات Grok شرکت X، پس از گزارشهایی مبنی بر اینکه تغییرات داخلی در کد پایه Grok منجر به خطاهای بحثبرانگیز در پاسخهای آن شده است، در کانون توجه قرار گرفت.

همانطور که در این مثال، که یکی از چندین مورد به اشتراک گذاشته شده توسط روزنامهنگار مت بایندر در Threads بود، میبینید، چتبات هوش مصنوعی Grok، به دلایلی، به طور تصادفی شروع به ارائه اطلاعات به کاربران در مورد “نسلکشی سفیدپوستان” در آفریقای جنوبی در قالب پرسشهای نامربوط کرد. چرا این اتفاق افتاد؟
چند روز بعد، xAI این خطا را توضیح داد و خاطرنشان کرد:
در ۱۴ مه، تقریباً ساعت ۳:۱۵ صبح به وقت PST، یک تغییر غیرمجاز در پیام ربات پاسخ Grok در X ایجاد شد. این تغییر که Grok را به ارائه پاسخی خاص در مورد یک موضوع سیاسی هدایت میکرد، سیاستهای داخلی و ارزشهای اصلی xAI را نقض میکرد.
بنابراین، به دلایلی، شخصی کد Grok را تغییر داد که ظاهراً به ربات دستور میداد تبلیغات سیاسی نامربوط آفریقای جنوبی را به اشتراک بگذارد.
این اتفاق نگرانکننده است. در حالی که تیم xAI ادعا میکند که بلافاصله فرآیندهای جدیدی را برای شناسایی و جلوگیری از وقوع مجدد چنین اتفاقی (و همچنین شفافتر کردن کد کنترل Grok) راهاندازی کرده است، Grok دوباره در اواخر هفته شروع به ارائه پاسخهای غیرمعمول کرد.
روز سهشنبه هفته گذشته، ایلان ماسک در پاسخ به نگرانیهای کاربران در مورد Grok، با اشاره به منابع معتبر The Atlantic و BBC گفت که «شرمآور» است که چتبات هوش مصنوعی او به این رسانههای خاص اشاره میکند. زیرا، همانطور که انتظار میرود، هر دوی آنها جزو رسانههای جریان اصلی هستند که ماسک آنها را به عنوان رسانههایی که گزارشهای جعلی را تقویت میکنند، محکوم کرده است. ظاهراً در نتیجه، گروک اکنون به کاربران اطلاع داده است که در مورد آمار و ارقام خاصی که ممکن است به آنها استناد کند، “سطحی از شک و تردید” را حفظ میکند، “زیرا اعداد میتوانند برای روایتهای سیاسی دستکاری شوند.”
بنابراین، ظاهراً ایلان برای جلوگیری از شرمساری ناشی از استناد به منابع جریان اصلی، معیار جدیدی را ایجاد کرده است که بیشتر با دیدگاههای خودش در مورد پوشش رسانهای مطابقت دارد.
کد پایه X نیز در دسترس عموم است، اما مرتباً بهروزرسانی نمیشود. به همین ترتیب، جای تعجب زیادی نخواهد بود که ببینیم xAI رویکرد مشابهی را اتخاذ میکند، یعنی افراد را به رویکرد باز و قابل دسترس خود ارجاع میدهد، اما فقط زمانی که سوالی مطرح میشود، کد را بهروزرسانی میکند.
این کار ظاهری از شفافیت را ایجاد میکند، در حالی که محرمانه بودن را حفظ میکند، در حالی که به یک کارمند دیگر نیز وابسته است که به سادگی کد را تغییر نمیدهد، همانطور که ظاهراً ممکن است.
در عین حال، xAI تنها ارائهدهنده چتبات هوش مصنوعی نیست که به تعصب متهم شده است. ChatGPT OpenAI نیز در مواقع خاصی پرسوجوهای سیاسی را سانسور کرده است، همانطور که Gemini گوگل این کار را انجام داده است، در حالی که ربات هوش مصنوعی Meta نیز در برخی از سوالات سیاسی به بنبست رسیده است.
با توجه به اینکه افراد بیشتری برای پاسخ به ابزارهای هوش مصنوعی روی میآورند، به نظر میرسد این مشکلساز باشد، زیرا مسائل کنترل اطلاعات آنلاین قرار است به مرحله بعدی وب منتقل شود.
اکنون میتوانید اطلاعات خاصتر را سریعتر و به زبان سادهتر و محاورهای دریافت کنید. اما هر کسی که جریان دادهها را کنترل میکند، پاسخها را دیکته میکند و هنگام ارزیابی دقت پاسخهای هوش مصنوعی، ارزش دارد که در نظر بگیرید منبع آنها از کجا آمده است.
زیرا اگرچه «هوش مصنوعی» اصطلاحی است که این ابزارها با آن نامگذاری شدهاند، اما در واقع اصلاً هوشمند نیستند. هیچ تفکری، هیچ مفهومسازی در پشت صحنه وجود ندارد. اینها فقط صفحات گسترده در مقیاس بزرگ هستند که پاسخهای احتمالی را با عبارات موجود در جستجوی شما مطابقت میدهند.
با این حال، در عین حال، این واقعیت که این پاسخها در چتبات هوش مصنوعی به عنوان «اطلاعات» ارائه میشوند و به روشهای مؤثری منتقل میشوند، در واقع کاربران بیشتری را به این اعتماد میرساند که اطلاعاتی که از این ابزارها دریافت میکنند صحیح است.