اخبار

آیا می‌توانید به پاسخ‌های چت‌بات هوش مصنوعی اعتماد کنید؟

همچنان که افراد بیشتری به ربات‌های هوش مصنوعی برای ارائه پاسخ به هر پرسشی که ممکن است داشته باشند، اعتماد می‌کنند، سوالاتی در مورد چگونگی تأثیر صاحبان ربات‌های هوش مصنوعی و معنای آن برای جریان دقیق اطلاعات در سراسر وب مطرح می‌شود. اما آیا چت‌بات هوش مصنوعی قابل اعتمادند؟

هفته گذشته، چت‌بات Grok شرکت X، پس از گزارش‌هایی مبنی بر اینکه تغییرات داخلی در کد پایه Grok منجر به خطاهای بحث‌برانگیز در پاسخ‌های آن شده است، در کانون توجه قرار گرفت.

آیا می‌توانید به پاسخ‌های چت‌بات هوش مصنوعی اعتماد کنید؟
آیا می‌توانید به پاسخ‌های چت‌بات هوش مصنوعی اعتماد کنید؟

همانطور که در این مثال، که یکی از چندین مورد به اشتراک گذاشته شده توسط روزنامه‌نگار مت بایندر در Threads بود، می‌بینید، چت‌بات هوش مصنوعی Grok، به دلایلی، به طور تصادفی شروع به ارائه اطلاعات به کاربران در مورد “نسل‌کشی سفیدپوستان” در آفریقای جنوبی در قالب پرسش‌های نامربوط کرد. چرا این اتفاق افتاد؟

چند روز بعد، xAI این خطا را توضیح داد و خاطرنشان کرد:

در ۱۴ مه، تقریباً ساعت ۳:۱۵ صبح به وقت PST، یک تغییر غیرمجاز در پیام ربات پاسخ Grok در X ایجاد شد. این تغییر که Grok را به ارائه پاسخی خاص در مورد یک موضوع سیاسی هدایت می‌کرد، سیاست‌های داخلی و ارزش‌های اصلی xAI را نقض می‌کرد.

بنابراین، به دلایلی، شخصی کد Grok را تغییر داد که ظاهراً به ربات دستور می‌داد تبلیغات سیاسی نامربوط آفریقای جنوبی را به اشتراک بگذارد.

این اتفاق نگران‌کننده است. در حالی که تیم xAI ادعا می‌کند که بلافاصله فرآیندهای جدیدی را برای شناسایی و جلوگیری از وقوع مجدد چنین اتفاقی (و همچنین شفاف‌تر کردن کد کنترل Grok) راه‌اندازی کرده است، Grok دوباره در اواخر هفته شروع به ارائه پاسخ‌های غیرمعمول کرد.

روز سه‌شنبه هفته گذشته، ایلان ماسک در پاسخ به نگرانی‌های کاربران در مورد Grok، با اشاره به منابع معتبر The Atlantic و BBC گفت که «شرم‌آور» است که چت‌بات هوش مصنوعی او به این رسانه‌های خاص اشاره می‌کند. زیرا، همانطور که انتظار می‌رود، هر دوی آنها جزو رسانه‌های جریان اصلی هستند که ماسک آنها را به عنوان رسانه‌هایی که گزارش‌های جعلی را تقویت می‌کنند، محکوم کرده است. ظاهراً در نتیجه، گروک اکنون به کاربران اطلاع داده است که در مورد آمار و ارقام خاصی که ممکن است به آنها استناد کند، “سطحی از شک و تردید” را حفظ می‌کند، “زیرا اعداد می‌توانند برای روایت‌های سیاسی دستکاری شوند.”

بنابراین، ظاهراً ایلان برای جلوگیری از شرمساری ناشی از استناد به منابع جریان اصلی، معیار جدیدی را ایجاد کرده است که بیشتر با دیدگاه‌های خودش در مورد پوشش رسانه‌ای مطابقت دارد.

کد پایه X نیز در دسترس عموم است، اما مرتباً به‌روزرسانی نمی‌شود. به همین ترتیب، جای تعجب زیادی نخواهد بود که ببینیم xAI رویکرد مشابهی را اتخاذ می‌کند، یعنی افراد را به رویکرد باز و قابل دسترس خود ارجاع می‌دهد، اما فقط زمانی که سوالی مطرح می‌شود، کد را به‌روزرسانی می‌کند.

این کار ظاهری از شفافیت را ایجاد می‌کند، در حالی که محرمانه بودن را حفظ می‌کند، در حالی که به یک کارمند دیگر نیز وابسته است که به سادگی کد را تغییر نمی‌دهد، همانطور که ظاهراً ممکن است.

در عین حال، xAI تنها ارائه‌دهنده چت‌بات هوش مصنوعی نیست که به تعصب متهم شده است. ChatGPT OpenAI نیز در مواقع خاصی پرس‌وجوهای سیاسی را سانسور کرده است، همانطور که Gemini گوگل این کار را انجام داده است، در حالی که ربات هوش مصنوعی Meta نیز در برخی از سوالات سیاسی به بن‌بست رسیده است.

با توجه به اینکه افراد بیشتری برای پاسخ به ابزارهای هوش مصنوعی روی می‌آورند، به نظر می‌رسد این مشکل‌ساز باشد، زیرا مسائل کنترل اطلاعات آنلاین قرار است به مرحله بعدی وب منتقل شود.

اکنون می‌توانید اطلاعات خاص‌تر را سریع‌تر و به زبان ساده‌تر و محاوره‌ای دریافت کنید. اما هر کسی که جریان داده‌ها را کنترل می‌کند، پاسخ‌ها را دیکته می‌کند و هنگام ارزیابی دقت پاسخ‌های هوش مصنوعی، ارزش دارد که در نظر بگیرید منبع آنها از کجا آمده است.

زیرا اگرچه «هوش مصنوعی» اصطلاحی است که این ابزارها با آن نامگذاری شده‌اند، اما در واقع اصلاً هوشمند نیستند. هیچ تفکری، هیچ مفهوم‌سازی در پشت صحنه وجود ندارد. اینها فقط صفحات گسترده در مقیاس بزرگ هستند که پاسخ‌های احتمالی را با عبارات موجود در جستجوی شما مطابقت می‌دهند.

با این حال، در عین حال، این واقعیت که این پاسخ‌ها در چت‌بات هوش مصنوعی به عنوان «اطلاعات» ارائه می‌شوند و به روش‌های مؤثری منتقل می‌شوند، در واقع کاربران بیشتری را به این اعتماد می‌رساند که اطلاعاتی که از این ابزارها دریافت می‌کنند صحیح است.

 

امتیاز دهید
مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

3 + 2 =

دکمه بازگشت به بالا
بستن