اخبار

ایلان ماسک و محققان برتر هوش مصنوعی خواستار توقف آزمایش‌های بزرگ هوش مصنوعی شدند

یک نامه سرگشاده از ایلان ماسک و چندین محقق، می‌گوید پویایی مسابقه فعلی در هوش مصنوعی خطرناک است و خواستار ایجاد قانون گذاری مستقل برای اطمینان از ایمن بودن سیستم های آینده است.

تعدادی از محققان مشهور هوش مصنوعی و ایلان ماسک نامه ای سرگشاده امضا کرده اند که در آن از آزمایشگاه های هوش مصنوعی در سراسر جهان خواسته اند تا توسعه سیستم های هوش مصنوعی در مقیاس بزرگ را متوقف کنند و دلیل آن ترس از خطرات عمیق برای جامعه و بشری است.

این نامه که توسط موسسه غیرانتفاعی Future of Life منتشر شده است، خاطرنشان می‌کند که آزمایشگاه‌های هوش مصنوعی در حال حاضر در یک «مسابقه خارج از کنترل» برای توسعه و استقرار سیستم‌های یادگیری ماشینی هستند که «هیچ‌کس حتی سازندگان آنها نتوانند آن را درک و پیش‌بینی کنند. یا به طور قابل اعتماد کنترل کنند.

ما از همه آزمایشگاه‌های هوش مصنوعی می‌خواهیم که آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل ۶ ماه متوقف کنند.

در این نامه آمده است:

بنابراین، ما از همه آزمایشگاه‌های هوش مصنوعی می‌خواهیم که بلافاصله آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف کنند. «این مکث باید عمومی و قابل تایید باشد و همه بازیگران کلیدی را شامل شود. اگر چنین مکثی نمی تواند به سرعت اعمال شود، دولت ها باید وارد عمل شوند و یک تعلیق وضع کنند.

امضاکنندگان عبارتند از نویسنده، یووال نوح هراری، یکی از بنیانگذاران اپل، استیو وزنیاک، بنیانگذار اسکایپ، جان تالین، سیاستمدار اندرو یانگ، و تعدادی از محققان و مدیران اجرایی مشهور هوش مصنوعی، از جمله استوارت راسل، یوشوا بنجیو، گری مارکوس و عماد موستاک.

بعید به نظر می‌رسد که این نامه هیچ تاثیری بر جو فعلی در تحقیقات هوش مصنوعی داشته باشد، زیرا شرکت‌های فناوری مانند گوگل و مایکروسافت برای استقرار محصولات جدید عجله کرده‌اند و اغلب نگرانی‌های قبلی درباره ایمنی و اخلاق را کنار می‌گذارند. ام

همانطور که در نامه ذکر شد، حتی خود OpenAI نیز نیاز بالقوه به بازبینی مستقل سیستم های هوش مصنوعی آینده را برای اطمینان از مطابقت با استانداردهای ایمنی بیان کرده است. امضا کنندگان می‌گویند که این زمان اکنون فرا رسیده است.

آزمایشگاه های هوش مصنوعی و کارشناسان مستقل باید از این مکث برای توسعه و اجرای مشترک مجموعه ای از پروتکل های ایمنی مشترک برای طراحی و توسعه هوش مصنوعی پیشرفته استفاده کنند که به شدت توسط کارشناسان مستقل خارجی بررسی و نظارت می‌شود.

 

امتیاز دهید
مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

78 − = 74

دکمه بازگشت به بالا
بستن