ایلان ماسک و محققان برتر هوش مصنوعی خواستار توقف آزمایشهای بزرگ هوش مصنوعی شدند

یک نامه سرگشاده از ایلان ماسک و چندین محقق، میگوید پویایی مسابقه فعلی در هوش مصنوعی خطرناک است و خواستار ایجاد قانون گذاری مستقل برای اطمینان از ایمن بودن سیستم های آینده است.
تعدادی از محققان مشهور هوش مصنوعی و ایلان ماسک نامه ای سرگشاده امضا کرده اند که در آن از آزمایشگاه های هوش مصنوعی در سراسر جهان خواسته اند تا توسعه سیستم های هوش مصنوعی در مقیاس بزرگ را متوقف کنند و دلیل آن ترس از خطرات عمیق برای جامعه و بشری است.
این نامه که توسط موسسه غیرانتفاعی Future of Life منتشر شده است، خاطرنشان میکند که آزمایشگاههای هوش مصنوعی در حال حاضر در یک «مسابقه خارج از کنترل» برای توسعه و استقرار سیستمهای یادگیری ماشینی هستند که «هیچکس حتی سازندگان آنها نتوانند آن را درک و پیشبینی کنند. یا به طور قابل اعتماد کنترل کنند.
ما از همه آزمایشگاههای هوش مصنوعی میخواهیم که آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل ۶ ماه متوقف کنند.
در این نامه آمده است:
بنابراین، ما از همه آزمایشگاههای هوش مصنوعی میخواهیم که بلافاصله آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را به مدت حداقل 6 ماه متوقف کنند. «این مکث باید عمومی و قابل تایید باشد و همه بازیگران کلیدی را شامل شود. اگر چنین مکثی نمی تواند به سرعت اعمال شود، دولت ها باید وارد عمل شوند و یک تعلیق وضع کنند.
امضاکنندگان عبارتند از نویسنده، یووال نوح هراری، یکی از بنیانگذاران اپل، استیو وزنیاک، بنیانگذار اسکایپ، جان تالین، سیاستمدار اندرو یانگ، و تعدادی از محققان و مدیران اجرایی مشهور هوش مصنوعی، از جمله استوارت راسل، یوشوا بنجیو، گری مارکوس و عماد موستاک.
بعید به نظر میرسد که این نامه هیچ تاثیری بر جو فعلی در تحقیقات هوش مصنوعی داشته باشد، زیرا شرکتهای فناوری مانند گوگل و مایکروسافت برای استقرار محصولات جدید عجله کردهاند و اغلب نگرانیهای قبلی درباره ایمنی و اخلاق را کنار میگذارند. ام
همانطور که در نامه ذکر شد، حتی خود OpenAI نیز نیاز بالقوه به بازبینی مستقل سیستم های هوش مصنوعی آینده را برای اطمینان از مطابقت با استانداردهای ایمنی بیان کرده است. امضا کنندگان میگویند که این زمان اکنون فرا رسیده است.
آزمایشگاه های هوش مصنوعی و کارشناسان مستقل باید از این مکث برای توسعه و اجرای مشترک مجموعه ای از پروتکل های ایمنی مشترک برای طراحی و توسعه هوش مصنوعی پیشرفته استفاده کنند که به شدت توسط کارشناسان مستقل خارجی بررسی و نظارت میشود.