گوگل گروه جدیدی را با تمرکز بر توسعه هوش مصنوعی ایمن ایجاد می کند

با توسعه هوش مصنوعی مولد که خطرات قابل توجهی را در جبهههای مختلف ایجاد میکند، به نظر میرسد هر هفته افراد بزرگ در حال ایجاد توافقنامهها و انجمنهای جدید هستند تا بر توسعه هوش مصنوعی نظارت ایجاد کنند.
این روند خوبی است، زیرا بحث های مشترکی را در مورد پروژه های توسعه هوش مصنوعی و آنچه که هر شرکت باید در این فرآیند نظارت و مدیریت کند، ایجاد می کند. اما در عین حال، به نظر میرسد که اینها ابزاری برای جلوگیری از محدودیتهای نظارتی بیشتر است که میتواند شفافیت را افزایش دهد و قوانین بیشتری را در مورد اینکه توسعهدهندگان میتوانند و یا نمیتوانند با پروژههای خود انجام دهند، اعمال کنند.
گوگل آخرین گروهی است که با یک گروه راهنمایی جدید هوش مصنوعی، ائتلافی برای هوش مصنوعی امن (CoSAI) را تشکیل می دهد، که برای “پیشبرد اقدامات امنیتی جامع برای مقابله با خطرات منحصر به فرد ناشی از هوش مصنوعی” طراحی شده است.
طبق گفته گوگل:
هوش مصنوعی به یک چارچوب امنیتی و استانداردهای کاربردی نیاز دارد که بتواند با رشد سریع آن همگام شود. به همین دلیل است که سال گذشته چارچوب هوش مصنوعی ایمن (SAIF) را به اشتراک گذاشتیم، زیرا می دانستیم که این فقط اولین قدم است. البته، برای عملیاتی کردن هر چارچوب صنعتی نیاز به همکاری نزدیک با دیگران و مهمتر از همه یک انجمن برای تحقق آن است.
طیف وسیعی از بازیگران بزرگ فناوری، از جمله آمازون، IBM، مایکروسافت، NVIDIA و OpenAI، با هدف ایجاد راهحلهای مشترک و منبع باز برای اطمینان از امنیت بیشتر در توسعه هوش مصنوعی، در این ابتکار جدید ثبت نام کردهاند.
اساساً، ما شاهد تعداد فزایندهای از انجمنها و توافقنامههایی هستیم که برای رسیدگی به عناصر مختلف توسعه توسعه هوش مصنوعی ایمن طراحی شدهاند. که خوب است، اما در عین حال، اینها قوانین مشخصی نیستند و بنابراین به هیچ وجه قابل اجرا نیستند، اینها فقط توسعه دهندگان هوش مصنوعی هستند که موافقت می کنند قوانین خاصی را در برخی جنبه ها رعایت کنند. دیدگاه شک برانگیز این است که اینها فقط به عنوان یک تضمین برای جلوگیری از مقررات قطعی تر به کار گرفته می شوند.