اخبار

گوگل گروه جدیدی را با تمرکز بر توسعه هوش مصنوعی ایمن ایجاد می کند

با توسعه هوش مصنوعی مولد که خطرات قابل توجهی را در جبهه‌های مختلف ایجاد می‌کند، به نظر می‌رسد هر هفته افراد بزرگ در حال ایجاد توافق‌نامه‌ها و انجمن‌های جدید هستند تا بر توسعه هوش مصنوعی نظارت ایجاد کنند.

این روند خوبی است، زیرا بحث های مشترکی را در مورد پروژه های توسعه هوش مصنوعی و آنچه که هر شرکت باید در این فرآیند نظارت و مدیریت کند، ایجاد می کند. اما در عین حال، به نظر می‌رسد که اینها ابزاری برای جلوگیری از محدودیت‌های نظارتی بیشتر است که می‌تواند شفافیت را افزایش دهد و قوانین بیشتری را در مورد اینکه توسعه‌دهندگان می‌توانند و یا نمی‌توانند با پروژه‌های خود انجام دهند، اعمال کنند.

گوگل آخرین گروهی است که با یک گروه راهنمایی جدید هوش مصنوعی، ائتلافی برای هوش مصنوعی امن (CoSAI) را تشکیل می دهد، که برای “پیشبرد اقدامات امنیتی جامع برای مقابله با خطرات منحصر به فرد ناشی از هوش مصنوعی” طراحی شده است.

طبق گفته گوگل:

هوش مصنوعی به یک چارچوب امنیتی و استانداردهای کاربردی نیاز دارد که بتواند با رشد سریع آن همگام شود. به همین دلیل است که سال گذشته چارچوب هوش مصنوعی ایمن (SAIF) را به اشتراک گذاشتیم، زیرا می دانستیم که این فقط اولین قدم است. البته، برای عملیاتی کردن هر چارچوب صنعتی نیاز به همکاری نزدیک با دیگران و مهمتر از همه یک انجمن برای تحقق آن است.

طیف وسیعی از بازیگران بزرگ فناوری، از جمله آمازون، IBM، مایکروسافت، NVIDIA و OpenAI، با هدف ایجاد راه‌حل‌های مشترک و منبع باز برای اطمینان از امنیت بیشتر در توسعه هوش مصنوعی، در این ابتکار جدید ثبت نام کرده‌اند.

اساساً، ما شاهد تعداد فزاینده‌ای از انجمن‌ها و توافق‌نامه‌هایی هستیم که برای رسیدگی به عناصر مختلف توسعه توسعه هوش مصنوعی ایمن طراحی شده‌اند. که خوب است، اما در عین حال، اینها قوانین مشخصی نیستند و بنابراین به هیچ وجه قابل اجرا نیستند، اینها فقط توسعه دهندگان هوش مصنوعی هستند که موافقت می کنند قوانین خاصی را در برخی جنبه ها رعایت کنند. دیدگاه شک برانگیز این است که اینها فقط به عنوان یک تضمین برای جلوگیری از مقررات قطعی تر به کار گرفته می شوند.

 

امتیاز دهید
مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

5 + 2 =

دکمه بازگشت به بالا
بستن