هوش مصنوعی اخلاقی چه معنایی برای کسب و کار شما دارد؟
علیرغم سهولتی که هوش مصنوعی برای ما ایجاد می کند، هوش مصنوعی اخلاقی برای تجارت بسیار مهم است. ممکن است پرونده رباتهایی که سرکش میشوند صحنهای از یک فیلم علمی تخیلی به نظر برسد. اما، مواردی که در آن انسانهای احمق با هوش مصنوعی به وجود میآیند.
برای مثال یوجین گوستمن را در نظر بگیرید. در سال 2014، این ربات (بله، یوجین گوستمن یک ربات چت است) برنده چالش تورینگ شد – اولین روباتی بود که تقریباً نیمی از ارزیابیکنندههای انسان را فریب داد تا فکر کنند انسان است. اساساً، یک آزمون تورینگ شامل ارزیابیکنندگان انسانی است که با نهادهای ناشناخته چت میکنند تا ورودی متن آنها را مطالعه کنند تا مشخص شود که آیا این متن از یک انسان است یا هوش مصنوعی.
برای برخی، پیروزی یوجین گوستمن ممکن است به عنوان پیشرفت در تلاش برای ایجاد رباتهای شبیه انسان تلقی شود. برای دیگران، این نشان میدهد که رباتها تا چه حد در فریب دادن انسانها پیشرفت کردهاند – تهدیدی که باعث افزایش هوش مصنوعی اخلاقی برای تجارت میشود.
چگونه در کسب و کار خود شیوه های هوش مصنوعی اخلاقی ایجاد کنید
شفاف بودن در مورد جمعآوری دادهها با مخاطبان، برداشتن گامهای آگاهانه برای درک نحوه عملکرد هوش مصنوعی و اطمینان از محدود بودن سوگیری تأیید.. برای درک کامل این شیوه های تجاری اخلاقی هوش مصنوعی، باید با چرایی ضروری بودن چنین اخلاقی و معضلات اخلاقی که هوش مصنوعی ایجاد می کند، بشناسید. ساختن یک چارچوب اخلاقی هوش مصنوعی از همان ابتدا به شما کمک میکند تا زمانی که تلاشهای یادگیری ماشین شما پیشرفت میکند، برای موفقیت آماده شوید.
اخلاق هوش مصنوعی در مقابل هوش مصنوعی اخلاقی چیست؟
برای شروع، اجازه دهید تفاوت بین اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی را روشن کنیم. «اخلاق AI» یک آیین نامه رفتاری است که بر هوش مصنوعی حاکم است و نحوه عملکرد آن در صورت بروز یک مشکل اخلاقی را پوشش می دهد.
فهرست 23 اصل هوش مصنوعی Asilomar یک نمونه است. این اصول به سه حوزه تقسیم میشوند: مسائل تحقیقاتی، اخلاقیات و ارزشها، و موضوعات بلندمدت مرتبط با تحقیق، استفاده و موارد دیگر هوش مصنوعی. از سوی دیگر، هوش مصنوعی اخلاقی اصول اخلاقی است که بر ساخت و استفاده از هوش مصنوعی در تجارت شما حاکم است. برای مشاغل، این به معنای داشتن چارچوبی است که تضمین می کند هوش مصنوعی که می سازید اخلاقی است.
به عنوان مثال، هنگامی که آمازون با سؤال محدودیت های هوش مصنوعی اخلاقی مواجه شد، فوراً استفاده از الگوریتم استخدام خود را که تعصب به نفع نامزدهای مرد نشان می داد، کنار گذاشت. هوش مصنوعی با استفاده از داده های تاریخی آموزش داده شد، که در آن کاندیداهای مرد عمدتاً استخدام می شدند، بنابراین الگوریتم از همین روش پیروی کرد.
چرا هوش مصنوعی اخلاقی مهم است؟
نامهای صنعت پیشرو مانند بیل گیتس قبلاً نگرانی خود را در مورد ارزیابی ریسک قبل از اینکه خیلی دیر شود ابراز کردهاند. به غیر از آن، پیشرفت یوجین گوستمن و الگوریتم استخدام معیوب آمازون نیاز به یک چارچوب اخلاقی را برای کسب و کار شما تعیین می کند. در اینجا دلایل بیشتری وجود دارد که چرا هوش مصنوعی اخلاقی ضروری است:
اشتباهات در هوش مصنوعی می تواند امنیت و امنیت عمومی را تهدید کند
اغلب، خطاها می توانند ناخواسته باشند. آنها همچنین می توانند برای انسان نامرئی باشند که نحوه عملکرد یادگیری ماشین هنوز کاملاً مشخص نیست. مورد مثال: نقص در هوش مصنوعی خودروهای خودران می تواند امنیت عمومی را به خطر بیندازد. در صورت تصادف، سوال مهمی که بی پاسخ می ماند این است که آیا ربات باید مردی را در خیابان نجات دهد یا فردی را که در ماشین است؟
سوگیری نامشخص می تواند منجر به سوگیری های جنسیتی، نژادی و سنی شود
این تهدید از نزدیک با مثالی از هوش مصنوعی آمازون که در بالا در مورد آن صحبت کردیم، مرتبط است. الگوریتمهای آموزشدیده یا الگوریتمهایی که با دادههای ناهنجار گذشته آموزش داده شدهاند، میتوانند سوگیری تأیید را نشان دهند.
در اینجا مثال دیگری وجود دارد: یک مطالعه یونسکو تأیید کرد که چت ربات های عمومی کلیشه های جنسیتی بالقوه مضر را به نمایش گذاشتند. اینها تنها برخی از دلایلی است که چرا باید به شیوههای تجاری اخلاقی هوش مصنوعی توجه کنید. در ادامه بخوانید تا با مسائل اخلاقی رایج هوش مصنوعی آشنا شوید.
هوش مصنوعی اخلاقی مهم است زیرا کنترل نشده، می تواند امنیت عمومی را تهدید کند و منجر به تعصبات و تبعیض از انواع مختلف شود.
معضلات اخلاقی مرتبط با هوش مصنوعی چیست؟
از بیکاری گرفته تا مشکلات کسری اعتماد و سوگیری، چندین موضوع اخلاقی وجود دارد که باید به آنها توجه داشته باشید. اجازه دهید به طور خلاصه به این موضوعات بپردازیم. سپس راهحلهایی را برای فوریترین راهحلها بیان میکنیم.
1. قدرت محاسباتی
هوش مصنوعی بر روی تعداد زیادی از پردازندههای گرافیکی و هستهای کار میکند که هزینه بالایی دارند. به طور مشابه، پیاده سازی چارچوب های یادگیری عمیق، قدرت محاسباتی را از ابررایانه ها می گیرد. باز هم، اینها ارزان نیستند.
جنبه سومی نیز در این مورد وجود دارد: ماهیت همیشه در حال تغییر و پیچیده الگوریتم ها به این معنی است که کار بر روی تطبیق محاسبات ابری به هزینه اضافه می کند. همه اینها باعث می شود که قدرت و هزینه های مربوط به توسعه و اجرای روان یادگیری ماشین و یادگیری عمیق باعث نگرانی شود.
2. بیکاری
با تسلط هوش مصنوعی بر مشاغلی که انسان ها را استخدام می کنند، بیکاری بعدی که ممکن است ایجاد شود یک معضل اخلاقی است. در واقع، طبق گفته مجمع جهانی اقتصاد ، تا سال 2022، هوش مصنوعی 75 میلیون شغل را حذف خواهد کرد.
3. کسری اعتماد
فقدان اعتماد از ماهیت ناشناخته مدل های یادگیری عمیق ناشی می شود زیرا مغز انسان و الگوریتم ها متفاوت کار می کنند. به عبارت دیگر، نحوه عملکرد هوش مصنوعی تا حدی که سوگیری های پنهان بدون آگاهی انسان رخ می دهد، یک سوال اخلاقی است که نیاز به توجه دارد.
4. حریم خصوصی و امنیت داده ها
الگوریتم های آموزشی به مجموعه داده های بزرگی نیاز دارند. تهیه آنها تنها بخشی از مشکل است. یک مسئله اخلاقی جدی، تهدیدی است که مجموعه دادهها در صورتی که در دستان اشتباه قرار بگیرند و مورد سوء استفاده قرار گیرند، پست میکنند.
5. توزیع نابرابر ثروت
چندین شرکت افراد را با دستمزد ساعتی استخدام می کنند. با این حال، با استفاده از هوش مصنوعی، این مشاغل می توانند نیروی انسانی را به میزان قابل توجهی کاهش دهند که باعث کاهش درآمد آنها می شود. در مورد مشاغل مبتنی بر هوش مصنوعی؟ آنها بیشتر پول را به دست می آورند. البته این شکاف ثروت را بیشتر می کند.
6. مشکل سوگیری
سوگیری تایید یک دلیل جدی برای نگرانی برای الگوریتمهایی است که با پیشزمینههای متنوع آموزش داده نشدهاند یا از مجموعه دادههای مغرضانه تغذیه میشوند. در نتیجه، معمولاً با الگوریتمهای آمازون مانندی مواجه میشویم که در استخدام و سایر خطوط کاری تعصب دارند.
7. کارایی مشکوک
برخلاف هوش مصنوعی، انسان ها همیشه از نظر کارایی قابل اعتماد هستند. برای مثال، نرمافزاری که ایمیلهای اسپم را از ایمیلهای مفید جدا میکند، همیشه دقت 90 درصدی دارد، در حالی که یک انسان 99 درصد دقت را نشان میدهد.
برای دستیابی هوش مصنوعی به چنین عملکردی، به مجموعه داده بزرگ، تنظیم دقیق نامحدود، قدرت محاسباتی قوی، و آموزش بی وقفه و موارد دیگر نیاز دارید. نه تنها همه اینها به جیب های عمیق نیاز دارند، بلکه گفتن آن آسان تر از انجام دادن است.
شفافیت در تصمیمگیری هوش مصنوعی برای به اشتراک گذاشتن و همسویی با تمام سطوح سازمان شما مهم است و نیاز به نظارت مداوم دارد.
نحوه ایجاد شفافیت در تصمیم گیری هوش مصنوعی
اکنون که میدانید چرا هوش مصنوعی اخلاقی برای تجارت ضروری است و دلایل ایجاد محدودیتهای هوش مصنوعی اخلاقی را میدانید، بیایید راهحلهای ممکن برای مبرمترین مسائل را مورد بحث قرار دهیم.
توجه داشته باشید که این پیشنهادات از « دستورالعملهای اخلاقی برای هوش مصنوعی قابل اعتماد » کمیسیون اروپا آمده است . این سند گامهای اساسی برای توسعه هوش مصنوعی اخلاقی را فهرست میکند و برخی از موارد زیر را خواهید یافت:
1. مطمئن شوید که نظارت انسانی در آن دخالت دارد
ایده این است که مطمئن شویم الگوریتمها و هوش مصنوعی کل سیستمها را اجرا نمیکنند. در عوض، دروازه بان های انسانی مسئولیت فرآیند تصمیم گیری را بر عهده می گیرند. از طرف دیگر، انسانها میتوانند در فرآیند بررسی، اگر نه در فرآیند تصمیمگیری، مشارکت داشته باشند.
اخیراً، فیس بوک ویراستاران انسانی درگیر در بخش اخبار پرطرفدار فیس بوک خود را رها کرده است. نتیجه؟ نه آن چیزی که شما انتظار دارید. هوش مصنوعی در نهایت مطالب زشت و نادرست را منتشر کرد و فیس بوک مجبور شد آن را ببندد.
پیام تحویل خانه؟ بازنگری انسان در تصمیم گیری ها یا همان طور که گفته شد تصمیم گیری بسیار مهم است. به این ترتیب خود را در آب داغ نمی یابید.
2. نحوه عملکرد مدل های یادگیری ماشینی مبتنی بر آمار را روشن کنید
اگرچه ممکن است دقیقاً ندانید که یادگیری ماشینی چگونه کار می کند، اما قرار دادن موضوع در پشت مشعل کمکی نمی کند. در عوض، یک راه حل مناسب برای ایجاد یک چارچوب هوش مصنوعی اخلاقی برای کسب و کار شما باید شامل برداشتن گامهای پیشگیرانه برای درک نحوه عملکرد مدلهای یادگیری ماشین باشد. بهتر است در مورد آن نیز شفاف باشید.
3. حتماً برای ساختن سیستمهای هوش مصنوعی که در برابر حملات متخاصم مقاوم هستند تلاش کنید.
همانطور که بحث شد، نحوه عملکرد الگوریتم ها ذاتاً با مغز انسان متفاوت است. و این همان چیزی است که زمینه را برای حملات خصمانه فراهم می کند. اینها دستکاری های کوچکی در رفتار هوش مصنوعی است که به دلیل تغییرات جزئی در داده های ورودی رخ می دهد که در بیشتر موارد برای انسان نامرئی است.
4. رعایت شفافیت در شیوه های جمع آوری و پردازش داده ها
چندین نفر به استفاده و ذخیره سازی داده های خود اعتراض دارند. آنها همچنین دسترسی آن را زیر سوال می برند. بنابراین، داشتن پاسخها در دسترس مخاطبان هدف شما برای ایجاد اعتماد با آنها ضروری است.
5. مطمئن شوید مجموعه دادههای سیستمهای هوش مصنوعی شما شامل هستند تا از تعصبات پنهان جلوگیری شود.
در نهایت، برای جلوگیری از سوگیری تایید، شیوههای تجاری اخلاقی هوش مصنوعی ضروری شامل موارد زیر است:
- حل سوگیری های پنهان با استخدام افراد با زمینه ها، رشته ها و فرهنگ های مختلف برای آموزش الگوریتم
- جلوگیری از خطرات سوگیری تایید با اطمینان از اینکه مجموعه دادههای تعبیهشده وارد شده به سیستمها منحرف نیستند
این مراحل کمک میکند مطمئن شوید که سیستم هوش مصنوعی میتواند نتایج بیشتری شبیه به انسان را بدون نشان دادن سوگیری ارائه کند.