سوگیری هوش مصنوعی چیست و چگونه از آن اجتناب کنیم؟
وقتی افراد، رویدادها یا چیزها را به طور متفاوت برای اهداف مختلف تحلیل می کنند، الگوریتم ها خنثی نیستند. بنابراین، ما باید این سوگیری ها را درک کنیم تا بتوانیم راه حل هایی برای ایجاد سیستم های هوش مصنوعی بدون پیش داوری ایجاد کنیم. در این مقاله درباره اینکه سوگیری هوش مصنوعی چیست، انواع سوگیری هوش مصنوعی، مثالها و نحوه کاهش خطر سوگیری هوش مصنوعی بحث خواهد شد.
سوگیری هوش مصنوعی چیست؟
سوگیری یادگیری ماشینی که به عنوان سوگیری الگوریتم یا سوگیری هوش مصنوعی نیز شناخته میشود، به تمایل الگوریتمها برای انعکاس سوگیریهای انسانی اشاره دارد. این پدیده ای است که زمانی به وجود می آید که یک الگوریتم نتایج مغرضانه سیستماتیک را در نتیجه فرضیات اشتباه فرآیند یادگیری ماشین ارائه می دهد. در فضای امروزی که بازنمایی و تنوع فزاینده است، این موضوع حتی مشکلسازتر میشود، زیرا الگوریتمها میتوانند سوگیریها را تقویت کنند.
به عنوان مثال، یک الگوریتم تشخیص چهره را می توان آموزش داد تا یک فرد سفید پوست را راحت تر از یک فرد سیاه پوست تشخیص دهد، زیرا این نوع داده ها بیشتر در آموزش استفاده شده است. این می تواند بر افراد گروه های اقلیت تأثیر منفی بگذارد، زیرا تبعیض مانع از فرصت های برابر و تداوم ظلم می شود. مشکل این است که این سوگیریها عمدی نیستند و تا زمانی که در نرمافزار برنامهریزی نشده باشند، اطلاع از آنها دشوار است.
چگونه سوگیری هوش مصنوعی سوگیری های جامعه را منعکس می کند
متاسفانه هوش مصنوعی از تمایلات تعصبات انسانی در امان نیست. این میتواند به انسانها در تصمیمگیری بیطرفانهتر کمک کند، اما تنها در صورتی که برای اطمینان از عدالت در سیستمهای هوش مصنوعی با پشتکار تلاش کنیم. داده های اساسی، به جای خود روش، اغلب علت سوگیری هوش مصنوعی است. با در نظر گرفتن این موضوع، در اینجا چند یافته جالب وجود دارد که در مطالعه مک کینزی در مورد مقابله با تعصب هوش مصنوعی دیده ایم:
- مدل ها ممکن است بر اساس داده های انتخاب های انسانی یا داده های نابرابری های اجتماعی یا تاریخی آموزش ببینند. برای مثال، تعبیههای کلمه (مجموعهای از تکنیکهای پردازش زبان طبیعی) که بر روی مقالات خبری آموزش داده شدهاند، ممکن است منعکس کننده سوگیریهای جنسیتی اجتماعی باشند.
- دادهها ممکن است با روشی که جمعآوری یا برای استفاده انتخاب میشوند، مغرضانه باشد. به عنوان مثال، در مدلهای هوش مصنوعی عدالت کیفری، نمونهبرداری بیش از حد از مناطق خاص ممکن است منجر به دادههای بیشتری برای جرم در آن منطقه شود که میتواند منجر به اجرای بیشتر شود.
- داده های تولید شده توسط کاربر ممکن است به یک حلقه بازخورد سوگیری منجر شود. مشخص شد که جستجوهای حاوی عبارت «دستگیری» در هنگام جستجوی نامهای شناسایی آفریقایی-آمریکایی بیشتر از نامهای سفیدپوست انجام شد. با یا بدون «دستگیری»، محققان حدس میزنند که الگوریتم این نتیجه را بیشتر نشان میدهد، زیرا ممکن است کاربران برای جستجوهای مختلف بیشتر روی نسخههای مختلف کلیک کرده باشند.
- یک سیستم یادگیری ماشینی ممکن است به طور بالقوه ارتباطات آماری را شناسایی کند که از نظر اجتماعی نامناسب یا غیرقانونی تلقی می شوند. به عنوان مثال، یک مدل وام وام مسکن ممکن است تعیین کند که افراد مسنتر احتمال نکول بیشتری دارند و اعتبار آنها را کاهش میدهد. اگر مدل این نتیجه گیری را صرفاً بر اساس سن انجام دهد، ممکن است به دنبال تبعیض سنی غیرقانونی باشیم.
با در نظر گرفتن این موضوع، این سوال بزرگ پیش می آید:
در مورد سوگیری هوش مصنوعی چه کاری می توانیم انجام دهیم؟
در اینجا برخی از راه حل های پیشنهادی آورده شده است:
آزمایش الگوریتم ها در یک محیط واقعی
بیایید یکی از متقاضیان کار را در نظر بگیریم. اگر دادههایی که سیستم یادگیری ماشینی شما روی آنها آموزش دیده است، از گروه خاصی از جویندگان کار باشد، راهحل مبتنی بر هوش مصنوعی شما ممکن است قابل اعتماد نباشد. در حالی که اگر هوش مصنوعی را برای متقاضیان مشابه اعمال میکنید، ممکن است مشکلی پیش نیاید، اما این مشکل هنگام استفاده از آن برای گروه دیگری از نامزدها که در مجموعه دادههای شما ارائه نشدهاند، رخ میدهد. در چنین سناریویی، شما اساساً از الگوریتم میخواهید پیش داوریهایی را که در مورد اولین نامزدها آموخته است، در مورد مجموعهای از افراد که ممکن است فرضیات نادرست باشند، اعمال کند.
برای جلوگیری از این اتفاق و برای شناسایی و حل این مسائل، باید الگوریتم را به روشی مشابه با نحوه استفاده از آن در دنیای واقعی آزمایش کنید.
سیستم های Human-in-the-Loop را در نظر بگیرید
هدف فناوری Human-in-the-Loop انجام کارهایی است که نه یک انسان و نه رایانه به تنهایی قادر به انجام آن نیستند. وقتی یک ماشین نمی تواند مشکلی را حل کند، انسان ها باید دخالت کنند و مشکل را برای آنها حل کنند. در نتیجه این روش، یک حلقه بازخورد پیوسته ایجاد می شود.
با بازخورد مداوم، سیستم با هر بار اجرای بعدی عملکرد خود را یاد می گیرد و بهبود می بخشد. در نتیجه، انسان در حلقه منجر به مجموعه دادههای کمیاب دقیقتر و ایمنی و دقت بهتر میشود.
آیا این تغییرات همه چیز را حل می کند؟
چنین تغییراتی سودمند خواهد بود، اما برخی از مشکلات سوگیری هوش مصنوعی ممکن است نیاز به پاسخهای بیشتر از فناوری داشته باشند و نیاز به رویکردی چند رشتهای داشته باشند، با دیدگاههایی از متخصصان اخلاق، دانشمندان علوم اجتماعی و سایر دانشمندان علوم انسانی.
علاوه بر این، این تغییرات به تنهایی ممکن است در شرایطی مانند تعیین اینکه آیا یک سیستم به اندازه کافی منصفانه برای انتشار است یا خیر و در تصمیم گیری در مورد اینکه آیا تصمیم گیری کاملاً خودکار در شرایط خاص مجاز است یا خیر کمکی نکند.
آیا هوش مصنوعی هرگز بی طرف خواهد بود؟
بعید است که یک هوش مصنوعی کاملاً بی طرف وجود داشته باشد. دلیل این امر به این دلیل است که بعید است که یک ذهن انسانی کاملاً بی طرف وجود داشته باشد. یک سیستم هوش مصنوعی فقط به اندازه کیفیت داده هایی است که به عنوان ورودی دریافت می کند. فرض کنید می توانید مجموعه داده های آموزشی خود را از پیش تصورات آگاهانه و ناخودآگاه در مورد نژاد، جنسیت و سایر مفاهیم ایدئولوژیک پاک کنید. در این صورت، میتوانید یک سیستم هوش مصنوعی ایجاد کنید که قضاوتهای مبتنی بر دادهها را بیطرفانه انجام دهد.
با این حال، در دنیای واقعی، ما می دانیم که این بعید است. هوش مصنوعی با داده هایی که داده می شود و از آنها یاد می گیرد تعیین می شود. انسان ها کسانی هستند که داده هایی را که هوش مصنوعی استفاده می کند تولید می کنند. تعصبات انسانی زیادی وجود دارد و کشف مداوم سوگیری های جدید تعداد کلی سوگیری ها را به طور منظم افزایش می دهد. در نتیجه، می توان تصور کرد که یک ذهن انسانی کاملاً بی طرف و همچنین یک سیستم هوش مصنوعی هرگز به دست نخواهد آمد. به هر حال، مردم کسانی هستند که دادههای ناهموار را تولید میکنند و انسانها و الگوریتمهای ساخت بشر کسانی هستند که دادهها را برای شناسایی و تصحیح سوگیریها تأیید میکنند.