هوش مصنوعی

سوگیری هوش مصنوعی چیست و چگونه از آن اجتناب کنیم؟

وقتی افراد، رویدادها یا چیزها را به طور متفاوت برای اهداف مختلف تحلیل می کنند، الگوریتم ها خنثی نیستند. بنابراین، ما باید این سوگیری ها را درک کنیم تا بتوانیم راه حل هایی برای ایجاد سیستم های هوش مصنوعی بدون پیش داوری ایجاد کنیم. در این مقاله درباره اینکه سوگیری هوش مصنوعی چیست، انواع سوگیری هوش مصنوعی، مثال‌ها و نحوه کاهش خطر سوگیری هوش مصنوعی بحث خواهد شد.

سوگیری هوش مصنوعی چیست؟

سوگیری یادگیری ماشینی که به عنوان سوگیری الگوریتم یا سوگیری هوش مصنوعی نیز شناخته می‌شود، به تمایل الگوریتم‌ها برای انعکاس سوگیری‌های انسانی اشاره دارد. این پدیده ای است که زمانی به وجود می آید که یک الگوریتم نتایج مغرضانه سیستماتیک را در نتیجه فرضیات اشتباه فرآیند یادگیری ماشین ارائه می دهد. در فضای امروزی که بازنمایی و تنوع فزاینده است، این موضوع حتی مشکل‌سازتر می‌شود، زیرا الگوریتم‌ها می‌توانند سوگیری‌ها را تقویت کنند.

به عنوان مثال، یک الگوریتم تشخیص چهره را می توان آموزش داد تا یک فرد سفید پوست را راحت تر از یک فرد سیاه پوست تشخیص دهد، زیرا این نوع داده ها بیشتر در آموزش استفاده شده است. این می تواند بر افراد گروه های اقلیت تأثیر منفی بگذارد، زیرا تبعیض مانع از فرصت های برابر و تداوم ظلم می شود. مشکل این است که این سوگیری‌ها عمدی نیستند و تا زمانی که در نرم‌افزار برنامه‌ریزی نشده باشند، اطلاع از آنها دشوار است.

چگونه سوگیری هوش مصنوعی سوگیری های جامعه را منعکس می کند

متاسفانه هوش مصنوعی از تمایلات تعصبات انسانی در امان نیست. این می‌تواند به انسان‌ها در تصمیم‌گیری بی‌طرفانه‌تر کمک کند، اما تنها در صورتی که برای اطمینان از عدالت در سیستم‌های هوش مصنوعی با پشتکار تلاش کنیم. داده های اساسی، به جای خود روش، اغلب علت سوگیری هوش مصنوعی است. با در نظر گرفتن این موضوع، در اینجا چند یافته جالب وجود دارد که در مطالعه مک کینزی در مورد مقابله با تعصب هوش مصنوعی دیده ایم:

  • مدل ها ممکن است بر اساس داده های انتخاب های انسانی یا داده های نابرابری های اجتماعی یا تاریخی آموزش ببینند. برای مثال، تعبیه‌های کلمه (مجموعه‌ای از تکنیک‌های پردازش زبان طبیعی) که بر روی مقالات خبری آموزش داده شده‌اند، ممکن است منعکس کننده سوگیری‌های جنسیتی اجتماعی باشند.
  • داده‌ها ممکن است با روشی که جمع‌آوری یا برای استفاده انتخاب می‌شوند، مغرضانه باشد. به عنوان مثال، در مدل‌های هوش مصنوعی عدالت کیفری، نمونه‌برداری بیش از حد از مناطق خاص ممکن است منجر به داده‌های بیشتری برای جرم در آن منطقه شود که می‌تواند منجر به اجرای بیشتر شود.
  • داده های تولید شده توسط کاربر ممکن است به یک حلقه بازخورد سوگیری منجر شود. مشخص شد که جستجوهای حاوی عبارت «دستگیری» در هنگام جستجوی نام‌های شناسایی آفریقایی-آمریکایی بیشتر از نام‌های سفیدپوست انجام شد. با یا بدون «دستگیری»، محققان حدس می‌زنند که الگوریتم این نتیجه را بیشتر نشان می‌دهد، زیرا ممکن است کاربران برای جستجوهای مختلف بیشتر روی نسخه‌های مختلف کلیک کرده باشند.
  • یک سیستم یادگیری ماشینی ممکن است به طور بالقوه ارتباطات آماری را شناسایی کند که از نظر اجتماعی نامناسب یا غیرقانونی تلقی می شوند. به عنوان مثال، یک مدل وام وام مسکن ممکن است تعیین کند که افراد مسن‌تر احتمال نکول بیشتری دارند و اعتبار آنها را کاهش می‌دهد. اگر مدل این نتیجه گیری را صرفاً بر اساس سن انجام دهد، ممکن است به دنبال تبعیض سنی غیرقانونی باشیم.

با در نظر گرفتن این موضوع، این سوال بزرگ پیش می آید:

در مورد سوگیری هوش مصنوعی چه کاری می توانیم انجام دهیم؟

در اینجا برخی از راه حل های پیشنهادی آورده شده است:

آزمایش الگوریتم ها در یک محیط واقعی

بیایید یکی از متقاضیان کار را در نظر بگیریم. اگر داده‌هایی که سیستم یادگیری ماشینی شما روی آن‌ها آموزش دیده است، از گروه خاصی از جویندگان کار باشد، راه‌حل مبتنی بر هوش مصنوعی شما ممکن است قابل اعتماد نباشد. در حالی که اگر هوش مصنوعی را برای متقاضیان مشابه اعمال می‌کنید، ممکن است مشکلی پیش نیاید، اما این مشکل هنگام استفاده از آن برای گروه دیگری از نامزدها که در مجموعه داده‌های شما ارائه نشده‌اند، رخ می‌دهد. در چنین سناریویی، شما اساساً از الگوریتم می‌خواهید پیش داوری‌هایی را که در مورد اولین نامزدها آموخته است، در مورد مجموعه‌ای از افراد که ممکن است فرضیات نادرست باشند، اعمال کند.

برای جلوگیری از این اتفاق و برای شناسایی و حل این مسائل، باید الگوریتم را به روشی مشابه با نحوه استفاده از آن در دنیای واقعی آزمایش کنید.

سیستم های Human-in-the-Loop را در نظر بگیرید

هدف فناوری Human-in-the-Loop انجام کارهایی است که نه یک انسان و نه رایانه به تنهایی قادر به انجام آن نیستند. وقتی یک ماشین نمی تواند مشکلی را حل کند، انسان ها باید دخالت کنند و مشکل را برای آنها حل کنند. در نتیجه این روش، یک حلقه بازخورد پیوسته ایجاد می شود.

با بازخورد مداوم، سیستم با هر بار اجرای بعدی عملکرد خود را یاد می گیرد و بهبود می بخشد. در نتیجه، انسان در حلقه منجر به مجموعه داده‌های کمیاب دقیق‌تر و ایمنی و دقت بهتر می‌شود.

آیا این تغییرات همه چیز را حل می کند؟

چنین تغییراتی سودمند خواهد بود، اما برخی از مشکلات سوگیری هوش مصنوعی ممکن است نیاز به پاسخ‌های بیشتر از فناوری داشته باشند و نیاز به رویکردی چند رشته‌ای داشته باشند، با دیدگاه‌هایی از متخصصان اخلاق، دانشمندان علوم اجتماعی و سایر دانشمندان علوم انسانی.

علاوه بر این، این تغییرات به تنهایی ممکن است در شرایطی مانند تعیین اینکه آیا یک سیستم به اندازه کافی منصفانه برای انتشار است یا خیر و در تصمیم گیری در مورد اینکه آیا تصمیم گیری کاملاً خودکار در شرایط خاص مجاز است یا خیر کمکی نکند.

آیا هوش مصنوعی هرگز بی طرف خواهد بود؟

بعید است که یک هوش مصنوعی کاملاً بی طرف وجود داشته باشد. دلیل این امر به این دلیل است که بعید است که یک ذهن انسانی کاملاً بی طرف وجود داشته باشد. یک سیستم هوش مصنوعی فقط به اندازه کیفیت داده هایی است که به عنوان ورودی دریافت می کند. فرض کنید می توانید مجموعه داده های آموزشی خود را از پیش تصورات آگاهانه و ناخودآگاه در مورد نژاد، جنسیت و سایر مفاهیم ایدئولوژیک پاک کنید. در این صورت، می‌توانید یک سیستم هوش مصنوعی ایجاد کنید که قضاوت‌های مبتنی بر داده‌ها را بی‌طرفانه انجام دهد.

با این حال، در دنیای واقعی، ما می دانیم که این بعید است. هوش مصنوعی با داده هایی که داده می شود و از آنها یاد می گیرد تعیین می شود. انسان ها کسانی هستند که داده هایی را که هوش مصنوعی استفاده می کند تولید می کنند. تعصبات انسانی زیادی وجود دارد و کشف مداوم سوگیری های جدید تعداد کلی سوگیری ها را به طور منظم افزایش می دهد. در نتیجه، می توان تصور کرد که یک ذهن انسانی کاملاً بی طرف و همچنین یک سیستم هوش مصنوعی هرگز به دست نخواهد آمد. به هر حال، مردم کسانی هستند که داده‌های ناهموار را تولید می‌کنند و انسان‌ها و الگوریتم‌های ساخت بشر کسانی هستند که داده‌ها را برای شناسایی و تصحیح سوگیری‌ها تأیید می‌کنند.

امتیاز دهید
مشاهده بیشتر

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.

− 2 = 5

دکمه بازگشت به بالا
بستن