هوش مصنوعی به طور فزاینده ای در حال تغییر زندگی ما است، از اتومبیل های خودران گرفته تا الگوریتم های رسانه های اجتماعی. اما هوش مصنوعی قابل اعتماد و عادلانه است؟ در این مقاله، پنج منبع غیرمنتظره تعصب در هوش مصنوعی را بررسی خواهیم کرد.

هوش مصنوعی

ما تمایل داریم ماشین‌ها، به ویژه ماشین‌های هوشمند را به نوعی سرد، محاسبه‌گر و بی‌طرف بدانیم. ما معتقدیم که اتومبیل‌های خودران هیچ ترجیحی در تصمیمات زندگی یا مرگ بین راننده و یک عابر پیاده تصادفی ندارند. ما به سیستم‌های هوشمند که ارزیابی اعتباری انجام می‌دهند اعتماد داریم که همه چیز به جز معیارهای واقعاً تاثیرگذار مانند درآمد و امتیاز FICO را نادیده بگیرند. و ما می‌دانیم که سیستم‌های یادگیری همیشه به سمت حقیقت زمینه‌ای همگرا می‌شوند زیرا الگوریتم‌های بی‌طرف آنها را هدایت می‌کنند. برای برخی از ما، این یک اشکال است: ماشین‌ها نباید خارج از دیدگاه سفت و سخت خود همدل باشند. برای دیگران، این یک ویژگی است: آنها باید از تعصب انسانی آزاد شوند. اما در وسط، این دیدگاه وجود دارد که آنها عینی خواهند بود. البته هیچ چیز نمی‌تواند از حقیقت دورتر باشد. واقعیت این است که نه تنها تعداد بسیار کمی از سیستم‌های هوشمند واقعاً بی‌طرف هستند، بلکه منابع متعددی برای تعصب وجود دارد. این منابع شامل داده‌هایی است که ما برای آموزش سیستم‌ها استفاده می‌کنیم، تعاملات ما با آنها در “طبیعت”، تعصب نوظهور، تعصب شباهت و تعصب اهداف متضاد. بیشتر این منابع مورد توجه قرار نمی‌گیرند. اما با ساخت و استقرار سیستم‌های هوشمند، درک آنها بسیار مهم است تا بتوانیم با آگاهی طراحی کنیم و امیدواریم از مشکلات بالقوه جلوگیری کنیم.

تعصب مبتنی بر داده: برای هر سیستمی که یاد می‌گیرد، خروجی توسط داده‌هایی که دریافت می‌کند تعیین می‌شود. این یک بینش جدید نیست، فقط در هنگام نگاه کردن به سیستم‌هایی که با میلیون‌ها مثال واقعی هدایت می‌شوند، فراموش می‌شود. این فکر وجود داشته است که حجم زیاد مثال‌ها هر گونه تعصب انسانی را تحت الشعاع قرار می‌دهد. اما اگر مجموعه آموزش خود کج باشد، نتیجه نیز به همین ترتیب خواهد بود. اخیراً، این نوع تعصب در سیستم‌های تشخیص تصویر از طریق یادگیری عمیق ظاهر شده است. سردرگمی نیکون در مورد چهره‌های آسیایی و مشکلات رنگ پوست HP در نرم‌افزار تشخیص چهره آنها به نظر می‌رسد که محصول یادگیری از مجموعه‌های نمونه کج است. در حالی که هر دو قابل اصلاح و کاملاً ناخواسته هستند، آنها مشکلات ناشی از عدم توجه به تعصب موجود در داده‌های ما را نشان می‌دهند.

علاوه بر تشخیص چهره، نمونه‌های نگران‌کننده دیگری با پیامدهای دنیای واقعی وجود دارد. سیستم‌های یادگیری که برای ساخت مجموعه قوانین اعمال‌شده برای پیش‌بینی نرخ بازگشت به جرم برای مشروطین، الگوهای جرم یا کارمندان بالقوه استفاده می‌شوند، مناطقی با پیامدهای منفی بالقوه هستند. هنگامی که آنها با استفاده از داده‌های کج، یا حتی داده‌هایی که متعادل هستند اما سیستم‌ها در تصمیم‌گیری مغرضانه هستند، آموزش داده می‌شوند، آنها نیز تعصب را جاودانه می‌کنند.

تعصب از طریق تعامل: در حالی که برخی سیستم‌ها با نگاه کردن به مجموعه‌ای از مثال‌ها به صورت عمده یاد می‌گیرند، انواع دیگر سیستم‌ها از طریق تعامل یاد می‌گیرند. تعصب بر اساس تعصبات کاربران ایجاد می‌شود که تعامل را هدایت می‌کنند. یک مثال واضح از این تعصب، Tay مایکروسافت، یک چت‌بات مبتنی بر توییتر بود که برای یادگیری از تعاملات خود با کاربران طراحی شده بود. متأسفانه، Tay تحت تأثیر جامعه‌ای از کاربران قرار گرفت که به Tay آموختند نژادپرست و زن‌ستیز باشد. در واقع، این جامعه بارها و بارها اظهارات توهین آمیز را در Tay توییت کرد و سیستم از این اظهارات به عنوان مواد اولیه برای پاسخ‌های بعدی استفاده کرد. Tay فقط ۲۴ ساعت عمر کرد و توسط مایکروسافت پس از اینکه به یک نژادپرست تهاجمی تبدیل شده بود، بسته شد.

در حالی که رانت‌های نژادپرستانه Tay محدود به توییتر بود، نشان‌دهنده پیامدهای بالقوه دنیای واقعی است. همانطور که سیستم‌های هوشمندی می‌سازیم که با شرکای انسانی تصمیم می‌گیرند و از آنها یاد می‌گیرند، همان نوع مشکل آموزش بد می‌تواند در شرایط مشکل‌سازتر به وجود بیاید. اگر بخواهیم به جای آن، سیستم‌های هوشمند را با افرادی شریک کنیم که آنها را در طول زمان راهنمایی می‌کنند چه؟ بی‌اعتمادی ما به ماشین‌ها برای تصمیم‌گیری در مورد اینکه چه کسی وام می‌گیرد یا حتی چه کسی مشروط می‌شود را در نظر بگیرید. آنچه Tay به ما آموخت این است که چنین سیستم‌هایی تعصبات محیط و افراد خود را برای بهتر یا بدتر یاد می‌گیرند و نظرات افرادی که آنها را آموزش می‌دهند را منعکس می‌کنند.

5 منبع تعصب غیرمنتظره در هوش مصنوعی

تعصب نوظهور: گاهی اوقات، تصمیمات گرفته شده توسط سیستم‌هایی که با هدف شخصی‌سازی هستند، به ایجاد “حباب‌های” تعصب در اطراف ما ختم می‌شوند. ما می‌توانیم به وضعیت فعلی فیس‌بوک برای دیدن این تعصب در عمل نگاهی بیندازیم. در لایه بالا، کاربران فیس‌بوک پست‌های دوستان خود را می‌بینند و می‌توانند اطلاعات را با آنها به اشتراک بگذارند. متأسفانه، هر الگوریتمی که از تجزیه و تحلیل خوراک داده برای ارائه محتوای دیگر استفاده می‌کند، محتوایی ارائه می‌کند که با مجموعه ایده‌هایی که کاربر قبلاً دیده است مطابقت دارد. این اثر با باز کردن، لایک کردن و به اشتراک گذاری محتوا توسط کاربران تقویت می‌شود. نتیجه، جریان اطلاعاتی است که به سمت مجموعه اعتقادات موجود کاربر کج شده است.

در حالی که این قطعاً شخصی‌سازی شده است و اغلب اطمینان‌بخش است، دیگر چیزی نیست که ما تمایل داریم آن را اخبار بدانیم. این حبابی از اطلاعات است که نسخه الگوریتمی از “تعصب تأییدی” است. کاربران مجبور نیستند خود را از اطلاعاتی که با اعتقادات آنها در تضاد است، محافظت کنند زیرا سیستم به طور خودکار این کار را برای آنها انجام می‌دهد.

تأثیر این تعصبات اطلاعاتی بر دنیای اخبار نگران کننده است. اما همانطور که به مدل‌های رسانه‌های اجتماعی به عنوان راهی برای حمایت از تصمیم‌گیری در سازمان نگاه می‌کنیم، سیستم‌هایی که از ظهور حباب‌های اطلاعاتی حمایت می‌کنند، پتانسیل کج کردن تفکر ما را دارند. کارگر دانش که فقط از افرادی که مثل او فکر می‌کنند اطلاعات دریافت می‌کند، هرگز دیدگاه‌های متضاد را نخواهد دید و تمایل به نادیده گرفتن و انکار گزینه‌های جایگزین خواهد داشت.

تعصب شباهت: گاهی اوقات تعصب به سادگی محصول سیستم‌هایی است که کار خود را انجام می‌دهند. به عنوان مثال، Google News به گونه‌ای طراحی شده است که داستان‌هایی را ارائه می‌دهد که با جستجوهای کاربر مطابقت دارد و مجموعه‌ای از داستان‌های مرتبط هستند. این دقیقاً همان چیزی است که برای انجام آن طراحی شده است و آن را به خوبی انجام می‌دهد. البته، نتیجه مجموعه‌ای از داستان‌های مشابه است که تمایل به تأیید و تأیید یکدیگر دارند. یعنی آنها حبابی از اطلاعات را تعریف می‌کنند که شبیه حباب شخصی‌سازی مرتبط با فیس‌بوک است.

مطمئناً مشکلاتی در رابطه با نقش اخبار و انتشار آن وجود دارد که توسط این مدل برجسته می‌شود – واضح‌ترین آنها رویکرد متعادل در مورد اطلاعات است. عدم وجود “کنترل ویرایشی” در طیف گسترده‌ای از شرایط وجود دارد. 

منبع خبر

  • نویسنده : حامد غلامی
  • منبع خبر : TechCrunch