
هوش مصنوعی
ما تمایل داریم ماشینها، به ویژه ماشینهای هوشمند را به نوعی سرد، محاسبهگر و بیطرف بدانیم. ما معتقدیم که اتومبیلهای خودران هیچ ترجیحی در تصمیمات زندگی یا مرگ بین راننده و یک عابر پیاده تصادفی ندارند. ما به سیستمهای هوشمند که ارزیابی اعتباری انجام میدهند اعتماد داریم که همه چیز به جز معیارهای واقعاً تاثیرگذار مانند درآمد و امتیاز FICO را نادیده بگیرند. و ما میدانیم که سیستمهای یادگیری همیشه به سمت حقیقت زمینهای همگرا میشوند زیرا الگوریتمهای بیطرف آنها را هدایت میکنند. برای برخی از ما، این یک اشکال است: ماشینها نباید خارج از دیدگاه سفت و سخت خود همدل باشند. برای دیگران، این یک ویژگی است: آنها باید از تعصب انسانی آزاد شوند. اما در وسط، این دیدگاه وجود دارد که آنها عینی خواهند بود. البته هیچ چیز نمیتواند از حقیقت دورتر باشد. واقعیت این است که نه تنها تعداد بسیار کمی از سیستمهای هوشمند واقعاً بیطرف هستند، بلکه منابع متعددی برای تعصب وجود دارد. این منابع شامل دادههایی است که ما برای آموزش سیستمها استفاده میکنیم، تعاملات ما با آنها در “طبیعت”، تعصب نوظهور، تعصب شباهت و تعصب اهداف متضاد. بیشتر این منابع مورد توجه قرار نمیگیرند. اما با ساخت و استقرار سیستمهای هوشمند، درک آنها بسیار مهم است تا بتوانیم با آگاهی طراحی کنیم و امیدواریم از مشکلات بالقوه جلوگیری کنیم.
تعصب مبتنی بر داده: برای هر سیستمی که یاد میگیرد، خروجی توسط دادههایی که دریافت میکند تعیین میشود. این یک بینش جدید نیست، فقط در هنگام نگاه کردن به سیستمهایی که با میلیونها مثال واقعی هدایت میشوند، فراموش میشود. این فکر وجود داشته است که حجم زیاد مثالها هر گونه تعصب انسانی را تحت الشعاع قرار میدهد. اما اگر مجموعه آموزش خود کج باشد، نتیجه نیز به همین ترتیب خواهد بود. اخیراً، این نوع تعصب در سیستمهای تشخیص تصویر از طریق یادگیری عمیق ظاهر شده است. سردرگمی نیکون در مورد چهرههای آسیایی و مشکلات رنگ پوست HP در نرمافزار تشخیص چهره آنها به نظر میرسد که محصول یادگیری از مجموعههای نمونه کج است. در حالی که هر دو قابل اصلاح و کاملاً ناخواسته هستند، آنها مشکلات ناشی از عدم توجه به تعصب موجود در دادههای ما را نشان میدهند.
علاوه بر تشخیص چهره، نمونههای نگرانکننده دیگری با پیامدهای دنیای واقعی وجود دارد. سیستمهای یادگیری که برای ساخت مجموعه قوانین اعمالشده برای پیشبینی نرخ بازگشت به جرم برای مشروطین، الگوهای جرم یا کارمندان بالقوه استفاده میشوند، مناطقی با پیامدهای منفی بالقوه هستند. هنگامی که آنها با استفاده از دادههای کج، یا حتی دادههایی که متعادل هستند اما سیستمها در تصمیمگیری مغرضانه هستند، آموزش داده میشوند، آنها نیز تعصب را جاودانه میکنند.
تعصب از طریق تعامل: در حالی که برخی سیستمها با نگاه کردن به مجموعهای از مثالها به صورت عمده یاد میگیرند، انواع دیگر سیستمها از طریق تعامل یاد میگیرند. تعصب بر اساس تعصبات کاربران ایجاد میشود که تعامل را هدایت میکنند. یک مثال واضح از این تعصب، Tay مایکروسافت، یک چتبات مبتنی بر توییتر بود که برای یادگیری از تعاملات خود با کاربران طراحی شده بود. متأسفانه، Tay تحت تأثیر جامعهای از کاربران قرار گرفت که به Tay آموختند نژادپرست و زنستیز باشد. در واقع، این جامعه بارها و بارها اظهارات توهین آمیز را در Tay توییت کرد و سیستم از این اظهارات به عنوان مواد اولیه برای پاسخهای بعدی استفاده کرد. Tay فقط ۲۴ ساعت عمر کرد و توسط مایکروسافت پس از اینکه به یک نژادپرست تهاجمی تبدیل شده بود، بسته شد.
در حالی که رانتهای نژادپرستانه Tay محدود به توییتر بود، نشاندهنده پیامدهای بالقوه دنیای واقعی است. همانطور که سیستمهای هوشمندی میسازیم که با شرکای انسانی تصمیم میگیرند و از آنها یاد میگیرند، همان نوع مشکل آموزش بد میتواند در شرایط مشکلسازتر به وجود بیاید. اگر بخواهیم به جای آن، سیستمهای هوشمند را با افرادی شریک کنیم که آنها را در طول زمان راهنمایی میکنند چه؟ بیاعتمادی ما به ماشینها برای تصمیمگیری در مورد اینکه چه کسی وام میگیرد یا حتی چه کسی مشروط میشود را در نظر بگیرید. آنچه Tay به ما آموخت این است که چنین سیستمهایی تعصبات محیط و افراد خود را برای بهتر یا بدتر یاد میگیرند و نظرات افرادی که آنها را آموزش میدهند را منعکس میکنند.
تعصب نوظهور: گاهی اوقات، تصمیمات گرفته شده توسط سیستمهایی که با هدف شخصیسازی هستند، به ایجاد “حبابهای” تعصب در اطراف ما ختم میشوند. ما میتوانیم به وضعیت فعلی فیسبوک برای دیدن این تعصب در عمل نگاهی بیندازیم. در لایه بالا، کاربران فیسبوک پستهای دوستان خود را میبینند و میتوانند اطلاعات را با آنها به اشتراک بگذارند. متأسفانه، هر الگوریتمی که از تجزیه و تحلیل خوراک داده برای ارائه محتوای دیگر استفاده میکند، محتوایی ارائه میکند که با مجموعه ایدههایی که کاربر قبلاً دیده است مطابقت دارد. این اثر با باز کردن، لایک کردن و به اشتراک گذاری محتوا توسط کاربران تقویت میشود. نتیجه، جریان اطلاعاتی است که به سمت مجموعه اعتقادات موجود کاربر کج شده است.
در حالی که این قطعاً شخصیسازی شده است و اغلب اطمینانبخش است، دیگر چیزی نیست که ما تمایل داریم آن را اخبار بدانیم. این حبابی از اطلاعات است که نسخه الگوریتمی از “تعصب تأییدی” است. کاربران مجبور نیستند خود را از اطلاعاتی که با اعتقادات آنها در تضاد است، محافظت کنند زیرا سیستم به طور خودکار این کار را برای آنها انجام میدهد.
تأثیر این تعصبات اطلاعاتی بر دنیای اخبار نگران کننده است. اما همانطور که به مدلهای رسانههای اجتماعی به عنوان راهی برای حمایت از تصمیمگیری در سازمان نگاه میکنیم، سیستمهایی که از ظهور حبابهای اطلاعاتی حمایت میکنند، پتانسیل کج کردن تفکر ما را دارند. کارگر دانش که فقط از افرادی که مثل او فکر میکنند اطلاعات دریافت میکند، هرگز دیدگاههای متضاد را نخواهد دید و تمایل به نادیده گرفتن و انکار گزینههای جایگزین خواهد داشت.
تعصب شباهت: گاهی اوقات تعصب به سادگی محصول سیستمهایی است که کار خود را انجام میدهند. به عنوان مثال، Google News به گونهای طراحی شده است که داستانهایی را ارائه میدهد که با جستجوهای کاربر مطابقت دارد و مجموعهای از داستانهای مرتبط هستند. این دقیقاً همان چیزی است که برای انجام آن طراحی شده است و آن را به خوبی انجام میدهد. البته، نتیجه مجموعهای از داستانهای مشابه است که تمایل به تأیید و تأیید یکدیگر دارند. یعنی آنها حبابی از اطلاعات را تعریف میکنند که شبیه حباب شخصیسازی مرتبط با فیسبوک است.
مطمئناً مشکلاتی در رابطه با نقش اخبار و انتشار آن وجود دارد که توسط این مدل برجسته میشود – واضحترین آنها رویکرد متعادل در مورد اطلاعات است. عدم وجود “کنترل ویرایشی” در طیف گستردهای از شرایط وجود دارد.
- نویسنده : حامد غلامی
- منبع خبر : TechCrunch