الذكاء الاصطناعي

نحن نميل إلى اعتبار الآلات، خاصة الآلات الذكية، باردة، محسوبة وخالية من التحيز. نعتقد أن السيارات ذاتية القيادة لن يكون لها تفضيل في قرارات الحياة أو الموت بين السائق ومارة عشوائي. نحن نثق في أن الأنظمة الذكية التي تقوم بتقييم الائتمان ستتجاهل كل شيء باستثناء المقاييس ذات الأثر الحقيقي، مثل الدخل ودرجات FICO. ونفهم أن أنظمة التعلم ستتلاقى دائمًا على الحقيقة الأساسية لأن الخوارزميات غير المتحيزة هي التي تدفعها. بالنسبة لبعضنا، هذا خطأ: يجب ألا تكون الآلات متعاطفة خارج وجهة نظرها الجامدة. بالنسبة للآخرين، فهي ميزة: يجب أن تكون خالية من تحيز الإنسان. لكن في الوسط، هناك وجهة نظر مفادها أنها ستكون موضوعية. بالطبع، لا شيء يمكن أن يكون أبعد من الحقيقة. الواقع هو أنه ليس فقط عدد قليل جدًا من الأنظمة الذكية غير متحيزة حقًا، ولكن هناك مصادر متعددة للتحيز. تشمل هذه المصادر البيانات التي نستخدمها لتدريب الأنظمة، وتفاعلاتنا معها في “الطبيعة”، والتحيز الناشئ، وتحيز التشابه وتحيز الأهداف المتعارضة. يتم تجاهل معظم هذه المصادر. ولكن مع إنشاء ونشر الأنظمة الذكية، من الضروري فهمها حتى نتمكن من التصميم مع الوعي ونأمل تجنب المشكلات المحتملة.

التحيز القائم على البيانات: بالنسبة لأي نظام يتعلم، يتم تحديد المخرجات بواسطة البيانات التي يتلقاها. هذه ليست رؤى جديدة، إنها فقط تميل إلى أن تُنسى عند النظر إلى الأنظمة التي يتم دفعها حرفيًا بملايين الأمثلة. كان التفكير هو أن كمية الأمثلة الهائلة ستطغى على أي تحيز بشري. لكن إذا كانت مجموعة التدريب نفسها منحرفة، فستكون النتيجة كذلك. في الآونة الأخيرة، ظهر هذا النوع من التحيز في أنظمة التعرف على الصور من خلال التعلم العميق. يبدو أن ارتباك نيكون بشأن الوجوه الآسيوية ومشاكل لون البشرة من HP في برنامج التعرف على الوجه الخاص بها، هي نتاج التعلم من مجموعات أمثلة منحرفة. في حين أن كلا الأمرين قابلان للإصلاح وغير مقصودين تمامًا، إلا أنهما يوضحان المشكلات التي يمكن أن تنشأ عند عدم الانتباه إلى التحيز في بياناتنا.

فوق التعرف على الوجه، هناك حالات مزعجة أخرى ذات آثار واقعية. أنظمة التعلم المستخدمة لبناء مجموعات القواعد المطبقة للتنبؤ بمعدلات العودة إلى ارتكاب الجرائم للمشروطين، أو أنماط الجريمة، أو الموظفين المحتملين، هي مجالات ذات عواقب سلبية محتملة. عندما يتم تدريبهم باستخدام بيانات منحرفة، أو حتى بيانات متوازنة لكن الأنظمة متحيزة في اتخاذ القرار، فإنهم سيخلدون التحيز أيضًا.

5 منبع تعصب غیرمنتظره در هوش مصنوعی

التحيز من خلال التفاعل: بينما تتعلم بعض الأنظمة من خلال النظر إلى مجموعة من الأمثلة بشكل جماعي، فإن أنواعًا أخرى من الأنظمة تتعلم من خلال التفاعل. ينشأ التحيز بناءً على تحيزات المستخدمين الذين يدفعون التفاعل. مثال واضح على هذا التحيز هو Tay من Microsoft، وهو روبوت محادثة قائم على Twitter تم تصميمه لتعلم التفاعلات مع المستخدمين. لسوء الحظ، تأثرت Tay بواسطة مجتمع من المستخدمين الذين علموا Tay أن تكون عنصرية وكارهة للنساء. في الأساس، غرّد هذا المجتمع مرارًا وتكرارًا بتصريحات مسيئة إلى Tay واستخدم النظام هذه التصريحات كمواد خام للردود اللاحقة. عاشت Tay لمدة ۲۴ ساعة فقط، تم إغلاقها بواسطة Microsoft بعد أن أصبحت عنصرية عدوانية إلى حد ما.

في حين أن غرغرات Tay العنصرية كانت محدودة على Twitter، إلا أنها تشير إلى آثار واقعية محتملة. عندما نصمم أنظمة ذكية تتخذ قرارات مع شركاء بشريين وتتعلم منهم، يمكن أن ينشأ نفس نوع مشكلة التدريب السيئة في ظروف أكثر إشكالية. ماذا لو قمنا بدلاً من ذلك، بشراكة أنظمة ذكية مع أشخاص سيقومون بتوجيههم بمرور الوقت؟ ضع في اعتبارك عدم ثقتنا بالآلات لاتخاذ قرارات حول من يحصل على قرض أو حتى من يحصل على إطلاق سراح مشروط. ما علمتنا إياه Tay هو أن مثل هذه الأنظمة ستتعلم تحيزات محيطها وناسها، للأفضل أو للأسوأ، مما يعكس آراء الأشخاص الذين دربوا.

التحيز الناشئ: في بعض الأحيان، ستنتهي القرارات التي اتخذتها الأنظمة التي تهدف إلى التخصيص إلى إنشاء “فقاعات” تحيز حولنا. لا يمكننا النظر إلى أبعد من حالة Facebook الحالية لرؤية هذا التحيز في اللعب. في الطبقة العليا، يرى مستخدمو Facebook منشورات أصدقائهم ويمكنهم مشاركة المعلومات معهم. لسوء الحظ، فإن أي خوارزمية تستخدم تحليلًا لتغذية البيانات لتقديم محتوى آخر ستقدم محتوىًا يتناسب مع مجموعة الأفكار التي رأها المستخدم بالفعل. يتم تضخيم هذا التأثير مع قيام المستخدمين بفتح المحتوى والإعجاب به ومشاركته. والنتيجة هي تدفق معلومات منحرف نحو مجموعة اعتقادات المستخدم الموجودة.

في حين أن هذا بالتأكيد شخصي، وغالبًا ما يكون مطمئنًا، إلا أنه لم يعد ما نعتبرها أخبارًا. إنها فقاعة من المعلومات التي تعد إصدارًا خوارزميًا من “التحيز التأكيدي”. لا يحتاج المستخدمون إلى حماية أنفسهم من المعلومات التي تتعارض مع معتقداتهم لأن النظام يقوم بذلك تلقائيًا نيابة عنهم.

إن تأثير هذه التحيزات المعلوماتية على عالم الأخبار مقلق. ولكن مع نظرنا إلى نماذج وسائل التواصل الاجتماعي كوسيلة لدعم اتخاذ القرارات في المؤسسة، فإن الأنظمة التي تدعم ظهور فقاعات المعلومات لديها القدرة على تحريف تفكيرنا. لن يرى أخصائي المعرفة الذي يحصل فقط على معلومات من الأشخاص الذين يفكرون مثله أبدًا وجهات نظر متناقضة وسيميل إلى تجاهل البدائل ونكرانها.

التحيز بالتشابه:

أحيانًا يكون التحيز ببساطة نتاج الأنظمة التي تؤدي وظيفتها. على سبيل المثال، تم تصميم Google News لتقديم قصص تتناسب مع استعلامات المستخدم مع مجموعة من القصص ذات الصلة. هذا هو ما تم تصميمه للقيام به بشكل صريح وهو يقوم بذلك جيدًا. بالطبع، النتيجة هي مجموعة من القصص المتشابهة التي تميل إلى تأكيد وتأكيد بعضها البعض. أي أنها تحدد فقاعة من المعلومات مشابهة لفقاعة التخصيص المرتبطة بـ Facebook.

هناك بالتأكيد قضايا تتعلق بدور الأخبار ونشرها يتم إبرازها بواسطة هذا النموذج – والأكثر وضوحًا هو النهج المتوازن تجاه المعلومات. ينطبق نقص “التحكم . في حين أن التشابه 

مرجع