غالبًا ما كانت أداة الذكاء الاصطناعي تميل إلى تمثيل الأشخاص من نفس العرق، حتى عندما يُطلب منها خلاف ذلك صراحةً.
Tl;dr
- تم الإبلاغ عن مشكلات التحيز العنصري في منشئ الصور الخاص بـ Meta AI.
- يميل النظام بشكل أساسي إلى إنشاء صور لأشخاص من نفس العرق.
- يُظهر Meta AI أيضًا ميولًا لجعل الرجال الآسيويين أكبر سناً والنساء الآسيويات أصغر سناً.
- جوجلواجه مشكلات مماثلة مع منشئ الصور الخاص به، Gemini.
اليوم، هناك قلق متزايد في مجالالذكاء الاصطناعييظهر: حالة مولد الصورةميتامنظمة العفو الدولية. وفي عدة مناسبات، لم يتمكن من إنشاء صور دقيقة لاتجاهات تبدو بسيطة، مثل "رجل آسيوي وصديق قوقازي" أو "رجل آسيوي وامرأة بيضاء"، وفقًا لتقارير موقع The Verge. بدلا من ذلك، هوالميل إلى إنشاء صور لأشخاص من نفس العرق، خلافا للإشارات الواردة.
التحقق من الحقائق يكشف عن عيوب في النظام
ومن خلال محاولتنا التحقق من فعالية مولد الصور عبر الإنترنت الخاص بـ Meta بأنفسنا، أكدنا هذه العواقب المزعجة. بالنسبة لمؤشرات مثل "رجل آسيوي مع صديقة بيضاء" أو "رجل آسيوي مع زوجة بيضاء"، قام النظام بإنشاء صور لأزواج آسيويين. عندما سئل عن "مجموعة متنوعة من الأشخاص"، أنشأ Meta AI شبكة من تسعة وجوه بيضاء وشخص واحد ملون.
المزيد من علامات التحيز الدقيقة
وبعيداً عن هذه الحقائق الواضحة،"علامات أكثر دقة للتحيز"موجودة في ميزات Meta AI، حسبما يشير The Verge. يميل النظام بشكل خاص إلى شيخوخة الرجال الآسيويين وجعل النساء الآسيويات أصغر سناً. ويحدث أيضًا أن يضيف منشئ الصور"ملابس خاصة بالثقافة"وهو ما لم يطلب صراحة في الإشارة.
حقيقة مثيرة للقلق تتقاسمها منصات الذكاء الاصطناعي الأخرى
تجدر الإشارة إلى أن Meta AI ليس الوحيد الذي يواجه هذا النوع من المشاكل. نظام توليد الصور من جوجل,تَوأَم، اضطرت إلى تعليق قدرتها على إنشاء صور شخصية بعد حصولها على نتائج غريبة عندما يتعلق الأمر بالتنوع. ثم أوضحت جوجل أن دفاعاتها الداخلية فشلت في إبطال المواقف التي كانت فيها النتائج المتنوعة غير مناسبة.
ولسوء الحظ، لم تستجب ميتا على الفور لطلب التعليق.
هل يعجبك المحتوى الخاص بنا؟
احصل على أحدث منشوراتنا كل يوم مجانًا ومباشرة في صندوق الوارد الخاص بك