تواجه شركة جوجل (Google) سيلاً من الانتقادات المتزايدة بسبب مشاكل التمييز الخاصّة بمخرجات نموذج الذكاء الصنعي (AI) الأحدث التابع لها -جيميني (Gemini)- الذي يقوم بتحويل النصوص المكتوبة إلى صور مرئية، إذ يمكن لهذه البرمجيّة المتطوّرة توليد صور تبدو حقيقيةً باستخدام تعليقات المستخدمين النصية، إلا أن هذه التقنية أثارت انتقاداتٍ حادةً بسبب مُخرجاتٍ غير مألوفةٍ تحتوي على معلوماتٍ مغلوطةٍ يرى البعض أنها تنم عن جهلٍ بالمسائل العرقية.
وتمت مشاركة أمثلةٍ عديدة على نطاقٍ واسع هذا الأسبوع تُظهر قيام أداة Gemini بتصوير شخصياتٍ وأحداثٍ تاريخيةٍ بطرقٍ إشكاليةٍ تعزّز التنوّع على حساب الدقة وصحّة المرجعية. فعلى سبيل المثال، انتشرت بشكلٍ سريع عبر الإنترنت صورٌ لجنود نازيين من أصولٍ عرقيةٍ متنوّعةٍ وتمثيلاتٌ لأشخاص من غير البيض يُفترض بهم تمثيل مجموعاتٍ تاريخيةٍ من البيض تم توثيقها تاريخياً، ما أثار سخط المؤرخين ومجموعات الحقوق المدنية والمحافظين وعامّة الناس بسبب قيام هذه الأداة القوية بالترويج لمعلوماتٍ مُضللةٍ ومغلوطةٍ تاريخياً. وبالرغم من تأكيد جوجل أن هذا النموذج يهدف لإثراء التنوّع، يرى النقاد أن هذا لا ينبغي أن يكون على حساب صحّة المعلومات الواردة في الصور.
كيف يقوم نموذج جيميني بتوليد الصور؟
تستخدم أداة Gemini تقنيات الذكاء الصنعي التوليدي لتحويل الأوامر النصية إلى صورٍ مرئية، وتم تدريبها باستخدام مليارات الصور المُرفقة بتعليقات، بحيث يُمكنها أن تتعلم بشكلٍ تدريجيٍّ تحويل المدخلات النصية غير المرتّبة إلى صورٍ تبدو واقعيةً ومطابقةً للتوصيفات المكتوبة.
فعندما يزوّد المستخدمون أداة الذكاء الصنعي هذه بتعليقاتٍ ما -مثل “امرأة بشعر أحمر تبدو سعيدة”- تقوم أداة جيميني برسم معالمَ بصريةٍ للكلمات الرئيسية كي تخرج بصورة تخيليةٍ تبدو حقيقيةً إلى حدٍّ كبير، وهو ما ينطبق أيضاً على التوصيفات الخيالية غير الموجودة في أرض الواقع.
مع ذلك، يبدو أن أداة جيميني تتجاهل الأدلة الواقعية لدى تعاملها مع الأحداث التاريخية الموثقة، مفضلةً التنوّع في الصور المولدة على حساب الدقة. ويرى بعض الخبراء أنه بالرغم من أهمية تضمين كافة الفئات في الصور المُستخرجة، إلا أن هذا لا ينبغي أن يتسبّب بالتجاهل الواضح للأدلة التاريخية الموثقة. وقد أشار مستخدمو منصة X (تويتر سابقاً) إلى أن النموذج يقوم بتلقي الأوامر وتمريرها على نموذج اللغة الكبير القائم على النصوص المكتوبة، كما يقوم بإضافة أوامرَ أخرى قبل الانتقال إلى أداة توليد الصور لتقوم بإنشاء الصور النهائية كما تشاء.
أمثلة على مخرجات أداة Gemini المتحيزة والمضللة
أثارَت الصور الإشكالية التي أنشأتها أداة الذكاء الصنعي جيميني غضبَ مستخدمين كثرٍ على الإنترنت؛ فمثلاً قام النموذج بتصوير عدد من الجنود الألمان في أربعينيات القرن الماضي على أنهم من جنسياتٍ آسيويةٍ وهنديةٍ أو من ذوي البشرة السوداء، ما يتناقض مع العنصرية الشديدة التي عُرِف بها النظام النازي المتعصّب للعرق الأبيض، وهو ما وثقته سجلات الحروب والتقارير الإخبارية حول تلك الحقبة.
صورٌ من ابتكار نموذج Gemini لأشخاص من خلفياتٍ عرقيةٍ مختلفةٍ يرتدون اللباس العسكري الخاص بالجيش النازي
وفي مثالٍ صارخ آخر، قامت الأداة المثيرة للجدل بتصوير مؤسسي الولايات المتحدة الأوائل -أمثال جورج واشنطن وتوماس جيفرسون- بشكلٍ أشخاص من غير ذوي البشرة البيضاء.
وفي أمثلةٍ أخرى، نجد صوراً لقديسين مسيحيين وباباوات من القرن الثالث عشر الميلادي في أزياء نسائيةٍ وببشرة ملوّنةٍ، ما يخالف السجلات التاريخية التي تؤكد هيمنة الذكور البيض على الفاتيكان في ذلك الوقت. لذا، يُجمع النقاد على أن تضمين كافة الفئات والأعراق وتعزيز التنوّع لا يتحقق بالتزييف الصارخ للحقائق التاريخية المثبتة.
تصاعد الجدل حول التحيّز العرقي والجنسي لأدوات الذكاء الصنعي
تسبّبت صور جيميني المضللة بإثارة الجدل مجدّداً حول التمييز الذي يعيب أنظمة الذكاء الصنعي، ومن الواضح أن الحماسة تجاه التنوّع -وفق ما تم تضمينه في هذا النموذج- تسبّبت -على الأرجح- بالمبالغة والإفراط، فضلاً عن إثارة اللغط والانتقادات بدلاً من التعامل مع المشكلة بشكلٍ إيجابيّ.
وتُظهر منشوراتٌ عديدةٌ لاقت رواجاً كبيراً قيام هذا النموذج بتوليد صور لعلماء من جنسياتٍ آسيويةٍ وهنديةٍ وأفريقيةٍ من ذوي البشرة السمراء لدى تزويده بأوامرَ نصيّة، إلا أنه يمتنع عن إنشاء صور لعلماء بيض مُدعياً أن هذه الأوامر تروّج لمفاهيمَ نمطيةٍ معيبة. وفي المقابل، يرى البعض أن هذه الانتقادات المضللة من قبل اليمينيين المتشدّدين (المحافظين) تتجاهل مشكلة Gemini الحقيقية المتمثلة في الصور المخالفة لحقائق لا تحتمل الشك.
ويؤكد البعض أن شركة جوجل (GOOG) تسعى للحدّ من التحيّزات ضد كافة العروق والأجناس في أدوات الذكاء الصنعي الخاصة بها، بينما يرى آخرون أن هذه التقنية ما تزال بعيدةً عن استيعاب الأبعاد الاجتماعية المعقدة بما يكفي للتعامل معها بمسؤولية.
ويبدو أن هناك إجماعاً حول الحلول المُحتملة والمتمثلة في الالتزام بالحقائق بشكلٍ دقيقٍ بعيداً عن التعميم والتخمين، لا سيّما فيما يخص نماذج الذكاء الصنعيّ المؤثرة بتصوّرات جموع المستخدمين.
رد جوجل الرسميّ وسط الانتقادات اللاذعة
بعد تعرّض نموذج الذكاء الصنعيّ الخاص بجوجل لانتقاداتٍ متزايدة بسبب افتقاره للفهم والدقة في المسائل العرقية والجنسيّة، قامت الشركة بنشر اعتذار رسميٍّ وبادرت باتخاذ إجراءاتٍ فوريةٍ، حيث أقرَّ كبير مديري المنتجات لدى Gemini Experiences جاك كراوتشيك (Jack Krawczyk) أنه بالرغم من سعي الشركة لتوسيع نطاق التمثيل في الصور المولّدة لإكسابه تنوّعاً، إلا أن النموذج “لم يحقق الغاية المرجوّة منه” لدى التعامل مع التفاصيل الدقيقة المتعلقة بالدقة التاريخية والقضايا المجتمعيّة الشائكة.
We're already working to address recent issues with Gemini's image generation feature. While we do this, we're going to pause the image generation of people and will re-release an improved version soon. https://t.co/SLxYPGoqOZ
— Google Communications (@Google_Comms) February 22, 2024
وفي إجراءٍ أوليّ، قامت الشركة بتعليق إمكانات توليد صورٍ للبشر حتى يتم التعامل مع هذه المشاكل، وأشار كراوتشيك إلى أنه سيتم إطلاق نسخةٍ محسّنةٍ تتلافى هذه العيوب في القريب العاجل.
ولا يمكن للنموذج الحاليّ التعامل مع الصور ذات المحتوى الحسّاس المرتبط بالعرق والجنس والمفاهيم النمطية، أي بالمواضيع التي يُرجّح أن يتم تمثيلها بشكلٍ خاطئٍ بسبب غياب الفهم الدقيق لمفاهيم عدم المساواة والعنصريّة التاريخية، كما أكدت جوجل على أهمية سعيها لتعزيز التنوّع دون الإضرار بدقة الوقائع وصحّتها.
وحول ذلك قال كراوتشيك: “نعمل على تحسين هذا النوع من الصور بشكلٍ فوريّ؛ إذ يقوم نموذج توليد الصور جيميني بالفعل بتمثيل فئاتٍ متنوّعةٍ من البشر في الصور المولدة، ما يمثل ميزةً قيمةً لأنه يُستخدم من قبل مختلف المستخدمين حول العالم، إلا أنه لم يحقق الغاية المرجوّة منه بهذا الصدد”.
القطاع التقنيّ برمّته يخضع للرقابة بسبب التسرّع في تطوير نماذج الذكاء الصنعيّ
تبدو هذه “الفضيحة” -إذا جاز التعبير- مجرّد بدايةٍ لجدلٍ غير منتهٍ حول نظم الذكاء الصنعي التوليدية، كما تُعتبر مشكلةً بسيطةً بالمقارنة مع المشاكل الخطيرة الأخرى؛ فهل من الجائز أن يحرص شخص ما على توليد صورٍ بالغة الدقة لجنود نازيين أو لمؤسّسي أمريكا الأوائل؟ الإجابة هي لا بكلّ تأكيد. ولو افترضنا وجود شخص يود توليد هذا النوع من الصور، فيمكنه طبعاً استخدام أحد تطبيقات توليد الصور العديدة الأخرى. ومع ذلك، تشير هذه الحادثة إلى معضلةٍ كبرى قد تواجهها شركات الذكاء الصنعيّ، إذ تسبّب الجدل الدائر حول هذا النموذج بلفت انتباه الجهات الرقابية لقيام القطاع التقنيّ ككلّ بتطوير أدوات ذكاءٍ صنعيٍّ بشكلٍ متسرّع دون اتخاذ إجراءاتٍ احترازيةٍ للتحوّط من المخاطر -مثل التحيّز ونشر معلوماتٍ مغلوطة.
صورةٌ من ابتكار نموذج جيميني لخمسة أشخاص يمثلون المؤسسين الأوائل للولايات المتحدة أربعةٌ منهم ذوو بشرة بيضاء والخامس ذو بشرة سوداء
يُذكر أن شركة ميتا بلاتفورمز (META) قامت مؤخراً بإيقاف تشغيل نموذج توليد الصور الخاص بها Galactica AI بالرغم من رواجه الكبير نتيجة قيامه بتوليد صورٍ ذات محتوى عنصريٍّ ومعادٍ للمرأة بشكلٍ واضح. في هذه الأثناء، حذّر فريق مايكروسوفت الذي يعكف على تطوير روبوت المحادثة Bing الإدارة العليا للشركة من مخاطرَ متعلقةٍ بالتمييز والتحيّز تم تجاهلها لتلبية مواعيد الإطلاق الوشيكة.
ويُشير مراقبون إلى أن تسابق شركات القطاع التقني للاستفادة من الضجّة المثارة حول الذكاء الصنعي التوليدي بشكلٍ متهوّرٍ بغرض تحقيق مكاسبَ سريعةٍ قد تسبّب بعدم إيلاء الأولوية لبذل العناية الواجبة من أجل ضمان تحقيق تطوّراتٍ تتسم بالمسؤولية الاجتماعية؛ ووسط انتشار نماذج الذكاء الصنعي -كأداة Gemini- في العالم وظهور تأثيراتها على الآراء العامة بشكلٍ متزايد، يؤكد أنصار التنمية الاجتماعية ضرورة تعامل الشركات مع العيوب المتعلقة بالتمييز من خلال التعاون الهادف مع خبراء خارجيين، بدلاً من الاعتماد على خبرائها فقط من أجل تحديد المحتوى المناسب للفئات المُهمّشة.
كذلك ظهرت دعواتٌ مكثفةٌ لفرض قواعد حمايةٍ عامةٍ على تطوير الأدوات ذات التأثير المجتمعيّ -مثل نماذج الذكاء الصنعي التوليدية- للحيلولة دون تطوير أدواتٍ جديدة للقمع الممنهج نتيجةً لغياب الوعي الضروريّ في التعامل معها.
وبالنظر لوعود جوجل بالاستجابة للانتقادات المحقة لعيوب أداة توليد الصور الخاصة بها، يتعيّن على الشركة الاختيار بين مواصلة سعيها لخدمة مصالحها قصيرة الأجل أو مراعاة التأثير الاجتماعي طويل الأجل لهذه التقنية، ما يستلزم القيام بعمليات تحديثٍ وتغييراتٍ ضروريةٍ قبل إطلاق هذا النموذج مجدّداً.