أعلنت شركة Meta Platforms عن سياسةٍ جديدة لحظر استخدام المحتوى المولّد باستخدام الذكاء الصنعي في الإعلانات السياسية على فيسبوك وإنستغرام بدءاً من عام 2024، في خطوة تهدف إلى مكافحة المعلومات المضللة ومخاطر التلاعب المحتملة التي ترافق التقنيات سريعة التطوّر للذكاء الصنعيّ التوليدي.
وبموجب السياسة الجديدة، سيتم حظر الإعلانات السياسية التي تحتوي على وسائط إعلاميةٍ مُصنّعةٍ مثل مقاطع الفيديو المزيّفة أو المقاطع الصوتية التي تم إنشاؤها باستخدام أدوات الذكاء الصنعيّ؛ كما سيتوجب على المعلنين أيضاً الإفصاح عمّا إذا كان محتوى الإعلان يتضمّن صوراً تبدو حقيقيةً إلا أنه تم إنشاؤها باستخدام الذكاء الصنعيّ وقد تضلل المشاهدين.
ويأتي هذا التحوّل في السياسة وسط تزايد المخاوف بشأن “التزييف العميق” وغيرها من تقنيات الذكاء الصنعيّ التي تسهّل نشر معلوماتٍ كاذبةٍ أو مضللةٍ تهدف إلى خداع الجمهور والتأثير عليه.
مكافحة إساءة الاستخدام المحتملة لتقنيات الذكاء الصنعيّ قبل الانتخابات الرئاسية الأمريكية لعام 2024
تقدم الوسائط التي يُنشِئها الذكاء الصنعيّ طرقاً جديدةً لتحريف الحقائق وخداع الناس على نطاقٍ واسع، ما يثير مخاوف بأن يعزّز الذكاء الصنعيّ المعلومات المضللة ويوصلها إلى مستوياتٍ غير مسبوقةٍ خلال سباق الانتخابات الرئاسية الأمريكية لعام 2024 وغيرها من الانتخابات الكبرى المقبلة في جميع أنحاء العالم.
وتهدف Meta إلى التخفيف من هذه المخاطر بشكلٍ استباقيٍّ داخل منصّاتها من خلال حظر استخدام محتوى الذكاء الصنعيّ المركّب في الإعلانات السياسية، حيث واجهت الشركة انتقاداتٍ شديدةً في الماضي لإتاحتها إمكانية التأثير في الانتخابات ونشر المعلومات المغلوطة والمضللة عمداً على تطبيقاتها.
كما قامت Meta مؤخراً بمنع المعلنين في جميع القطاعات من استخدام أداتها الجديدة لإنشاء الإعلانات باستخدام الذكاء الصنعي بغاية الترويج للمحتوى المتعلق بالسياسة والقضايا الاجتماعية والصحة والقطاع الماليّ وما إلى ذلك، حيث صرّحت الشركة:
“بينما نستمر باختبار أدواتٍ جديدة لإنشاء الإعلانات باستخدام الذكاء الصنعي التوليدي في مدير الإعلانات (Ads Manager)، لا يُسمح حالياً باستخدام ميزات الذكاء الصنعي من قبل المعلنين الذين يقومون بحملاتٍ يمكن اعتبارها إعلاناتٍ للسكن أو التوظيف أو الائتمان أو القضايا الاجتماعية أو الانتخابات أو السياسة أو تلك المتعلقة بالصحة أو الأدوية أو الخدمات المالية”.
المراقبة الدقيقة للإعلانات السياسيّة سيتم تطبيقها على منصّات Meta أيضاً
بالإضافة إلى منع استخدام تقنيات الذكاء الصنعي، تقول Meta إن ممارسات التصنيف الجديدة ستضيف المزيد من الشفافية للإعلانات السياسية حتى عام 2024.
سيتعيّن على المعلنين عند إرسال الإعلان الإفصاح عمّا إذا كان المحتوى “تم إنشاؤه أو تعديله رقمياً” لتصوير الوقائع بشكلٍ مضللٍ كأن يبدو أن شخصاً حقيقياً فعل شيئاً لم يقم به في الواقع، أو لتضليل الناس بشأن مصدر الصوت أو الصورة أو الفيديو.
ويجب أن تتضمّن الإعلانات التي أكدت الجهات الراعية أنها تحتوي على وسائط تم التلاعب بها علامة “تم إنشاؤها أو تغييرها رقمياً” بحيث يُمكن لجميع المستخدمين رؤيتها، وستقوم أدوات شفافية الإعلانات في Meta أيضاً بفهرسة ما إذا كان الإعلان يستخدم صوراً أو صوتاً تم إنشاؤه بواسطة الذكاء الصنعي.
وتهدف هذه التدابير إلى تزويد المستخدمين بسياقٍ ومؤشراتٍ إضافيةٍ حول الرسائل السياسيّة التي تتيح لهم التعرّف بسرعةٍ على “الأخبار المزيّفة” والمعلومات المضللة، وذكرت Meta Platforms (META) أن عمليات الإفصاح المعزّزة هذه ستمكّن الناخبين أيضاً من تدقيق الإعلانات لاتخاذ قراراتٍ أكثرَ استنارة.
استمرار الهيئات التنظيميّة بالانتقادات والدعوات إلى إصلاحاتٍ أوسع
تلقت تغييرات السياسة ردود فعلٍ متباينةً من قِبل السلطات التنظيميّة والجماعات الحقوقية، فبالرغم من الإشادة بها كخطوة إيجابية، أكد الكثيرون أن هذه التدابير الطوعيّة وحدَها غير كافيةٍ دون تفويض قانونيٍّ مُلزِمٍ بها.
ووصفت السيناتور إيمي كلوبوشار (Amy Klobuchar) هذه الخطوة بأنها “خطوةٌ في الاتجاه الصحيح”، لكنّها شدّدت على أن السلطات التنظيمية لا يمكنها الاعتماد فقط على شركات التكنولوجيا ذاتية التنظيم في هذا المجال، وتعهّدت بمواصلة الدعوة والسعي لقوانين تتطلب الإفصاح الإلزاميّ عن استخدام الذكاء الصنعي وتنص بوضوح على منع الاستخدام المخادع.
وأكدت منظمات المجتمع المدني -مثل مركز مكافحة الكراهية الرقمية- أيضاً على وجوب إلزام المنصات قانوناً بمعالجة المخاطر التي تشكّلها أدوات الذكاء الصنعيّ التضليلية.
وينظر مجلس الشيوخ حالياً في العديد من المقترحات التنظيميّة التي تركّز على وضع أطرٍ تنظيميةٍ تمنع التزييف العميق في المحتوى السياسيّ ووسائط الإعلان التحريضية، ويأمل الكثيرون في أن يشكل الحظر الطوعيّ لميتا ضغطاً على السلطات التنظيمية لسنِّ إصلاحاتٍ أكثرَ شمولاً قبيل انتخابات 2024.
مع ذلك، فإن المراقبة الفعّالة وفرض القيود على المحتوى الذي تم إنشاؤه باستخدام الذكاء الصنعي ما تزال تشكل تحدياً تقنياً هائلاً للمنصّات، حيث تعمل Meta نفسها بنشاطٍ على تطوير أدوات ذكاء صنعيٍّ توليديٍّ متطوّرة كما يتضح من إطلاقها مؤخراً لنموذج Galactica.
ويرى النقاد أن سياسة ميتا الجديدة تفتقر إلى التفاصيل الكافية حول آلية التنفيذ وتترك مجالاً واسعاً لإساءة الاستخدام من قبل الجهات المتلاعبة، إلا أن الشركة صرّحت أنها اتبعت أكثر الطرق مسؤوليةً في الوقت الحاليّ من خلال الحظر الذي فرضته، نظراً لسرعة تطوّر تقنيات الذكاء الصنعي التوليدي.
ومع ظهور مخاطرَ جديدة لاستخدام الذكاء الصنعي في المعلومات المضللة، فقد يشهد المستهلكون تزايد حدة النقاش حول السياسات الوقائية الهادفة للموازنة بين الأمن وحرية التعبير. وفيما يمكن اعتبار حظر Meta خطوةً أولى إيجابيةً، فمن المرجّح أن يتطلّب إيجاد حلولٍ دائمةٍ لمعضلات المحتوى المولد باستخدام الذكاء الصنعي جهوداً منسّقةً بين شركات التكنولوجيا ووسائل الإعلام والحكومة.