صرّح الرئيس الأمريكيّ جو بايدن قائلاً بأنّ الذكاء الصنعيّ قد ينطوي على عواقبَ خطيرةٍ إلّا أنّ آثاره على المجتمع لم تظهر بعد، وأضاف بأنّه ينبغي على الشركات التقنيّة تحمّل مسؤولية التأكّد من أنّ منتجاتها آمنةٌ للاستخدام العامّ قبل الشروع في إطلاقها.

ووفقاً لتقرير مجلة فورتشن، دعا الرئيس الامريكيّ إلى عقد اجتماعٍ يوم الثلاثاء مع مجلس مستشاريه للعلوم والتكنولوجيا من أجل التباحث حول المخاطرِ والفرصِ المُحتملة التي تشكّلها التطوّرات السريعة في مجال الذكاء الصنعيّ؛ ويرأس المجلس -الذي يتألّف من أكاديميّين في العلوم والهندسة والتكنولوجيا والخبراء الطبيّين بالإضافة إلى مُدراءَ تنفيذيّين من شركتي مايكروسوفت وغوغل– مديرُ مكتب البيت الأبيض لسياسة العلوم والتكنولوجيا أراتي برابهاكار.

وافتتح بايدن الاجتماع بالقول بأنّه “ينبغي على شركات التكنولوجيا -من وجهة نظري- أن تتحمّل مسؤوليتها في التأكّد من سلامة وأمان منتجاتها قبل نشرِها على الملأ”، وعندما سُئِل عمّا إذا كان الذكاء الصنعيّ خطيراً، قال بايدن بأنّ ذلك “لم يتّضح بعد، ولكنّه يُمكن أن يكون كذلك”.

ومن ناحيةٍ أخرى، ذهب بايدن إلى أبعد من ذلك ليقول بأنّ الذكاء الصنعيّ يُمكن أن يساعد في معالجة قضايا ومشكلاتٍ مثل علاج الأمراض ومكافحة تغيّر المناخ. ومع ذلك، يحتاج مطوّرُوه أيضاً إلى النَّظرِ في “المخاطر المُحتملةِ المُنطوية فيه على مجتمعنا واقتصادنا وأمننا القوميّ”.

كما لم يَغفل بايدن عن الحديث حول وسائل التواصل الاجتماعيّ، حيث قال بأنّ آثارَها على الصحّة العقلية للشباب في المجتمع تُصوّرُ مدى الضَّرَر الذي قد تسبّبه التقنيات الجديدة، وقال: “في غياب نُظُم حمايةٍ مناسبةٍ، نرى التأثير على الصحة العقلية والصورِ الذاتيّةِ والمشاعر واليأس خاصّةً بين فئة الشباب”.

وفي سياقٍ متّصلٍ، دعا بايدن الكونغرس إلى إقرار قانونٍ تشريعيٍّ يقترحه الحزبان الرئيسيّان لحماية خصوصيّة المُستخدمين ووضع قيودٍ على البيانات الشخصيّة التي يُسمح لشركاتِ التكنولوجيا بجمعِها، إذ سيزيدُ التشريعُ من حظر الإعلانات التي تستهدف فئة الأطفال ويُعطي الصحّة والسلامة أولويّةً قُصوى عند تطوير منتجاتٍ جديدة.

معضلة الذكاء الصنعيّ العالمية

تأتي تصريحات الرئيس الأمريكيّ في وقتٍ يحتدم فيه الجدل حول كيفيّة تنظيم مجال عمل الذكاء الصنعيّ، حيث تطالب بعض الشخصيّات المعروفة بالتوقف مؤقتاً عن إتاحة المجال للتقدّم التكنولوجي حتى يمكن وضعُ تدابيرَ لضمان السلامة.

نذكرُ من تلك الشخصيات إيلون ماسك (Elon Musk) والعضوَ المؤسّس لشركة آبل ستيف وزنياك، حيث قاموا بنشر رسالةٍ مفتوحةٍ تطالب بوقف تجارب وتطوير منتجات الذكاء الصنعيّ القويّة لمدّة 6 أشهرٍ على الأقلّ، وأشارت الرسالة إلى “مخاطرَ عميقةٍ على المجتمع والإنسانيّة”؛ كما نصحت الرسالة بتطويرِ وتنفيذ مجموعةٍ من إجراءات السلامة المشتركة خلال هذا التوقّف المؤقّت لتصميم وتطوير تقنيّات الذكاء الصنعيّ المتقدّمة، بحيث يتمّ تدقيقها بفعاليةٍ والإشرافَ عليها من قبل خبراءَ خارجيّين مُستقلّين. وقد جمعت الرسالة المفتوحة أكثرَ من 10,000 توقيعٍ حتى وقتِ كتابة هذا التقرير، معظمُها من أشخاصٍ ذوي معرفةٍ وخبراءَ في مجال الذكاء الصنعيّ، ما يدلّ على القلق المتزايد بشأن قدرات وتأثيرات الذكاء الصنعيّ على الجنس البشريّ.

وفي خضّم حديثنا عن تزايد المخاوف حول خطورة الذكاء الصنعيّ، تُعدُّ إيطاليا أوّل دولةٍ تتخذ إجراءاتٍ ضدّ التكنولوجيا عن طريق حظرِ روبوت تشات جي بي تي (ChatGPT) مؤقّتاً داخل أراضيها بسبب ما وصفتها بمشكلاتٍ تتعلق بخصوصيّة البيانات. ونتيجةً لذلك، يُجري المشرّعون في الاتحاد الأوروبيّ محادثاتٍ حول اعتماد قوانين تنظيميّةٍ جديدةٍ لتقييد منتجات الذكاء الصنعيّ عالية الخطورة داخل القارة.

على النقيض من ذلك، تختلف هذه الخطوة مع النهج الذي تتّبعه الولايات المتحدة تجاه الذكاء الصنعيّ والذي يصفه راسل والد، المديرُ الإداريّ للسياسة والمجتمع في معهد ستانفورد للذكاء الصنعيّ المُعتمد على الإنسان، بـ “عدم التدخّل”.

ويعتقد والد أنّ تصريحات بايدن في الاجتماع لن تغيّر -على الأرجح- موقف البلاد، لكنّه “يمهّد الطريق لحوارٍ وطنيٍّ حول هذا الموضوع من خلال زيادة الاهتمام بالذكاء الصنعيّ، وهو ما نحنُ بحاجةٍ شديدةٍ إليه”.

Love Hate Inu – عملة الميم الكبيرة التالية!

تقييمنا

  • التجربة الأولى لمنصة "صوَّت لتربح" على Web3
  • صوّت على القضايا المُثارة حاليًا واكسب رموز $LHINU
  • تصويت آمن وموثوق ويُخفي الهوية
  • مُقاومة سحب البساط - 90% من الرموز المتوفرة في مرحلة البيع الأوليّ
  • احصل على قوة التصويت عن طريق جمع رموز $LHINU