أصبحت إيطاليا أول دولة غربية تحظر روبوت الذكاء الاصطناعي الشهير شات جي بي تي، ولم تمنع السلطات الإيطالية برنامج الذكاء الاصطناعي لأن التكنولوجيا تتقدم بسرعة كبيرة واصبحت قوية للغاية، بل حظرت هيئة حماية البيانات الإيطالية التطبيق بسبب مخاوف تتعلق بالخصوصية وقضايا حول امتثاله للائحة العامة لحماية البيانات في الاتحاد الأوروبي، وبرز ذلك الحدث في عناوين الصحف الدولية وارتبط بمخاوف عالمية أعمق من أن الذكاء الاصطناعي يزداد قوة.
ولا يستطيع الكثير منا فهم كيف تطورت تلك التكنولوجيا بهذه السرعة، وأحد الأسباب هو أنه كان هناك عدد قليل من التشريعات والتنظيمات من وجهة نظر تنظيمية لمراقبة نمو الذكاء الاصطناعي، وتحتاج البشرية إلى حماية ووقاية من الذكاء الاصطناعي، لكن القول أسهل من العمل.
وأصبح تنظيم الذكاء الاصطناعي أمرا حيويا بشكل متزايد حيث يتم استخدام التكنولوجيا على نطاق أوسع في مجالات مثل الرعاية الصحية والتمويل والنقل، ووفقا لدراسة أجراها باحثون في جامعة بنسلفانيا و (أوبن اي آي) وهي الشركة الخاصة التي تقف وراء شات جي بي تي، سيتم تغيير معظم الوظائف بشكل كبير بحلول الذكاء الاصطناعي في المستقبل القريب. فبالنسبة لما يقرب من 20 بالمائة من الوظائف في المجال الدراسي التي تتراوح من المحاسبة إلى الكتابة، يمكن إكمال نصف تلك المهام على الأقل بشكل أسرع باستخدام شات جي بي تي والأدوات الأخرى المماثلة. وعلى الرغم من أننا لا نعرف ما الذي سيفعله هذا بسوق العمل، إلا أنه سيكون له تأثير كبير لا مفر منه والذي يمكن أن يكون له آثار غير مباشرة على كل شرائح المجتمع.
وتم اتخاذ خطوات بسيطة نحو تنظيم أفضل في جميع أنحاء العالم في العقد الماضي، وقد وضع الاتحاد الأوروبي، تماشيا مع معايير حماية البيانات الخاصة به، إطارا لتنظيم الذكاء الاصطناعي يتضمن قواعد لتطبيقات الذكاء الاصطناعي عالية المخاطر، ومتطلبات الشفافية والمساءلة، وحظرا على استخدامات محددة الذكاء الاصطناعي، مثل سجل البيانات الاجتماعي – وهي استخدام التكنولوجيا لتصنيف الأشخاص من حيث مستوى الثقة. كما بدأت الولايات المتحدة ببطء في تنظيم الذكاء الاصطناعي، حيث وضع المعهد الوطني للمعايير والتكنولوجيا مجموعة من المبادئ لحوكمة الذكاء الاصطناعي واتخذت لجنة التجارة الفيدرالية إجراءات إنفاذ ضد الشركات التي تستخدم الذكاء الاصطناعي بطرق تنتهك قوانين حماية المستهلك.
ومع ذلك، فإن تلك اللوائح والاجراءات غير كافية، بسبب السرعة التي يتطور بها الذكاء الاصطناعي، وأدى القلق بشأن قوة الذكاء الاصطناعي المتنامية والافتقار إلى اللوائح التنظيمية إلى دعوة بعض قادة التكنولوجيا إلى التوقف مؤقتا عن تطوير الذكاء الاصطناعي، ففي الشهر الماضي، ووفقا لصحيفة الجارديان، دعا أكثر من 1,800 شخصية ، بمن فيهم (إيلان ماسك) والعالم في مجال الفكر (قراي ماركوس) والمؤسس المشارك لشركة أبل (ستيف وزنيك)، إلى التوقف لمدة ستة أشهر عن تطوير أنظمة “أكثر قوة” من أنظمة شات جي تي بي-4.
وكان ماسك أحد مؤسسي شركة (اوبن اي آي) وقد أعرب عن شكوكه بشأن الطريقة التي تدار بها الشركة، وتنص الرسالة المفتوحة على أنه “يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام فترة التوقف هذه لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير الذكاء الاصطناعي المتقدمة التي يتم تدقيقها بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين”.
والخبراء المستقلون ضروريون لتنظيم الذكاء الاصطناعي، ولا ينبغي أن يُنسينا ذلك حقيقة أن القطاع قد تطور في ضوء القليل من الرقابة من السلطات الحكومية، وهذا هو أحد الأسباب التي جعلتنا نجري محادثة عاجلة حول قوتها المتنامية، باختصار، يحتاج تنظيم الذكاء الاصطناعي إلى اللحاق بالوتيرة السريعة للتطور التكنولوجي. ولا يتم التعامل مع المخاطر الاقتصادية والاجتماعية والفكرية للذكاء الاصطناعي بشكل كاف من جانب الحكومات في جميع أنحاء العالم. على سبيل المثال، ثبت أن استخدام تقنية التعرف على الوجه متحيز ضد مجموعات معينة ولكنه لا يزال غير منظم إلى حد كبير في العديد من البلدان، بما في ذلك الولايات المتحدة. وبالمثل، أثار استخدام الذكاء الاصطناعي في أنظمة صنع القرار الآلية، مثل سجل الطلب على القروض أو فحص مدى جدارة الموظف، مخاوف بشأن التحيز الخوارزمي والتمييز.
ويمكن لنماذج اللغة القائمة على الذكاء الاصطناعي مثل شات جي تي بي إنشاء محتوى ضار أو مضلل، مثل خطاب الكراهية، ويمكن أن يساعد في نشر التحيزات المجتمعية وعدم المساواة الحالية. ثم هناك مسألة خصوصية البيانات، التي ركزت عليها إيطاليا، حيث تتطلب نماذج اللغة تلك الوصول إلى كميات كبيرة من البيانات الشخصية لتعمل بفعالية. فهل يجب على الأفراد تسليم بياناتهم؟ فإذا كان الأمر كذلك، تحت أي شروط؟ وهذه أسئلة خطيرة ليس لها إجابات في الوقت الحالي بسبب عدم وجود لوائح سليمة، فهل تعرف مقدار بياناتك التي يتم إدخالها في النموذج اللغوي للذكاء الاصطناعي أثناء قراءة هذا المقال؟ أنا بالتأكيد لا أعرف، وهذا جزء من المشكلة.
ومن ناحية أخرى، فإن الخطر المصاحب لتنظيم الذكاء الاصطناعي هو أنه يمكن أن يخنق الإبداع، وتحب الشركات الخاصة في وادي السيليكون تلك الجدلية لأنها تغير معايير النقاش. حيث يقولون إن هناك حاجة إلى مزيد من البحث لفهم أخطار وفوائد الذكاء الاصطناعي بدقة. علاوة على ذلك، يتطلب تنظيم الذكاء الاصطناعي مدخلات من جانب جميع الشركاء، بما في ذلك الوكالات الحكومية وقادة الصناعة ومنظمات المجتمع المدني. وليس من السهل جمع مختلف الشركاء وأصحاب المصلحة معا والتحقيق في كيفية تغيير الذكاء الاصطناعي للمجتمع، ويمكن إعطاء الباحثين مزيدا من الوقت لتقييم أخطار الذكاء الاصطناعي بينما تصاغ التشريعات في نفس الوقت، فيمكن القيام بكلا النشاطين في نفس الوقت.
ونظرا لقلة النشاط في أقوى دول العالم بشأن تنظيم الذكاء الاصطناعي، فقد حان الوقت للبلدان الصغيرة للتصديق على لوائحها الخاصة، حيث تمتلك الاقتصادات ذات التكنولوجيا القوية من إستونيا إلى إسرائيل إلى الإمارات العربية المتحدة قاعدة معرفية لصياغة لوائح منطقية للتأثير على مسار تطور الذكاء الاصطناعي. هذه البلدان أيضا صغيرة بما يكفي بحيث يمكن تحديث تلك اللوائح وتعديلها مع تطور التكنولوجيا. وبغض النظر عن الزاوية التي ننظر من خلالها إلى تطور الذكاء الاصطناعي، فقد حان الوقت للتفكير في الحماية والوقاية منه.
جوزيف دانا هو كبير المحررين السابقين في إكسبونانشال فيو، وهي نشرة إخبارية أسبوعية حول التكنولوجيا وتأثيرها على المجتمع. كما شغل منصب رئيس تحرير إميرج85، وهو مركز يستكشف التغيير في الأسواق الناشئة وتأثيره العالمي.
تويتر: @ibnezra