وقعت الولايات المتحدة والمملكة المتحدة والاتحاد الأوروبي أول معاهدة ” ملزمة قانونياً ” تتعلق بالذكاء الاصطناعي، والتي تهدف إلى ضمان إستخدامه بما يتماشى مع ” حقوق الإنسان والديمقراطية وسيادة القانون “، وفقاً لمجلس أوروبا.

تُسمى هذه المعاهدة ” الاتفاقية الإطارية بشأن الذكاء الاصطناعي “، وتحدد المبادئ الأساسية التي يجب على أنظمة الذكاء الاصطناعي الإلتزام بها، مثل حماية بيانات المستخدمين، وإحترام القانون، وضمان الشفافية في الممارسات. يتعين على كل دولة موقعة على المعاهدة أن ” تعتمد أو تحافظ على تدابير تشريعية أو إدارية أو غيرها ” تعكس هذه الإطار.

كما وقعت على الاتفاقية دول أخرى مثل أندورا وجورجيا وآيسلندا والنرويج وجمهورية مولدوفا وسان مارينو، حيث أن العمل على إعداد هذا الإطار بدأ منذ العام 2019.

في الأشهر الأخيرة، شهدنا ظهور العديد من الاتفاقيات المتعلقة بسلامة الذكاء الاصطناعي، ولكن معظمها لا يتضمن عقوبات على الدول الموقعة التي تخالف إلتزاماتها. وعلى الرغم من أن هذه المعاهدة الجديدة تُعتبر ” ملزمة قانونياً “، إلا أن صحيفة فاينانشيال تايمز تشير إلى أن “الامتثال يتم قياسه في الأساس من خلال المراقبة، وهو شكل ضعيف نسبياً من أشكال الإنفاذ “.

ومع ذلك، يمكن أن تشكل هذه المعاهدة نموذجًا للدول التي تطور قوانينها الخاصة حول الذكاء الاصطناعي. لدى الولايات المتحدة مشاريع قوانين قيد الإعداد تتعلق بالذكاء الاصطناعي، وقد أصدرت الاتحاد الأوروبي بالفعل لوائح تنظيمية مهمة في هذا المجال، كما أن المملكة المتحدة تدرس قوانينها الخاصة. إضافة إلى ذلك، تقترب ولاية كاليفورنيا من إقرار قانونها الخاص حول سلامة الذكاء الاصطناعي، وهو القانون الذي تعارضه شركات كبرى مثل OpenAI.

وقالت ماريا بيتشينوفيتش بوريك، الأمينة العامة لمجلس أوروبا، في بيان لها : ” يجب أن نضمن أن تطور الذكاء الاصطناعي يعزز معاييرنا بدلاً من أن يقوضها. وتم تصميم الاتفاقية الإطارية لضمان تحقيق هذا الهدف. إنها نص قوي ومتوازن نتيجة لنهج منفتح وشامل “. ستدخل المعاهدة حيز التنفيذ بعد ثلاثة أشهر من مصادقة خمس دول موقعة عليها.

شاركها.
اترك تعليقاً

Exit mobile version