قبل بضعة أيام فقط، تنص صفحة سياسات الإستخدام الخاصة بـ OpenAI صراحةً على أن الشركة تحظر إستخدام تقنيتها للأغراض ” العسكرية والحربية “، ولكن تم حذف هذا السطر منذ ذلك الحين. ووفقًا لموقع The Intercept والذي كان أول من رصد هذا التغيير، فقد قامت الشركة بتحديث الصفحة في اليوم 10 يناير ” لتكون أكثر وضوحًا وتقدم المزيد من الإرشادات الخاصة بالخدمة “، كما ينص سجل التغييرات. ولا تزال الشركة الأمريكية تحظر إستخدام نماذجها اللغوية الكبيرة لأي شيء يمكن أن يسبب الضرر، وتحذر الناس من إستخدام خدماتها ” لتطوير الأسلحة أو إستخدامها “. ومع ذلك، فقد قامت الشركة بإزالة اللغة المتعلقة بـ ” الجيش والحرب “.
وفي حين أننا لم نرى بعد آثاره على أرض الواقع، فإن هذا التغيير في الصياغة يأتي في الوقت الذي تظهر فيه الوكالات العسكرية حول العالم إهتمامًا بإستخدام الذكاء الاصطناعي. وعلى ذكر ذلك، فقد صرحت المديرة الإدارية لمنظمة AI Now، السيدة سارة مايرز ويست بالقول : ” بالنظر إلى إستخدام أنظمة الذكاء الاصطناعي في إستهداف المدنيين في غزة، إنها لحظة مناسبة لإتخاذ قرار بإزالة الكلمات ” العسكرية والحرب ” من سياسة الاستخدام المسموح بها في OpenAI “.
إن الإشارة الصريحة لـ ” الجيش والحرب ” في قائمة الإستخدامات المحظورة تشير إلى أن OpenAI لا يمكنها العمل مع الوكالات الحكومية مثل وزارة الدفاع، التي تقدم عادةً صفقات مربحة للمقاولين. في الوقت الحالي، لا يوجد لدى الشركة منتج يمكن أن يقتل أو يسبب ضررًا جسديًا لأي شخص بشكل مباشر. ولكن كما قال موقع The Intercept، يمكن إستخدام تقنيتها في مهام مثل كتابة التعليمات البرمجية ومعالجة أشياء يمكن إستخدامها لقتل الناس.
عندما سُئل المتحدث الرسمي بإسم شركة OpenAI عن التغيير في صياغة سياستها، قال نيكو فيليكس للموقع إن الشركة ” تهدف إلى إنشاء مجموعة من المبادئ العالمية التي يسهل تذكرها وتطبيقها، خاصة وأن أدواتنا تُستخدم الآن عالميًا من قبل المستخدمين العاديين الذين يمكنهم الآن أيضًا إنشاء أدوات الذكاء الإصطناعي الخاصة بهم “. وأضاف فيليكس أن : ” مبدأ مثل ” لا تؤذي الآخرين ” واسع النطاق ولكن يسهل فهمه وذو صلة في العديد من السياقات “، مضيفًا أن شركة OpenAI ” استشهدت على وجه التحديد بالأسلحة وإصابات الآخرين كأمثلة واضحة “. ومع ذلك، ورد أن المتحدث رفض توضيح ما إذا كان حظر استخدام التكنولوجيا ” لإيذاء ” الآخرين يشمل جميع أنواع الإستخدامات العسكرية خارج نطاق تطوير الأسلحة.
وفي بيان لموقع Engadget، قال متحدث بإسم شركة OpenAI : ” سياستنا لا تسمح باستخدام أدواتنا لإيذاء الأشخاص، أو تطوير الأسلحة، أو مراقبة الاتصالات، أو إصابة الآخرين أو تدمير الممتلكات. ومع ذلك، هناك حالات إستخدام تتعلق بالأمن القومي، والتي تتماشى مع مهمتنا. على سبيل المثال، نحن نعمل بالفعل مع DARPA لتحفيز إنشاء أدوات جديدة للأمن السيبراني لتأمين البرمجيات مفتوحة المصدر التي تعتمد عليها البنية التحتية الحيوية والصناعية. ولم يكن من الواضح ما إذا كان سيتم السماح بحالات الإستخدام المفيدة هذه بموجب الإستخدامات ” العسكرية” في سياساتنا السابقة. لذا فإن الهدف من تحديث سياستنا هو توفير الوضوح والقدرة على إجراء هذه المناقشات “.