في خطوة جديدة لتعزيز المنافسة مع OpenAI في مجال الذكاء الاصطناعي، نجح إيليا سوتسكيفر، كبير العلماء السابق في شركة OpenAI وأحد مؤسسيها، في جمع مليار دولار لمختبره الجديد Safe Superintelligence ( SSI ). تأتي هذه الخطوة بعد محاولة سوتسكيفر السابقة للإطاحة بالرئيس التنفيذي لشركة OpenAI، سام ألتمان، مما يبرز التوترات المتزايدة بين الأطراف المعنية بتطوير الذكاء الاصطناعي. يُظهر الدعم المالي الهائل الذي حصلت عليها شركة SSI أن هناك إهتمامًا كبيرًا بتطوير تقنيات ذكاء إصطناعي متقدمة وآمنة.
الملفت في هذا التمويل هو مشاركة شركات رأس المال الاستثماري الكبيرة مثل a16z و Sequoia. تبرز a16z في هذا السياق كونها قد عارضت علنًا مشروع قانون سلامة الذكاء الاصطناعي في ولاية كاليفورنيا، ما قد يشير إلى التوترات الموجودة بين السعي لتطوير أنظمة ذكاء اصطناعي متقدمة وضمان سلامة هذه الأنظمة في الوقت نفسه. يُذكر أن Sequoia كانت من بين الشركات التي استثمرت أيضًا في OpenAI، ما يثير تساؤلات حول التوجهات الاستثمارية المستقبلية لهذه الشركات بين الجهات المتنافسة في المجال.
من جهة أخرى، أعلنت SSI أن المليار دولار الذي تم جمعه سيتم إستخدامه لتطوير أنظمة ذكاء إصطناعي آمنة تتجاوز القدرات البشرية. ورغم حجم التمويل الكبير، أوضح الرئيس التنفيذي لشركة Safe Superintelligence أنه لا يوجد منتج جاهز حتى الآن، وأن تطوير مثل هذه التقنيات سيستغرق سنوات قبل أن يتم طرح أي منتج في السوق. ويعكس هذا التصريح تحديات تطوير تقنيات الذكاء الاصطناعي الآمنة والقادرة على التفوق على القدرات البشرية، وهو ما يضع المزيد من الضغوط على الشركات الساعية لتحقيق التقدم في هذا المجال المعقد.