سعيًا منها لتعزيز الشفافية، أعلنت شركة Meta Platforms عن خططها لتطبيق إجراءات جديدة على منصات التواصل الإجتماعي الخاصة بها، بما في ذلك إنستاجرام والفيسبوك وثريدز، تتمثل في وضع علامات على المحتوى المُنشأ باستخدام الذكاء الاصطناعي وذلك بهدف تزويد المستخدمين بسياق أوضح حول ما يرونه ويشاركونه على وسائل التواصل الاجتماعي.

ستبدأ الشركة هذه المبادرة بوضع علامات على الصور، حيث صرحت بالقول : ” سنبدأ في إضافة علامات إلى الصور المُنشأة باستخدام أدوات الذكاء الاصطناعي عبر فيسبوك وإنستجرام وتريدز في المستقبل القريب “. وتعمل الشركة حاليًا على نظام الكشف التلقائي الذي يمكنه التعرف على العلامات المُستخدمة بشكل شائع في المحتوى المُنشأ بواسطة الذكاء الاصطناعي، بما في ذلك العلامات المائية والبيانات الوصفية. وتركز ميتا في البداية على الصور، ولكن هدف الشركة على المدى الطويل هو القدرة على التعرف على مقاطع الفيديو والصوت المُنشأة بواسطة الذكاء الاصطناعي أيضًا.

تضع شركة Meta بالفعل العلامة ” Imagined with AI ” على الصور المُنشأة بإستخدام Meta AI، وبالتعاون مع شركاء آخرين في مجال الذكاء الإصطناعي التوليدي، تأمل الشركة أن تكون تقنيات الكشف الجديدة الخاصة بها جاهزة للتعرف على المحتوى المنشأ بإستخدام الأدوات غير التابعة لها في الأشهر القليلة القادمة. وأوضحت الشركة حتى الآن أنها قادرة على وضع علامات على الصور المنشأة بإستخدام الأدوات التابعة لكل من Google و OpenAI و Microsoft و Adobe و Midjourney و Shutterstock.

ومع ذلك، هناك عقبة تواجهها عندما يتعلق الأمر بالفيديوهات والأصوات. نظرًا لأن الأدوات التي تُنشئ هذا النوع من المحتوى لم تعتمد بعد على البيانات الوصفية الموحدة، فمن الصعب على شركة ميتا إكتشافها.

لتحسين ذلك، أعلنت شركة ميتا عن عزمها إطلاق أداة جديدة تُطلق عليها أداة الإفصاح ووضع العلامات ” Disclosure and Label Tool ” جديدة، والتي ستُمكن المستخدمين من الإشارة يدويًا إلى محتوى الفيديو والصوت الذي تم إنشاؤه بإستخدام الذكاء الإصطناعي. سيُطلب من المستخدمين الإفصاح عن ذلك لمقاطع الفيديو والأصوات القريبة للواقع والتي تم إنشاؤها أو تغييرها رقميًا، ولدى شركة ميتا سلطة لفرض عقوبات على أولئك الذين لا يلتزمون بذلك.

هناك قلق متزايد بشأن إساءة إستخدام المحتوى المُنشأ بواسطة الذكاء الاصطناعي، وهذا ما أجبر الشركات على وضع علامات على المحتوى المنشأ بالذكاء الإصطناعي. تتمتع تقنية التزييف العميق ( Deepfake )، على سبيل المثال، بإمكانية أن تكون واقعية بشكل لا يصدق، وهو الأمر الذي يثير العديد من المخاوف بشأن إمكانية إستغلالها لنشر المعلومات المضللة والتلاعب بالمحتوى، وخاصة عندما يتعلق الأمر بأشياء مثل الانتخابات الأمريكية القادمة.

على الرغم من أن هذا ليس حلاً مثاليًا، وخاصة أنه يعتمد على المستخدم لوضع علامات على الفيديوهات والأصوات المنشأة أو المعدلة بإستخدام الذكاء الإصطناعي، تأمل شركة أن يكون نظام الكشف الخاص بها فعالًا ولا يمكن تخطيه بسهولة مستقبلاً.

عمومًا، يبقى أن نرى ما إذا كان نهج ميتا سينجح في تحقيق أهدافه أم لا، ولكن هذه المبادرة بالتأكيد تشعل نقاشًا مهمًا حول الإستخدام المسؤول للذكاء الاصطناعي عبر وسائل التواصل الاجتماعي.

شاركها.
اترك تعليقاً

Exit mobile version