أمن المعلوماتالأخبار

جدل داخل OpenAI.. تطبيق Sora يثير انقسامًا بين الباحثين وخطة لتنبيهات الاستخدام المفرط

شهدت شركة OpenAI، الرائدة في مجال الذكاء الاصطناعي، حالة من الانقسام الداخلي بين باحثيها بعد إطلاق تطبيق Sora الجديد، الذي يتيح للمستخدمين إنشاء مقاطع فيديو عالية الجودة اعتمادًا على تقنيات تحويل النص إلى فيديو. وبينما ترى الإدارة أن التطبيق يمثل نقلة نوعية في عالم الوسائط الرقمية، يحذر عدد من الباحثين من مخاطره على حقوق النشر، الخصوصية، والوعي الجمعي.

التطبيق، الذي وصف بأنه مزيج بين منصة ترفيهية وأداة إبداعية، أثار جدلًا واسعًا ليس فقط داخل أروقة الشركة، بل أيضًا في الأوساط الأكاديمية والإعلامية. ويعود سبب الانقسام إلى الطريقة التي طُوّر بها، والسياسات المرتبطة بالاستخدام، إضافة إلى المخاوف المتعلقة بتأثيراته الاجتماعية.

 

الانقسام حول حقوق النشر وشفافية البيانات

من أبرز نقاط الجدل سياسة “الاستبعاد الاختياري” (opt-out) التي اعتمدتها OpenAI، حيث يدرج المحتوى المحمي بحقوق النشر بشكل افتراضي في تدريبات النموذج، ما لم يطلب أصحابه استبعاده. هذه السياسة اعتبرها بعض الباحثين خروجًا عن الأعراف التقليدية التي تستلزم موافقة مسبقة، وهو ما قد يفتح الباب أمام نزاعات قانونية مع أصحاب الحقوق.

إلى جانب ذلك، أثارت مسألة شفافية بيانات التدريب جدلًا آخر، إذ لم تكشف الشركة بوضوح عن مصادر المقاطع والمواد المستخدمة. ويرى معارضون أن هذا الغموض قد يضعف الثقة في نزاهة النظام ويزيد من الانتقادات الموجهة للشركة بشأن احترام الملكية الفكرية.

 

مخاوف من الاستخدام المفرط والمحتوى المضلل

من بين النقاط المثيرة للجدل أيضًا، التحذيرات من مخاطر الاستخدام المفرط للتطبيق. فقد أشار باحثون إلى أن إدمان المستخدمين على إنتاج ومشاهدة مقاطع الفيديو المولّدة بالذكاء الاصطناعي قد يسبب تأثيرات سلبية على الصحة النفسية والإنتاجية. استجابة لذلك، تنوي OpenAI إضافة خاصية جديدة لتنبيه المستخدمين عند تجاوز وقت استخدام محدد، في محاولة للتقليل من المخاطر المحتملة.

كما يخشى آخرون من استغلال التطبيق في إنتاج مقاطع مضللة أو deepfakes يصعب التمييز بينها وبين المقاطع الحقيقية.. وهو ما قد يؤدي إلى انتشار أخبار كاذبة أو إساءة استخدام تقنية الفيديو بشكل يضر بالمجتمع.

 

بين الابتكار والمسؤولية

يرى المدافعون عن التطبيق أنه يمثل ثورة في مجال الذكاء الاصطناعي والوسائط الرقمية.. مؤكدين أن قدرته على محاكاة المشاهد بواقعية ودمج الأصوات بدقة قد تفتح آفاقًا جديدة في صناعة السينما، التعليم، والإعلانات. لكن المعارضين يصرّون على أن هذه النقلة النوعية يجب أن تكون مصحوبة بإجراءات رقابية وأخلاقية أكثر صرامة.. حتى لا يتحول الابتكار إلى مصدر خطر.

 

خلاصة الجدل

يبقى تطبيق Sora مثالًا حيًا على الصراع الدائم بين الابتكار التكنولوجي، حقوق النشر، الاستخدام المفرط، الذكاء الاصطناعي.. وبين المخاوف المرتبطة بالمسؤولية الاجتماعية والأمن المعلوماتي. وبينما تستعد OpenAI لتعزيز أدوات الرقابة والتنبيه.. يظل السؤال مطروحًا: هل يمكن للتطبيق أن يوازن بين إبداع غير مسبوق وحماية المستخدمين والمجتمع من مخاطره؟

اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى