OpenAI تعزز حماية سورا ضد التزييف العميق بعد رد فعل المشاهير
تعهدت OpenAI بتعزيز تدابير السلامة في تطبيقها لإنشاء الفيديو بالذكاء الاصطناعي Sora، حيث لن تسمح بعد الآن بإنشاء مقاطع فيديو باستخدام صور أو أصوات المشاهير، وذلك بعد سلسلة من الشكاوى بشأن التزييف العميق غير المصرح به.
آخر تحديث
عززت OpenAI حماية تطبيقها لإنشاء الفيديو بالذكاء الاصطناعي، Sora، ضد التزييف العميق بعد رد فعل عنيف من المشاهير. لن يسمح تطبيق Sora لمستخدميه بعد الآن بإنشاء مقاطع فيديو تحتوي على صور أو أصوات المشاهير.
شاركت OpenAI و SAG-AFTRA والممثل برايان كرانستون و United Talent Agency و Creative Artists Agency و Association of Talent Agents اليوم بيانًا مشتركًا حول 'التعاون المثمر' لضمان حماية الصوت والصورة في المحتوى الذي يتم إنشاؤه باستخدام Sora 2 وتطبيق Sora.
أثار كرانستون مخاوف بشأن Sora بعد أن تمكن المستخدمون من إنشاء تزييف عميق يظهر صورته دون موافقة أو تعويض. كما اشتكت عائلات روبن ويليامز وجورج كارلين ومارتن لوثر كينج جونيور إلى OpenAI بشأن تطبيق Sora.
قد يعجبك
- قاضية تحظر NSO Group بشكل دائم من استهداف مستخدمي واتساب ببرنامج بيغاسوس التجسسي
- فلوريدا تستدعي روبلوكس قضائياً بسبب مخاوف تتعلق بسلامة الأطفال
- توشيبا تتخلف عن ركب سيجيت في سباق أقراص التخزين بسعة 40 تيرابايت
- SAP تستثمر أكثر من 20 مليار يورو في السحابة السيادية الأوروبية
- علماء يرفضون جهود أمريكية لإلغاء حكم المناخ
- رئيس لجنة الاتصالات الفيدرالية يلمح إلى إلغاء قيود ملكية القنوات التلفزيونية بعد جدل كيمل
- AMD وOpenAI تتحديان هيمنة Nvidia على رقائق الذكاء الاصطناعي
- تحديث كبير لتطبيق سبوتيفاي على أندرويد أوتو: ميزة 'جام' وإعادة تصميم