أنثروبيك تشدد قواعد الذكاء الاصطناعي وسط مخاوف متزايدة بشأن السلامة، وتحظر تطوير الأسلحة
قامت شركة أنثروبيك بتحديث سياستها لاستخدام روبوت الدردشة الذكي كلود، لتشديد القواعد المتعلقة بالسلامة وحظر تطوير الأسلحة الخطيرة باستخدام تقنياتها.
آخر تحديث
قامت شركة أنثروبيك بتحديث سياسة الاستخدام الخاصة بروبوت الدردشة الذكي كلود استجابة للمخاوف المتزايدة بشأن السلامة. بالإضافة إلى تقديم قواعد أكثر صرامة للأمن السيبراني، تحدد أنثروبيك الآن بعض أخطر الأسلحة التي لا ينبغي للأشخاص تطويرها باستخدام كلود.
لم تسلط أنثروبيك الضوء على التعديلات التي أجريت على سياستها المتعلقة بالأسلحة في المنشور الذي يلخص تغييراتها، لكن مقارنة بين سياسة الاستخدام القديمة للشركة وسياستها الجديدة تكشف عن فرق ملحوظ.
قد يعجبك
- PBS تخفض ميزانيتها بنسبة 21% وسط هجوم ترامب على الإعلام العام
- لامبورغيني تكشف عن أسرع سيارة في تاريخها: هجينة قابلة للشحن بسعر 3.5 مليون دولار
- مستخدمو لينكس على ستيم يتجاوزون عتبة 3% التاريخية
- Nvidia تطلق وحدات معالجة رسوميات Blackwell SFF جديدة لمحطات العمل
- سامسونج تستعد لإطلاق هاتفها الثلاثي القابل للطي قريبًا، ولكن ليس في حدث Unpacked
- ريديت تسعى لدمج أعمق مع ذكاء جوجل الاصطناعي في صفقة ترخيص بيانات جديدة
- نيسان تلغي واردات آريا 2026 إلى الولايات المتحدة ضمن تحسين محفظة السيارات الكهربائية
- السيناتور وايدن يحمل مايكروسوفت مسؤولية اختراق أنظمة المستشفيات ويطالب بتحقيق من لجنة التجارة الفيدرالية