أنثروبيك تشدد قواعد الذكاء الاصطناعي وسط مخاوف متزايدة بشأن السلامة، وتحظر تطوير الأسلحة
قامت شركة أنثروبيك بتحديث سياستها لاستخدام روبوت الدردشة الذكي كلود، لتشديد القواعد المتعلقة بالسلامة وحظر تطوير الأسلحة الخطيرة باستخدام تقنياتها.
آخر تحديث
قامت شركة أنثروبيك بتحديث سياسة الاستخدام الخاصة بروبوت الدردشة الذكي كلود استجابة للمخاوف المتزايدة بشأن السلامة. بالإضافة إلى تقديم قواعد أكثر صرامة للأمن السيبراني، تحدد أنثروبيك الآن بعض أخطر الأسلحة التي لا ينبغي للأشخاص تطويرها باستخدام كلود.
لم تسلط أنثروبيك الضوء على التعديلات التي أجريت على سياستها المتعلقة بالأسلحة في المنشور الذي يلخص تغييراتها، لكن مقارنة بين سياسة الاستخدام القديمة للشركة وسياستها الجديدة تكشف عن فرق ملحوظ.
قد يعجبك
- PBS تخفض ميزانيتها بنسبة 21% وسط هجوم ترامب على الإعلام العام
- لامبورغيني تكشف عن أسرع سيارة في تاريخها: هجينة قابلة للشحن بسعر 3.5 مليون دولار
- NVIDIA وNSF تتعاونان لتعزيز البحث العلمي الأمريكي بنماذج الذكاء الاصطناعي المفتوحة
- مايكروسوفت إكسل يدمج Copilot AI لإكمال الجداول التلقائي
- تصميم 'الزجاج السائل' في iOS 26 قد يمهد الطريق لآيفون بلا حواف
- ثغرة أمنية في واجهة سطر الأوامر لـ Google Gemini تعرّض المطورين لخطر البرامج الضارة
- سبوتيفاي تطلق خدمة البث بدون فقدان بعد سنوات من الترويج والتأخير
- اختراق ناسا في المعادن القابلة للطباعة لمحركات الصواريخ