دراسة تحذر من 'تدهور دماغي' في نماذج اللغة الكبيرة بسبب 'البيانات غير المرغوب فيها'
كشفت دراسة حديثة أن تدريب نماذج اللغة الكبيرة على 'بيانات غير مرغوب فيها' يمكن أن يؤدي إلى 'تدهور دماغي' لهذه النماذج، مما يضعف قدراتها المعرفية.
آخر تحديث
لقد أظهر الباحثون أن التدريب على 'البيانات غير المرغوب فيها' يمكن أن يؤدي إلى 'تدهور دماغي' في نماذج اللغة الكبيرة (LLMs).
على السطح، يبدو من البديهي أن تدريب نموذج لغة كبير ببيانات 'عالية الجودة' سيؤدي إلى أداء أفضل من تغذيته بأي 'بيانات منخفضة الجودة' قد تجدها. الآن، تحاول مجموعة من الباحثين قياس مدى الضرر الذي يمكن أن تسببه هذه الأنواع من البيانات منخفضة الجودة لنماذج اللغة الكبيرة، مما يؤدي إلى تأثيرات تشبه 'التدهور الدماغي' البشري.
من أجل ورقة بحثية تم نشرها هذا الشهر، استمد الباحثون من جامعات تكساس إيه آند إم، وجامعة تكساس، وجامعة بوردو، الإلهام من الأبحاث الحالية التي أظهرت كيف يمكن للبشر الذين يستهلكون 'كميات كبيرة من المحتوى التافه وغير المتحدي عبر الإنترنت' أن يصابوا بمشاكل في الانتباه والذاكرة والإدراك الاجتماعي. وقد قادهم ذلك إلى ما يسمونه 'فرضية التدهور الدماغي لنماذج اللغة الكبيرة'، والتي تلخص فكرة أن 'التدريب المسبق المستمر على نصوص الويب غير المرغوب فيها يؤدي إلى تدهور إدراكي دائم في نماذج اللغة الكبيرة'.
قد يعجبك
- آبل قد تُعطّل ميزة الشفافية في تتبع التطبيقات بالاتحاد الأوروبي بسبب الضغط التنظيمي
- خسارة تاريخية لشركة آبل في دعوى قضائية بالمملكة المتحدة بشأن رسوم متجر التطبيقات
- مختبر الذكاء الاصطناعي في ميتا يدرس التحول إلى نموذج مغلق، متخلياً عن 'العملاق' مفتوح المصدر
- أبل تستعرض سماعات Powerbeats Fit الجديدة بشعار "مناسبة لكل حركة"
- أبل تطلق الإصدار التجريبي الثالث من iOS 18.6 للمطورين
- قفزة نوعية في مسح PET: تقنية جديدة تستفيد من تصوير البوزيترونيوم
- Microsoft Flight Simulator 2024 تحلّق على PS5 في ديسمبر
- ميزة "البحث في الملاحظة" تصل إلى Google Keep لتسهيل البحث