المجتمع يشكك في وجود تحيز أيديولوجي في الذكاء الاصطناعي السائد، مما يثير مناقشة «انحرافات التدريب»

robot
إنشاء الملخص قيد التقدم

BlockBeats أخبار، في 4 مايو، كتب مستخدم مجتمع الذكاء الاصطناعي «X Freeze» أن النماذج الذكاء الاصطناعي السائدة، بما في ذلك ChatGPT وClaude وGemini، «تميل إلى تقليل الاعتراف بالمواقف المحافظة» فيما يتعلق بمواضيع الجنس والهجرة والجريمة، وطرح تساؤلات حول وجود تحيز منهجي في توجهاتها القيمية.

يرى هذا الرأي أنه مع التقدم السريع لقدرات الذكاء الاصطناعي، قد يتأثر «مواءمة القيم» (alignment) الخاصة به ببيانات التدريب وآليات التصميم، مما يؤدي إلى ظهور اتجاهات موحدة في بعض القضايا العامة. أثارت هذه التصريحات مناقشات في المجتمع حول «تحيز بيانات التدريب» و«توجيه تصميم النموذج».

حاليًا، تعبر المؤسسات الرائدة في تطوير الذكاء الاصطناعي بشكل عام عن أن هدف تدريب نماذجها هو تحسين دقة المعلومات وأمانها، وتقليل التحيز من خلال بيانات تقييم متعددة وآليات تقييم، لكن الجدل حول حيادية القيم في الذكاء الاصطناعي لا يزال مستمرًا.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
إضافة تعليق
إضافة تعليق
لا توجد تعليقات
  • تثبيت