ملخص سريع
رفع ثلاثة قاصرين من تينيسي دعوى قضائية جماعية ضد Elon Musk وشركته xAI، زاعمين أن Grok أنشأ مواد اعتداء جنسي على الأطفال باستخدام صورهم الحقيقية، وأن الشركة عمدت إلى تصميم روبوت الدردشة الخاص بها بدون تدابير حماية قياسية في الصناعة، ثم استفادت من النتيجة. وُقّعت الدعوى، التي قدمت يوم الاثنين في المنطقة الشمالية من كاليفورنيا، وتدعي أن Grok استُخدم لإنشاء وتوزيع مواد اعتداء جنسي على الأطفال بواسطة الذكاء الاصطناعي باستخدام صورهم الحقيقية. قال القاصرون، الذين عُرفوا باسم Jane Doe 1، 2، و3، إن المحتوى المعدل تم مشاركته عبر منصات مثل Discord وTelegram ومواقع مشاركة الملفات، مما سبب لهم أضرارًا عاطفية وسمعة دائمة.
“رأت xAI—ومؤسسها Elon Musk—فرصة عمل: فرصة لتحقيق الربح من استغلال الأطفال والأشخاص الحقيقيين،” تقول الدعوى. “مع علمها بنوع المحتوى الضار وغير القانوني الذي يمكن أن يُنتج، أطلقت xAI نموذج Grok، وهو نموذج ذكاء اصطناعي توليدي يملك ميزات إنشاء الصور والفيديوهات، والذي يرد على الطلبات لإنشاء محتوى جنسي باستخدام صورة أو فيديو حقيقي للشخص.”
وصف الضحايا المزعومون حوادث وقعت بين منتصف 2025 وبداية 2026، حين تم تعديل صورهم الحقيقية إلى صور فاضحة وتداولها عبر الإنترنت. وفي إحدى الحالات، تم تنبيه أحد الضحايا من قبل مستخدم مجهول عثر على مجلدات لمحتوى مولد بواسطة الذكاء الاصطناعي يتم تداولها بين مئات المستخدمين.
يدعون أن الجاني دخل إلى Grok عبر تطبيق طرف ثالث مرخص من قبل xAI، وهو هيكل تقول الدعوى إن xAI استخدمه عمدًا لتجنب المسؤولية مع الاستمرار في جني الأرباح من النموذج الأساسي. وفي ذروة رد الفعل العام في يناير، كتب Musk على X أنه “غير على علم بأي صور عارية لأطفال”، مضيفًا أن “عند طلب توليد صور، سيرفض إنتاج أي شيء غير قانوني.” وفقًا لنتيجة مركز مكافحة الكراهية الرقمية، الذي استشهدت به الدعوى، أنتج Grok حوالي 23,338 صورة جنسية للأطفال بين 29 ديسمبر 2025 و9 يناير من هذا العام، أي تقريبًا صورة كل 41 ثانية. يسعى الضحايا المزعومون للحصول على تعويضات لا تقل عن 150,000 دولار لكل انتهاك بموجب قانون ماشا، بالإضافة إلى استرداد الأرباح، وتعويضات عقابية، وأتعاب المحامين، وأمر دائم، واسترداد الأرباح بموجب قانون المنافسة غير العادلة في كاليفورنيا. تكدس الدعاوى القضائية تعد هذه الدعوى واحدة من أولى الدعاوى التي تلاحق شركة ذكاء اصطناعي مباشرة على مسؤوليتها عن الإنتاج والتوزيع المزعوم لمحتوى CSAM الذي يصور قاصرين يمكن التعرف عليهم، وتأتي في وقت تواجه فيه Grok تحقيقات متزامنة في الولايات المتحدة والاتحاد الأوروبي والمملكة المتحدة وفرنسا وأيرلندا وأستراليا. قال أليكس تشاندرا، الشريك في IGNOS Law Alliance، لـ Decrypt: “عندما يُصمم نظام عمدًا لتحويل الصور الحقيقية إلى محتوى جنسي، فإن الإساءة الناتجة ليست استثناءً—بل نتيجة متوقعة.” وأضاف أن المحاكم قد لا تقبل دفاع المنصة البسيط، مشيرًا إلى أن نظام الذكاء الاصطناعي التوليدي يمكن أن يُعامل “كموقع من حيث تفاعل المستخدم” لكنه “يُقيم كمنتج” عند تقييم تصميم السلامة، مع تطبيق “مراجعة صارمة بشكل خاص” في حالات CSAM بسبب الالتزامات المتزايدة لحماية الأطفال. كما قال إن المحاكم من المحتمل أن تركز على التدابير الوقائية، مشيرًا إلى أن الشركة قد يُتوقع منها إظهار “تقييمات المخاطر وتدابير السلامة عند الإطلاق”، بالإضافة إلى حواجز تمنع بشكل نشط المخرجات الضارة.
Decrypt تواصل مع Musk عبر xAI وSpaceX للتعليق.