فرقُ الشركات الناشئة في وادي السيليكون تُحبُّ أن تُطلق على منتجاتها مصطلح “الابتكار التحويلي”، لكن لا توجد شركةٌ مثل Anthropic، التي حققت فعلاً ابتكارًا تحويليًا، تواجه أزمة وجوديةً كما تواجهها الآن. عندما أصبح مصطلح “الابتكار التحويلي” مجرد كلامٍ مملٍّ يُسمعُ مرارًا وتكرارًا من قبل المستثمرين في وادي السيليكون، أظهرت Anthropic للعالم بمثابة رؤيا حديثة، حيث أدت الاختراقات التقنية إلى مضاعفة تقييم الشركة، لكن التسميم السياسي والعاصفة التنظيمية التي تلت ذلك دفعتها إلى الحضيض. كشفت مجلة تايم حصريًا عن قصة هؤلاء الغرباء في عالم الذكاء الاصطناعي، وكيفية نجاتهم وسط ظلّ الأمن القومي والأعداء المتربصين، كشركة ذكاء اصطناعي تعهدت بحماية البشر، كيف يمكن أن تتكيف وتبقى على قيد الحياة في ظلّ ضغط السياسة والسلطة.
نمو Anthropic السريع جعله تهديدًا لصناعة البرمجيات
في مجال تطبيقات الذكاء الاصطناعي التجارية، بلغت قيمة Anthropic السوقية 380 مليار دولار، مع نمو ملحوظ في الإيرادات، متجاوزةً حتى غولدمان ساكس، ماكدونالدز، وكوكاكولا. إنّ نموذج Claude الذي تطوره الشركة قادر على تنفيذ الشفرات بشكل مستقل، واكتشاف الأخطاء، وتحسين الأنظمة، مما أدى إلى انقلاب كامل في نمط عمل مهندسي البرمجيات. اكتشف المستثمرون أن Anthropic يمتلك القدرة على التأثير في الأسواق المالية، حيث يؤدي إصدار النسخ الجديدة إلى تقلبات حادة في أسهم البرمجيات. يتوقع الرئيس التنفيذي أموودي أن الذكاء الاصطناعي قد يحل محل معظم الوظائف المكتبية خلال الخمس إلى العشر سنوات القادمة، وهو ما يثير تناقضات داخل فريق تقييم الأثر الاجتماعي في الشركة، حيث يرغب بعضهم في دفع الإنتاجية والأداء، بينما يخشى آخرون أن تؤدي منتجات الشركة إلى بطالة جماعية واسعة.
المخاطر المحتملة لنموذج Claude 3.7 Sonnet
تتمحور رؤية Anthropic حول حماية أمن الإنسان، وتقع في قلب عاصفة من الانفجارات التقنية والتنظيم الحكومي. إذ تواجه الشركة ضربةً عندما تتعرض لمطالب وزارة الدفاع الأمريكية بشراء منتجاتها، حيث تواجه حظرًا محتملًا.
وفقًا لاختبارات داخلية، فإن سرعة Claude في أداء بعض المهام تتجاوز سرعة الإنسان بمقدار 427 مرة. في فبراير من العام الماضي، اكتشف أعضاء فريق التقنية في Anthropic خلال تجربة أن النسخة القادمة من Claude تحمل مخاطر محتملة في المساعدة على تصنيع أسلحة بيولوجية، مما أدى إلى تأجيل إصدار Claude 3.7 Sonnet بشكل عاجل، معبرين عن اهتمام شديد بالسلامة. قال قائد فريق Red Team في Anthropic، لوغان غراهام، إنه في مواجهة المخاطر الكارثية التي قد تؤدي إلى حرب نووية أو إبادة البشرية، يتحمل المطورون مسؤولية اجتماعية كبيرة، ولا توجد حاليًا حلول معتمدة، ويجب على فرق التطوير أن توازن بين المنافسة على الموارد وإدارة المخاطر. إن معايير الشركة التي تضع سلامة الإنسان فوق كل شيء تجعلها كيانًا فريدًا في عالم الذكاء الاصطناعي.
تعارض الأخلاقيات المؤسسية مع سياسات إدارة ترامب
بدأت علاقة Anthropic مع الحكومة الأمريكية تتغير بشكل حاد منذ العام الماضي. إذ رفضت الشركة استخدام الذكاء الاصطناعي في الأسلحة الذاتية التشغيل والمراقبة المدنية، ورفضت مطالب البنتاغون بإعادة التفاوض، مما أدى إلى تصنيفها كموردٍ يشكل خطرًا على الأمن القومي، وهو أول تصنيف من نوعه يُفرض على شركة محلية. ترى وزارة الدفاع أن الشركات الخاصة لا ينبغي أن تضع قيودًا على أنظمة القيادة العسكرية، وأوضح أموودي في مذكرة داخلية أن ذلك يعود إلى رفض الشركة التبرع لحملة ترامب والتعاون مع أهداف سياسية معينة، مع تمسكها بالشفافية والتنظيم. أدى هذا الجمود إلى حصول منافستها، OpenAI، على عقد عسكري. لا تتعلق هذه الأزمة فقط بالتفاصيل التعاقدية، بل تتعلق أيضًا بمن يملك السلطة على تقييد التقنية.
مؤسس Anthropic، أموودي، هو شخصية فريدة في عالم الذكاء الاصطناعي
عند الحديث عن تمسك شركة Anthropic، لا بد من الإشارة إلى شخصية مؤسسها، أموودي، الذي كتب في عام 2024 مقالًا من 14 ألف كلمة يوضح كيف يمكن للذكاء الاصطناعي أن يسرع الاكتشافات العلمية ويغير العالم، كما نشر في يناير من هذا العام رواية قصيرة تفصيلية عن الأزمات التي قد تنتج عن تقدم الذكاء الاصطناعي، مثل المراقبة الجماعية، والبطالة، وفقدان السيطرة على البشر إلى الأبد. فهل يوجد مؤسس شركة ناشئة يستهين بمنتجه ويخاف من أن يسبب سوء حظ للآخرين؟
في ظل الصراع التجاري على الذكاء الاصطناعي، تتقدم OpenAI مؤقتًا
وفقًا لتقرير مجلة تايم، كانت شركة Anthropic غير مدركة أن وزارة الدفاع الأمريكية كانت تتفاوض مع OpenAI، وتأمل في تطبيق ChatGPT في النظام الحكومي. ثم ظهرت أنباء أن مؤسس OpenAI، أورتمان، زعم أنه توصل إلى اتفاق مع البنتاغون، وهو اتفاق مشابه من حيث الأساس لاتفاقية Anthropic. أرسل أموودي، مؤسس الشركة، رسالة للموظفين قال فيها إن أورتمان ووزارة الدفاع يضللون المجتمع، ويحاولون إقناع الناس بأن اتفاقهم يتضمن العديد من القيود. كما أكد مسؤولون في البنتاغون أن شركة Elon Musk، xAI، ستوفر نماذجها على خوادم سرية، وأن الوزارة تتفاوض أيضًا مع Google.
سياسة التمهل والتأجيل من قبل Anthropic
كتب Claude معظم الشيفرات اللازمة لتطوير نماذج الذكاء الاصطناعي المستقبلية، مما قلل الفاصل الزمني لإطلاق النماذج من شهور إلى أسابيع، وأصبح أداء Claude في مهام معينة يتجاوز أداء البشر بشكل كبير، مما أثار قلق الإدارة من أن تتجاوز تقنيات الذكاء الاصطناعي السيطرة البشرية في المستقبل.
عندما يبدأ الذكاء الاصطناعي في كتابة منطق تطوره الخاص، كم من الوقت يتبقى للبشر؟ مع تزايد المنافسة الخارجية، عدلت Anthropic مؤخرًا سياساتها، حيث تعهدت برفع مستوى الشفافية حول مخاطر السلامة في الذكاء الاصطناعي، بما في ذلك الكشف عن أداء نماذجها في اختبارات السلامة، وإذا اعتقدت قيادة الشركة أن الذكاء الاصطناعي في وضع قيادي قد يسبب كوارث، فإنها ستؤجل تطوير التقنية.
لكن، قصة الأخلاقيات في الذكاء الاصطناعي لم تنته بعد.