ملخص سريع
ستقوم Nvidia بتزويد أمازون ويب سيرفيسز بكميات هائلة من وحدات المعالجة الرسومية (GPUs) حتى عام 2027 مع توسع مزود الخدمة السحابية في بنيته التحتية للذكاء الاصطناعي وسعيه لتلبية الطلب المتزايد. أعلنت AWS في وقت سابق من هذا الأسبوع عن خطتها لنشر حوالي مليون وحدة من Nvidia GPUs كجزء من توسعة بنيتها التحتية للذكاء الاصطناعي. وأكد مسؤول في Nvidia لـ رويترز يوم الخميس أن عملية النشر من المتوقع أن تستمر حتى نهاية 2027. وستبدأ هذا العام عبر مناطق السحابة العالمية لـ AWS، وسيتم تنفيذها جنبًا إلى جنب مع توسعة التعاون مع Nvidia في الشبكات والبنية التحتية الأخرى لبناء أنظمة “قادرة على التفكير والتخطيط والتصرف بشكل مستقل عبر سير عمل معقد”، حسبما ذكرت AWS، مشيرة إلى عملها على أنظمة الذكاء الاصطناعي الوكيلة.
تواصل AWS تطوير شرائح الذكاء الاصطناعي للتدريب والاستدلال على حد سواء. يشير التعاون إلى أن الطلب قد يكون يتحول عبر طبقة الذكاء الاصطناعي، بينما يبدو أن حصة متزايدة من النشاط مرتبط بتشغيل النماذج في الخدمات الحية. يأتي هذا الاتفاق في وقت تلاحق فيه السلطات الأمريكية قضية تزعم تهريب شرائح Nvidia إلى الصين، مما يعيد scrutiny على إمدادات الشركة العالمية وضوابطها. منذ عام 2022، تم التحكم بشكل صارم في شرائح Nvidia الأكثر تقدمًا كجزء من استراتيجية أوسع للولايات المتحدة للحد من تقدم الصين في الحوسبة المتقدمة والذكاء الاصطناعي.
قد يؤدي التطور الأقرب إلى الوطن يوم الخميس إلى توسيع تلك الفجوة. تغيرات في الوتيرة يقول المراقبون إن هيكل الصفقة يقدم أدلة على مكان بناء الطلب وكيف يتغير البنية التحتية الأساسية بوتيرة متزايدة السرعة. قال ديرموت مكغراث، الشريك المؤسس في استوديو الاستراتيجية والنمو ZenGen Labs، لـ Decrypt: “نيفيديا أصبحت الطبقة الأساسية للبنية التحتية تحت مزودي السحابة، وليس مجرد بائع شرائح لهم”. تم تصميم الشرائح في الصفقة لتشغيل نماذج الذكاء الاصطناعي على نطاق واسع، مع التركيز على تقليل تكلفة الاستخدام، قال مكغراث، مشيرًا إلى أن الاستدلال الآن يمثل حوالي ثلثي حسابات الذكاء الاصطناعي، ارتفاعًا من حوالي الثلث في 2023. من المتوقع أن يتجاوز سوق شرائح الاستدلال 50 مليار دولار بحلول 2026، وفقًا لتقديرات Deloitte، أضاف. يمكن لـ AWS استخدام كل من شرائح Nvidia وشرائحها الخاصة في نفس الأنظمة، مما يمنح العملاء مزيدًا من الخيارات مقارنة بالمنافسين الذين يحتفظون بها مغلقة، أوضح مكغراث، مضيفًا أن هذه المرونة “تمثل ميزة تميز”. قال: “الآن Nvidia تفعل الشيء نفسه على مستوى أدنى، مع الشبكات وهياكل الرفوف بدلاً من نموذج برمجي”. شرائح الاستدلال هي معالجات مصممة لتشغيل نماذج الذكاء الاصطناعي المدربة في الوقت الحقيقي، بدلاً من الحاجة إلى إعادة التدريب.
الطلب على الاستدلال “يدفع الالتزامات طويلة الأمد” لمزيد من القدرة الحاسوبية، ويخلق روابط أقرب بين مزودي السحابة وشركات الشرائح، حسبما قال بيتشابن براتيبافانيش، استراتيجي السياسات ومؤسس شركة البنية التحتية Gather Beyond، لـ Decrypt. قالت: “مزودو السحابة يرغبون في الاستقلال على المدى الطويل، لكنهم في المدى القريب بحاجة إلى Nvidia لتظل تنافسية”، مشيرة إلى أن ذلك يخلق ديناميكية حيث يحدث التعاون والمنافسة في الوقت ذاته. ومع ذلك، فإن السيطرة على بنية الذكاء الاصطناعي تتغير أيضًا. ما يحدث هو “تحول في البنية التحتية”، حسبما قالت برنا ميسا، شريكة في صفقة في Boardy Ventures، صندوق استثمار يقوده الذكاء الاصطناعي، لـ Decrypt. قالت إن Nvidia “تدمج كامل مجموعتها عبر الحوسبة، الشبكات، والاستدلال داخل مراكز بيانات AWS التي كانت تستخدم معدات مملوكة لسنوات”. لكن بينما تطور AWS شرائح ذكاء اصطناعي خاصة بها، فإن ذلك “لا يغير الحساب”، أوضحت، مشيرة إلى أن الاستدلال يعتمد على مكونات متعددة عبر الطبقة، مع تزويد Nvidia لمعظمها. قالت: “عندما تكون عميقًا جدًا في طبقة العميل، فإن تكلفة التبديل وسياق الطبقة الناتجة عنها يصبحان الحصن المنيع”.