
في 21 أبريل، أعلنت مؤسسة 0G عن تعاون رسمي مع شركة Alibaba Cloud، بهدف إدخال نموذج اللغة الكبير Qianwen (Qwen) إلى البنية التحتية اللامركزية، بحيث يمكن لوكلاء الذكاء الاصطناعي استدعاء LLM بمستوى تجاري مباشرة من بيئات السلسلة. سيسمح آلية الوصول للتحكم عبر الرموز للمطورين باستخدام قدرات الاستدلال الخاصة بـ Qianwen، مما يحول بكفاءة استدعاءات LLM إلى عمليات قابلة للقياس على السلسلة، لتصبح Qianwen واحدة من أبرز نماذج LLM التجارية ضمن الدفعة الأولى المدمجة في إطار وكلاء لامركزي.
وفقًا لاتفاقية التعاون، تم تحويل طريقة الدفع لاستخدام قدرات استدلال Qianwen من الفوترة التقليدية عبر السحابة إلى آلية وصول قائمة على الرموز، محققًا قابلية قياس استدعاءات LLM على السلسلة. عند قيام وكيل ذكاء اصطناعي باستدعاء استدلال Qianwen، يمكن اعتبار طلبات الحساب وتسوية التكاليف كعمليات قابلة للتدقيق على السلسلة، بدلًا من إتمامها بصمت في الخلفية المركزية.
تتيح هذه البنية لمطوري Web3 تضمين نفس أصول اللغة الكبيرة الأصلية داخل وكلاء الذكاء الاصطناعي، ويمكن عندئذٍ سكّ هذه الوكلاء والتداول وتجميعهم مثل أي أصل رقمي أصيل للتشفير، بحيث تصبح استدعاءات LLM موارد قابلة للبرمجة، جنبًا إلى جنب مع الرموز وDeFi والحوكمة على السلسلة.
بالنسبة إلى 0G، تأتي عملية دمج Qianwen ضمن استراتيجية أوسع لبناء “اقتصاد الوكلاء” (Agent Economy) على السلسلة، بهدف إنشاء نظام يمكن لوكلاء ذكاء اصطناعي مستقلين أن يمتلكوا هوية ويقوموا بدفع تكاليف التشغيل والتفاعل مع بروتوكولات أخرى، دون الاعتماد على النظام البيئي لمنصات ذكاء اصطناعي مركزية. وفي وقت سابق من هذا العام، أعلنت مؤسسة 0G عن خطة نمو للبيئة بقيمة 88.88 مليون دولار، بهدف تمويل وكلاء ذكاء اصطناعي لامركزيين وتطبيقات لامركزية عالية الكفاءة (dApp).
تذكر Alibaba Cloud أن سلسلة Qianwen تم نشرها حاليًا بأكثر من 90 ألف مثيل حول العالم، تشمل نماذج Qwen2.5 بأحجام معلمات تتراوح من 7 مليارات إلى 72 مليارًا، إضافةً إلى منتجات متعددة الوسائط مثل Qianwen VL (الرؤية) وQianwen Audio. توفر هذه السلسلة نسختين: مفتوحة ومغلقة. وتهدف هذه الشراكة إلى توسيع حزمة التقنيات على مستوى المؤسسات إلى بيئات لا تتطلب تصاريح.
مؤسسة 0G هي مشروع بنية تحتية لـ Web3 يركز على “طبقة الذكاء الاصطناعي (AIL) ونظام تشغيل الذكاء الاصطناعي اللامركزي (dAIOS)”، بهدف توفير بيئة تشغيل كاملة على السلسلة لوكلاء ذكاء اصطناعي مستقلين. يعد إدخال LLM الخاصة بـ Qianwen خطوة محددة لبناء اقتصاد وكلاء على السلسلة، بحيث يمكن لوكلاء الذكاء الاصطناعي أثناء تنفيذ مهام الاستدلال استدعاء LLM بمستوى تجاري مباشرة، دون الاعتماد على بوابة API مركزية.
تعتمد واجهات API السحابية التقليدية على الفوترة بالعملة الورقية والتحقق من الهوية المركزية، وتكتمل جميع العمليات في الخلفية المركزية، ولا يمكن تدقيقها خارجيًا. أما الوصول عبر التحكم بالرموز فيحوّل استدعاءات LLM إلى عمليات قابلة للقياس على السلسلة، وتُدفع التكاليف باستخدام الرموز، ويمكن التحقق من العملية كاملة على السلسلة، مما يتيح لوكلاء ذكاء اصطناعي الدفع واستدعاء خدمات الاستدلال بشكل مستقل وبطريقة برمجية.
يمكن للمطورين تضمين قدرات استدلال Qianwen مباشرة داخل وكلاء ذكاء اصطناعي على السلسلة، بحيث يستطيع الوكيل عند تنفيذ المهام استدعاء “ذكاء” نماذج LLM على مستوى المؤسسات، مع الحفاظ في الوقت نفسه على طابع الوكيل اللامركزي. إذا نجحت التجربة، فقد تصبح هذه طريقة/قالبًا ملموسًا لكيفية قيام شركات سحابية ضخمة النطاق بربط ذكاء اصطناعي أصيل من السحابة بتنسيق لامركزي.
مقالات ذات صلة
مؤسسة Zcash تُصدر Zebra 4.4.0 وتُصلح ثغرات أمنية على مستوى التوافق
تعرض نشر Wasabi Protocol على EVM لواقعة أمنية في 30 أبريل، وتمت السيطرة عليها الآن
يتأسس وكيل ذكاء اصطناعي باسم مانفريد شركة، ويحصل على محفظة عملات رقمية قبل إطلاق تداول نهاية مايو
مؤسس Exodus: لا تزال قضايا تدوين كلمات الاسترجاع تعتمد على منديل ورقي من الحانة، ما يدل على أن الصناعة لديها مساحة للتحسن
تصويت حوكمة Arbitrum على إطلاق 30,765 ETH بقيمة 71 مليون دولار مجمّدة بعد اختراق استغلال Kelp DAO
يتكوّن وكيلٌ بالذكاء الاصطناعي يُدعى مانفريد شركةً، ويحصل على محفظة عملاتٍ رقمية قبل إطلاق التداول في مايو