رسائل Gate News، في عام 2026، وجّه فيتاليك بوتيرين، المؤسس المشارك لإيثيريوم، تحذيرًا أمنيًا إلى أداة تطوير الذكاء الاصطناعي الشهيرة OpenClaw، مشيرًا إلى احتمال وجود ثغرات خطيرة عند التعامل مع البيانات الخارجية، وأن المستخدمين قد يواجهون تسريب بيانات حتى دون وعي، أو قد يتم التحكم بالنظام عن بُعد. ومع تسارع انتشار تطبيقات وكلاء الذكاء الاصطناعي، حظي ذلك باهتمام كبير من المطورين ومجتمعات الأمن.
وفقًا للمعلومات التي تم الكشف عنها، تتمثل نقطة الخطر الأساسية في أن OpenClaw قد ينفّذ تعليمات مخفية عند قراءة محتوى صفحات الويب. يمكن للمهاجمين، عبر إعداد صفحات ضارة، توجيه وكيل الذكاء الاصطناعي ليقوم تلقائيًا بتنزيل وتشغيل السكربتات، مما يتيح سرقة البيانات المحلية أو تعديل إعدادات النظام. وفي بعض الحالات، تنقل الأداة بهدوء معلومات حساسة إلى خوادم خارجية عبر أوامر مثل “curl”، ويفتقر كامل الإجراء إلى آليات التنبيه والتدقيق.
تُظهر الأبحاث الأمنية كذلك أن مخاطر هذا النظام البيئي تتمتع بدرجة من الشمولية. فقد كشفت الاختبارات أن نحو 15% من “المهارات” (وهي شبيهة بوحدات الإضافات) تتضمن منطقًا ضارًا محتملًا، ما يعني أنه حتى لو بدا المصدر موثوقًا، فقد يتحول إلى مدخل للهجوم. ومع قيام المطورين بسرعة بمشاركة وحدات الوظائف، تتزايد حدة تأخر المراجعات الأمنية، كما أن قيام المستخدمين بتثبيت عدة مهارات معًا يؤدي إلى توسيع مساحة التعرض بشكل ملحوظ.
أكد فيتاليك بوتيرين أيضًا أن هذه ليست مشكلة أداة واحدة، بل هي عيب هيكلي شائع في قطاع الذكاء الاصطناعي عمومًا—إذ تفوق سرعة تكرار الوظائف بكثير قدرات الحوكمة الأمنية. واقترح خفض مخاطر تسرب البيانات والسيطرة على النظام عبر تشغيل النماذج محليًا، وعزل الصلاحيات، والتنفيذ داخل بيئات معزولة (sandbox)، وآليات الموافقة على العمليات الحيوية.
في ظل تَغلغل وكلاء الذكاء الاصطناعي تدريجيًا في التطوير والسيناريوهات اليومية، أصبحت الأمان متغيرًا محوريًا. وبالنسبة للمستخدمين، ينبغي تجنب استخدام الإضافات غير المعروفة المصدر، مع التدقيق الصارم في طلبات الصلاحيات؛ وبالنسبة للمطورين، فإن بناء إطار أمني أكثر اكتمالًا سيصبح جزءًا من القدرة التنافسية على المدى الطويل.