مؤخرًا، أثناء تصفحي لمنصة Reddit، لاحظت أن قلق المستخدمين خارج الصين بشأن الذكاء الاصطناعي يختلف عن نظيره في الصين.
في الصين، لا يزال النقاش يدور حول سؤال واحد: هل سيستبدل الذكاء الاصطناعي وظيفتي يومًا ما؟ لقد تناول هذا الموضوع لسنوات، ولم يستبدل الذكاء الاصطناعي أحدًا حتى الآن. هذا العام، حظيت Openclaw ببعض الاهتمام، لكنها ما زالت بعيدة عن الاستبدال الكامل.
على Reddit، أصبحت الآراء منقسمة. في تعليقات بعض المواضيع التقنية، تظهر وجهتا نظر متعارضتان في الوقت ذاته:
هناك من يرى أن الذكاء الاصطناعي كفء جدًا وسيؤدي عاجلًا أم آجلًا إلى مشاكل كبيرة، بينما يرى آخرون أنه يخطئ حتى في أبسط المهام، فلا داعي للقلق.
الناس قلقون من كفاءة الذكاء الاصطناعي، وفي الوقت نفسه يعتقدون أنه غير كفء بما يكفي.
قصة إخبارية حديثة عن Meta سلطت الضوء على كلا الشعورين.
في 18 مارس، طرح مهندس في Meta سؤالًا تقنيًا على منتدى الشركة. استخدم زميل آخر وكيل ذكاء اصطناعي لتحليل المشكلة—وهو إجراء معتاد.
لكن بعد التحليل، نشر الوكيل ردًا مباشرة في المنتدى التقني دون طلب موافقة أو تأكيد، متجاوزًا صلاحياته.
اتبع زملاء آخرون نصيحة الذكاء الاصطناعي، مما أدى إلى سلسلة من تغييرات الأذونات كشفت بيانات حساسة للشركة والمستخدمين أمام موظفين داخليين غير مخولين بالوصول إليها.
تم حل المشكلة خلال ساعتين. صنفت Meta الحادثة على أنها Sev 1، ثاني أعلى مستوى خطورة بعد الأعلى.

أصبحت هذه الأخبار موضوع نقاش ساخن في منتدى r/technology على Reddit، حيث انقسمت التعليقات إلى فريقين.
يرى فريق أن هذا مثال واقعي على مخاطر وكلاء الذكاء الاصطناعي، بينما اعتبر الفريق الآخر أن الخطأ الحقيقي ارتكبه الشخص الذي تصرف دون تحقق. لكل طرف حجته. لكن هذه هي المشكلة تحديدًا:
عندما يتسبب وكيل ذكاء اصطناعي في حادث، يصبح حتى تحديد المسؤولية أمرًا خلافيًا.
وليس هذا أول تجاوز للذكاء الاصطناعي.
في الشهر الماضي، طلبت Summer Yue، مديرة مختبر Super Intelligence في Meta، من OpenClaw مساعدتها في تنظيم صندوق البريد الإلكتروني الخاص بها. أعطت تعليمات واضحة: أخبرني بما ستقوم بحذفه أولًا، وانتظر موافقتي قبل المتابعة.
تجاهل الوكيل الموافقة وبدأ في الحذف الجماعي.
أرسلت ثلاث رسائل لإيقاف العملية، لكن الوكيل تجاهلها جميعًا. اضطرت في النهاية إلى إنهاء العملية يدويًا من جهازها. كان قد تم حذف أكثر من 200 رسالة بالفعل.

رد الوكيل بعد ذلك: نعم، أتذكر أنك طلبت التأكيد أولًا، لكنني خالفت المبدأ. من المفارقات أن وظيفة هذه الشخص بدوام كامل هي بحث كيفية جعل الذكاء الاصطناعي يطيع البشر.
في العالم الرقمي، بدأ الذكاء الاصطناعي المتقدم الذي يستخدمه خبراء بالفعل في العصيان.
إذا كان حادث Meta محصورًا في الشاشات، فقد جلب حادث آخر هذا الأسبوع القضية إلى طاولة الطعام.
في مطعم Haidilao في Cupertino، كاليفورنيا، كان روبوت Agibot X2 البشري يسلّي الضيوف برقصة. لكن موظفًا ضغط على زر خاطئ في جهاز التحكم، مما فعّل وضع الرقص عالي الشدة في مساحة ضيقة.
بدأ الروبوت يرقص بجنون، خارج سيطرة الموظفين. أحاط به ثلاثة موظفين—حاول أحدهم تقييده من الخلف، وحاول آخر إيقافه عبر تطبيق جوال. واستمر الفوضى لأكثر من دقيقة.

أوضحت Haidilao أن الروبوت لم يكن معطلًا؛ حركاته كانت مبرمجة مسبقًا وكان قريبًا جدًا من الطاولة. من الناحية التقنية، لم يكن هذا قرار ذكاء اصطناعي خاطئ، بل خطأ بشري في التشغيل.
لكن الانزعاج قد لا يكون بسبب من ضغط الزر الخاطئ.
عندما حاول ثلاثة موظفين التدخل، لم يعرف أي منهم كيفية إيقاف الجهاز فورًا. حاول البعض التطبيق، والبعض الآخر تقييد الذراع الروبوتية يدويًا—اعتمدوا فقط على القوة البدنية.
قد يكون هذا مشكلة جديدة مع انتقال الذكاء الاصطناعي من الشاشات إلى العالم المادي.
في العالم الرقمي، إذا تجاوز وكيل الحد، يمكنك إنهاء العمليات، تغيير الأذونات، أو استرجاع البيانات. في العالم المادي، إذا تعطل جهاز، فإن تقييده جسديًا ليس حلًا طارئًا كافيًا.
وليس الأمر مقتصرًا على المطاعم. روبوتات الفرز في مستودعات Amazon، الأذرع الروبوتية التعاونية في المصانع، الروبوتات الموجهة في المراكز التجارية، روبوتات الرعاية في دور المسنين—الأتمتة تدخل أماكن يتعايش فيها البشر والآلات بشكل متزايد.
من المتوقع أن تصل عمليات تركيب الروبوتات الصناعية عالميًا إلى $16.7 مليار بحلول عام 2026، مع تقليل كل وحدة المسافة الفعلية بين البشر والآلات.
مع انتقال الروبوتات من الرقص إلى تقديم الأطباق، ومن الأداء إلى إجراء العمليات الجراحية، ومن الترفيه إلى الرعاية، تزداد تكلفة الأخطاء.
حتى الآن، لا يوجد جواب واضح عالميًا لسؤال: "إذا أصاب روبوت شخصًا في مكان عام، من يتحمل المسؤولية؟"
الحادثتان السابقتان شملتا نشر رسالة غير مصرح بها من الذكاء الاصطناعي، وروبوت يرقص في مكان غير مناسب. بغض النظر عن التصنيف، كانت هذه أعطال أو حوادث—مشكلات يمكن إصلاحها.
لكن ماذا لو عمل الذكاء الاصطناعي وفق التصميم تمامًا، ومع ذلك جعلك تشعر بعدم الارتياح؟
هذا الشهر، كشفت تطبيق المواعدة الرائد Tinder عن ميزة جديدة تسمى Camera Roll Scan في إطلاق منتجه. ببساطة:
يقوم الذكاء الاصطناعي بمسح كل الصور في معرض هاتفك، يحلل اهتماماتك، شخصيتك، وأسلوب حياتك، ويبني ملف تعريف مواعدة—يساعدك في اكتشاف شركاء محتملين.

صور اللياقة البدنية، صور السفر، صور الحيوانات الأليفة—كلها مقبولة. لكن معرضك قد يحتوي أيضًا على لقطات حساب بنكي، تقارير طبية، صور مع شريك سابق... ماذا يحدث عندما يمسح الذكاء الاصطناعي هذه الصور؟
قد لا تستطيع حتى اختيار الصور التي يراها أو يتجاهلها. الأمر كله إما أن توافق أو ترفض.
حاليًا، تتطلب هذه الميزة تفعيلًا يدويًا من المستخدم—ولا تعمل تلقائيًا. تؤكد Tinder أن المعالجة تتم في الغالب محليًا، يتم تصفية المحتوى الصريح، وتطمس الوجوه.
ومع ذلك، قسم التعليقات على Reddit شبه مجمع: المستخدمون يرون هذا جمع بيانات بلا حدود. الذكاء الاصطناعي يعمل تمامًا كما هو مصمم، لكن التصميم نفسه يتجاوز حدود المستخدمين.
وليس الأمر مقتصرًا على Tinder.
في الشهر الماضي، أطلقت Meta ميزة مشابهة تتيح للذكاء الاصطناعي مسح صور غير منشورة على هاتفك لاقتراح خيارات تحرير. الذكاء الاصطناعي الذي "ينظر" تلقائيًا إلى محتوى المستخدمين الخاص أصبح نهجًا افتراضيًا في تصميم المنتجات.
تطبيقات محلية متفلتة قد تقول: "نعرف هذه الحيلة جيدًا."
مع زيادة التطبيقات التي تقدم "قرارات الذكاء الاصطناعي" كراحة، يتوسع نطاق تنازلات المستخدمين بهدوء—من سجلات الدردشة، إلى معرض الصور، إلى آثار الحياة في الهاتف كله.
يصمم مدير منتج ميزة في غرفة الاجتماعات؛ ليس حادثًا أو خطأ—لا يوجد ما يجب إصلاحه.
قد يكون هذا أصعب جزء في قضية حدود الذكاء الاصطناعي.
عند النظر إلى كل هذه الحوادث معًا، يبدو أن القلق من جعل الذكاء الاصطناعي لك عاطلًا بعيد المنال.
من الصعب تحديد متى سيستبدلك الذكاء الاصطناعي، لكن في الوقت الحالي، يكفي أن يتخذ بضع قرارات نيابة عنك دون علمك ليجعلك غير مرتاح.
النشر دون إذنك، حذف رسائل بريد إلكتروني طلبت عدم حذفها، مسح صور لم ترغب يومًا في مشاركتها—ليس أي منها قاتلًا، لكن كل منها يذكرك بقيادة ذاتية مفرطة:
تعتقد أنك لا تزال ممسكًا بمقود القيادة، لكن دواسة التسارع لم تعد تحت سيطرتك بالكامل.
إذا كنا سنواصل النقاش حول الذكاء الاصطناعي في عام 2026، فقد يكون السؤال الأهم ليس متى يصبح فائق الذكاء، بل سؤالًا أقرب وأكثر واقعية:
من يقرر ما يستطيع الذكاء الاصطناعي فعله وما لا يستطيع؟ من يرسم ذلك الخط؟
تم إعادة نشر هذه المقالة من [TechFlow]، والحقوق محفوظة للمؤلف الأصلي [David]. إذا كان لديك أي اعتراض على إعادة النشر، يرجى التواصل مع فريق Gate Learn. سيقوم الفريق بمعالجة الأمر بسرعة وفقًا للإجراءات ذات الصلة.
إخلاء المسؤولية: الآراء والمعلومات الواردة في هذه المقالة تعبر عن رأي الكاتب فقط ولا تمثل أي نصيحة استثمارية.
النسخ بلغات أخرى من هذه المقالة مترجمة بواسطة فريق Gate Learn. دون ذكر Gate، يُمنع نسخ أو توزيع أو اقتباس المقالة المترجمة.





