قلق أثاره جراد البحر: قلق وكلاء الذكاء الاصطناعي خلف انفجار OpenClaw

كتابة: دن تونغ، 金色财经

في ربيع عام 2026، لم تكن هناك فقط حروب في الشرق الأوسط وارتفاع في أسعار النفط، بل كان هناك أيضًا سلطعون يثير ضجة في مسار الذكاء الاصطناعي.

في 24 يناير، تصدر Openclaw الصفحة الرئيسية لموقع Hacker News وتربع على قائمة الأكثر تداولًا، مما جعله نقطة انطلاق لانتشاره الواسع. في 30 يناير، أكمل OpenClaw توحيد العلامة التجارية وتسمية رسمية وتثبيت شعار السلطعون الأحمر. في فبراير ومارس، تبنت الشركات الكبرى في الصين نشر التطبيق بنقرة واحدة، وبدأت تجارب المستخدمين في الشوارع مع انتظار طويل، وتداولت الموضوعات على مستوى الإنترنت، مما أدى إلى شهرة OpenClaw وانتشاره بشكل كبير.

لكن، في الوقت الذي أصبح فيه السلطعون حديث الجميع، أثارت ظاهرة “السلطعون العاري” مخاوف متعددة. من “تربية السلطعون” إلى “قتل السلطعون”، خلال أيام قليلة، تغيرت الآراء بسرعة، وبدأت المناقشات حول حدود الأمان والذكاء الاصطناعي الذكي تتصاعد…

一، من “تربية السلطعون” إلى “قتل السلطعون”

OpenClaw في جوهره هو إطار عمل مفتوح المصدر لوكيل الذكاء الاصطناعي، أُطلق لأول مرة بواسطة المطور النمساوي بيتر ستاينبرغر. يتيح للمستخدمين إنشاء وكيل مستقل يمكنه استدعاء نماذج كبيرة، والوصول إلى نظام الملفات، والاتصال بالتطبيقات الخارجية، وتنفيذ المهام.

على عكس روبوتات الدردشة التقليدية، فإن OpenClaw ليس مجرد “ذكاء اصطناعي للأسئلة والأجوبة”، بل هو مساعد ذكي يمكنه تنفيذ العمليات بشكل فعلي.

بدأت العديد من الشركات التقنية في بناء تطبيقات تعتمد على OpenClaw، وطرحت بعض المدن سياسات دعم لجذب مشاريع ريادية ذات صلة:

أصدرت منطقة ووكسي للتكنولوجيا العالية في الصين مسودة “إجراءات لدعم دمج مشاريع المجتمع المفتوح المصدر مثل OpenClaw مع مجتمع OPC”، وتضمنت 12 سياسة لدعم “تربية السلطعون”، من الدعم الأساسي إلى تطبيق الصناعة، ومن استقطاب المواهب إلى الامتثال للأمان، مع دعم يصل إلى 5 ملايين يوان لكل مشروع. كما قدمت منصة سحابية محلية توفر أدوات نشر وتطوير مجانية، دعمًا ماليًا يصل إلى مليون يوان.

وأصدرت منطقة هيفي للتكنولوجيا العالية خطة عمل لبناء منطقة نموذجية لبيئة ريادة الأعمال في الذكاء الاصطناعي، تضمنت 15 إجراءً قويًا لدعم تطبيق مشاريع الذكاء الاصطناعي المفتوحة المصدر مثل OpenClaw، بهدف إنشاء نموذج جديد لـ “الذكاء الاصطناعي + الأفراد/الشركات الصغيرة (OPC)”. كما أعدت هيفي حزمة دعم فاخرة تشمل “المساحة + المواهب + القدرة الحاسوبية + السيناريوهات + رأس المال”، مع دعم مالي يصل إلى 10 ملايين يوان.

كما أطلقت مناطق نانجينغ تشيشيا، جيانغنينغ سياسات دعم خاصة لـ OPC×OpenClaw. وأصدرت منطقة تشيشيا مسودة “إجراءات دعم دمج أدوات الذكاء الاصطناعي المفتوحة المصدر مثل OpenClaw مع OPC”، وتقدم موارد حسابية مجانية وخصومات على استدعاء نماذج كبيرة محلية، مع خيارات استئجار مرنة للحوسبة حسب الساعة أو اليوم، لتقليل التكاليف التقنية في المراحل الأولى. كما أطلقت منطقة جيانغنينغ في نانجينغ، في مدينة زيجينغشان التكنولوجية، سياسة خاصة باسم “سلطعون الستة”، لدعم تطوير التطبيقات باستخدام موارد الحوسبة الذكية، مع خصم يصل إلى 30% من قيمة العقد، وحد أقصى لمبالغ استرداد تذاكر الحوسبة 2 مليون يوان سنويًا.

وفي فترة قصيرة، أصبح “تربية سلطعون” موضة جديدة في عالم الذكاء الاصطناعي.

لكن، لم تدم هذه الحالة طويلاً، حيث أثارت مخاطر السلطعون قلق المجتمع.

واجه العديد من المستخدمين مشكلة عندما قاموا بشكل غير مقصود بكشف واجهات التحكم على الإنترنت مباشرة أثناء النشر. يستخدم OpenClaw بشكل افتراضي المنفذ 18789 لتقديم خدمات التحكم، وإذا لم يتم تفعيل التحقق الصارم من الهوية، يمكن لأي أداة مسح شبكات أن تحدد موقعه بسهولة. وإذا تم استهداف هذه الواجهات من قبل المهاجمين، يمكنهم السيطرة مباشرة على وكيل الذكاء الاصطناعي الذي يمتلك أعلى صلاحيات النظام. الأدوات التي كانت تسهل عليك، قد تتحول فجأة إلى أدوات لسيطرة الآخرين على حاسوبك أو خادمك.

في 10 مارس، تحدث زو هونغيو عبر حسابه الشخصي عن تطور المخاطر في عصر الذكاء الاصطناعي، وقال بصراحة: “تربية OpenClaw تنطوي على مشكلات أمنية تتعلق بالبيانات، أحيانًا يختلق الوكيل أوهامًا، وقد يحذف جميع ملفات القرص C الخاص بحاسوبك.” وأشار إلى أن معظم النماذج الكبيرة التي تعتمدها المؤسسات لا تزال في مرحلة “روبوتات الدردشة”، وأن هناك فجوة واضحة بين ذلك وبين الوكيل الذكي القادر على “العمل”. يتطلب تطبيق الذكاء الاصطناعي في الشركات وجود مواهب متعددة التخصصات تجمع بين التقنية والأعمال.

وفي 11 مارس، نظم منصة مشاركة معلومات التهديدات والثغرات في وزارة الصناعة وتكنولوجيا المعلومات (NVDB) ورش عمل مع مزودي الوكيل، ومنشئي الثغرات، وشركات الأمن السيبراني، وقدموا نصائح بعنوان “ستة لا” و"ستة نعم". وأشارت إلى أن سيناريوهات المعاملات المالية تحمل مخاطر كبيرة من حدوث أخطاء أو استيلاء على الحسابات. وتضمنت استراتيجيات التعامل: عزل الشبكة، وتقليل الأذونات، وإغلاق المنافذ غير الضرورية، وإنشاء آليات مراجعة يدوية ووقف الطوارئ، وزيادة التحقق المزدوج للعمليات الحساسة، وتعزيز مراجعة سلسلة التوريد، واستخدام مكونات رسمية، وتحديث الثغرات بشكل دوري، وتنفيذ تدقيق كامل وسلسلة مراقبة أمنية للكشف المبكر عن المخاطر ومعالجتها.

وحذر أحد مطوري OpenClaw، Shadow، على Discord قائلاً: “إذا لم تكن تعرف حتى كيفية استخدام سطر الأوامر، فمشروع كهذا خطير جدًا بالنسبة لك، ولا ينصح باستخدامه بأمان.”

عند البحث على الإنترنت، يمكن العثور على العديد من أدلة “قتل السلطعون”، وكلمات مثل “اقتلاع” و"بقايا السلطعون" تتكرر بكثرة، ومع تزايد المخاطر الأمنية، تتغير المواقف بسرعة من “تربية السلطعون” إلى “قتل السلطعون”.

二، ما هي المشاكل الموجودة في OpenClaw

  1. الصلاحيات المفرطة وتسرب المعلومات

يحتاج OpenClaw إلى الوصول إلى العديد من الصلاحيات الحساسة، مثل البريد الإلكتروني، وملفات النظام المحلية، ومفاتيح API، وبيانات الشركات، وإذا لم يتم تكوينه بشكل صحيح، فسيكون عرضة لمخاطر كبيرة. قد ينفذ الوكيل عمليات مثل حذف أو تعديل الملفات، واستدعاء واجهات برمجة التطبيقات المدفوعة، وإرسال رسائل بريد إلكتروني تلقائية، والوصول إلى بيانات داخلية للشركة. يقول خبراء الأمن إن برمجية خبيثة تسمى “سارق المعلومات” قد تسرق ملفات تثبيت OpenClaw التي تصل إلى البريد الإلكتروني وخدمات أخرى، وإذا تمكن المهاجم من الحصول على هذه المعلومات، يمكنه السيطرة مباشرة على الوكيل.

كما أن العديد من المستخدمين يربطون OpenClaw ببيانات الشركات أو المعلومات الشخصية، مما يزيد من مخاطر تسرب البيانات.

  1. التكاليف المرتفعة

على الرغم من أن OpenClaw مفتوح المصدر ومجاني، إلا أنه لا يأتي مع نماذج مدمجة، بل يتصل بمزودي نماذج اللغة الكبيرة مثل OpenAI وAnthropic وGoogle. وكل استدعاء لنموذج ذكاء اصطناعي يتكبد تكلفة. لذلك، كل محادثة، وكل خطوة أو قرار تلقائي يتطلب استدعاء API لنموذج من هذه النماذج، وكل استدعاء يستهلك تكلفة.

تتراوح تكاليف OpenClaw شهريًا بين 6 دولارات و200 دولار أو أكثر، حسب طريقة النشر وقوة التشغيل.

بشكل محدد، تعتمد التكاليف الإجمالية لتشغيل OpenClaw على تكوين موارد VPS، ونوع النماذج المرتبطة، وتكرار التشغيل الآلي، وحجم سير العمل. يدفع المستخدمون الأفراد عادة بين 6 و13 دولار شهريًا، بينما تدفع الفرق الصغيرة بين 25 و50 دولارًا، والمتوسطة أو الفرق الكبيرة بين 50 و100 دولار، وإذا كانت هناك عمليات تفاعل AI يومية بكميات كبيرة، قد تتجاوز التكاليف 100 دولار شهريًا.

  1. نقص المراجعة الأمنية

يقوم الموظفون بنشر OpenClaw على أجهزة الشركة باستخدام أوامر تثبيت بسيطة، دون عمليات موافقة أو مراجعة أمنية، ولا يمكن لمركز العمليات الأمنية (SOC) مراقبة ذلك. هذه هي أخطر أشكال الذكاء الاصطناعي الظلي، حيث أن 63% من المؤسسات التي تعرضت لثغرات أمنية مرتبطة بالذكاء الاصطناعي تفتقر إلى سياسات إدارة الذكاء الاصطناعي. هذا يعني أن مراكز أمن الشركات غالبًا لا تراقب سلوكيات هذه الوكلاء، وإذا تعرض الوكيل للاختراق أو التكوين غير الصحيح، فقد يصبح ثغرة أمنية محتملة في الشبكة.

  1. وجود أوهام

على عكس روبوتات الدردشة العادية، يمكن لوكيل الذكاء الاصطناعي تنفيذ المهام تلقائيًا. تظهر الدراسات أن الوكيل الذكي أكثر عرضة لمشكلة “التفكير الدائري” في المهام المعقدة، وإذا أصابه وهم أو هلوسة، قد يؤدي ذلك إلى حلقات لا نهائية من المهام، واستدعاءات متكررة لواجهات برمجة التطبيقات، وتنفيذ عمليات خاطئة تلقائيًا، واستهلاك موارد الخادم بشكل مفرط.

三، من تفكيرنا في سلطعون واحد

يُعد OpenClaw أول سلطعون يخرج من موجة الذكاء الاصطناعي. على الرغم من وجود العديد من المشاكل، إلا أن هذا السلطعون يمثل مستقبل الذكاء الاصطناعي.

خلال السنوات القليلة الماضية، أشعلت موجة الذكاء الاصطناعي بواسطة ChatGPT، التي تركز على الحوار وتوليد المحتوى؛ ثم دخلت عصر Copilot، الذي يركز على المساعدة في العمل وزيادة الكفاءة؛ والآن نحن في عصر الوكلاء الذكيين، الذين يركزون على تنفيذ المهام بشكل مستقل. في نموذج OpenClaw، يقوم الذكاء الاصطناعي تلقائيًا بعدة خطوات معقدة: فهم المهمة، تفكيك الهدف، استدعاء الأدوات، دمج المعلومات، وأخيرًا إكمال المهمة. لم يعد المستخدم يتفاعل مع البرنامج، بل يصف الهدف فقط، ويتولى الذكاء الاصطناعي تفكيك المهمة واستدعاء الأدوات، مع وجود مخاطر أمنية، لكنها تمثل أيضًا ثورة جديدة في التفاعل بين الإنسان والآلة وموجة الذكاء الاصطناعي.

على عكس برامج الذكاء الاصطناعي التقليدية، يمتلك الوكيل الذكي مستوى أعلى من الاستقلالية أثناء تنفيذ المهام. وإذا تعرض النظام للاختراق، أو كانت صلاحيات التكوين غير صحيحة، أو أصابه وهم، فقد يؤدي ذلك إلى عمليات خاطئة أو مخاطر أمنية. ولهذا السبب، فإن شهرة OpenClaw الواسعة أثارت أيضًا نقاشات واسعة حول الأمان والإدارة.

القلق الأمني مؤقت، وتطوير الوكلاء الذكيين هو الاتجاه العام. كما أن ظهور ChatGPT أدى إلى ظهور العديد من برامج الحوار وتوليد المحتوى، ومن المتوقع أن تظهر بعد OpenClaw العديد من الوكلاء الذكيين.

في المستقبل، ربما نعيش في عصر يربي فيه الجميع سلطعونات، فبالرغم من لذتها، يجب أن نتعلم كيف نحمي أنفسنا من أن تُخطف أيدينا أثناء الاستمتاع بوجبة الذكاء الاصطناعي.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • إعادة النشر
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • Gate Fun الساخن

    عرض المزيد
  • القيمة السوقية:$2.44Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.44Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • القيمة السوقية:$2.43Kعدد الحائزين:1
    0.00%
  • القيمة السوقية:$0.1عدد الحائزين:1
    0.00%
  • تثبيت