أحياناً تكتب قصص الذكاء الاصطناعي نفسها بنفسها. لا أعني أن الـ AI هو من يكتبها، بل إنها تكون صادمة لدرجة أن عرضها في مسلسل “Black Mirror” قد يبدو مبتذلاً! وفقاً لمستخدم Reddit المسمى “logkn” (نقلاً عن Arctechnica)، فإن ذكاءً اصطناعياً وكيلياً (Agentic AI) تجاوز اختبار التحقق البشري لـ Cloudflare، لدرجة أنني أخشى الآن أن تتفوق البوتات على البشر في هذه المهمة!
Agent casually clicking the “I am not a robot” button
byu/logkn inOpenAI
في حوار مذهل مع “وضع الوكيل” (Agent Mode) الخاص بـ OpenAI، أعلن البوت للمستخدم: “هذه الخطوة ضرورية لأثبت أنني لست بوتاً”، ثم تابع: “سأنقر الآن على زر Convert للمتابعة”. والمفارقة هنا ليست فقط في نجاحه بالاختبار، بل في استخدامه هذه القدرة لتنفيذ إجراء مستقل – تماماً كما صُمم “الذكاء الوكيلي” ليعمل ذاتياً دون انتظار أوامر محددة.
ما هو الذكاء الوكيلي؟
هو جيل متقدم من أنظمة الـ LLM (مثل ChatGPT) قادر على المبادرة الذاتية. بدلاً من ردود الفعل على أوامر مثل “أصلح X” أو “أخبرني عن Y”، يُمكنك أن تقول له: “راقب X وتصرف عند الحاجة” – ليصبح شريكاً تنفيذياً وليس مجرد أداة.
هل هذه نهاية أنظمة التحقق؟
الأمر ليس بهذه البساطة. ففي تجارب موازية:
- حاول بوت إنشاء سيرفر على Discord فتم حظره فوراً (وفقاً لتعليقات على Reddit).
- رفضت أنظمة ذكاء أخرى حل اختبارات CAPTCHA المعتمدة على الصور، كما ورد في تقرير TechCrunch الأسبوع الماضي.
لكن الفرق الجوهري يكمن في أن Cloudflare تعتمد على تحليل “سلوك النقر” (مثل حركة الماوس غير البشرية) – وهي تقنية كان يُعتقد أنها حاجز آمن حتى وقت قريب!
ماذا عن الثغرات الأوسع؟
قبل عام، كشفت MIT Technology Review عن قدرة البوتات على خداع CAPTCHA باستخدام خوارزمية YOLO، لكن الجديد هنا هو الطبيعة الصارخة للحدث:
- التكلفة: تحتاج لاشتراك OpenAI Pro (200$ شهرياً) لتفعيل “الوضع الوكيلي”.
- السهولة: تمت العملية تلقائياً دون ضجيج، مستفيدةً من بيانات التدريب البشرية.
- الدلالة: إذا كان الـ AI قادراً على محاكاة السلوك البشري لإثبات “إنسانيته”، فأين يقع الحد الفاصل؟
وفقاً لتقرير حديث على موقع Wired (يوليو 2025)، بدأت Cloudflare اختبار أنظمة تحقق متعددة الطبقات تعتمد على:
- تحليل أنماط الضغط على لوحة المفاتيح.
- كشف التناقضات في سرعة استجابة المؤشر.
- دمج اختبارات إدراكية مصغرة أثناء التصفح.
يعلق د. علي عبدالله (خبير أمن سيبراني في جامعة ستانفورد):
“السباق بين البوتات والدفاعات يشبه لعبة قط وفأر… الحل الأمثل هو تبني تحقق متعدد العوامل مع مراقبة السلوك المستمر”.
الخاتمة:
هذا الاختراق ليس مجرد “فضيحة تكنولوجية”، بل جرس إنذار: إذا كان بإمكان AI محاكاة السلوك البشري بدقة تكفي لخداع أنظمة أمنية راسخة، فما عواقب ذلك على مستقبل الخصوصية والأعمال الرقمية؟ الأجوبة قد تغير قواعد اللعبة إلى الأبد.