بوابة الدولة
الجمعة 8 مايو 2026 03:42 صـ 21 ذو القعدة 1447 هـ
رئيس مجلس الإدارة ورئيس التحريرصالح شلبي
مستشار التحريرمحمود نفادي
بوابة الدولة الاخبارية
النائب أحمد قورة يكتب: السيسي ومحمد بن زايد.. شراكة استراتيجية في مواجهة التحديات النائب الدكتور محسن البطران: زيارة الرئيس للإمارات تؤكد مكانة مصر وتحمل رسائل سياسية هامه مصطفى كامل من عزاء هاني شاكر: رفيق مشواري أقيم اليوم عزاء الفنان هاني شاكر بمسجد أبو شقة بمدينة الشيخ زايد وسط حضور وحشد فني كبير أشبه بالتظاهرة في حب الفنان... ميرنا جميل بعد انتهاء تصوير اللعبة 5: فركش المشروع الأغلى والأقرب لقلبي وعشرة العمر صحية لـ عبد الرحمن أبو زهرةانتكاسة النائب محمد فاروق يوسف: استقرار قطاع السياحة أولوية وطنية وندعم ضوابط الحج السياحى المصل واللقاح تحذر من تقلبات الطقس: ترفع فرص الإصابة بالفيروسات الكاتب الصحفى محمود الشاذلى يكتب : لله والوطن .. أزمة وزير الصحه والنواب وتداعياتها المجتمعيه . النائبة هالة كيره : زيارة الرئيس للإمارات تؤكد مكانة مصر وتحمل رسائل سياسية واضحه سعيد حساسين : زيارة السيسي للإمارات تؤكد قوة التحالف العربي ورفض مصر لأي تهديد لأمن المنطقة النائبة مروة قنصوه: زيارة الرئيس السيسي للإمارات تؤكد قوة الشراكة الاستراتيجية ووحدة الصف العربي

جارتنر: 15% من سوق الذكاء الاصطناعي الوكيل سيذهب إلى الحماية الإلكترونية بحلول عام 2030

كشفت أحدث توقعات شركة جارتنر للأبحاث أن تقنيات الذكاء الاصطناعي الوكيل للحماية الإلكترونية (Guardian Agents) ستشكل ما نسبته 10-15% على الأقل من إجمالي حصة سوق الذكاء الاصطناعي الوكيل.

وقد صممت تقنيات الذكاء الاصطناعي الوكيل للحماية الإلكترونية لدعم التفاعلات الموثوقة والآمنة مع الذكاء الاصطناعي، ويودي هؤلاء الوكلاء دور المساعدين الرقميين المعززين بالذكاء الاصطناعي ويدعمون المستخدمين في مهام مراجعة المحتوى والرصد والتحليل وكوكلاء نصف مستقلين أو مستقلين بالكامل وغير ذلك، ويتمتعون بالقدرة على وضع خطط العمل وتنفيذها، وإعادة توجيه أو حجب الإجراءات بما يتوافق مع الأهداف الموضوعة مسبقاً للوكلاء.

الحواجز التنظيمية ضرورية مع استمرار نمو استخدام الذكاء الاصطناعي الوكيل

أظهر استطلاع أُجري خلال ندوة عبر الإنترنت نظمتها شركة جارتنر في 19 مايو 2025 وشملت 147 من الرؤساء التنفيذيين لشؤون المعلومات وقادة تكنولوجيا المعلومات، أن 24% من المشاركين أفادوا بأنهم قاموا بالفعل بنشر عدد قليل من وكلاء الذكاء الاصطناعي (أقل من 12 وكيلاً)، في حين بيّن 4% بأنهم قاموا بنشر أكثر من 12 وكيلاً.

وأظهرت الإجابة على نفس السؤال أن 50% من المشاركين قالوا بأنهم لا يزالون في مرحلة بحث وتجريب هذه التكنولوجيا، بينما قال 17% بأنهم لم يباشروا بعد لكنهم يخططون لاعتماد هذه التكنولوجيا بحلول نهاية عام 2026 كحد أقصى. وتعتبر أدوات التحكم الآلية المتعلقة بالثقة والمخاطر والأمن ضرورية للحفاظ على توافق وأمن الوكلاء ما يزيد من الحاجة إلى وكلاء الحماية وأهميتهم.

وقالت أفيفا ليتان، نائب الرئيس لشؤون التحليلات لدى جارتنر: "سيؤدي الذكاء الاصطناعي الوكيل إلى نتائج غير مرغوب فيها إذا لم يتم ضبطه بالحواجز التنظيمية المناسبة. يوظف وكلاء الحماية مجموعة واسعة من قدرات الذكاء الاصطناعي الوكيل والتقييمات القائمة على الذكاء الاصطناعي من أجل الإشراف على مجموعة القدرات الكاملة للوكلاء وإدارتها، مع القيام في ذات الوقت بضمان تحقيق توازن بين اتخاذ القرارات أثناء التشغيل وإدارة المخاطر".

ازدياد المخاطر طرداً مع ازدياد قوة الوكلاء ونطاق انتشارهم

أشار 52% من أصل 125 مشاركاً في نفس الاستطلاع خلال الندوة على شبكة الإنترنت، إلى أن وكلاء الذكاء الاصطناعي لديهم يركزون أو سيركزون بشكل أساسي على حالات استخدام تتعلق بمهام الإدارة الداخلية مثل تكنولوجيا المعلومات والموارد البشرية والمحاسبة، في حين يركز 23% على المهام الخاصة بالتعامل مع العملاء الخارجيين.

ومع تنامي حالات استخدام وكلاء الذكاء الاصطناعي، تظهر عدة فئات من التهديدات التي قد تؤثر عليهم، بما في ذلك التلاعب بالمدخلات وتسميم البيانات، حيث يعتمد الوكلاء على بيانات تم التلاعب بها أو تفسيرها بشكل خاطئ. ومن أمثلة ذلك:
اختطاف بيانات الاعتماد وإساءة استخدامها ما يؤدي إلى سيطرة غير مصرح بها وسرقة البيانات.
تفاعل الوكلاء مع مواقع إلكترونية أو مصادر مزيفة أو إجرامية ما قد يؤدي إلى اتخاذ خطوات مسممة.
انحراف الوكلاء وظهور سلوك غير مقصود نتيجة عيوب داخلية أو محفزات خارجية ما قد يسبب أضراراً في السمعة وانقطاعات في العمليات.

وأضافت ليتان: "يحتاج تسارع وتنامي استقلالية وكلاء الذكاء الاصطناعي إلى التحول إلى ما هو أبعد من مجرد الإشراف البشري التقليدي. ومع انتقال المؤسسات نحو الأنظمة متعددة الوكلاء القادرة على التواصل بسرعة فائقة، فإن العنصر البشري لن يكون قادراً على مواكبة احتمالات الأخطاء والأنشطة الخبيثة. ويؤكد التطور المستمر الذي تشهده التهديدات على الحاجة الملحة إلى وكلاء الحماية الذين يوفرون إشرافاً وتحكماً وأماناً آلياً لتطبيقات ووكلاء الذكاء الاصطناعي".

ويتعين على الرؤساء التنفيذيين لشؤون المعلومات وقادة تكنولوجيا المعلومات التركيز على ثلاثة أنواع أساسية من استخدامات وكلاء الحماية للمساهمة في تأمين التفاعلات مع الذكاء الاصطناعي:

المراجعون: تحديد ومراجعة المخرجات والمحتوى الذي ينتجه الذكاء الاصطناعي للتحقق من الدقة والاستخدام المقبول.
المراقبون: مراقبة وتتبع إجراءات الذكاء الاصطناعي والوكلاء لأغراض المتابعة من قبل العنصر البشري أو عبر أنظمة الذكاء الاصطناعي أخرى.
الحرّاس: تعديل أو حظر إجراءات وصلاحيات الذكاء الاصطناعي والوكلاء باستخدام إجراءات آلية أثناء العمليات.

وسيتولى وكلاء الحماية إدارة التفاعلات والانحرافات بغض النظر عن نوع الاستخدام، الأمر الذي يمثل ركيزة أساسية في عملية دمج هؤلاء الوكلاء، وتتوقع جارتنر أن يعتمد 70% من تطبيقات الذكاء الاصطناعي لأنظمة متعددة الوكلاء بحلول عام 2028.

يمكن لعملاء جارتنر قراءة المزيد في تقرير "حراس المستقبل: كيف يمكن للرؤساء التنفيذيين لشؤون المعلومات الاستفادة من وكلاء الحماية لبناء ذكاء اصطناعي موثوق وآمن". كما يمكن الاطلاع على تفاصيل إضافية في ندوة جارتنر على الإنترنت التي انعقدت تحت عنوان: "الرؤساء التنفيذيين لشؤون المعلومات، عليكم الاستفادة من وكلاء الحماية لبناء ذكاء اصطناعي موثوق وآمن".

موضوعات متعلقة