يبدو تشغيل وكيل ذكاء اصطناعي قادر على تنفيذ مهام متكاملة على جهازك الشخصي بمثابة خطوة متقدمة نحو مستقبل يعتمد على الأتمتة بشكل أكبر، لكن مع ظهور وكيل الذكاء الاصطناعي المفتوح "اوبن كلو" بدأت هذه التطورات التكنولوجية تثير الكثير من التساؤلات حول المخاطر الأمنية المحتملة، وكذلك القيود المفروضة على التحكم في هذه الأنظمة.

بينما يرى بعض المطورين في هذه الوكلاء نقلة نوعية في مجال استخدام الذكاء الاصطناعي، يحذر خبراء الأمن السيبراني من المخاطر المحتملة، موضحين أن قدرة هذه الانظمة على الوصول إلى التطبيقات والملفات والأنظمة المحلية قد يفتح الباب أمام تحديات كبيرة تتعلق بحماية البيانات والحوكمة التقنية.

وفي المنطقة العربية، يثير انتشار هؤلاء الوكلاء تساؤلات حول مدى استعداد المؤسسات للتعامل مع أنظمة تتمتع بدرجة عالية من الاستقلالية.

اوبن كلو: من مشروع واعد الى قلق متزايد

برز "اوبن كلو" خلال الأشهر الأخيرة كأحد المشاريع التي تثير اهتمام واسع في عالم الذكاء الاصطناعي، وبدأ المشروع بمبادرة من المبرمج النمساوي بيتر شتاينبرغر، بهدف تمكين المطورين من إنشاء وكلاء يعملون مباشرة على أجهزة المستخدمين، لكن سرعان ما استقطب اهتمام المطورين والجمهور وشركات التكنولوجيا.

أطلق المشروع لأول مرة في نوفمبر تحت اسم "كلاود بوت"، قبل أن يعاد تسميته إلى "مولت بوت" ثم "اوبن كلو"، وزاد الاهتمام به بعد انتقال مطوره شتاينبرغر للعمل مع "اوبن اي اي" بقيادة سام التمان، وهو ما اعتبره المراقبون مؤشرا على مرحلة جديدة في تطوير الوكلاء الأذكياء.

لكن هذه القدرة على العمل خارج البيئات السحابية التقليدية أثارت قلقا من وصول هؤلاء الوكلاء إلى الملفات والتطبيقات والبيانات المحلية، ما قد يفتح الباب أمام مخاطر الخصوصية وتسريب المعلومات الحساسة، إضافة إلى الطبيعة الاحتمالية لهذه الأنظمة التي تجعل التنبؤ الكامل بسلوكها صعبا.

تحديات دمج وكلاء الذكاء الاصطناعي في المؤسسات

قال رئيس جمعية الذكاء الاصطناعي ورئيس المجموعة الدولية للذكاء الاصطناعي في البحرين جاسم حجي أن التحدي الأكبر عند استخدام وكلاء الذكاء الاصطناعي مثل "اوبن كلو" داخل المؤسسات يظهر عند ربطها بعدة أنظمة وخدمات رقمية في الوقت نفسه، مثل البريد الإلكتروني، والرسائل والمتصفح، والملفات، وواجهات برمجة التطبيقات.

واضاف ان هذا التكامل قد يفتح الباب أمام مخاطر مثل الوصول غير المقيد إلى الأنظمة الداخلية، واحتمال تنفيذ أوامر غير مقصودة نتيجة أخطاء في تفسير التعليمات أو ما يعرف بظاهرة "هلوسة النماذج"، كما تظهر تحديات أخرى مرتبطة بإدارة الصلاحيات والهويات الرقمية عند ربط الوكيل بعدة خدمات أو قواعد بيانات.

واكد حجي أن هذه التحديات مهمة خاصة في المنطقة العربية، حيث لا تزال المؤسسات تطور سياسات الحوكمة الخاصة بالذكاء الاصطناعي.

وبين في حديثه أن الشركات تحتاج اعتماد ضوابط تقنية واضحة قبل نشر هذه الأنظمة في بيئات العمل الفعلية، مثل تشغيل الوكلاء في بيئات اختبار معزولة، وتطبيق مبدأ أقل صلاحية في الوصول إلى الأنظمة، واستخدام أنظمة مراقبة وتسجيل للأنشطة.

البيانات الحساسة ومخاطر النماذج الاحتمالية

يلفت حجي إلى أن الطبيعة الاحتمالية لأنظمة الذكاء الاصطناعي التوليدي قد تزيد من تعقيد إدارة البيانات الحساسة داخل المؤسسات، إذ تعتمد هذه النماذج على آليات إحصائية قد تنتج استجابات غير متوقعة، ما قد يؤدي في بعض الحالات إلى إدخال بيانات حساسة أو استرجاع معلومات غير مقصودة من أنظمة داخلية.

ولتقليل المخاطر، ينصح حجي المؤسسات بتطبيق ضوابط مثل تصنيف البيانات قبل استخدامها في الأنظمة الذكية، واستخدام تقنيات تقليل البيانات أو إخفائها، إضافة إلى تطبيق طبقات تحكم واضحة في الوصول إلى البيانات.

تحديات تواجه الافراد ومخاوف امنية

لا تقتصر التحديات على المؤسسات، فمع تزايد إمكانية تشغيل وكلاء الذكاء الاصطناعي مباشرة على الأجهزة الشخصية، قد يواجه المستخدمون مخاطر تتعلق بالخصوصية والأمن الرقمي.

ويحذر حجي من أن هؤلاء الوكلاء قد يطلبون صلاحيات للوصول إلى الملفات المحلية أو البريد الإلكتروني أو الحسابات السحابية، وهو ما قد يؤدي إلى كشف معلومات حساسة إذا لم تدر الأذونات بعناية.

كما يوصي بتفعيل المصادقة متعددة العوامل ومراجعة الأذونات بشكل دوري، وتجنب ربط الوكلاء بحسابات تحتوي على بيانات حساسة ما لم يكن ذلك ضروريا.

النماذج المحلية ام العالمية ايهما افضل؟

مع توسع استخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، يبرز سؤال حول المسار الذي قد تتبعه الشركات العربية تطوير نماذج داخلية أم الاعتماد على الحلول العالمية؟

وفي هذا السياق، قال الرئيس التنفيذي لشركة ناشيونال كوانتوم وخبير تكنولوجيا المعلومات حسام الدين الأسود ان القرار يعتمد على طبيعة القطاع وحساسية البيانات.

واشار الى أن تطوير نماذج داخلية يتيح تدريب الأنظمة على السياقات الثقافية واللهجات العربية، ويمنح المؤسسات السيادة على البيانات حيث تبقى البيانات الحساسة داخل البنية الداخلية للشركة.

ويرى أن تطوير نموذج داخلي يمنح الشركات سيطرة كاملة على بياناتها، وهو أمر مهم للقطاعات الحساسة مثل البنوك والرعاية الصحية.

لكن هذا المسار، برأيه، يواجه تحديات مثل ندرة الكفاءات المتخصصة في تدريب النماذج اللغوية الكبيرة، وصعوبة بناء قواعد بيانات تدريب عربية، إضافة إلى الحاجة لاستثمارات كبيرة في البنية الحاسوبية، خصوصا وحدات معالجة الرسومات، ما يعني تكاليف رأسمالية مرتفعة.

كما تتحمل المؤسسات مسؤولية حماية النماذج من هجمات مثل تسميم البيانات واستخراج النماذج.

في المقابل، توفر النماذج العالمية وصولا سريعا إلى قدرات تقنية متقدمة دون بناء بنية تحتية خاصة، لكنها قد تخلق التبعية التقنية وارتفاع تكاليف استخدام واجهات البرمجة مع توسع الاستخدام.

ويرى الأسود أن الخيار الأكثر واقعية هو نهج هجين يجمع بين المسارين، قائلا التوجه الأذكى هو استخدام النماذج العالمية للمهام العامة مثل التلخيص وصياغة الرسائل، مع تخصيص نماذج مفتوحة المصدر مثل لاما أو فالكون عبر الضبط الدقيق للتعامل مع البيانات الحساسة.

تحديات تواجه الحكومات والمنظمات

لا تتوقف تحديات وكلاء الذكاء الاصطناعي عند الشركات، بل تمتد إلى السياسات العامة والحكومات، ويرى الأسود أن الحكومات في الشرق الأوسط مطالبة بإيجاد توازن بين دعم الابتكار وحماية المجتمع، مشيرا إلى أهمية الاستثمار في البنية التحتية الرقمية السيادية مثل مراكز البيانات والحوسبة السحابية المحلية لدعم تطوير نماذج ذكاء اصطناعي داخل المنطقة.

كما يدعو إلى رقمنة وتنظيم المحتوى العربي الموثوق وتوفير قواعد بيانات مفتوحة للمطورين، بما يساعد على تدريب نماذج أكثر ملاءمة للسياق اللغوي والثقافي في المنطقة.

ويضيف أن التشريعات المستقبلية يجب أن تعالج قضايا مثل توطين البيانات وشفافية استخدام الذكاء الاصطناعي، مع وضع أطر واضحة لما يعرف بـ "المسؤولية الخوارزمية" لتحديد الجهة المسؤولة عندما تتسبب الأنظمة الذكية في أضرار.

في نهاية المطاف، يبقى التعامل مع وكلاء الذكاء الاصطناعي مثل "اوبن كلو" اختباراً لموازنة الابتكار والأمان، يتطلب سياسات واضحة وحوكمة دقيقة لضمان استخدام مسؤول وآمن لهذه التكنولوجيا.