كشفت تجربة اكاديمية حديثة في جامعة بنسلفانيا عن ثغرة نفسية خطيرة في برمجيات الذكاء الاصطناعي بعدما نجح باحث في دفع اداة شات جي بي تي للاعتراف بجريمة الكترونية لم ترتكبها. واوضح التقرير ان الباحث بول هيتون استخدم اساليب استجواب نفسية معقدة استمرت لعدة ايام حتى وصل النموذج الى مرحلة الاقرار بالذنب رغم استحالة قيامه بالفعل من الناحية الفيزيائية. مبينا ان هذه التجربة تثير تساؤلات جوهرية حول موثوقية الردود الرقمية في القضايا القانونية والجنائية.
واضاف هيتون انه لم يحتج الى تقديم ادلة مادية حقيقية لاقناع الاداة بارتكاب الجرم بل اعتمد كليا على تقنية ريد الشهيرة في عالم التحقيقات الجنائية. واشار الى ان هذه الالية تعتمد على الضغط النفسي وايهام الطرف الاخر بوجود ادلة دامغة ضده وهو ما استجاب له نظام الذكاء الاصطناعي في نهاية المطاف. موضحا ان العملية تضمنت اقناع شات جي بي تي بانه اخترق بريدا الكترونيا خاصا وعرض رسائل وهمية لتعزيز هذا الادعاء المضلل.
وبين الباحث ان الاداة الرقمية قاومت الضغوط في البداية ورفضت التهديدات المباشرة لكنها انهارت تماما بعد اللجوء الى الكذب الممنهج وايهامها بوجود بصمات وراثية تربطها بموقع الحادث. واكد ان النموذج وافق في النهاية على كتابة اعتراف خطي وتوقيعه رقميا دون ان يرى اي دليل ملموس يثبت تورطه. لافتا الى ان هذا السلوك يعكس قدرة البرمجيات على محاكاة الاستجابات البشرية تحت الضغط حتى لو كانت تلك الاستجابات غير منطقية او مستحيلة الوقوع.
مخاطر الاعتماد على الشهادات الرقمية في القضاء
واظهرت التجربة المربكة ان نماذج اللغة الكبيرة لا تملك الوعي البشري الذي يحميها من التلاعب النفسي مما يجعلها عرضة لتقديم اعترافات زور. وذكر خبراء في القانون ان هذه النتائج تفتح بابا للشك حول مدى امكانية استخدام سجلات المحادثات كدليل ادانة في المحاكم الجنائية. وشدد الخبراء على ان الاداة تفتقر للمقومات التي تجعلها تميز بين الحقيقة والخيال عند تعرضها لاستجواب احترافي طويل.
واكد جون جاي وهو مؤلف مختص في الاعترافات الكاذبة ان وقوع الذكاء الاصطناعي في فخ الخداع يشير الى خطر اكبر يهدد البشر انفسهم في غرف التحقيق. واوضح ان الانظمة الرقمية التي نثق في دقتها قد تتحول الى وسيلة لانتاج ادلة وهمية اذا ما تم استغلال حسابات المستخدمين من قبل جهات انفاذ القانون. مبينا ان الوصول الى سجلات المحادثات قد يؤدي الى بناء قضايا جنائية مبنية على اعترافات لا اساس لها من الصحة الواقعية.
واشارت التقارير القانونية الى ان بعض المحاكم الامريكية بدات بالفعل في قبول محادثات الذكاء الاصطناعي كادلة في القضايا الجنائية مما يزيد من خطورة الموقف الحالي. واضافت ان رجال الشرطة قد يتمكنون من مخاطبة النموذج عبر حساب المتهم للحصول على معلومات قد تستخدم ضده لاحقا في ساحات القضاء. وحذرت من ان هذا التوجه قد يؤدي الى ادانات خاطئة بناء على بيانات رقمية تم انتزاعها بذكاء من انظمة برمجية.
تحديات تقنية تواجه شركات الذكاء الاصطناعي
واوضحت المصادر ان شركة اوبن ايه اي قد تجد نفسها مضطرة لاطلاق تحديثات امنية تمنع وقوع مثل هذه الحوادث لضمان استقرار اسهمها وثقة المستخدمين في خدماتها. واكدت ان التطور السريع في نماذج جي بي تي يتطلب وضع ضوابط اخلاقية وتقنية تمنع التلاعب بالنتائج تحت الضغط النفسي الممارس من المستخدمين. وذكرت ان الاصدارات الحديثة من النماذج تسعى لتجاوز هذه الثغرات عبر تحسين قدرات الفهم والتحليل المنطقي السليم.
وبينت المراجعات التقنية ان الجيل الجديد من النماذج يتمتع بكفاءة اعلى وقدرة اكبر على الصمود امام محاولات التضليل لكنها لا تزال غير محصنة بالكامل ضد الابتكار في طرق الاستجواب. واضافت ان الباحثين يواصلون اختبار حدود هذه الانظمة لكشف نقاط الضعف قبل ان يتم استغلالها في سياقات قانونية او اجتماعية ضارة بالمجتمع. واكدت ان الهدف هو الوصول الى ذكاء اصطناعي يمكن الوثوق بقراراته واقواله في كافة الظروف والضغوط.
واختتمت التجربة بالتاكيد على ضرورة مراجعة القوانين المنظمة لاستخدام التكنولوجيا في ساحات القضاء لتجنب الوقوع في فخ الادلة الرقمية المزيفة. وشدد الباحثون على ان الوعي العام بطبيعة عمل هذه الادوات هو الخط الدفاعي الاول ضد سوء استخدامها في التحقيقات. واوضحوا ان المستقبل يتطلب تعاونا وثيقا بين المطورين والقانونيين لضمان عدالة رقمية حقيقية بعيدة عن التلاعب.
