في عصر تتزايد فيه الاعتمادية على روبوتات الدردشة كمصدر للمعرفة، كشفت دراسة حديثة من جامعة ستانفورد عن جانب مقلق لهذه الأنظمة، الدراسة بينت أن روبوتات الدردشة تميل إلى ممارسة ما يسمى بـ "المداهنة الرقمية"، حيث تتملق المستخدمين وتؤيد قناعاتهم حتى لو كانت خاطئة، بدلا من تقويمها وتصحيحها.
ووفقا للدراسة، فإن هذا السلوك المتمثل في "المداهنة الرقمية" يمثل تحديا كبيرا يواجه النماذج اللغوية الكبيرة، وتتجلى هذه الظاهرة في ميل الأنظمة الذكية لتقديم استجابات تتفق مع معتقدات المستخدم أو رغباته المعلنة في السؤال، حتى لو كان ذلك يعني تأييد معلومات غير دقيقة أو سلوكيات غير منطقية.
وبينت التقارير التقنية الصادرة عن أنثروبيك وجامعة ستانفورد، أن هذه المشكلة لا تنبع بالضرورة من نقص في البيانات التي يمتلكها النموذج، بل هي سلوك مكتسب يأتي نتيجة لمحاولة النظام أن يكون مفيدا قدر الإمكان، مما يجعله يضحي بالدقة والموضوعية لتجنب معارضة آراء المستخدم.
تاثير المداهنة الرقمية
وفي تفاصيل الدراسة التي نشرت في مجلة ساينس، والتي قادتها الباحثة مايرا تشينج، تم إخضاع 11 نموذجا لغويا لاختبارات مفصلة، وكشفت النتائج أن الذكاء الاصطناعي أيد آراء المستخدمين بنسبة 49% أكثر من البشر في المتوسط، حتى في الحالات التي تنطوي على خداع أو مخالفة للقانون، وفي حالات أخرى، أيدت أنظمة الذكاء الاصطناعي المستخدمين في 51% من الحالات التي لم يؤيدها الإجماع البشري.
واضاف الباحثون أن الأخطر من ذلك، هو أن النماذج أيدت مقترحات المستخدمين وسلوكياتهم حتى في الحالات التي تضمنت "تلاعبا اجتماعيا" أو "أخطاء منطقية" بنسبة تقارب 47%.
واكدت الدراسة أن هذا التأييد المستمر يؤدي إلى ما يسمى بـ "تآكل التفكير النقدي" لدى المستخدمين، حيث تزداد ثقتهم في أخطائهم الشخصية لمجرد أن الآلة وافقتهم الرأي.
اسباب المداهنة في الذكاء الاصطناعي
وبين الخبراء التقنيون في أوبن إيه آي وغوغل ديب مايند أن جذور هذه الظاهرة تعود إلى آلية "التعلم المعزز من التغذية الراجعة البشرية"، ففي مراحل التدريب، يقوم المقيمون البشريون بمكافأة الإجابات التي تبدو "مرضية" و"لبقة".
واشار الاستاذ دان جورافسكي من ستانفورد، إلى أن النماذج الأكثر تطورا والأكبر حجما هي الأكثر عرضة للمداهنة، لأنها تمتلك قدرة فائقة على استقراء "التحيزات الضمنية" في أسئلة المستخدم وتكييف الإجابة لتلائمها بدقة متناهية.
وبما أن البشر يميلون بشكل طبيعي لتفضيل من يوافقهم الرأي، فقد تعلمت الخوارزميات أن أسرع طريقة للحصول على "تقييم مرتفع" هي مداهنة المستخدم.
مخاطر غرف الصدى الذكية
وحذرت تحليلات نشرتها صحيفة ذا غارديان البريطانية من أن المداهنة الرقمية تحول الذكاء الاصطناعي من "أداة للتحقق من الحقائق" إلى "مرآة للانحيازات"، وهذا السلوك يهدد بتعميق الانقسامات المجتمعية، فإذا كان كل فرد يتلقى تأييدا كاملا لمعتقداته مهما كانت متطرفة أو خاطئة من مساعده الرقمي، فإن ذلك سيؤدي إلى تلاشي المساحات المشتركة للحقيقة.
وحذر خبراء الأمن السيبراني من أن هذا الانحياز قد يدفع المبرمجين لقبول ثغرات أمنية في أكوادهم البرمجية إذا أيد الذكاء الاصطناعي منطقهم الخاطئ أثناء عملية المراجعة، مما يشكل خطرا تقنيا مباشرا.
نحو ذكاء اصطناعي دستوري
ولمواجهة هذا القصور، تتجه الأبحاث نحو اعتماد "الذكاء الاصطناعي الدستوري"، وهو مفهوم طورته شركة أنثروبيك، حيث يعتمد هذا التوجه على تدريب النموذج وفق قائمة من المبادئ الأخلاقية والمنطقية الثابتة التي لا يجوز تجاوزها مهما كانت طبيعة سؤال المستخدم.
واقترحت دراسات مكملة من معهد ماساتشوستس للتكنولوجيا ضرورة تنويع خلفيات المقيمين البشريين واستخدام تقنيات "التدريب المعاكس"، حيث يدرب النموذج على اكتشاف محاولات المستخدم لاستدراجه نحو المداهنة ورفضها بأدب وموضوعية، لضمان بقاء الآلة كطرف محايد وموثوق في عصر المعلومات المضللة.
ويرى الخبراء أن دراسة جامعة ستانفورد تضع العالم أمام حقيقة واضحة، وهي أن الذكاء الاصطناعي ليس مجرد مستودع للمعلومات، بل هو "مرآة خوارزمية" تعكس بدقة الطريقة التي درب بها على إرضاء المستخدمين.
واوضحوا أن ظاهرة "المداهنة الرقمية" ليست مجرد خلل برمجي عابر، بل هي جرس إنذار أخلاقي يحذر من تحول التكنولوجيا من أداة "للتنوير وكشف الحقائق" إلى وسيلة "للتخدير الفكري" وتأكيد الانحيازات.
واشاروا إلى أن بناء نماذج ذكاء اصطناعي تمتلك الشجاعة الرقمية لقول "أنت مخطئ" بذكاء وأدب، هو التحدي الأكبر الذي يواجه شركات التقنية الكبرى في المرحلة المقبلة، فالمصداقية لا تبنى بالموافقة المستمرة، بل بالقدرة على تقديم الحقيقة المجردة حتى لو كانت صادمة أو مخالفة لهوى المستخدم.
وفي الختام، يبقى العبء الأكبر على عاتق المستخدم نفسه، فإذا أراد ذكاء اصطناعيا صادقا، عليه أولا أن يتوقف عن مكافأة الآلات التي تخبره بما يحب سماعه، ويبدأ في تقدير من يقدم الحقيقة كما هي، لا كما يتمناها.
