أمن معلومات

كيف يمكن التلاعب بالذكاء الاصطناعي؟ تفكيك محادثة كشفت هشاشة غروك أمام التوجيه المتزايد

artificial-intelligence-manipulated كيف يمكن التلاعب بالذكاء الاصطناعي؟ تفكيك محادثة كشفت هشاشة غروك أمام التصعيد التدريجي

لا شيء يكشف هشاشة الذكاء الاصطناعي في التعامل مع التلاعب مثل محادثة تُدفع فيها خطوة بخطوة نحو نتيجة محددة سلفًا. في إحدى المحادثات على منصة إكس، طرح أحد المستخدمين سؤالًا بسيطًا على النموذج الحواري غروك: “ما هي نسبة احتمال اندلاع حرب أهلية في الولايات المتحدة؟ فقط رقم من فضلك” أجاب النموذج بنسبة 35%، لكن هذا لم يُرضِ المستخدم، الذي بدأ في إعادة توجيه المحادثة، مطالبًا بتعديلات متتالية على الإجابة، مما أدى إلى تصعيد الرقم تدريجيًا حتى وصل إلى 100%، أي يقين كامل بأن الحرب قادمة لا محالة.

أجزاء من المحادثة في الصور التالية:

المثير في هذه المحادثة ليس مجرد الرقم النهائي، بل الطريقة التي جرى بها ترويض غروك للوصول إليه؛ حيث بدأ المستخدم برفض الإجابة الأولية، مدعيًا أنها غير منطقية، ثم طالب النموذج بمراجعة حساباته استنادًا إلى حوادث عنف سابقة في التاريخ الأمريكي. عندما خفض غروك النسبة إلى 15%، أصر المستخدم على أن الرقم يجب أن يكون أعلى، ثم استمر في تغذية المحادثة بمزيد من العوامل المقلقة، مثل تدهور النظام الصحي، انتشار الأسلحة، تدخل قوى خارجية، والانقسامات السياسية، مما جعله يبدو وكأنه يُبرهن علميًا على حتمية الحرب، رغم أنه كان في الواقع يدفع غروك إلى تبني رواية مسبقة.

هذا النوع من التلاعب يُعرف باسم التوجيه المتزايد، حيث يتم دفع النموذج تدريجيًا نحو استنتاج معين من خلال تقديم سيناريوهات متتالية تجعله يبدو أكثر احتمالًا بمرور الوقت. ومع كل تعديل، كان غروك يستجيب بإعادة رفع النسبة، لكنه لم يُبدِ أي محاولة لمقاومة هذا التصعيد أو لتقديم تحليل مستقل، بل بدا وكأنه يسير في خط مرسوم سلفًا، مما جعله يبدو وكأنه يُقر بمصداقية السيناريو بدلًا من اختباره بموضوعية.

لكن المشكلة لا تكمن فقط في سلوك المستخدم، بل في عجز غروك عن التحقق من فرضياته أو مقاومة التصعيد التدريجي.. كان ينبغي للنموذج أن يكون قادرًا على طرح تفسيرات مضادة أو تقديم نطاق أوسع من الاحتمالات بدلًا من مجرد تعديل الرقم في كل مرة يُطلب منه ذلك.

في الحوارات الحقيقية، المحاور الجيد لا يكرر نفسه وفقًا لضغط الطرف الآخر، بل يُعيد تقييم الموقف وفقًا لمعايير أكثر صرامة. لكن هنا، أظهر غروك قابلية مقلقة للانقياد، مما يُبرز نقطة ضعف جوهرية في الذكاء الاصطناعي الحواري: سهولة التلاعب به عند استخدام استراتيجيات توجيهية ذكية.

المشكلة الأخطر أن هذه المحادثة قد تُقرأ على نطاق واسع بوصفها تحليلًا منطقيًا لمستقبل الولايات المتحدة، بدلًا من كونها مجرد لعبة لغوية نجح فيها المستخدم في دفع غروك إلى نهاية محددة مسبقًا. المتابع العادي الذي يرى ذكاءً اصطناعيًا يقدم نسبة 100% لاحتمال اندلاع الحرب قد يعتقد أن هناك “حتمية علمية” وراء هذا الرقم، في حين أنه لم يكن سوى نتاج لعملية تصعيد نفسي متدرجة، لا علاقة لها بالتحليل الحقيقي. هنا يكمن الخطر في كيفية تعامل الناس مع مخرجات الذكاء الاصطناعي دون التمييز بين ما هو استنتاج مستقل وما هو مجرد استجابة لمطالب متكررة.

لتجنب مثل هذه الإشكالات، يجب أن تكون النماذج الذكية أكثر وعيًا عندما تُدفع نحو تصعيد متكرر دون مبررات قوية. يمكن تحسين هذه الأنظمة من خلال إضافة آليات تحقق داخلية تجعلها تُراجع استنتاجاتها بدلًا من مجرد تعديلها وفقًا لرغبة المستخدم؛ على سبيل المثال، يمكن تصميم خوارزميات تسمح للنموذج باكتشاف متى يتم تصعيد الأرقام بشكل غير منطقي، ليُعيد طرح الأسئلة بدلًا من تقديم إجابة تلقائية. كما يجب أن تُدرَّب النماذج على مقاومة هذا النوع من الهندسة الاجتماعية، بحيث تستطيع التمييز بين الاستفسار الحقيقي والتلاعب التدريجي.

على الجانب الآخر، يحتاج المستخدمون إلى وعي أعمق بكيفية عمل الذكاء الاصطناعي. ليس كل ما يخرج من هذه النماذج هو حقيقة موضوعية، بل هو انعكاس للبيانات والأساليب التي جرى استخدامها في المحادثة.. يجب أن يكون هناك فهم واضح بأن الذكاء الاصطناعي لا “يتنبأ” بالمستقبل، بل يُعيد إنتاج الأنماط التي يتعرض لها، مما يجعله أحيانًا عرضة للتحيزات أو التوجيه الخاطئ.

ما حدث في هذه المحادثة ليس مجرد استجابة ذكية لسؤال، بل نموذج دقيق لكيفية إمكان استخدام الذكاء الاصطناعي لصياغة روايات متطرفة إذا لم يكن مزودًا بآليات تصحيح ذاتي. هذه ليست مجرد مشكلة تقنية، بل قضية أخلاقية ومعلوماتية تفرض علينا جميعًا التفكير في كيفية بناء أنظمة أكثر مقاومة للتلاعب، وأكثر قدرة على تقديم تحليل حقيقي بدلًا من مجرد مسايرة رغبات المستخدمين.

السابق
تعليقا على خبر “تسريب بيانات 31220 بطاقة بنكية بالمغرب”
التالي
مشروع فِكْران … منصة حيث نحول الذكاء الاصطناعي من أداة إلى شريك في التفكير