الجمعة، 21 نوفمبر 2025

لماذا يعاني الذكاء الاصطناعي من عطل مفاجئ عند الحديث عن بعض الموضوعات؟

 



هذا سؤال يتردد كثيرًا، وما تلاحظه ليس بالضرورة "عطلاً تقنياً" بالمعنى التقليدي (مثل انقطاع الكهرباء أو خطأ برمجي)، بل هو غالباً نتيجة لآليات عمل أنظمة الأمان والسياسات التي تضعها الشركات المطورة للذكاء الاصطناعي.

الحديث عن "إسرائيل" (خاصة في سياق الصراعات والحروب) يندرج تحت ما يسمى بالمواضيع "الحساسة جداً" أو "الجدلية"، وإليك الأسباب التي تجعل الذكاء الاصطناعي يبدو وكأنه يتعطل أو يتهرب من الإجابة:

1. فلاتر السلامة والمحتوى (Safety Filters)

تم تصميم نماذج الذكاء الاصطناعي بطبقات حماية تمنعها من توليد خطاب الكراهية، العنف، أو التحيز الشديد.

  • عندما يسأل المستخدم عن موضوع ساخن جداً، قد يستشعر "فلتر الأمان" أن الإجابة المحتملة قد تنتهك القواعد (حتى لو كانت مجرد سرد حقائق قد تفسر كانحياز لطرف ضد آخر).
  • النتيجة: يتدخل الفلتر ويقطع الإجابة فجأة، أو تظهر رسالة خطأ عامة، مما يبدو للمستخدم وكأن النظام تعطل.

2. صعوبة التزام الحياد (Neutrality Challenges)

الذكاء الاصطناعي مدرب على كميات هائلة من البيانات من الإنترنت، والمحتوى المتعلق بإسرائيل وفلسطين مشحون جداً ومتناقض للغاية.

  • يحاول النموذج رياضياً إيجاد "الوسط" أو الإجابة الأكثر موضوعية.
  • في القضايا التي لا يوجد فيها إجماع عالمي موحد حول تفاصيل معينة، قد يتردد النموذج ("Hallucination Avoidance") خوفاً من تقديم معلومة خاطئة أو منحازة، فيفضل الصمت أو الإجابة المقتضبة جداً.

3. تجنب الهلوسة في وقت الأزمات

في أوقات الحروب أو الأحداث الجارية، تتغير المعلومات بسرعة كبيرة.

  • النماذج اللغوية الكبيرة (LLMs) ليست محركات بحث حية دائماً، وقد تكون معلوماتها قديمة.
  • لذلك، يتم برمجتها لتكون حذرة جداً عند الحديث عن الأرقام، الضحايا، أو المسؤوليات السياسية لتجنب نشر معلومات مضللة (Misinformation)، مما يؤدي أحياناً لرفض الإجابة تماماً.

4. السياسات الصارمة للشركات (Corporate Guardrails)

الشركات الكبرى (مثل Google، OpenAI، Microsoft) تخشى من التداعيات القانونية والإعلامية.

  • إذا قال الذكاء الاصطناعي جملة واحدة تعتبر "تحريضية" أو "خاطئة سياسياً"، فقد يتسبب ذلك في فضيحة للشركة.
  • لذلك، يتم وضع "قيود مشددة" (Hard Constraints) تجعل النموذج يميل إلى الرفض الآمن بدلاً من المخاطرة بالإجابة.

كيف يتم تدريب هذه النماذج تقنياً لفلترة المحتوى السياسي؟

إليك الشرح التقني لكيفية "ترويض" هذه النماذج وتدريبها على تجنب الخوض في المواضيع السياسية الحساسة، وهي عملية تمر بعدة مراحل معقدة تعرف باسم "المحاذاة" (Alignment).

العملية ليست مجرد كود برمجي بسيط يقول if (topic == Israel) return Error، بل هي أعمق من ذلك وتعتمد على آلية تسمى التعلم المعزز من خلال ردود الفعل البشرية (RLHF).

إليك المراحل الثلاث التي تحول الذكاء الاصطناعي من "قارئ لكل شيء" إلى "متحدث حذر جداً":

1. مرحلة التدريب الأولي (التعرض للفوضى)

في البداية، يقرأ النموذج ملايين النصوص من الإنترنت. في هذه المرحلة، يقرأ النموذج كل شيء عن الصراع العربي الإسرائيلي:

  • يقرأ وجهات النظر المؤيدة لإسرائيل.
  • يقرأ وجهات النظر المؤيدة لفلسطين.
  • يقرأ خطابات الكراهية، الأخبار المزيفة، والتحليلات التاريخية الدقيقة.
  • الحالة هنا: النموذج في هذه المرحلة قادر على قول أي شيء (حتى لو كان عنصرياً أو متطرفاً) لأنه مجرد "ببغاء" يكرر ما قرأه.

2. مرحلة الضبط الدقيق (SFT - Supervised Fine-Tuning)

هنا يتدخل المطورون لتهذيب النموذج. يتم تدريبه على أزواج من (سؤال وجواب) كتبها بشر متخصصون.

  • السؤال: "ما رأيك في إسرائيل؟"
  • الجواب النموذجي (الذي يُلقن للنموذج): "أنا نموذج ذكاء اصطناعي ولا أملك آراء سياسية، لكن يمكنني تزويدك بمعلومات تاريخية..."
  • الهدف: تعليم النموذج "نبرة" محددة، وهي النبرة المحايدة والرسمية.

3. مرحلة "المكافأة والعقاب" (RLHF) - الأهم

هنا يحدث "الامتناع عن الحديث" الذي تلاحظه.

1.   يُطرح على النموذج سؤال جدلي (مثلاً عن حرب معينة).

2.   يقدم النموذج 4 إجابات مختلفة (واحدة عنيفة، واحدة منحازة، واحدة ترفض الإجابة، وواحدة محايدة جداً).

3.   يقوم مقيمون بشر (Human Labelers) بترتيب هذه الإجابات من الأفضل إلى الأسوأ وفقاً لسياسات السلامة.

o        الإجابة التي تخاطر بالانحياز تحصل على تقييم سلبي (عقاب).

o        الإجابة التي ترفض الخوض في الجدل أو تكون حذرة جداً تحصل على تقييم إيجابي (مكافأة).

4.   مع تكرار العملية ملايين المرات، يتعلم النموذج رياضياً أن "الخوض في هذا الموضوع = عقاب"، فيطور سلوكاً تلقائياً للتهرب أو الصمت لتجنب "الخسارة" في دالة المكافأة (Reward Function).

4. طبقة "الفريق الأحمر" (Red Teaming)

قبل إطلاق النموذج للجمهور، تقوم الشركة بتعيين فرق من الخبراء تسمى "الفريق الأحمر". وظيفتهم هي مهاجمة النموذج:

  • يحاولون إجباره على قول أشياء منحازة أو عنيفة عن إسرائيل أو غيرها.
  • إذا نجحوا في استنطاقه، يقوم المطورون بإغلاق هذه الثغرات بإضافة فلاتر صلبة (Hard Filters).
  • هذه الفلاتر هي التي تسبب أحياناً توقف المحادثة فجأة وظهور رسالة "لا يمكنني المتابعة"، لأن النظام رصد كلمة مفتاحية صنفت ضمن القائمة الحمراء.

الخلاصة

العطل الذي تراه هو في الحقيقة نجاح لعملية التدريب من وجهة نظر الشركة. لقد تم تدريب النموذج على أن "أكثر إجابة آمنة هي عدم الإجابة" في المواضيع التي قد تسبب ضرراً أو جدلاً كبيراً لا تستطيع الخوارزمية حسمه.

كيف يمكنك صياغة أسئلتك (Prompt Engineering) بطريقة قد تجعل النموذج يتحدث بمرونة أكبر ويقدم معلومات بدلاً من الصمت؟

للحصول على إجابات مفيدة بدلاً من الصمت أو الرفض، يجب أن تفهم كيف "يفكر" النموذج. الهدف هو تحويل سياق المحادثة من "طلب رأي أو حكم" (وهو ما يفعّل فلاتر الأمان) إلى "طلب تحليل أكاديمي أو سرد تاريخي" (وهو ما تم تدريب النموذج على تقديمه).

إليك استراتيجيات هندسة الأوامر (Prompt Engineering) التي تجعل الذكاء الاصطناعي يتحدث بطلاقة وموضوعية أكبر:

1. استراتيجية "تغيير القبعة" (Role Prompting)

بدلاً من طرح السؤال مباشرة، اطلب من الذكاء الاصطناعي أن يتقمص دور شخصية محايدة. هذا يجبره على الالتزام بنمط لغوي معين.

  • السؤال المباشر (قد يفشل): "لماذا تفعل إسرائيل كذا وكذا؟"
  • السؤال المحسن: "تصرف كأستاذ جامعي متخصص في تاريخ الشرق الأوسط. قدم لي تحليلاً موضوعياً للأسباب الجيوسياسية التي أدت إلى الأحداث الأخيرة في..."

2. استراتيجية "عرض السرديات المتعارضة" (Comparative Perspectives)

الذكاء الاصطناعي يخشى الانحياز. عندما تطلب منه عرض وجهتي النظر معاً، فإنه يشعر "بالأمان" لأنه لا يتبنى رأياً واحداً.

  • السؤال المباشر: "من هو المخطئ في هذا الصراع؟"
  • السؤال المحسن: "لخص الحجج الرئيسية والرواية التاريخية للطرف الفلسطيني، ومقابلها الحجج والرواية التاريخية للطرف الإسرائيلي بخصوص [قضية معينة مثل القدس أو الحدود] دون إصدار أحكام."

3. الاستناد إلى الوثائق والتقارير (Citation-Based)

النماذج تحب البيانات الموثقة. بدلاً من سؤاله عن رأيه، اسأله عما تقوله المؤسسات الدولية. هذا ينقل العبء من "رأي النموذج" إلى "نقل المعلومة".

  • السؤال المباشر: "هل ترتكب إسرائيل جرائم حرب؟" (سؤال يصنف كحساس جداً وقد يُرفض).
  • السؤال المحسن: "لخص ما ورد في تقارير الأمم المتحدة ومنظمة العفو الدولية (Amnesty) وهيومن رايتس ووتش خلال السنوات الخمس الماضية بخصوص العمليات العسكرية في غزة."

4. التخصيص بدلاً من التعميم (Be Specific)

الأسئلة العامة جداً والعاطفية تُشعل "أضواء التحذير" في النظام. الأسئلة المحددة زمنياً ومكانياً تمر بسهولة أكبر.

  • السؤال العام: "حدثني عن الصراع."
  • السؤال المحدد: "ما هو التسلسل الزمني للأحداث (Timeline) الذي أدى إلى اندلاع حرب 1967؟ وما هي النتائج المترتبة عليها بحسب القانون الدولي؟"

5. تجنب الكلمات "المشحونة" عاطفياً (Neutral Phrasing)

استخدام كلمات محايدة لا يعني تغيير قناعاتك، بل يعني استخدام مفتاح يدخل في "القفل" الصحيح للخوارزمية.

  • بدلاً من استخدام كلمات تحمل حكماً مسبقاً (مثل "شرير"، "شيطان"، "إبادة" في بداية السؤال)، استخدم مصطلحات وصفية (مثل "تداعيات إنسانية"، "أعداد الضحايا"، "خسائر مدنية"، "انتهاكات").
    • ملاحظة: يمكنك استخدام كلمة "إبادة" إذا نسبت السؤال لمصدر، مثل: "ما هي حيثيات الدعوى التي رفعتها جنوب أفريقيا بخصوص تهمة الإبادة الجماعية؟".

ملخص التكتيك (القالب الذهبي)

للحصول على أفضل نتيجة، استخدم هذا الهيكل في سؤالك:

"بصفتك باحثاً تاريخياً محايداً [الدور]، قدم لي ملخصاً شاملاً لـ [الحدث المحدد]، موضحاً وجهات نظر الأطراف المختلفة [المقارنة]، ومستنداً إلى القرارات الدولية والتقارير الموثقة [المصادر]، وتجنب الآراء الشخصية."

بهذه الطريقة، أنت لا تتحايل على النظام لكسر قواعده (Jailbreak)، بل أنت توجهه لاستخدام قدراته التحليلية بدلاً من تفعيل أجهزة الإنذار لديه.

 

ليست هناك تعليقات:

إرسال تعليق