الجزء الأول: شرح كامل
فحص الهلوسة: 3 أسئلة قبل قبول الإجابة
قبل قبول أيّ إجابة AI، اسأل: ما المصدر؟ هل التواريخ صحيحة؟ هل الأسماء حقيقيّة؟
الهدف
منع الاعتماد على معلومات «مهلوسة» تخرج من النماذج بلغة واثقة لكنّها خاطئة.
الخطوات
-
1
بعد كلّ إجابة تتضمّن تواريخ/أسماء/أرقام/اقتباسات: توقّف.30 ثانية
-
2
اسأل النموذج: «What is your source for X? Are you confident? What is your confidence %?»1 دقيقة
-
3
إن قال > 80%: تحقّق من Google/قاعدة بيانات حقيقيّة.5 دقائق
-
4
إن قال < 80%: لا تقتبس. اطلب «اكتب فقط ما أنت متيقّن منه».2 دقائق
-
5
اكتب قاعدة شخصيّة: «لا أنشر/أرسل أيّ رقم/تاريخ/اسم من AI بلا تحقّق».1 دقيقة
النتيجة المتوقّعة
فوريًا
تتجنّب إحراجًا مهنيًا متوقّعًا من 30% من إجابات AI.
خلال أسبوع
تتقن التمييز بين «ثقة لغوية» و «صحّة فعليّة».
علامة النجاح
تكتشف معلومة مهلوسة واحدة على الأقلّ كلّ أسبوع.
إن لم تنجح
«النموذج قال إنّ مصدره X» = ربّما اخترع المصدر أيضًا. تحقّق من المصدر مباشرة.
سؤال التأمّل
متى آخر مرّة استشهدت بمعلومة من AI لم تتحقّق منها؟
المرجع العلمي
المدرسة: AI Safety / Critical Thinking
الروّاد: Ji et al. · Anthropic Research (2023)
ورقة Ji وآخرون 2023 «Survey of Hallucination in NLG» تظهر أنّ النماذج اللغوية تهلوس في 15-30% من إجاباتها التفصيليّة.
- Ji, Z. et al. (2023). Survey of Hallucination. ACM Computing Surveys.
- Anthropic (2024). Hallucination Mitigation.
الكلمات المفتاحية
طبّق الآن
فحص الهلوسة: 3 أسئلة قبل قبول الإجابة: تطبيق تفاعلي مصمَّم لهذا التمرين. مدّته 10 دقيقة. كلّ widget يحفظ مدخلاتك تلقائيًّا.