الجزء الأول: شرح كامل
أمثلة قليلة (Few-Shot) قبل السؤال
اعرض على النموذج 2-5 أمثلة لإخراج مماثل لما تريد، ليلتزم النمط بدقّة عالية.
الهدف
الحصول على إخراج بنمط ثابت ومحدّد بدلاً من أسلوب النموذج الافتراضي.
الخطوات
-
1
حدّد الإخراج المطلوب: عنوان، تغريدة، تلخيص، تصنيف.30 ثانية
-
2
اجمع 3 أمثلة حقيقية بإدخال + إخراج مرغوب، ويفضّل أن تكون متنوّعة.4 دقائق
-
3
افصلها بوسوم XML واضحة: <example><input>...</input><output>...</output></example>.2 دقائق
-
4
اختم بإدخالك الحقيقي ضمن <input> بدون output، واطلب «أكمل بنفس النمط».1 دقيقة
-
5
إن انحرف النموذج، أضف مثالاً رابعًا يبيّن ما لا تريده مع تعليق «هذا غير مرغوب».2 دقائق
النتيجة المتوقّعة
فوريًا
الإخراج يطابق النمط بنسبة 80%+ مقارنة بـ20-40% من الأمر العادي.
خلال أسبوع
تنشئ مكتبة few-shot لكل نوع مهمّة متكرّرة.
علامة النجاح
طول الإخراج وبنيته (عدد الفقرات، علامات الترقيم) تطابق المثال الأخير.
إن لم تنجح
إن نسخ النموذج المثال حرفيًا، فالأمثلة قصيرة جدًا أو متشابهة. نوّعها.
سؤال التأمّل
أيّ مهمّة كتابية تكرّرها أسبوعيًا وتستحقّ 3 أمثلة جاهزة؟
المرجع العلمي
المدرسة: In-Context Learning / Few-Shot Prompting
الروّاد: Brown et al. · OpenAI (2020)
ورقة GPT-3 الأصلية (Brown 2020) أثبتت أنّ النماذج اللغوية الكبيرة متعلّمات من الأمثلة في السياق (in-context learners).
- Brown, T. et al. (2020). Language Models are Few-Shot Learners. NeurIPS.
- OpenAI Cookbook (2023). Few-Shot Prompting.
الكلمات المفتاحية
طبّق الآن
أمثلة قليلة (Few-Shot) قبل السؤال: تطبيق تفاعلي مصمَّم لهذا التمرين. مدّته 12 دقيقة. كلّ widget يحفظ مدخلاتك تلقائيًّا.