يعد التعلم الخاضع للإشراف نهجًا أساسيًا في تعلم الآلة والذكاء الاصطناعي حيث تتعلم الخوارزميات من مجموعات بيانات معنونة لإجراء التنبؤات أو التصنيفات. في هذا النموذج، يتم تدريب النموذج باستخدام بيانات مدخلة مقترنة بالمخرجات الصحيحة، مما يسمح له بتعلم العلاقة بين الاثنين. من خلال تحليل هذه النقاط المعنونة، يمكن للنموذج التعميم والتنبؤ بدقة بالنتائج لبيانات جديدة غير مرئية.
كيف يعمل التعلم الخاضع للإشراف؟
يتضمن التعلم الخاضع للإشراف تدريب نموذج تعلم آلة باستخدام مجموعة بيانات معنونة، حيث يتكون كل عنصر بيانات من ميزات مدخلة ومخرج مرغوب فيه مطابق. تتبع العملية هذه الخطوات الرئيسية:
جمع البيانات والتحضير:
- البيانات المعنونة: جمع مجموعة بيانات حيث يتم إقران المدخلات بالمخرجات الصحيحة. تمثل هذه البيانات المعنونة الحقيقة الأساسية للتدريب.
- استخلاص الميزات: تحديد واستخلاص الميزات ذات الصلة من البيانات المدخلة التي ستساعد النموذج في إجراء تنبؤات دقيقة.
اختيار النموذج:
- اختيار الخوارزمية المناسبة للتعلم الخاضع للإشراف بناءً على نوع المشكلة (تصنيف أو انحدار) وطبيعة البيانات.
تدريب النموذج:
- التهيئة: البدء بمعلمات أو أوزان ابتدائية للنموذج.
- التنبؤ: يقوم النموذج بإجراء تنبؤات على بيانات التدريب باستخدام معاييره الحالية.
- دالة الخسارة: حساب دالة الخسارة (وتعرف أيضًا بدالة التكلفة) لقياس الفرق بين تنبؤات النموذج والمخرجات المرغوبة الفعلية.
- التحسين: ضبط معايير النموذج لتقليل الخسارة باستخدام خوارزميات تحسين مثل الانحدار التدرجي.
تقييم النموذج:
- تقييم أداء النموذج باستخدام مجموعة تحقق منفصلة لضمان تعميمه الجيد على البيانات الجديدة.
- تُستخدم مقاييس مثل الدقة، واسترجاع النتائج، والدقة الإيجابية، ومتوسط مربع الخطأ لتقييم الأداء.
النشر:
- بمجرد أن يحقق النموذج أداءً مرضيًا، يمكن نشره لإجراء تنبؤات على بيانات جديدة غير مرئية.
جوهر التعلم الخاضع للإشراف يكمن في توجيه النموذج بالإجابات الصحيحة أثناء التدريب، مما يسمح له بتعلم الأنماط والعلاقات داخل البيانات التي تربط المدخلات بالمخرجات.
أنواع التعلم الخاضع للإشراف
عادةً ما تُصنَّف مهام التعلم الخاضع للإشراف إلى نوعين أساسيين: التصنيف والانحدار.
1. التصنيف
تُستخدم خوارزميات التصنيف عندما يكون المتغير الناتج فئة أو صنفًا، مثل “بريد عشوائي” أو “غير عشوائي”، أو “مرض” أو “لا مرض”، أو أنواع الأشياء في الصور.
- الهدف: إسناد البيانات المدخلة إلى فئات محددة مسبقًا.
- خوارزميات التصنيف الشائعة:
- الانحدار اللوجستي: يُستخدم لمشاكل التصنيف الثنائي، حيث يُنمذج احتمال حدوث نتيجة منفصلة.
- أشجار القرار: تقسيم البيانات بناءً على قيم الميزات لاتخاذ قرار عند كل عقدة، مما يؤدي إلى تنبؤ.
- آلات الدعم الناقل (SVM): إيجاد المستوى الفائق الأمثل الذي يفصل الفئات في مساحة الميزات.
- أقرب الجيران (KNN): تصنيف النقاط بناءً على أغلبية الفئة بين أقرب جيرانها.
- نايف بايز: مصنفات احتمالية تعتمد على تطبيق مبرهنة بايز مع افتراض استقلالية الميزات.
- الغابة العشوائية: مجموعة من أشجار القرار لتحسين دقة التصنيف والتحكم في الإفراط في التكيّف.
أمثلة للاستخدام:
- اكتشاف البريد العشوائي: تصنيف الرسائل كـ"عشوائي" أو “غير عشوائي” بناءً على محتواها.
- التعرف على الصور: تحديد الأشياء أو الأشخاص في الصور.
- التشخيص الطبي: التنبؤ بما إذا كان المريض مصابًا بمرض معين استنادًا إلى نتائج الفحوصات الطبية.
2. الانحدار
تُستخدم خوارزميات الانحدار عندما يكون المتغير الناتج قيمة مستمرة، مثل التنبؤ بالأسعار أو درجات الحرارة أو قيم الأسهم.
- الهدف: التنبؤ بناتج حقيقي أو مستمر بناءً على ميزات المدخلات.
- خوارزميات الانحدار الشائعة:
- الانحدار الخطي: يُنمذج العلاقة بين المتغيرات المدخلة والناتج المستمر باستخدام معادلة خطية.
- الانحدار المتعدد الحدود: يُمدد الانحدار الخطي بتركيب معادلة متعددة الحدود على البيانات.
- انحدار آلة الدعم الناقل (SVR): تكييف SVM لمشاكل الانحدار.
- انحدار شجرة القرار: استخدام أشجار القرار للتنبؤ بالمخرجات المستمرة.
- انحدار الغابة العشوائية: طريقة تجميعية تجمع بين عدة أشجار قرار لمهام الانحدار.
أمثلة للاستخدام:
- تقدير أسعار المنازل: تقدير أسعار العقارات بناءً على ميزات مثل الموقع والحجم والمرافق.
- توقع المبيعات: التنبؤ بأرقام المبيعات المستقبلية استنادًا إلى البيانات التاريخية.
- توقع الطقس: تقدير درجات الحرارة أو كميات الهطول.
المفاهيم الأساسية في التعلم الخاضع للإشراف
- البيانات المعنونة: أساس التعلم الخاضع للإشراف هو البيانات المعنونة، حيث يتم إقران كل مدخل بالمخرج الصحيح. توفر العلامات الإشراف اللازم للنموذج للتعلم.
- مجموعات التدريب والاختبار:
- مجموعة التدريب: تُستخدم لتدريب النموذج. يتعلم النموذج من هذه البيانات.
- مجموعة الاختبار: تُستخدم لتقييم أداء النموذج على بيانات غير مرئية.
- دالة الخسارة:
- دالة رياضية تقيس الخطأ بين تنبؤات النموذج والمخرجات الفعلية.
- دوال الخسارة الشائعة:
- متوسط مربع الخطأ (MSE): يُستخدم في مهام الانحدار.
- خسارة الانتروبي المتقاطع: تُستخدم في مهام التصنيف.
- خوارزميات التحسين:
- طرق تُستخدم لضبط معايير النموذج لتقليل دالة الخسارة.
- الانحدار التدرجي: يعدل المعايير تدريجيًا للعثور على الحد الأدنى لدالة الخسارة.
- الإفراط في التكيّف والتقليل منه:
- الإفراط في التكيّف: يتعلم النموذج بيانات التدريب بشكل مبالغ فيه، بما في ذلك الضوضاء، ويؤدي أداءً ضعيفًا على البيانات الجديدة.
- التقليل (Underfitting): يكون النموذج بسيطًا جدًا ويفشل في التقاط الأنماط الأساسية في البيانات.
- تقنيات التحقق:
- التحقق المتقاطع: تقسيم البيانات إلى مجموعات فرعية للتحقق من أداء النموذج.
- التنظيم: تقنيات مثل Lasso أو Ridge لتقليل الإفراط في التكيّف.
خوارزميات التعلم الخاضع للإشراف
هناك العديد من الخوارزميات الأساسية في التعلم الخاضع للإشراف، ولكل منها خصائص فريدة تناسب مشاكل معينة.
1. الانحدار الخطي
- الغرض: نمذجة العلاقة بين المتغيرات المدخلة والناتج المستمر.
- كيفية العمل: تركيب معادلة خطية على البيانات المرصودة وتقليل الفرق بين القيم المتنبأ بها والفعلية.
2. الانحدار اللوجستي
- الغرض: يُستخدم لمشاكل التصنيف الثنائي.
- كيفية العمل: نمذجة احتمال حدوث حدث من خلال تركيب البيانات على دالة لوجستية.
3. أشجار القرار
- الغرض: لكل من مهام التصنيف والانحدار.
- كيفية العمل: تقسيم البيانات إلى فروع بناءً على قيم الميزات، وإنشاء هيكل شجري لاتخاذ القرارات.
4. آلات الدعم الناقل (SVM)
- الغرض: فعالة في المساحات عالية الأبعاد لمهام التصنيف والانحدار.
- كيفية العمل: إيجاد المستوى الفائق الذي يفصل الفئات بشكل أفضل في مساحة الميزات.
5. نايف بايز
- الغرض: مهام التصنيف، خاصةً مع مجموعات بيانات كبيرة.
- كيفية العمل: تطبيق مبرهنة بايز مع افتراض استقلالية الميزات.
6. أقرب الجيران (KNN)
- الغرض: مهام التصنيف والانحدار.
- كيفية العمل: التنبؤ بالمخرج بناءً على أغلبية الفئة (للتصنيف) أو متوسط القيمة (للانحدار) لأقرب k نقاط بيانات.
7. الشبكات العصبية
- الغرض: نمذجة العلاقات غير الخطية المعقدة.
- كيفية العمل: تتكون من طبقات من العقد المترابطة (العصبونات) التي تعالج البيانات المدخلة لإنتاج المخرج.
8. الغابة العشوائية
- الغرض: تحسين دقة التنبؤ والتحكم في الإفراط في التكيف.
- كيفية العمل: إنشاء عدة أشجار قرار ودمج نتائجها.
التطبيقات وحالات الاستخدام للتعلم الخاضع للإشراف
خوارزميات التعلم الخاضع للإشراف متعددة الاستخدامات وتجد تطبيقات في العديد من المجالات.
1. التعرف على الصور والأشياء
- التطبيق: تصنيف الصور أو اكتشاف الأشياء داخل الصور.
- مثال: تحديد الحيوانات في صور الحياة البرية أو اكتشاف العيوب في التصنيع.
2. تحليلات التنبؤ
- التطبيق: توقع الاتجاهات المستقبلية بناءً على البيانات التاريخية.
- مثال: توقع المبيعات، التنبؤ بأسعار الأسهم، تحسين سلسلة التوريد.
3. معالجة اللغة الطبيعية (NLP)
- التطبيق: فهم وتوليد اللغة البشرية.
- مثال: تحليل المشاعر، الترجمة اللغوية، تفاعلات الدردشة الآلية.
4. اكتشاف البريد العشوائي
- التطبيق: تصفية الرسائل الإلكترونية غير المرغوب فيها.
- مثال: تصنيف الرسائل كـ"عشوائي" أو “غير عشوائي” بناءً على ميزات المحتوى.
5. اكتشاف الاحتيال
- التطبيق: تحديد الأنشطة الاحتيالية.
- مثال: مراقبة المعاملات لاكتشاف الشذوذ في البنوك أو استخدام بطاقات الائتمان.
6. التشخيص الطبي
- التطبيق: المساعدة في اكتشاف الأمراض والتنبؤ بها.
- مثال: توقع عودة السرطان من بيانات المرضى.
7. التعرف على الكلام
- التطبيق: تحويل اللغة المنطوقة إلى نص.
- مثال: مساعدين صوتيين مثل Siri أو Alexa لفهم أوامر المستخدم.
8. التوصيات الشخصية
- التطبيق: اقتراح المنتجات أو المحتوى للمستخدمين.
- مثال: مواقع التجارة الإلكترونية التي تقترح عناصر بناءً على المشتريات السابقة.
التعلم الخاضع للإشراف في أتمتة الذكاء الاصطناعي والدردشة الآلية
يعد التعلم الخاضع للإشراف جزءًا أساسيًا في تطوير تقنيات الأتمتة الذكية والدردشة الآلية.
1. تصنيف النية
- الغرض: تحديد نية المستخدم من مدخلاته.
- التطبيق: تستخدم الدردشة الآلية نماذج التعلم الخاضع للإشراف المدربة على أمثلة من استفسارات المستخدم والنوايا المطابقة لفهم الطلبات.
2. التعرف على الكيانات
- الغرض: تحديد واستخلاص المعلومات الرئيسية من مدخلات المستخدم.
- التطبيق: استخلاص التواريخ أو الأسماء أو المواقع أو أسماء المنتجات لتقديم ردود ذات صلة.
3. توليد الردود
- الغرض: توليد ردود دقيقة وملائمة للسياق.
- التطبيق: تدريب النماذج على بيانات محادثات لتمكين الدردشة الآلية من الرد بشكل طبيعي.
4. تحليل المشاعر
- الغرض: تحديد النغمة العاطفية وراء رسائل المستخدمين.
- التطبيق: تعديل الردود بناءً على مشاعر المستخدم، مثل تقديم المساعدة عند اكتشاف الإحباط.
5. التخصيص
- الغرض: تخصيص التفاعلات بناءً على تفضيلات المستخدم وتاريخه.
- التطبيق: تقديم الدردشة الآلية توصيات مخصصة أو تذكر تفاعلات سابقة.
مثال في تطوير الدردشة الآلية:
يتم تدريب روبوت خدمة العملاء باستخدام التعلم الخاضع للإشراف على سجلات الدردشة التاريخية. يتم عنونة كل محادثة بنوايا العملاء والردود المناسبة. يتعلم الروبوت التعرف على الأسئلة الشائعة وتقديم إجابات دقيقة، مما يحسن تجربة العملاء.
التحديات في التعلم الخاضع للإشراف
رغم قوة التعلم الخاضع للإشراف، إلا أنه يواجه عدة تحديات:
1. عنونة البيانات
- المشكلة: الحصول على بيانات معنونة قد يستغرق وقتًا ويكلف الكثير.
- الأثر: بدون بيانات معنونة كافية وعالية الجودة، قد يتأثر أداء النموذج.
- الحل: استخدام تقنيات زيادة البيانات أو التعلم شبه الخاضع للإشراف للاستفادة من البيانات غير المعنونة.
2. الإفراط في التكيّف
- المشكلة: قد تؤدي النماذج أداءً جيدًا على بيانات التدريب ولكن ضعيفًا على البيانات غير المرئية.
- الأثر: يقلل الإفراط في التكيّف من قدرة النموذج على التعميم.
- الحل: استخدام التنظيم، والتحقق المتقاطع، والنماذج الأبسط لتجنب الإفراط في التكيف.
3. التعقيد الحسابي
- المشكلة: يتطلب تدريب النماذج المعقدة على مجموعات بيانات كبيرة موارد حسابية كبيرة.
- الأثر: يحد من قابلية النماذج للتوسع.
- الحل: استخدام تقنيات تقليل الأبعاد أو خوارزميات أكثر كفاءة.
4. التحيز والعدالة
- المشكلة: قد تتعلم النماذج وتعيد إنتاج التحيزات الموجودة في بيانات التدريب.
- الأثر: يمكن أن يؤدي ذلك إلى نتائج غير عادلة أو تمييزية.
- الحل: ضمان تنوع و تمثيل بيانات التدريب، ودمج قيود العدالة.
المقارنة مع التعلم غير الخاضع للإشراف
فهم الفرق بين التعلم الخاضع للإشراف وغير الخاضع للإشراف أمرٌ مهم عند اختيار النهج المناسب.
التعلم الخاضع للإشراف
الجانب | الوصف |
---|
البيانات | يستخدم بيانات معنونة. |
الهدف | تعلم رسم من المدخلات إلى المخرجات (توقع النتائج). |
الخوارزميات | خوارزميات التصنيف والانحدار. |
حالات الاستخدام | اكتشاف البريد العشوائي، تصنيف الصور، تحليلات التنبؤ. |
التعلم غير الخاضع للإشراف
الجانب | الوصف |
---|
البيانات | يستخدم بيانات غير معنونة. |
الهدف | اكتشاف الأنماط أو التركيبات الأساسية في البيانات. |
الخوارزميات | خوارزميات التجميع، وتقليل الأبعاد. |
حالات الاستخدام | تقسيم العملاء، اكتشاف الشذوذ، تحليل البيانات الاستكشافي. |
الاختلافات الرئيسية:
- بيانات معنونة مقابل غير معنونة: يعتمد التعلم الخاضع للإشراف على مجموعات بيانات معنونة، بينما يعمل التعلم غير الخاضع للإشراف مع بيانات غير معنونة.
- الناتج: يتنبأ التعلم الخاضع للإشراف بمخرجات معروفة، بينما يحدد التعلم غير الخاضع للإشراف أنماطًا مخفية دون نتائج محددة مسبقًا.
مثال على التعلم غير الخاضع للإشراف:
- خوارزميات التجميع: تجميع العملاء بناءً على سلوك الشراء دون علامات مسبقة، وهو مفيد لتجزئة السوق.
- تقنيات تقليل الأبعاد: مثل تحليل المكونات الرئيسية (PCA) لتقليل عدد الميزات مع الحفاظ على التباين، مما يساعد في تصور البيانات عالية الأبعاد.
التعلم شبه الخاضع للإشراف
التعريف:
يجمع التعلم شبه الخاضع للإشراف بين عناصر من التعلم الخاضع للإشراف وغير الخاضع للإشراف. يستخدم كمية صغيرة من البيانات المعنونة مع كمية كبيرة من البيانات غير المعنونة أثناء التدريب.
لماذا نستخدم التعلم شبه الخاضع للإشراف؟
- فعال من حيث التكلفة: يقلل الحاجة إلى بيانات معنونة واسعة والتي قد تكون مكلفة.
- تحسين الأداء: يمكن أن يحقق أداءً أفضل من التعلم غير الخاضع للإشراف من خلال الاستفادة من بعض البيانات المعنونة.
التطبيقات:
- تصنيف الصور: عنونة كل صورة أمر غير عملي، لكن عنونة مجموعة فرعية يمكن أن يحسن التدريب.
- معالجة اللغة الطبيعية: تحسين نماذج اللغة بنصوص مشروحة محدودة.
- التصوير الطبي: الاستفادة من المسوحات غير المعنونة مع بعض الأمثلة المعنونة لتحسين نماذج التشخيص.
المصطلحات والمفاهيم الرئيسية
- نماذج تعلم الآلة: خوارزميات مدربة على التعرف على الأنماط واتخاذ القرارات بأقل تدخل بشري.
- نقاط البيانات: وحدات بيانات فردية ذات ميزات وعلامات تُستخدم في التدريب.
- المخرج المرغوب: النتيجة الصحيحة التي يسعى النموذج لتوقعها.
- الذكاء الاصطناعي: محاكاة عمليات الذكاء البشري بواسطة الآلات وخاصة أنظمة الكمبيوتر.
- تقليل الأبعاد: تقنيات تُستخدم لتقليل عدد المتغيرات المدخلة في مجموعة البيانات.
الأبحاث حول التعلم الخاضع للإشراف
يعد التعلم الخاضع للإشراف مجالًا أساسيًا في تعلم الآلة حيث يتم تدريب النماذج على بيانات معنونة. ويُعد هذا الشكل من التعلم جوهريًا للعديد من التطبيقات، من التعرف على الصور إلى معالجة اللغة الطبيعية. فيما يلي بعض الأوراق البحثية البارزة التي تسهم في فهم وتطور التعلم الخاضع للإشراف.
التعلم الذاتي الخاضع للإشراف عن طريق الجمع بين التعلم العميق والمنطق الاحتمالي
- المؤلفان: Hunter Lang, Hoifung Poon
- الملخص: تتناول هذه الورقة تحدي عنونة أمثلة التدريب على نطاق واسع، وهو أمر شائع في تعلم الآلة. يقترح المؤلفان طريقة جديدة تُسمى “التعلم الذاتي الخاضع للإشراف” (S4)، والتي تعزز المنطق الاحتمالي العميق (DPL) من خلال تمكينه من تعلم إشراف ذاتي جديد تلقائيًا. تصف الورقة كيف يبدأ S4 بـ"بذرة" مبدئية ويقترح تدريجيًا إشراف ذاتي جديد يمكن إضافته مباشرة أو التحقق منه من قبل البشر. تظهر الدراسة أن S4 يمكنه اقتراح إشراف ذاتي دقيق تلقائيًا وتحقيق نتائج قريبة من الطرق الخاضعة للإشراف مع تدخل بشري ضئيل.
- رابط الورقة: Self-supervised self-supervision by combining deep learning and probabilistic logic
إعادة التفكير في الإشراف الضعيف