دقة أعلى-k
دقة أعلى-k هي مقياس لتقييم التعلم الآلي يحدد ما إذا كانت الفئة الحقيقية ضمن أعلى k فئات متوقعة، مما يوفر مقياسًا شاملاً ومرنًا في مهام التصنيف متعددة الفئات....
الجيران الأقرب (KNN) هي خوارزمية بسيطة وغير معلمية للتصنيف والانحدار، تتنبأ بالنتائج بناءً على قرب نقاط البيانات.
خوارزمية الجيران الأقرب (KNN) هي خوارزمية تعلم إشرافي غير معلمية تُستخدم في مهام التصنيف والانحدار في تعلم الآلة. تعتمد على مفهوم القرب، إذ تفترض أن البيانات المتشابهة تقع بالقرب من بعضها البعض. تُعتبر KNN خوارزمية تعلم كسولة (lazy learning)، أي أنها لا تتطلب مرحلة تدريب وتقوم بالتنبؤات عبر تخزين مجموعة بيانات التدريب بالكامل واستخدامها لتحديد فئة أو قيمة نقاط البيانات الجديدة. تتنبأ الخوارزمية بالنتيجة لنقطة اختبار من خلال تحديد أقرب ‘k’ نقاط تدريبية إلى نقطة الاختبار، وتستنتج المخرج بناءً على هؤلاء الجيران. هذه الطريقة بديهية للغاية وتحاكي استراتيجيات الإدراك البشري التي تعتمد على مقارنة البيانات الجديدة بأمثلة معروفة.
تعمل KNN من خلال تحديد أقرب ‘k’ نقاط بيانات إلى نقطة استعلام معينة واستخدام هؤلاء الجيران لاتخاذ قرار التنبؤ.
مبادئ القرب والتشابه، والتي تعد جوهر الإدراك البشري، هي أيضاً مركزية في كيفية عمل KNN، حيث يُفترض أن نقاط البيانات القريبة في فضاء الميزات أكثر تشابهاً وبالتالي من المرجح أن يكون لها نتائج متشابهة.
لتحديد أقرب الجيران، تستخدم KNN العديد من مقاييس المسافة، والتي تعتبر حاسمة في أدائها:
المعامل ‘k’ في KNN يمثل عدد الجيران الذين يجب أخذهم في الاعتبار. اختيار القيمة الصحيحة لـ ‘k’ أمر بالغ الأهمية:
تُستخدم KNN في العديد من المجالات نظراً لبساطتها وفعاليتها:
يمكن تنفيذ KNN باستخدام مكتبات مثل scikit-learn في بايثون. إليك مثالاً أساسياً لاستخدام KNN في التصنيف:
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import train_test_split
from sklearn.datasets import load_iris
from sklearn.metrics import accuracy_score
# تحميل مجموعة البيانات
iris = load_iris()
X, y = iris.data, iris.target
# تقسيم البيانات إلى مجموعتي تدريب واختبار
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# تهيئة مصنف KNN مع k=3
knn = KNeighborsClassifier(n_neighbors=3)
# تدريب النموذج
knn.fit(X_train, y_train)
# إجراء التنبؤات
y_pred = knn.predict(X_test)
# تقييم الدقة
accuracy = accuracy_score(y_test, y_pred)
print(f"Accuracy: {accuracy:.2f}")
تُعد خوارزمية الجيران الأقرب (KNN) خوارزمية أساسية تُستخدم في مجالات متنوعة مثل استرجاع المعلومات المتعددة الوسائط، والتنقيب في البيانات، وتعلم الآلة، خاصةً في سياق مجموعات البيانات الكبيرة.
“بناء رسم تقريبي للجيران الأقرب: نهج عام عبر الإنترنت” بقلم وان-لي تشاو وآخرين:
يقدم طريقة فعّالة لكل من البحث التقريبي عن الجيران الأقرب وبناء الرسم البياني. توضح الورقة حلاً ديناميكياً وقابلاً للتطبيق للتعامل مع أحجام وأبعاد بيانات مختلفة، وتدعم التحديثات عبر الإنترنت التي لا تتوفر في العديد من الطرق الحالية. اقرأ المزيد.
“الجيران الأقرب المتوازيون في الأبعاد المنخفضة مع التحديثات الدفعية” بقلم ماجدلين دوبسون وجاي بليلوك:
تقدم خوارزميات متوازية تجمع بين شجرة kd وترتيب موريتون ضمن بنية شجرة zd، تم تحسينها للبيانات منخفضة الأبعاد. يوضح المؤلفان أن نهجهما أسرع من الخوارزميات الموجودة، ويحقق تسريعاً كبيراً عبر المعالجة المتوازية. تدعم شجرة zd التحديثات الدفعية المتوازية لأول مرة في هياكل بيانات الجيران الأقرب. اقرأ المزيد.
“تحسين الانحدار بالجيران الأقرب بواسطة الشبكات العصبية التوأمية” بقلم سيباستيان جيه. ويتزل:
يستكشف نهجاً جديداً لانحدار الجيران الأقرب باستخدام الشبكات العصبية التوأمية. يركز هذا الأسلوب على التنبؤ بالفروق بين أهداف الانحدار، مما يؤدي إلى أداء محسن مقارنةً بالشبكات العصبية التقليدية وتقنيات انحدار الجيران الأقرب على مجموعات البيانات الصغيرة والمتوسطة الحجم. اقرأ المزيد.
الجيران الأقرب (KNN) هي خوارزمية تعلم إشرافي غير معلمية تُستخدم للتصنيف والانحدار. تتنبأ بالنتائج من خلال تحديد أقرب 'k' نقاط بيانات إلى الاستعلام واستنتاج النتيجة بناءً على هؤلاء الجيران.
KNN سهلة الفهم والتنفيذ، ولا تتطلب مرحلة تدريب صريحة، ويمكن استخدامها لكل من مهام التصنيف والانحدار.
KNN قد تكون كثيفة الحساب مع مجموعات البيانات الكبيرة، وحساسة للقيم الشاذة، ويمكن أن يتدهور أداؤها مع البيانات عالية الأبعاد بسبب لعنة الأبعاد.
عادةً ما يتم تحديد القيمة المثلى لـ 'k' تجريبياً باستخدام التحقق المتقاطع (cross-validation). القيمة الصغيرة لـ 'k' قد تسبب الإفراط في التكيّف، بينما القيمة الكبيرة يمكن أن تؤدي إلى نقص التكيّف؛ ويفضل اختيار أعداد فردية لتجنب التعادل في التصنيف.
تشمل مقاييس المسافة الشائعة: المسافة الإقليدية، ومانهاتن، ومينكوفسكي، وهامينغ، ويتم اختيارها بناءً على نوع البيانات ومتطلبات المشكلة.
اكتشف كيف يمكن لأدوات وروبوتات FlowHunt الذكية تعزيز تحليلك للبيانات وأتمتة سير العمل لديك. أنشئ، واختبر، وانشر حلول الذكاء الاصطناعي بكل سهولة.
دقة أعلى-k هي مقياس لتقييم التعلم الآلي يحدد ما إذا كانت الفئة الحقيقية ضمن أعلى k فئات متوقعة، مما يوفر مقياسًا شاملاً ومرنًا في مهام التصنيف متعددة الفئات....
تجميع K-Means هو خوارزمية تعلم آلي غير خاضعة للإشراف شائعة لتقسيم مجموعات البيانات إلى عدد محدد مسبقًا من المجموعات المتميزة وغير المتداخلة عن طريق تقليل مجموع ...
انحدار الغابة العشوائية هو خوارزمية قوية في تعلم الآلة تُستخدم للتحليلات التنبؤية. تقوم بإنشاء عدة أشجار قرار وتُعدل متوسط مخرجاتها للحصول على دقة أعلى، وموثوقي...