نزول التدرج العشوائي

يعد النسب التدرج العشوائي (SGD) طريقة تكرارية لتحسين وظيفة قابلة للتمييز. وهي تعمل عادةً على وظائف كبيرة جدًا أو معقدة بحيث لا يمكن استكشافها في جميع الأبعاد في وقت واحد. يُستخدم SGD بشكل شائع في نماذج التعلم الآلي والتعلم العميق لتحسين هذه النماذج وتدريبها.

بدلاً من تقييم الوظيفة بأكملها في كل خطوة، يقوم SGD بتقييم مجموعة فرعية عشوائية من الوظيفة، تُعرف باسم الدفعة الصغيرة. ثم يتم تعديل معلمات النموذج وفقًا لذلك. يعد هذا أسلوبًا فعالاً خاصة عند التعامل مع مجموعات البيانات الكبيرة أو النماذج التي تحتوي على عدد كبير جدًا من المعلمات بحيث لا يمكن تقييمها كلها مرة واحدة.

هناك أربعة مكونات حاسمة لطريقة SGD، والتي تحددها من الناحية الرياضية:

1. دالة التكلفة. هذه هي الوظيفة التي سيتم تصغيرها بواسطة خوارزمية SGD. ويشمل نقاط البيانات والقيم المرتبطة بها. وعادة ما يتكون من مجموعة من العوامل المتعددة.

2. معدل التعلم. تحدد هذه المعلمة مقدار التغيير الذي سيتم إجراؤه في كل خطوة. وينبغي اختياره لتحقيق أقصى قدر من التنبؤ الدقيق للنموذج مع تقليل الوقت المستغرق للوصول إلى حل مرضٍ.

3. خوارزمية التحسين. هذه هي التقنية المستخدمة لضبط المعلمات من أجل تقليل دالة التكلفة.

4. حجم الدفعة الصغيرة. هذا هو عدد النقاط التي تم تقييمها في كل خطوة. وعادة ما يتم اختياره لتحقيق التوازن بين الدقة والسرعة.

SGD هي طريقة تحسين قوية ومناسبة تمامًا لمجموعة متنوعة من مهام التعلم الآلي والتعلم العميق. إنه سريع وفعال وسهل التنفيذ نسبيًا.

اختر وشراء الوكيل

قم بتخصيص حزمة الخادم الوكيل الخاص بك دون عناء من خلال نموذجنا سهل الاستخدام. اختر الموقع والكمية ومدة الخدمة لعرض أسعار الحزم الفورية وتكاليف كل عنوان IP. استمتع بالمرونة والراحة في أنشطتك عبر الإنترنت.

اختر حزمة الوكيل الخاصة بك

اختر وشراء الوكيل