Adaptive Moment Estimation Algorithm-Adam | Linguist | اللُّــغَــوِيّــــ
O Allah, lift the affliction from Gaza 🤲🏻 🇵🇸

Linguist | اللُّــغَــوِيّــــ

“Arabic: Your Key to the Quran”



خوارزمية التقدير التكيفي للحظات (Adam)

خوارزمية التقدير التكيفي للحظات (Adam) هي خوارزمية تحسين تُستخدم بشكل رئيسي لتدريب نماذج التعلم العميق. تجمع بين مزايا تقنيتين شائعتين للتحسين: AdaGrad و RMSProp، وتتكيف مع معدل التعلم لكل معامل بناءً على تقديرات اللحظات الأولى والثانية للتدرجات.

الميزات الرئيسية

  1. معدلات التعلم التكيفية:

    • تقوم خوارزمية Adam بحساب معدلات تعلم تكيفية لكل معامل من خلال النظر في كل من اللحظة الأولى (المتوسط) واللحظة الثانية (التباين غير المتمركز) للتدرجات.
  2. الزخم:

    • تتضمن الخوارزمية مفهوم الزخم لتسريع متجهات التدرج في الاتجاهات الصحيحة، مما يؤدي إلى تقارب أسرع.
  3. تصحيح التحيز:

    • تتضمن Adam تقديرات مصححة للتحيز للحظات الأولى والثانية لتعويض بداية التقديرات من الأصل، مما يساعد في استقرار عملية التعلم.

تفاصيل الخوارزمية

تحتفظ خوارزمية Adam بمتوسطين متحركين لكل معامل:

حيث:

لتصحيح التحيز في هذه التقديرات، تستخدم Adam التقديرات التالية المصححة للتحيز:

يتم بعد ذلك حساب تحديثات المعاملات كالتالي: $$ \theta_{t+1} = \theta_t - \alpha \frac{\hat{m}_t}{\sqrt{\hat{v}_t} + \epsilon} $$

حيث:

المزايا

حالات الاستخدام

تُستخدم Adam على نطاق واسع في تطبيقات التعلم العميق المختلفة، بما في ذلك:

تعد Adam فعالة بشكل خاص في السيناريوهات التي تكون فيها التدرجات متناثرة أو عندما تتضمن المشكلة دالات هدف ضوضائية أو غير ثابتة.

ملخص

خوارزمية Adam هي خوارزمية تحسين بمعدل تعلم تكيفي تستفيد من اللحظات الأولى والثانية للتدرجات لتعديل معدلات التعلم ديناميكيًا، مما يؤدي إلى تقارب أسرع وأكثر استقرارًا أثناء تدريب نماذج التعلم العميق. كفاءتها وصلابتها وقدرتها على التعديل التلقائي تجعلها خيارًا شائعًا لتحسين الشبكات العصبية المعقدة.

[طريقة آدم لحساب معدلات التعلم التكيفي]