الرئيسية
»
المستوى الرابع: تعلم الآلة
»
الشبكات العصبية والتعلم العميق
»
الهياكل ذات الصلة بالمعالجة اللغوية
١.
الشبكات العصبية الالتفافية للنص
Convolutional Neural Networks (CNN) — for text classification
٢.
الشبكات العصبية المتكررة
Recurrent Neural Networks (RNN)
٣.
مشكلة التدرج المتلاشي/المتفجر
Vanishing / Exploding gradient problem
٤.
الذاكرة الطويلة قصيرة المدى
Long Short-Term Memory (LSTM)
٥.
الوحدة المتكررة المبوبة
Gated Recurrent Unit (GRU)
٦.
الشبكات العصبية المتكررة ثنائية الاتجاه
Bidirectional RNNs
٧.
نماذج من تسلسل إلى تسلسل
Sequence-to-Sequence (Seq2Seq) models
٨.
هيكل المشفر-المفكك
Encoder-Decoder architecture
٩.
آلية الانتباه
Attention mechanism (Bahdanau, Luong)
١٠.
الانتباه الذاتي
Self-attention
١١.
الانتباه متعدد الرؤوس
Multi-head attention
١٢.
الترميز الموضعي
Positional encoding
١٣.
هيكل المحول
The Transformer architecture
١٤.
BERT
BERT & variants (RoBERTa, ALBERT, DistilBERT)
١٥.
GPT
GPT & autoregressive language models
١٦.
T5 و BART
T5, BART (seq2seq transformers)
١٧.
نماذج اللغة الكبيرة
Large Language Models (LLMs) — architecture level