الرئيسية » 
المستوى الرابع: تعلم الآلة » 
الشبكات العصبية والتعلم العميق » 
الهياكل ذات الصلة بالمعالجة اللغوية

١. الشبكات العصبية الالتفافية للنص
Convolutional Neural Networks (CNN) — for text classification
٢. الشبكات العصبية المتكررة
Recurrent Neural Networks (RNN)
٣. مشكلة التدرج المتلاشي/المتفجر
Vanishing / Exploding gradient problem
٤. الذاكرة الطويلة قصيرة المدى
Long Short-Term Memory (LSTM)
٥. الوحدة المتكررة المبوبة
Gated Recurrent Unit (GRU)
٦. الشبكات العصبية المتكررة ثنائية الاتجاه
Bidirectional RNNs
٧. نماذج من تسلسل إلى تسلسل
Sequence-to-Sequence (Seq2Seq) models
٨. هيكل المشفر-المفكك
Encoder-Decoder architecture
٩. آلية الانتباه
Attention mechanism (Bahdanau, Luong)
١٠. الانتباه الذاتي
Self-attention
١١. الانتباه متعدد الرؤوس
Multi-head attention
١٢. الترميز الموضعي
Positional encoding
١٣. هيكل المحول
The Transformer architecture
١٤. BERT
BERT & variants (RoBERTa, ALBERT, DistilBERT)
١٥. GPT
GPT & autoregressive language models
١٦. T5 و BART
T5, BART (seq2seq transformers)
١٧. نماذج اللغة الكبيرة
Large Language Models (LLMs) — architecture level