پرسش خود را بپرسید
١ رأی
٣ پاسخ
٧٥ بازدید

در BERT، مفهوم Self-Attention نقش کلیدی دارد. توضیح دهید که Self-Attention چیست و چرا به مدل اجازه می‌دهد تا اطلاعاتی درباره وابستگی بین کلمات در یک جمله را به‌خوبی استخراج کند.  

٣ هفته پیش
×
٢