پرسش خود را بپرسید
١ رأی
٣ پاسخ
٤٦ بازدید

در BERT، مفهوم Self-Attention نقش کلیدی دارد. توضیح دهید که Self-Attention چیست و چرا به مدل اجازه می‌دهد تا اطلاعاتی درباره وابستگی بین کلمات در یک جمله را به‌خوبی استخراج کند.  

١ روز پیش
×
٢