پرسش خود را بپرسید
١
رأی
٣
پاسخ
٤٦
بازدید
در BERT، مفهوم Self-Attention نقش کلیدی دارد. توضیح دهید که Self-Attention چیست و چرا به مدل اجازه میدهد تا اطلاعاتی درباره وابستگی بین کلمات در یک جمله را بهخوبی استخراج کند.
١ روز پیش