پرسش خود را بپرسید
١ رأی
٣ پاسخ
١٧٣ بازدید

در BERT، مفهوم Self-Attention نقش کلیدی دارد. توضیح دهید که Self-Attention چیست و چرا به مدل اجازه می‌دهد تا اطلاعاتی درباره وابستگی بین کلمات در یک جمله را به‌خوبی استخراج کند.  

٧ ماه پیش
×
٢