پرسش خود را بپرسید

مفهوم Self-Attention در BERT

تاریخ
١ روز پیش
بازدید
٤٥

در BERT، مفهوم Self-Attention نقش کلیدی دارد. توضیح دهید که Self-Attention چیست و چرا به مدل اجازه می‌دهد تا اطلاعاتی درباره وابستگی بین کلمات در یک جمله را به‌خوبی استخراج کند.
 

٤,١٤٦
طلایی
٠
نقره‌ای
١
برنزی
٢٢٢
پاسخی برای این پرسش ثبت نشده.

پاسخ شما