پرسش خود را بپرسید
مفهوم Self-Attention در BERT
١ روز پیش
٤٥
در BERT، مفهوم Self-Attention نقش کلیدی دارد. توضیح دهید که Self-Attention چیست و چرا به مدل اجازه میدهد تا اطلاعاتی درباره وابستگی بین کلمات در یک جمله را بهخوبی استخراج کند.
٤,١٤٦
٠
١
٢٢٢
پاسخی برای این پرسش ثبت نشده.