دیکشنری

امتیاز
امتیاز در دیکشنری
٠
رتبه
رتبه در دیکشنری
٠
لایک
لایک
٠
دیس‌لایک
دیس‌لایک
٠

بپرس

امتیاز
امتیاز در بپرس
١٠
رتبه
رتبه در بپرس
٧,٨٣٤
لایک
لایک
١
دیس‌لایک
دیس‌لایک
٠

جدیدترین پیشنهادها

پیشنهادی موجود نیست.

جدیدترین ترجمه‌ها

ترجمه‌ای موجود نیست.

جدیدترین پرسش‌ها

پرسشی موجود نیست.

جدیدترین پاسخ‌ها

١ رأی
تیک ٦ پاسخ
١٩٢ بازدید
١٦,٠٠٠
تومان

در مدل‌های زبانی بزرگ، مثل GPT، مفهوم Attention چگونه به مدل کمک می‌کند تا وابستگی‌های طولانی‌مدت میان کلمات را درک کند؟ تفاوت این مکانیزم با روش‌های پیشین مثل RNNها چیست؟

١ ماه پیش
١ رأی

در ساده ترین حالت مثلا اگر مفهوم lstm رو بلد باشید خیلی سادس! در lstm خروجی به context vector فقط stste اخرین لایه هست اما در در مکانیزم attention  تمامی cell state و hidden state ها رو به context vector میفرسته

١ ماه پیش