رگرسیون پواسون

دانشنامه عمومی

در آمار، رگرسیون پواسون نوعی از تحلیل رگرسیون و زیرمجموعه ای از مدل های خطی تعمیم یافته است که برای تحلیل داده های حاصل از شمارش به کار می رود. اگر x ∈ R n برداری از متغیر وابسته و مستقل باشد، فرم زیر را می گیرد:[ ۱]
که در آن a ∈ R n و b ∈ R . می توان فرم بالا را به این صورت نیز نوشت:
که در آن x بردار ( n + 1 ) - بعدی از متغیرهاست. با داشتن پارامتر رگرسیون پواسون θ و بردار ورودی x ، می توان پیش بینی را به اینصورت بدست آورد:
بردار متغیر وابسته x است و θ پارامتر مدل رگرسیون پوسان است، Y متغیر مستقل است که آنرا با یک توزیع پوسان شبیه سازی می کنیم که میانگین آن در معادله پایین آمده است:[ ۲]
λ := E ⁡ ( Y ∣ x ) = e θ ′ x ,
از این رو تابع احتمال این توزیع برابر است با:
p ( y ∣ x ; θ ) = λ y y ! e − λ = e y θ ′ x e − e θ ′ x y !
حال اگر فرض کنیم که m داده داریم یعنی ( x 1 , y 1 ) , ⋯ , ( x m , y m ) و مقادیر متغیر مستقل از مجموعه اعداد طبیعی می آید یعنی y 1 , … , y m ∈ N و متغیرهای وابسته n + 1 هستند یعنی x i ∈ R n + 1 , i = 1 , … , m آنگاه احتمال متغیرهای مستقل به شرط مشاهده متغیرهای وابسته برابر خواهد شد با:
p ( y 1 , … , y m ∣ x 1 , … , x m ; θ ) = ∏ i = 1 m e y i θ ′ x i e − e θ ′ x i y i ! .
حال بر حسب اصل بیشینه سازی درست نمایی باید به دنبال پارامتری بگردیم که این درست نمایی به بیشترین مقدار خود برسد، یعنی تابع پایین بیشینه شود:
L ( θ ∣ X , Y ) = ∏ i = 1 m e y i θ ′ x i e − e θ ′ x i y i ! .
از آنجا که تابع لگاریتم مطلقاً صعودی است به جای بیشینه کردن تابع درست نمایی می توان لگاریتم آن را بیشینه کرد که تابع را ساده تر می کند. به عبارتی دیگر همان پارامتری که لگاریتم تابع درست نمایی را بیشینه می کند، همان پارامتر، خودِ تابع درست نمایی را نیز بیشنه می کند. لگاریتم تابع با معادله پایین برابر خواهد شد:
ℓ ( θ ∣ X , Y ) = log ⁡ L ( θ ∣ X , Y ) = ∑ i = 1 m ( y i θ ′ x i − e θ ′ x i − log ⁡ ( y i ! ) ) .
عکس رگرسیون پواسون
این نوشته برگرفته از سایت ویکی پدیا می باشد، اگر نادرست یا توهین آمیز است، لطفا گزارش دهید: گزارش تخلف

پیشنهاد کاربران