پرسش خود را بپرسید

Information entropy در سیستم ها به چه معناست ؟

تاریخ
١٠ ماه پیش
بازدید
٧٦

Information entropy

 در سیستم ها به چه معناست ؟

٤,٢٢٩
طلایی
٠
نقره‌ای
٦
برنزی
١٩٥

١ پاسخ

مرتب سازی بر اساس:

سلام، آنتروپی اطلاعات (Information entropy) در سیستم‌ها به معنای اندازه‌گیری میزان عدم قطعیت یا تصادفی بودن اطلاعات است. به عبارت دیگر، هرچه آنتروپی یک سیستم بیشتر باشد، ابهام و عدم قطعیت در مورد اطلاعات آن سیستم بیشتر است. این مفهوم توسط کلود شانون در نظریه اطلاعات معرفی شده است و به عنوان معیاری برای اندازه‌گیری میزان اطلاعات موجود در یک پیام یا سیستم استفاده می‌شود.

٦,٠٧٩
طلایی
٧
نقره‌ای
٢٢٨
برنزی
١٢٣
تاریخ
٩ ماه پیش

پاسخ شما