پرسش خود را بپرسید

Information entropy در سیستم ها به چه معناست ؟

تاریخ
٤ ماه پیش
بازدید
٤٧

Information entropy

 در سیستم ها به چه معناست ؟

٣,٧٤٩
طلایی
٠
نقره‌ای
٢
برنزی
١٨٥

١ پاسخ

مرتب سازی بر اساس:

سلام، آنتروپی اطلاعات (Information entropy) در سیستم‌ها به معنای اندازه‌گیری میزان عدم قطعیت یا تصادفی بودن اطلاعات است. به عبارت دیگر، هرچه آنتروپی یک سیستم بیشتر باشد، ابهام و عدم قطعیت در مورد اطلاعات آن سیستم بیشتر است. این مفهوم توسط کلود شانون در نظریه اطلاعات معرفی شده است و به عنوان معیاری برای اندازه‌گیری میزان اطلاعات موجود در یک پیام یا سیستم استفاده می‌شود.

٥,٥٧٩
طلایی
٧
نقره‌ای
٢١٩
برنزی
١٢١
تاریخ
٣ ماه پیش

پاسخ شما