پرسش خود را بپرسید

Information entropy در سیستم ها به چه معناست ؟

تاریخ
١١ ماه پیش
بازدید
٨٠

Information entropy

 در سیستم ها به چه معناست ؟

٤,٢٤٩
طلایی
٠
نقره‌ای
٦
برنزی
١٩٦

١ پاسخ

مرتب سازی بر اساس:

سلام، آنتروپی اطلاعات (Information entropy) در سیستم‌ها به معنای اندازه‌گیری میزان عدم قطعیت یا تصادفی بودن اطلاعات است. به عبارت دیگر، هرچه آنتروپی یک سیستم بیشتر باشد، ابهام و عدم قطعیت در مورد اطلاعات آن سیستم بیشتر است. این مفهوم توسط کلود شانون در نظریه اطلاعات معرفی شده است و به عنوان معیاری برای اندازه‌گیری میزان اطلاعات موجود در یک پیام یا سیستم استفاده می‌شود.

٦,٠٩٩
طلایی
٧
نقره‌ای
٢٢٨
برنزی
١٢٤
تاریخ
١١ ماه پیش

پاسخ شما