پرسش خود را بپرسید
Information entropy در سیستم ها به چه معناست ؟
٤ ماه پیش
٤٧
Information entropy
در سیستم ها به چه معناست ؟
٣,٧٤٩
٠
٢
١٨٥
١ پاسخ
مرتب سازی بر اساس:
سلام، آنتروپی اطلاعات (Information entropy) در سیستمها به معنای اندازهگیری میزان عدم قطعیت یا تصادفی بودن اطلاعات است. به عبارت دیگر، هرچه آنتروپی یک سیستم بیشتر باشد، ابهام و عدم قطعیت در مورد اطلاعات آن سیستم بیشتر است. این مفهوم توسط کلود شانون در نظریه اطلاعات معرفی شده است و به عنوان معیاری برای اندازهگیری میزان اطلاعات موجود در یک پیام یا سیستم استفاده میشود.
٥,٥٧٩
٧
٢١٩
١٢١
٣ ماه پیش