فرضیه چندگانه بیان می کند که داده های با ابعاد بالا در دنیای واقعی بر روی فضا با بعد کمتر می توانند قرار گیرند. فرضیه چندگانه در واقع فقط یک اصطلاح فنی است که برای طبقه بندی فضاهایی با ابعاد دلخواه استفاده می شود. برای هر عدد کامل یک فضای مسطح به نام فضای اقلیدسی وجود دارد که ویژگی هایی بسیار شبیه به دستگاه مختصات دکارتی دارد[ ۱] . به عنوان مثال، قضیه فیثاغورس در فضای مسطح برقرار است و بنابراین کوتاه ترین فاصله بین نقاط یک خط مستقیم است ( در مقابل، این در یک دایره یا کره صادق نیست ) . بعد یک فضای اقلیدسی اساساً تعداد درجات آزادی ( مستقل ) است - اساساً تعداد جهات ( متعامد ) که می توان در داخل فضا "حرکت" کرد[ ۲] . یک خط دارای یک چنین بعدی است، یک صفحه نامتناهی دارای 2، و یک حجم نامتناهی دارای 3 و به همین ترتیب تا n می توان پیش رفت. فرضیه چندگانه اساساً تعمیم فضای اقلیدسی است به طوری که به صورت محلی ( مناطق کوچک ) تقریباً با فضای اقلیدسی یکسان است اما کل فضا وقتی به طور کامل مشاهده می شود نمی تواند ویژگی های یکسان فضای اقلیدسی را داشته باشد. نتیجه این است که اکنون طبقات فضاهایی که حساب دیفرانسیل و انتگرال بر اساس آنها منطقی است، گسترش یافته و فضاهایی را شامل می شود که ممکن است به روش های دلخواه منحنی شوند، یا حتی حفره هایی مانند دونات داشته باشند. [ ۳]
فرضیه چندگانه به اثربخشی تکنیک های کاهش غیرخطی ابعاد در یادگیری ماشین مربوط می شود. بسیاری از تکنیک های کاهش ابعادی این فرض را ایجاد می کنند که داده ها در امتداد یک زیرمنیفولد کم بعد قرار دارند، مانند تراز منیفولد و منظم سازی منیفولد.
بنابراین اکنون این ایده را می گیریم و آن را برای داده های با ابعاد بالا اعمال می کنیم. تصور کنید ما علاقه مند به طبقه بندی تمام تصاویر ( سیاه و سفید ) با ابعاد mxn هستیم. هر پیکسل یک مقدار عددی دارد و هر پیکسل بسته به نوع تصویر می تواند متفاوت باشد، به عنوان مثال بخشی از صورت انسان تا یک نویز بی معنی. نکته این است که ما mxn درجه آزادی داریم، بنابراین می توانیم تصویری از mxn پیکسل را به عنوان یک نقطه در فضایی با ابعاد N=mn در نظر بگیریم، حال مجموعه تمام تصاویر mxn که یک گربه را مشخص می کنند، در نظر بگیرید. واضح است که با این شرط، مقدار و رابطه ای که بین پیکسل ها وجود دارد، محدود می شود. بدیهی است که انتخاب های تصادفی، تصویری از گربه را تولید نمی کنند. بنابراین، ما انتظار داریم که آزادی انتخاب کمتری وجود داشته باشد و از این رو:
این نوشته برگرفته از سایت ویکی پدیا می باشد، اگر نادرست یا توهین آمیز است، لطفا گزارش دهید: گزارش تخلففرضیه چندگانه به اثربخشی تکنیک های کاهش غیرخطی ابعاد در یادگیری ماشین مربوط می شود. بسیاری از تکنیک های کاهش ابعادی این فرض را ایجاد می کنند که داده ها در امتداد یک زیرمنیفولد کم بعد قرار دارند، مانند تراز منیفولد و منظم سازی منیفولد.
بنابراین اکنون این ایده را می گیریم و آن را برای داده های با ابعاد بالا اعمال می کنیم. تصور کنید ما علاقه مند به طبقه بندی تمام تصاویر ( سیاه و سفید ) با ابعاد mxn هستیم. هر پیکسل یک مقدار عددی دارد و هر پیکسل بسته به نوع تصویر می تواند متفاوت باشد، به عنوان مثال بخشی از صورت انسان تا یک نویز بی معنی. نکته این است که ما mxn درجه آزادی داریم، بنابراین می توانیم تصویری از mxn پیکسل را به عنوان یک نقطه در فضایی با ابعاد N=mn در نظر بگیریم، حال مجموعه تمام تصاویر mxn که یک گربه را مشخص می کنند، در نظر بگیرید. واضح است که با این شرط، مقدار و رابطه ای که بین پیکسل ها وجود دارد، محدود می شود. بدیهی است که انتخاب های تصادفی، تصویری از گربه را تولید نمی کنند. بنابراین، ما انتظار داریم که آزادی انتخاب کمتری وجود داشته باشد و از این رو:
wiki: فرض چندگانه