خطر وجودی ناشی از هوش جامع مصنوعی

دانشنامه عمومی

خطر وجودی ناشی از هوش جامع مصنوعی ( انگلیسی: Existential risk from artificial general intelligence ) یک فرضیه است که پیشرفت قابل توجه در هوش عمومی مصنوعی ( AGI ) می تواند منجر به انقراض انسان یا برخی فاجعه جهانی غیرقابل جبران شود. [ ۱] [ ۲]
مکتب خطر وجودی ( "x - risk" ) به شرح زیر استدلال می کند: گونه انسان در حال حاضر بر گونه های دیگر تسلط دارد زیرا مغز انسان دارای برخی قابلیت های متمایز است که سایر حیوانات به صورت عمومی فاقد آن هستند. اگر هوش مصنوعی از نظر هوش عمومی بتواند از بشریت پیشی بگیرد و به «فوق هوشمند» تبدیل شود، آنگاه کنترل آن برای انسان دشوار یا غیرممکن خواهد بود. همان طور که سرنوشت گوریل کوهی به حسن نیت انسان بستگی دارد، سرنوشت بشریت نیز ممکن است به برخی اقدامات یک ابرهوش ماشینی در آینده بستگی داشته باشد.
احتمال وقوع این نوع سناریو به شکل زیادی مورد بحث و گفتگو قرار گرفته است، و تا مقدار زیادی به سناریوهای مختلف برای پیشرفت آینده در علوم رایانه بستگی دارد. نگرانی هایی در مورد ابر هوش توسط دانشمندان برجسته رایانه و مدیران عامل فناوری مانند جفری هینتون، [ ۳] آلن تورینگ، [ الف] ایلان ماسک، [ ۶] و مدیر عامل OpenAI سم آلتمن ابراز شده است. [ ۷] در سال ۲۰۲۲، یک نظرسنجی از محققان هوش مصنوعی نشان داد که برخی از محققان بر این باورند که احتمال ۱۰ درصد یا بیشتر وجود دارد که ناتوانی ما در کنترل هوش مصنوعی باعث یک فاجعه وجودی شود. [ ۸] [ ۹]
یکی از اولین نویسندگانی که نگرانی جدی خود را از اینکه ماشین های بسیار پیشرفته ممکن است خطرات وجودی برای بشریت ایجاد کنند، ابراز کرد، رمان نویس ساموئل باتلر بود که در مقاله اش در سال ۱۸۶۳ داروین در میان ماشین ها موارد زیر را نوشت:[ ۱۰]
عکس خطر وجودی ناشی از هوش جامع مصنوعی
این نوشته برگرفته از سایت ویکی پدیا می باشد، اگر نادرست یا توهین آمیز است، لطفا گزارش دهید: گزارش تخلف

پیشنهاد کاربران