WEBVTT FILE 1 00:00:08.520 --> 00:00:10.740 سلام. این 6 دقیقه انگلیسی از 2 00:00:10.740 --> 00:00:12.420 BBC Learning English است. من سام هستم 3 00:00:12.420 --> 00:00:13.260 و من نیل هستم. 4 00:00:13.260 --> 00:00:15.780 در پاییز 2021، اتفاق عجیبی 5 00:00:15.780 --> 00:00:17.700 در دفتر مرکزی گوگل 6 00:00:17.700 --> 00:00:20.160 در دره سیلیکون 7 00:00:20.160 --> 00:00:22.260 کالیفرنیا رخ داد. یک مهندس نرم افزار به نام 8 00:00:22.260 --> 00:00:24.720 Blake Lemoine، روی 9 00:00:24.720 --> 00:00:27.060 پروژه هوش مصنوعی، "زبان 10 00:00:27.060 --> 00:00:29.760 مدل برای برنامه های گفتگو" یا 11 00:00:29.760 --> 00:00:32.700 به طور خلاصه LaMDA کار می کرد. LaMDA یک ربات گفتگوی 12 00:00:32.700 --> 00:00:34.560 است - یک برنامه رایانه ای 13 00:00:34.560 --> 00:00:36.600 که برای مکالمه با 14 00:00:36.600 --> 00:00:37.680 انسان از طریق اینترنت طراحی شده است. 15 00:00:37.680 --> 00:00:40.500 پس از ماه ها صحبت با LaMDA 16 00:00:40.500 --> 00:00:42.779 در مورد موضوعات مختلف از فیلم تا 17 00:00:42.780 --> 00:00:45.000 معنای زندگی، بلیک به 18 00:00:45.000 --> 00:00:47.700 نتیجه شگفت انگیزی رسید: چت بات 19 00:00:47.700 --> 00:00:50.340 یک فرد باهوش با آرزوها 20 00:00:50.340 --> 00:00:52.500 و حقوقی که باید رعایت شود 21 00:00:52.500 --> 00:00:55.140 برای بلیک، LaMDA یک کارمند گوگل 22 00:00:55.140 --> 00:00:56.519 بود، نه یک ماشین. 23 00:00:56.520 --> 00:00:58.680 او همچنین آن را «دوست» خود نامید. 24 00:00:58.680 --> 00:01:01.260 گوگل به سرعت بلیک را از 25 00:01:01.260 --> 00:01:03.120 پروژه مجدداً منصوب کرد و اعلام کرد که ایده های او 26 00:01:03.120 --> 00:01:05.340 توسط شواهد پشتیبانی نمی شود. 27 00:01:05.340 --> 00:01:08.040 اما دقیقا چه اتفاقی می افتاد؟ 28 00:01:08.040 --> 00:01:09.900 در این برنامه، 29 00:01:09.900 --> 00:01:12.060 بحث خواهیم کرد که آیا هوش مصنوعی 30 00:01:12.060 --> 00:01:15.060 قادر به آگاهی است یا خیر. ما 31 00:01:15.060 --> 00:01:18.060 را از یک متخصص می شنویم که فکر می کند هوش مصنوعی آنقدرها 32 00:01:18.060 --> 00:01:19.620 که ما گاهی فکر می کنیم باهوش نیست 33 00:01:19.620 --> 00:01:22.080 و طبق معمول، 34 00:01:22.080 --> 00:01:23.400 واژگان جدید را نیز یاد خواهیم گرفت. 35 00:01:23.400 --> 00:01:25.500 اما قبل از آن، من یک سوال از 36 00:01:25.500 --> 00:01:27.779 شما دارم، نیل. اتفاقی که برای بلیک لمواین 37 00:01:27.780 --> 00:01:30.720 افتاد، به طرز عجیبی شبیه فیلم هالیوود 38 00:01:30.720 --> 00:01:34.140 سال 2013 است، او، با بازی خواکین فینیکس در نقش 39 00:01:34.140 --> 00:01:36.000 نویسنده ای تنها که با کامپیوتر 40 00:01:36.000 --> 00:01:38.279 خود صحبت می کند، صداپیشگی اسکارلت جوهانسون. 41 00:01:38.280 --> 00:01:40.140 اما در پایان 42 00:01:40.140 --> 00:01:41.519 فیلم چه اتفاقی می افتد؟ آیا این: 43 00:01:41.520 --> 00:01:43.380 کامپیوتر زنده می شود؟ 44 00:01:43.380 --> 00:01:46.740 ب کامپیوتر در مورد نویسنده خواب می بیند؟ یا، 45 00:01:46.740 --> 00:01:48.780 ج نویسنده عاشق کامپیوتر می شود؟ 46 00:01:48.780 --> 00:01:52.200 ... ج نویسنده عاشق کامپیوتر می شود. 47 00:01:52.200 --> 00:01:54.900 خوب، نیل، من پاسخ را در پایان 48 00:01:54.900 --> 00:01:57.360 برنامه فاش خواهم کرد. اگرچه هالیوود 49 00:01:57.360 --> 00:01:59.700 مملو از فیلم‌هایی است که در مورد روبات‌ها زنده می‌شوند، 50 00:01:59.700 --> 00:02:02.940 امیلی بندر، استاد زبان‌شناسی و 51 00:02:02.940 --> 00:02:05.040 محاسبات در دانشگاه واشنگتن، 52 00:02:05.040 --> 00:02:09.480 فکر می‌کند هوش مصنوعی آنقدرها هم هوشمند نیست. او فکر می کند 53 00:02:09.480 --> 00:02:11.280 کلماتی که ما برای صحبت در مورد فناوری استفاده می کنیم، 54 00:02:11.280 --> 00:02:14.580 عباراتی مانند "یادگیری ماشینی"، 55 00:02:14.580 --> 00:02:16.200 تصور نادرستی در مورد آنچه 56 00:02:16.200 --> 00:02:17.940 کامپیوترها می توانند و نمی توانند انجام دهند، ایجاد می کنند. 57 00:02:17.940 --> 00:02:20.340 در اینجا پروفسور بندر در مورد 58 00:02:20.340 --> 00:02:22.680 عبارت گمراه کننده دیگری، "تشخیص گفتار 59 00:02:22.680 --> 00:02:25.139 " با برنامه سرویس جهانی بی بی سی 60 00:02:25.139 --> 00:02:26.579 بحث می کند، "تحقیق": 61 00:02:27.360 --> 00:02:29.580 اگر در مورد "تشخیص گفتار 62 00:02:29.580 --> 00:02:31.500 خودکار" صحبت می کنید. ، اصطلاح "تشخیص" 63 00:02:31.500 --> 00:02:33.600 نشان می دهد که چیزی 64 00:02:33.600 --> 00:02:35.760 شناختی در جریان است، جایی که من فکر می کنم 65 00:02:35.760 --> 00:02:37.860 اصطلاح بهتر، رونویسی خودکار است. 66 00:02:37.860 --> 00:02:39.840 این فقط رابطه ورودی-خروجی 67 00:02:39.840 --> 00:02:43.500 را توصیف می کند، و نه هیچ نظریه یا تفکر آرزویی 68 00:02:43.500 --> 00:02:45.779 در مورد آنچه رایانه 69 00:02:45.780 --> 00:02:47.220 انجام می دهد تا بتواند به آن دست یابد. 70 00:02:47.220 --> 00:02:50.580 استفاده از کلماتی مانند "تشخیص" در رابطه 71 00:02:50.580 --> 00:02:52.680 با رایانه این ایده را به دست می دهد که 72 00:02:52.680 --> 00:02:55.439 چیزی شناختی در حال وقوع است - چیزی 73 00:02:55.440 --> 00:02:57.780 مربوط به فرآیندهای ذهنی 74 00:02:57.780 --> 00:03:00.539 تفکر، دانستن، یادگیری و درک است. 75 00:03:00.540 --> 00:03:03.240 اما اندیشیدن و دانستن فعالیتهای انسانی است 76 00:03:03.240 --> 00:03:06.300 نه ماشینی. پروفسور Benders 77 00:03:06.300 --> 00:03:08.340 می گوید که صحبت کردن در مورد آنها در ارتباط 78 00:03:08.340 --> 00:03:11.910 با رایانه ها آرزویی است - 79 00:03:11.910 --> 00:03:14.220 چیزی که بعید است اتفاق بیفتد. 80 00:03:14.220 --> 00:03:16.440 مشکل استفاده از کلمات در این راه 81 00:03:16.440 --> 00:03:18.540 این است که آنچه را که پروفسور بندر 82 00:03:18.540 --> 00:03:20.700 می نامد، تعصب فنی 83 00:03:20.700 --> 00:03:23.220 تقویت می کند - این فرض که کامپیوتر 84 00:03:23.220 --> 00:03:25.740 همیشه درست است. وقتی با 85 00:03:25.740 --> 00:03:27.419 زبانی روبرو می شویم که طبیعی به نظر می رسد، اما 86 00:03:27.419 --> 00:03:29.699 از رایانه می آید، انسان ها 87 00:03:29.700 --> 00:03:32.160 نمی توانند ذهنی را پشت 88 00:03:32.160 --> 00:03:34.380 زبان تصور کنند، حتی وقتی که وجود ندارد. 89 00:03:34.380 --> 00:03:36.540 به عبارت دیگر، ما انسان‌سازی می‌کنیم 90 00:03:36.540 --> 00:03:39.060 کامپیوترها - ما با آنها به گونه ای رفتار می کنیم که گویی آنها 91 00:03:39.060 --> 00:03:41.280 انسان هستند. در اینجا دوباره پروفسور بندر 92 00:03:41.280 --> 00:03:43.500 در مورد این ایده با 93 00:03:43.500 --> 00:03:46.200 Charmaine Cozier، مجری BBC 94 00:03:46.200 --> 00:03:47.820 World Services, the Inquiry صحبت می کند. 95 00:03:48.420 --> 00:03:52.080 پس «ایسم» به معنای نظام، «آنترو» یا «انتروپو» 96 00:03:52.080 --> 00:03:55.080 به معنای انسان، و «مورف» به معنای شکل... 97 00:03:55.080 --> 00:03:58.080 و بنابراین این نظامی است که شکل 98 00:03:58.080 --> 00:04:00.240 یک را قرار می دهد. انسان روی چیزی، و 99 00:04:00.240 --> 00:04:01.500 در این مورد چیزی یک کامپیوتر است. 100 00:04:01.500 --> 00:04:04.680 ما حیوانات را همیشه انسان‌سازی می‌کنیم، 101 00:04:04.680 --> 00:04:10.620 اما زمانی که از شرکت‌هایی که قصد دارند و غیره صحبت می‌کنیم، اکشن فیگورها، 103 00:04:10.620 --> 00:04:12.660 یا عروسک‌ها یا شرکت‌ها را نیز انسان‌سازی می‌کنیم. 104 00:04:12.660 --> 00:04:15.540 ما بسیار عادت داریم که 105 00:04:15.540 --> 00:04:17.160 خود را در دنیای اطراف خود ببینیم. 106 00:04:17.160 --> 00:04:19.380 و در حالی که ما مشغول دیدن خود هستیم 107 00:04:19.380 --> 00:04:21.480 با اختصاص دادن صفات انسانی به چیزهایی که 108 00:04:21.480 --> 00:04:24.000 نیستند، در خطر کور شدن هستیم. 109 00:04:24.000 --> 00:04:26.400 هر چه آن متن روانتر باشد، هر چه 110 00:04:26.400 --> 00:04:31.020 موضوعات مختلف بیشتری بتواند در مورد آن گفتگو کند، 113 00:04:34.620 --> 00:04:37.140 شانس بیشتری برای جذب وجود دارد. ممکن است ما کور شویم، یا 114 00:04:37.140 --> 00:04:40.320 به طرز ناخوشایندی شگفت زده شویم. هوش مصنوعی 115 00:04:40.320 --> 00:04:42.540 با یافتن الگوها در مقادیر عظیم 116 00:04:42.540 --> 00:04:45.060 داده کار می کند، بنابراین به نظر می رسد که 117 00:04:45.060 --> 00:04:46.920 ما با یک انسان صحبت می کنیم، به جای 118 00:04:46.920 --> 00:04:49.140 ماشینی که تجزیه و تحلیل داده ها را انجام می دهد. 119 00:04:49.140 --> 00:04:53.159 در نتیجه، ما را جذب می کنند - فریب می خوریم 120 00:04:53.160 --> 00:04:55.080 یا فریب می خوریم که فکر می کنیم با یک انسان 121 00:04:55.080 --> 00:04:58.083 یا با چیزی هوشمند سروکار داریم. 122 00:04:58.083 --> 00:05:01.401 هوش مصنوعی قدرتمند می تواند ماشین ها را آگاهانه جلوه دهد، 123 00:05:01.401 --> 00:05:04.346 اما حتی غول های فناوری مانند گوگل سال ها 124 00:05:04.346 --> 00:05:06.753 تا ساخت رایانه هایی که می توانند 125 00:05:06.753 --> 00:05:09.108 رویاپردازی کنند یا عاشق شوند، فاصله دارند. در مورد آن، 126 00:05:09.108 --> 00:05:11.779 سام، پاسخ سؤال شما چه بود؟ 127 00:05:11.779 --> 00:05:14.530 پرسیدم در فیلم او در سال 2013 چه اتفاقی افتاده است. 128 00:05:14.531 --> 00:05:16.431 نیل فکر می کرد که شخصیت اصلی 129 00:05:16.431 --> 00:05:18.678 عاشق کامپیوترش می شود که 130 00:05:18.678 --> 00:05:20.039 پاسخ صحیح بود! 131 00:05:20.880 --> 00:05:23.520 باشه. درست است، وقت آن رسیده است که واژگانی 132 00:05:23.520 --> 00:05:25.860 را که از این برنامه در مورد هوش مصنوعی 133 00:05:25.860 --> 00:05:29.040 آموخته‌ایم، از جمله ربات‌های گفتگو - برنامه‌های رایانه‌ای 134 00:05:29.040 --> 00:05:30.419 که برای تعامل با 135 00:05:30.420 --> 00:05:31.980 انسان از طریق اینترنت طراحی شده‌اند، مرور کنیم. 136 00:05:31.980 --> 00:05:34.620 صفت شناختی 137 00:05:34.620 --> 00:05:36.480 هر چیزی را که با فرآیندهای ذهنی 138 00:05:36.480 --> 00:05:37.800 دانستن، 139 00:05:37.800 --> 00:05:39.179 یادگیری و درک مرتبط باشد، توصیف می کند. 140 00:05:39.180 --> 00:05:41.820 آرزومندی یعنی فکر کردن به اینکه 141 00:05:41.820 --> 00:05:43.920 چیزی که احتمال وقوع آن بسیار کم است 142 00:05:43.920 --> 00:05:45.960 ممکن است روزی در آینده اتفاق بیفتد. 143 00:05:45.960 --> 00:05:48.360 انسان‌سازی یک شی به معنای 144 00:05:48.360 --> 00:05:49.860 رفتار با آن به‌گونه‌ای است که گویی انسان است، 145 00:05:49.860 --> 00:05:51.060 اگرچه اینطور نیست. 146 00:05:51.060 --> 00:05:53.580 هنگامی که شما کور هستید، 147 00:05:53.580 --> 00:05:55.080 به صورت منفی شگفت زده می شوید. 148 00:05:55.080 --> 00:05:57.960 و بالاخره تصرف شدن توسط کسي به معناي 149 00:05:57.960 --> 00:05:59.820 فريب خوردن يا فريب خوردن توسط اوست. 150 00:05:59.820 --> 00:06:02.460 کامپیوتر من به من می گوید که شش دقیقه 151 00:06:02.460 --> 00:06:05.040 ما تمام شده است! به زودی دوباره به ما بپیوندید، در حال حاضر 152 00:06:05.040 --> 00:06:06.179 از ما خداحافظی شده است. 153 00:06:06.180 --> 00:06:06.680 خداحافظ!