چرا انسان بايد از اَبَر هوش مصنوعي بترسد
شنبه 17 فروردين 1398 - 7:08:20 AM
چه خبر - آيا بايد از اَبرهوش مصنوعي ترسيد؟

استيون هاوکينگ مدتي قبل از درگذشتش در يک سخنراني در کنفرانسي در ليسبون پرتغال به شرکت‌کنندگان گفت که توسعه هوش مصنوعي ممکن است به بدترين رويداد تاريخ تمدن بشر تبديل شود و وي دلايل زيادي براي اين نگراني دارد.

اين فناوري توسط پژوهشگران هوش مصنوعي، اخلاق گرايان و ديگران به عنوان يک ابرهوش مصنوعي(ASI) شناخته شده است و توانايي تبديل شدن به قدرتمندترين فناوري تاريخ اين سياره را دارد. ابرهوش مصنوعي احتمالاً چيزي است که وجود انسان را به چالش خواهد کشيد.

چرا مردم از هوش مصنوعي مي‌ترسند؟
براي درک بهتر آنچه که استيون هاوکينگ، ايلان ماسک و بسياري ديگر در مورد آن نگران هستند بايد تصوير محبوب هوش مصنوعي را به دقت بررسي کنيم.
واقعيت اين است که هوش مصنوعي(AI) از وقتي که کامپيوترها قادر به تصميم گيري بر اساس ورودي‌ها و شرايط شدند مدتي است که با ما زندگي مي‌کند. هنگامي که يک سيستم تهديد آميز هوش مصنوعي را در فيلم‌ها مي‌بينيم، شرارت سيستم همراه با قدرت کامپيوتر است که ما را مي‌ترساند. اگرچه که هوش مصنوعي فعلاً به شيوه بنياديني که انسان برايش تعيين کرده رفتار مي‌کند.
نوع هوش مصنوعي امروزي ما را مي‌توان يک هوش عملکردي مصنوعي(AFI) توصيف کرد. اين سيستم‌ها براي انجام يک نقش خاص برنامه‌ريزي شده تا آن را به خوبي يا بهتر از يک انسان انجام دهد.
اکنون مدت کوتاهي است که اين سيستم‌ها موفق‌تر از پيش‌بيني‌ها عمل کرده‌اند و توانسته‌اند گيمرها را در رقابت‌هاي بازي‌هاي ويدئويي شکست دهند. چيزي که صاحب نظران تصور وقوع آن را حداقل تا چند سال آينده نمي‌کردند.
در حالي که ما ممکن است مجبور به پذيرش ربات‌هاي فوق هوشمند باشيم، اما هيچ خطر واقعي وجود ندارد که اين سيستم‌ها به شکلي که هاوکينگ مي‌گفت خطرساز شوند.
هوش مصنوعي "AlphaGo" ممکن است از کنون تا زماني که جهان نابود شود بر همه انسان‌ها در بازي ويدئويي پيروز شود، اما اگر از شرايط آب و هوايي فعلي زمين از آن سوال شود حتي کوچک‌ترين اطلاعاتي از موجودات زنده تک سلولي که به تغييرات دما واکنش مي‌دهند ندارد.
اما آنچه که ما از آن به عنوان يک هوش مصنوعي خطرناک ياد مي‌کنيم چيزي است که دانشمندان کامپيوتر به آن هوش عمومي مصنوعي(AGI) مي‌گويند و يک نوع هوش مصنوعي است که به طور کامل از ذهن انسان تقليد مي‌کند و مثل يک انسان بر يک حوزه از دانش احاطه دارد و ميلياردها بار سريع‌تر از ما فکر مي‌کند.
با اينکه اين سيستم خطرناک به نظر مي‌رسد، اما ما به احتمال زياد هرگز شاهد زنده شدن يک AGI نخواهيم بود. نگراني واقعي چيزي است که در يک قدم فراتر از AGI وجود دارد.

هوش فرا انساني
مشکل توسعه AGI در معناي سنتي اين است که غير ممکن است يک برنامه تصميم‌گيري درختي براي هر سوال که AGI مجبور به حل آن است ايجاد کنيم.
انسان‌ها هم با چنين چالشي مواجه هستند و اين چالش مربوط به ظرفيت ما براي يادگيري و شکل دادن ارتباطات جديد در مغز است که ما را هوشمند و قادر به حل مسائل مي‌کند. اگر ما ندانيم که چگونه يک مسئله را حل کنيم، مي‌توانيم آن را تجزيه و تحليل کنيم و پاسخي پيدا کنيم. اکنون همين توانايي شروع به توسعه در پيشرفته‌ترين سيستم‌هاي هوش مصنوعي کرده است.
يک سيستم براي رسيدن به يک AGI واقعي نياز به يک ابزار کليدي دارد که دارا بودن قدرت برنامه‌نويسي براي هوشمندتر شدن است.
زيست‌شناسي انسان به طور خودکار مغز را به منظور يادگيري چيزهاي جديد توسعه مي‌دهد. اين همان چيزي است که نگراني‌هاي مربوط به هوش مصنوعي از آن نشأت گرفته است.
فرض کنيد ما يک سيستم را راه‌اندازي کنيم که مي‌تواند برنامه‌هاي خودش را بازنويسي کند و خود را در هر موضوع، مهارت و توانايي که انسان قادر به انجام آن است، هوشمندتر کند.
اين سيستم از ابتدا خيلي هوشمند نخواهد بود، اما هر تجربه به نوبه خود توانايي آن را براي بهبود خود افزايش مي‌دهد.

آيا نمي‌توان ابرهوش مصنوعي را از برق کشيد؟
اين شايع‌ترين سوال عمومي در مورد هوش مصنوعي و ترس از پيشرفت آن است. عوام مي‌گويند کافي است هوش مصنوعي را در هنگام خطرساز شدن از برق بکشند، اما مي‌دانيم که اين کار ممکن نيست. همانطور که نمي‌توانيم يک ويروس رايانه‌اي را با خاموش کردن کامپيوتر پاک کنيم.
اگر يک ويروس مي‌تواند خودش را در يک سيستم مخفي کند يا خود را کپي کند و سيستم‌هاي ديگر را آلوده کند، پس کنترل يک ابرهوش مصنوعي بي‌نهايت مشکل‌تر خواهد بود.
بدتر از آن اين که هوشمندتر از ما است و مي‌تواند راهي براي حفظ خود پيدا کند.

پس چرا هوش مصنوعي را توسعه مي‌دهيم؟
اين سوالي است که به طور طبيعي به ذهن متبادر مي‌شود، اما مشکل اين است که هيچ راه معقول‌تري براي توسعه يک سيستم جز AGI وجود ندارد، چرا که توسعه هوش مصنوعي تقليدي از عملکرد خودکار مغز ما در ايجاد اتصالات عصبي جديد به صورت خود به خود است.
اگر ما بخواهيم از AFIهاي ابتدايي فراتر برويم پس توسعه يک ابرهوش مصنوعي اجتناب ناپذير است، زيرا پس از تجزيه اتم به اجزاي هسته‌اي به عنوان يک منبع انرژي، توسعه سلاح هسته‌اي نيز اجتناب ناپذير شد.
در نهايت، تنها راه جلوگيري از ظهور ابرهوش مصنوعي، جلوگيري از پيشرفت هرگونه توسعه هوش مصنوعي است که به نظر نمي‌رسد به هيچ عنوان در حال حاضر امکان‌پذير باشد.
با اين که ابرهوش مصنوعي پتانسيل نامحدودي براي آسيب زدن دارد، حداقل براي سازندگانش مي‌تواند مفيد باشد.
اگر دو کشور با هم دشمن باشند، يک کشور چگونه مي‌تواند با وجود چنين سيستمي به ديگري اعتماد کند؟ همين مسئله باعث شده است تا کشورهاي ابرقدرت جهان همگي با اختصاص منابع مالي فراوان به دنبال پيشتاز بودن در هوش مصنوعي باشند.
اگر توسعه هوش مصنوعي همينطور ادامه يابد پيدايش يک نژاد هوش مصنوعي اجتناب ناپذير است.
بنابراين آيا ما بايد از ابرهوش مصنوعي بترسيم؟ البته. همانطور که هر پيشرفت تکنولوژيک همواره عواقب ناخواسته‌اي نيز به دنبال دارد هنگامي که ما يک ابر هوش مصنوعي را راه‌اندازي کنيم ديگر هيچ بازگشتي وجود نخواهد داشت.
اما ما بايد به ياد داشته باشيم که طبيعت ما اين است که تهديد چنين سيستمي را در نظر داشته باشيم چرا که ما به طور فطري به دنبال تشخيص خطر و جلوگيري از مواجهه با آن هستيم.
واقعيت اين است که چنين سيستم قدرتمندي مي‌تواند براي خودش تصميم بگيرد و احتمالاً اين قدرت را دارد که زندگي انسان را نابود کند. بنابراين ابرهوش مصنوعي بزرگترين تهديد براي تمدن انساني خواهد بود.
اما فراموش نکنيم که اگر چنين قدرتي داشته باشد پس قدرت اين را هم دارد که تغييرات آب و هوايي را معکوس کند و منجر به تداوم و بهبود زندگي انسان روي زمين شود.
همانطور که ابرهوش مصنوعي مي‌تواند ناهنجاري‌هاي بالقوه زيادي داشته باشد، در عين حال داراي توانايي براي معکوس کردن اثرات تغييرات اقليمي، ريشه کني بيماري‌ها، پايان کمبود و قحطي، پايان دادن به مرگ و ارائه جاودانگي و حتي سفر با سرعتي بيشتر از سرعت نور به سوي کهکشان‌هاي دور است.
ما دلايل زيادي داريم که ابرهوش مصنوعي در نهايت به نفع ما کار خواهد کرد. هر پيشرفت تکنولوژيکي هزينه‌اي در بر داشته است، اما تمدن بشري در نهايت از آن منتفع شده و پيشرفت کرده است.
در نهايت اين انسان است که از چيزهاي مختلف استفاده‌هاي مختلف مي‌کند. برخي از ما سلاح‌هاي ويرانگر کشتار جمعي ساخته اند برخي هم طاعون و فلج اطفال را ريشه‌کن کرده‌اند. انسان تا حد زيادي به قحطي فائق آمده است و حتي جنگ‌ها هم در حال کاهش است.
اگر روند رسيدن به آينده براي ما چيزي شبيه به گذشته ما باشد، پس ما مي‌توانيم در مورد آينده هوش مصنوعي خوش‌بين باشيم.


منبع: isna.ir

http://www.CheKhabar.ir/News/155778/چرا انسان بايد از اَبَر هوش مصنوعي بترسد
بستن   چاپ