چه خبر - آيا بايد از اَبرهوش مصنوعي ترسيد؟
استيون هاوکينگ مدتي قبل از درگذشتش در يک سخنراني در کنفرانسي در ليسبون پرتغال به شرکتکنندگان گفت که توسعه هوش مصنوعي ممکن است به بدترين رويداد تاريخ تمدن بشر تبديل شود و وي دلايل زيادي براي اين نگراني دارد.
اين فناوري توسط پژوهشگران هوش مصنوعي، اخلاق گرايان و ديگران به عنوان يک ابرهوش مصنوعي(ASI) شناخته شده است و توانايي تبديل شدن به قدرتمندترين فناوري تاريخ اين سياره را دارد. ابرهوش مصنوعي احتمالاً چيزي است که وجود انسان را به چالش خواهد کشيد.
چرا مردم از هوش مصنوعي ميترسند؟
براي درک بهتر آنچه که استيون هاوکينگ، ايلان ماسک و بسياري ديگر در مورد آن نگران هستند بايد تصوير محبوب هوش مصنوعي را به دقت بررسي کنيم.
واقعيت اين است که هوش مصنوعي(AI) از وقتي که کامپيوترها قادر به تصميم گيري بر اساس وروديها و شرايط شدند مدتي است که با ما زندگي ميکند. هنگامي که يک سيستم تهديد آميز هوش مصنوعي را در فيلمها ميبينيم، شرارت سيستم همراه با قدرت کامپيوتر است که ما را ميترساند. اگرچه که هوش مصنوعي فعلاً به شيوه بنياديني که انسان برايش تعيين کرده رفتار ميکند.
نوع هوش مصنوعي امروزي ما را ميتوان يک هوش عملکردي مصنوعي(AFI) توصيف کرد. اين سيستمها براي انجام يک نقش خاص برنامهريزي شده تا آن را به خوبي يا بهتر از يک انسان انجام دهد.
اکنون مدت کوتاهي است که اين سيستمها موفقتر از پيشبينيها عمل کردهاند و توانستهاند گيمرها را در رقابتهاي بازيهاي ويدئويي شکست دهند. چيزي که صاحب نظران تصور وقوع آن را حداقل تا چند سال آينده نميکردند.
در حالي که ما ممکن است مجبور به پذيرش رباتهاي فوق هوشمند باشيم، اما هيچ خطر واقعي وجود ندارد که اين سيستمها به شکلي که هاوکينگ ميگفت خطرساز شوند.
هوش مصنوعي "AlphaGo" ممکن است از کنون تا زماني که جهان نابود شود بر همه انسانها در بازي ويدئويي پيروز شود، اما اگر از شرايط آب و هوايي فعلي زمين از آن سوال شود حتي کوچکترين اطلاعاتي از موجودات زنده تک سلولي که به تغييرات دما واکنش ميدهند ندارد.
اما آنچه که ما از آن به عنوان يک هوش مصنوعي خطرناک ياد ميکنيم چيزي است که دانشمندان کامپيوتر به آن هوش عمومي مصنوعي(AGI) ميگويند و يک نوع هوش مصنوعي است که به طور کامل از ذهن انسان تقليد ميکند و مثل يک انسان بر يک حوزه از دانش احاطه دارد و ميلياردها بار سريعتر از ما فکر ميکند.
با اينکه اين سيستم خطرناک به نظر ميرسد، اما ما به احتمال زياد هرگز شاهد زنده شدن يک AGI نخواهيم بود. نگراني واقعي چيزي است که در يک قدم فراتر از AGI وجود دارد.
هوش فرا انساني
مشکل توسعه AGI در معناي سنتي اين است که غير ممکن است يک برنامه تصميمگيري درختي براي هر سوال که AGI مجبور به حل آن است ايجاد کنيم.
انسانها هم با چنين چالشي مواجه هستند و اين چالش مربوط به ظرفيت ما براي يادگيري و شکل دادن ارتباطات جديد در مغز است که ما را هوشمند و قادر به حل مسائل ميکند. اگر ما ندانيم که چگونه يک مسئله را حل کنيم، ميتوانيم آن را تجزيه و تحليل کنيم و پاسخي پيدا کنيم. اکنون همين توانايي شروع به توسعه در پيشرفتهترين سيستمهاي هوش مصنوعي کرده است.
يک سيستم براي رسيدن به يک AGI واقعي نياز به يک ابزار کليدي دارد که دارا بودن قدرت برنامهنويسي براي هوشمندتر شدن است.
زيستشناسي انسان به طور خودکار مغز را به منظور يادگيري چيزهاي جديد توسعه ميدهد. اين همان چيزي است که نگرانيهاي مربوط به هوش مصنوعي از آن نشأت گرفته است.
فرض کنيد ما يک سيستم را راهاندازي کنيم که ميتواند برنامههاي خودش را بازنويسي کند و خود را در هر موضوع، مهارت و توانايي که انسان قادر به انجام آن است، هوشمندتر کند.
اين سيستم از ابتدا خيلي هوشمند نخواهد بود، اما هر تجربه به نوبه خود توانايي آن را براي بهبود خود افزايش ميدهد.
آيا نميتوان ابرهوش مصنوعي را از برق کشيد؟
اين شايعترين سوال عمومي در مورد هوش مصنوعي و ترس از پيشرفت آن است. عوام ميگويند کافي است هوش مصنوعي را در هنگام خطرساز شدن از برق بکشند، اما ميدانيم که اين کار ممکن نيست. همانطور که نميتوانيم يک ويروس رايانهاي را با خاموش کردن کامپيوتر پاک کنيم.
اگر يک ويروس ميتواند خودش را در يک سيستم مخفي کند يا خود را کپي کند و سيستمهاي ديگر را آلوده کند، پس کنترل يک ابرهوش مصنوعي بينهايت مشکلتر خواهد بود.
بدتر از آن اين که هوشمندتر از ما است و ميتواند راهي براي حفظ خود پيدا کند.
پس چرا هوش مصنوعي را توسعه ميدهيم؟
اين سوالي است که به طور طبيعي به ذهن متبادر ميشود، اما مشکل اين است که هيچ راه معقولتري براي توسعه يک سيستم جز AGI وجود ندارد، چرا که توسعه هوش مصنوعي تقليدي از عملکرد خودکار مغز ما در ايجاد اتصالات عصبي جديد به صورت خود به خود است.
اگر ما بخواهيم از AFIهاي ابتدايي فراتر برويم پس توسعه يک ابرهوش مصنوعي اجتناب ناپذير است، زيرا پس از تجزيه اتم به اجزاي هستهاي به عنوان يک منبع انرژي، توسعه سلاح هستهاي نيز اجتناب ناپذير شد.
در نهايت، تنها راه جلوگيري از ظهور ابرهوش مصنوعي، جلوگيري از پيشرفت هرگونه توسعه هوش مصنوعي است که به نظر نميرسد به هيچ عنوان در حال حاضر امکانپذير باشد.
با اين که ابرهوش مصنوعي پتانسيل نامحدودي براي آسيب زدن دارد، حداقل براي سازندگانش ميتواند مفيد باشد.
اگر دو کشور با هم دشمن باشند، يک کشور چگونه ميتواند با وجود چنين سيستمي به ديگري اعتماد کند؟ همين مسئله باعث شده است تا کشورهاي ابرقدرت جهان همگي با اختصاص منابع مالي فراوان به دنبال پيشتاز بودن در هوش مصنوعي باشند.
اگر توسعه هوش مصنوعي همينطور ادامه يابد پيدايش يک نژاد هوش مصنوعي اجتناب ناپذير است.
بنابراين آيا ما بايد از ابرهوش مصنوعي بترسيم؟ البته. همانطور که هر پيشرفت تکنولوژيک همواره عواقب ناخواستهاي نيز به دنبال دارد هنگامي که ما يک ابر هوش مصنوعي را راهاندازي کنيم ديگر هيچ بازگشتي وجود نخواهد داشت.
اما ما بايد به ياد داشته باشيم که طبيعت ما اين است که تهديد چنين سيستمي را در نظر داشته باشيم چرا که ما به طور فطري به دنبال تشخيص خطر و جلوگيري از مواجهه با آن هستيم.
واقعيت اين است که چنين سيستم قدرتمندي ميتواند براي خودش تصميم بگيرد و احتمالاً اين قدرت را دارد که زندگي انسان را نابود کند. بنابراين ابرهوش مصنوعي بزرگترين تهديد براي تمدن انساني خواهد بود.
اما فراموش نکنيم که اگر چنين قدرتي داشته باشد پس قدرت اين را هم دارد که تغييرات آب و هوايي را معکوس کند و منجر به تداوم و بهبود زندگي انسان روي زمين شود.
همانطور که ابرهوش مصنوعي ميتواند ناهنجاريهاي بالقوه زيادي داشته باشد، در عين حال داراي توانايي براي معکوس کردن اثرات تغييرات اقليمي، ريشه کني بيماريها، پايان کمبود و قحطي، پايان دادن به مرگ و ارائه جاودانگي و حتي سفر با سرعتي بيشتر از سرعت نور به سوي کهکشانهاي دور است.
ما دلايل زيادي داريم که ابرهوش مصنوعي در نهايت به نفع ما کار خواهد کرد. هر پيشرفت تکنولوژيکي هزينهاي در بر داشته است، اما تمدن بشري در نهايت از آن منتفع شده و پيشرفت کرده است.
در نهايت اين انسان است که از چيزهاي مختلف استفادههاي مختلف ميکند. برخي از ما سلاحهاي ويرانگر کشتار جمعي ساخته اند برخي هم طاعون و فلج اطفال را ريشهکن کردهاند. انسان تا حد زيادي به قحطي فائق آمده است و حتي جنگها هم در حال کاهش است.
اگر روند رسيدن به آينده براي ما چيزي شبيه به گذشته ما باشد، پس ما ميتوانيم در مورد آينده هوش مصنوعي خوشبين باشيم.
منبع: isna.ir