آیا باید از اَبرهوش مصنوعی ترسید؟
پارسینه: مردم با دیدن پیشرفت هوش مصنوعی این سوال در ذهنشان مطرح میشود که نتیجه نهایی چه خواهد شد و پیامد ابرهوش مصنوعی برای انسان چه خواهد بود؟
استیون هاوکینگ مدتی قبل از درگذشتش در یک سخنرانی در کنفرانسی در لیسبون پرتغال به شرکتکنندگان گفت که توسعه هوش مصنوعی ممکن است به بدترین رویداد تاریخ تمدن بشر تبدیل شود و وی دلایل زیادی برای این نگرانی دارد.
این فناوری توسط پژوهشگران هوش مصنوعی، اخلاق گرایان و دیگران به عنوان یک ابرهوش مصنوعی (ASI) شناخته شده است و توانایی تبدیل شدن به قدرتمندترین فناوری تاریخ این سیاره را دارد. ابرهوش مصنوعی احتمالاً چیزی است که وجود انسان را به چالش خواهد کشید.
چرا مردم از هوش مصنوعی میترسند؟
برای درک بهتر آنچه که استیون هاوکینگ، ایلان ماسک و بسیاری دیگر در مورد آن نگران هستند باید تصویر محبوب هوش مصنوعی را به دقت بررسی کنیم.
واقعیت این است که هوش مصنوعی (AI) از وقتی که کامپیوترها قادر به تصمیم گیری بر اساس ورودیها و شرایط شدند مدتی است که با ما زندگی میکند. هنگامی که یک سیستم تهدید آمیز هوش مصنوعی را در فیلمها میبینیم، شرارت سیستم همراه با قدرت کامپیوتر است که ما را میترساند. اگرچه که هوش مصنوعی فعلاً به شیوه بنیادینی که انسان برایش تعیین کرده رفتار میکند.
نوع هوش مصنوعی امروزی ما را میتوان یک هوش عملکردی مصنوعی (AFI) توصیف کرد. این سیستمها برای انجام یک نقش خاص برنامهریزی شده تا آن را به خوبی یا بهتر از یک انسان انجام دهد.
اکنون مدت کوتاهی است که این سیستمها موفقتر از پیشبینیها عمل کردهاند و توانستهاند گیمرها را در رقابتهای بازیهای ویدئویی شکست دهند. چیزی که صاحب نظران تصور وقوع آن را حداقل تا چند سال آینده نمیکردند.
در حالی که ما ممکن است مجبور به پذیرش رباتهای فوق هوشمند باشیم، اما هیچ خطر واقعی وجود ندارد که این سیستمها به شکلی که هاوکینگ میگفت: خطرساز شوند.
هوش مصنوعی "AlphaGo" ممکن است از کنون تا زمانی که جهان نابود شود بر همه انسانها در بازی ویدئویی پیروز شود، اما اگر از شرایط آب و هوایی فعلی زمین از آن سوال شود حتی کوچکترین اطلاعاتی از موجودات زنده تک سلولی که به تغییرات دما واکنش میدهند ندارد.
اما آنچه که ما از آن به عنوان یک هوش مصنوعی خطرناک یاد میکنیم چیزی است که دانشمندان کامپیوتر به آن هوش عمومی مصنوعی (AGI) میگویند و یک نوع هوش مصنوعی است که به طور کامل از ذهن انسان تقلید میکند و مثل یک انسان بر یک حوزه از دانش احاطه دارد و میلیاردها بار سریعتر از ما فکر میکند.
با اینکه این سیستم خطرناک به نظر میرسد، اما ما به احتمال زیاد هرگز شاهد زنده شدن یک AGI نخواهیم بود. نگرانی واقعی چیزی است که در یک قدم فراتر از AGI وجود دارد.
هوش فرا انسانی
مشکل توسعه AGI در معنای سنتی این است که غیر ممکن است یک برنامه تصمیمگیری درختی برای هر سوال که AGI مجبور به حل آن است ایجاد کنیم.
انسانها هم با چنین چالشی مواجه هستند و این چالش مربوط به ظرفیت ما برای یادگیری و شکل دادن ارتباطات جدید در مغز است که ما را هوشمند و قادر به حل مسائل میکند. اگر ما ندانیم که چگونه یک مسئله را حل کنیم، میتوانیم آن را تجزیه و تحلیل کنیم و پاسخی پیدا کنیم. اکنون همین توانایی شروع به توسعه در پیشرفتهترین سیستمهای هوش مصنوعی کرده است.
یک سیستم برای رسیدن به یک AGI واقعی نیاز به یک ابزار کلیدی دارد که دارا بودن قدرت برنامهنویسی برای هوشمندتر شدن است.
زیستشناسی انسان به طور خودکار مغز را به منظور یادگیری چیزهای جدید توسعه میدهد. این همان چیزی است که نگرانیهای مربوط به هوش مصنوعی از آن نشأت گرفته است.
فرض کنید ما یک سیستم را راهاندازی کنیم که میتواند برنامههای خودش را بازنویسی کند و خود را در هر موضوع، مهارت و توانایی که انسان قادر به انجام آن است، هوشمندتر کند.
این سیستم از ابتدا خیلی هوشمند نخواهد بود، اما هر تجربه به نوبه خود توانایی آن را برای بهبود خود افزایش میدهد.
آیا نمیتوان ابرهوش مصنوعی را از برق کشید؟
این شایعترین سوال عمومی در مورد هوش مصنوعی و ترس از پیشرفت آن است. عوام میگویند کافی است هوش مصنوعی را در هنگام خطرساز شدن از برق بکشند، اما میدانیم که این کار ممکن نیست. همانطور که نمیتوانیم یک ویروس رایانهای را با خاموش کردن کامپیوتر پاک کنیم.
اگر یک ویروس میتواند خودش را در یک سیستم مخفی کند یا خود را کپی کند و سیستمهای دیگر را آلوده کند، پس کنترل یک ابرهوش مصنوعی بینهایت مشکلتر خواهد بود.
بدتر از آن این که هوشمندتر از ما است و میتواند راهی برای حفظ خود پیدا کند.
پس چرا هوش مصنوعی را توسعه میدهیم؟
این سوالی است که به طور طبیعی به ذهن متبادر میشود، اما مشکل این است که هیچ راه معقولتری برای توسعه یک سیستم جز AGI وجود ندارد، چرا که توسعه هوش مصنوعی تقلیدی از عملکرد خودکار مغز ما در ایجاد اتصالات عصبی جدید به صورت خود به خود است.
اگر ما بخواهیم از AFIهای ابتدایی فراتر برویم پس توسعه یک ابرهوش مصنوعی اجتناب ناپذیر است، زیرا پس از تجزیه اتم به اجزای هستهای به عنوان یک منبع انرژی، توسعه سلاح هستهای نیز اجتناب ناپذیر شد.
در نهایت، تنها راه جلوگیری از ظهور ابرهوش مصنوعی، جلوگیری از پیشرفت هرگونه توسعه هوش مصنوعی است که به نظر نمیرسد به هیچ عنوان در حال حاضر امکانپذیر باشد.
با این که ابرهوش مصنوعی پتانسیل نامحدودی برای آسیب زدن دارد، حداقل برای سازندگانش میتواند مفید باشد.
اگر دو کشور با هم دشمن باشند، یک کشور چگونه میتواند با وجود چنین سیستمی به دیگری اعتماد کند؟ همین مسئله باعث شده است تا کشورهای ابرقدرت جهان همگی با اختصاص منابع مالی فراوان به دنبال پیشتاز بودن در هوش مصنوعی باشند.
اگر توسعه هوش مصنوعی همینطور ادامه یابد پیدایش یک نژاد هوش مصنوعی اجتناب ناپذیر است؛ بنابراین آیا ما باید از ابرهوش مصنوعی بترسیم؟ البته. همانطور که هر پیشرفت تکنولوژیک همواره عواقب ناخواستهای نیز به دنبال دارد هنگامی که ما یک ابر هوش مصنوعی را راهاندازی کنیم دیگر هیچ بازگشتی وجود نخواهد داشت.
اما ما باید به یاد داشته باشیم که طبیعت ما این است که تهدید چنین سیستمی را در نظر داشته باشیم چرا که ما به طور فطری به دنبال تشخیص خطر و جلوگیری از مواجهه با آن هستیم.
واقعیت این است که چنین سیستم قدرتمندی میتواند برای خودش تصمیم بگیرد و احتمالاً این قدرت را دارد که زندگی انسان را نابود کند؛ بنابراین ابرهوش مصنوعی بزرگترین تهدید برای تمدن انسانی خواهد بود.
اما فراموش نکنیم که اگر چنین قدرتی داشته باشد پس قدرت این را هم دارد که تغییرات آب و هوایی را معکوس کند و منجر به تداوم و بهبود زندگی انسان روی زمین شود.
همانطور که ابرهوش مصنوعی میتواند ناهنجاریهای بالقوه زیادی داشته باشد، در عین حال دارای توانایی برای معکوس کردن اثرات تغییرات اقلیمی، ریشه کنی بیماریها، پایان کمبود و قحطی، پایان دادن به مرگ و ارائه جاودانگی و حتی سفر با سرعتی بیشتر از سرعت نور به سوی کهکشانهای دور است.
ما دلایل زیادی داریم که ابرهوش مصنوعی در نهایت به نفع ما کار خواهد کرد. هر پیشرفت تکنولوژیکی هزینهای در بر داشته است، اما تمدن بشری در نهایت از آن منتفع شده و پیشرفت کرده است.
در نهایت این انسان است که از چیزهای مختلف استفادههای مختلف میکند. برخی از ما سلاحهای ویرانگر کشتار جمعی ساخته اند برخی هم طاعون و فلج اطفال را ریشهکن کردهاند. انسان تا حد زیادی به قحطی فائق آمده است و حتی جنگها هم در حال کاهش است.
اگر روند رسیدن به آینده برای ما چیزی شبیه به گذشته ما باشد، پس ما میتوانیم در مورد آینده هوش مصنوعی خوشبین باشیم.
این فناوری توسط پژوهشگران هوش مصنوعی، اخلاق گرایان و دیگران به عنوان یک ابرهوش مصنوعی (ASI) شناخته شده است و توانایی تبدیل شدن به قدرتمندترین فناوری تاریخ این سیاره را دارد. ابرهوش مصنوعی احتمالاً چیزی است که وجود انسان را به چالش خواهد کشید.
چرا مردم از هوش مصنوعی میترسند؟
برای درک بهتر آنچه که استیون هاوکینگ، ایلان ماسک و بسیاری دیگر در مورد آن نگران هستند باید تصویر محبوب هوش مصنوعی را به دقت بررسی کنیم.
واقعیت این است که هوش مصنوعی (AI) از وقتی که کامپیوترها قادر به تصمیم گیری بر اساس ورودیها و شرایط شدند مدتی است که با ما زندگی میکند. هنگامی که یک سیستم تهدید آمیز هوش مصنوعی را در فیلمها میبینیم، شرارت سیستم همراه با قدرت کامپیوتر است که ما را میترساند. اگرچه که هوش مصنوعی فعلاً به شیوه بنیادینی که انسان برایش تعیین کرده رفتار میکند.
نوع هوش مصنوعی امروزی ما را میتوان یک هوش عملکردی مصنوعی (AFI) توصیف کرد. این سیستمها برای انجام یک نقش خاص برنامهریزی شده تا آن را به خوبی یا بهتر از یک انسان انجام دهد.
اکنون مدت کوتاهی است که این سیستمها موفقتر از پیشبینیها عمل کردهاند و توانستهاند گیمرها را در رقابتهای بازیهای ویدئویی شکست دهند. چیزی که صاحب نظران تصور وقوع آن را حداقل تا چند سال آینده نمیکردند.
در حالی که ما ممکن است مجبور به پذیرش رباتهای فوق هوشمند باشیم، اما هیچ خطر واقعی وجود ندارد که این سیستمها به شکلی که هاوکینگ میگفت: خطرساز شوند.
هوش مصنوعی "AlphaGo" ممکن است از کنون تا زمانی که جهان نابود شود بر همه انسانها در بازی ویدئویی پیروز شود، اما اگر از شرایط آب و هوایی فعلی زمین از آن سوال شود حتی کوچکترین اطلاعاتی از موجودات زنده تک سلولی که به تغییرات دما واکنش میدهند ندارد.
اما آنچه که ما از آن به عنوان یک هوش مصنوعی خطرناک یاد میکنیم چیزی است که دانشمندان کامپیوتر به آن هوش عمومی مصنوعی (AGI) میگویند و یک نوع هوش مصنوعی است که به طور کامل از ذهن انسان تقلید میکند و مثل یک انسان بر یک حوزه از دانش احاطه دارد و میلیاردها بار سریعتر از ما فکر میکند.
با اینکه این سیستم خطرناک به نظر میرسد، اما ما به احتمال زیاد هرگز شاهد زنده شدن یک AGI نخواهیم بود. نگرانی واقعی چیزی است که در یک قدم فراتر از AGI وجود دارد.
هوش فرا انسانی
مشکل توسعه AGI در معنای سنتی این است که غیر ممکن است یک برنامه تصمیمگیری درختی برای هر سوال که AGI مجبور به حل آن است ایجاد کنیم.
انسانها هم با چنین چالشی مواجه هستند و این چالش مربوط به ظرفیت ما برای یادگیری و شکل دادن ارتباطات جدید در مغز است که ما را هوشمند و قادر به حل مسائل میکند. اگر ما ندانیم که چگونه یک مسئله را حل کنیم، میتوانیم آن را تجزیه و تحلیل کنیم و پاسخی پیدا کنیم. اکنون همین توانایی شروع به توسعه در پیشرفتهترین سیستمهای هوش مصنوعی کرده است.
یک سیستم برای رسیدن به یک AGI واقعی نیاز به یک ابزار کلیدی دارد که دارا بودن قدرت برنامهنویسی برای هوشمندتر شدن است.
زیستشناسی انسان به طور خودکار مغز را به منظور یادگیری چیزهای جدید توسعه میدهد. این همان چیزی است که نگرانیهای مربوط به هوش مصنوعی از آن نشأت گرفته است.
فرض کنید ما یک سیستم را راهاندازی کنیم که میتواند برنامههای خودش را بازنویسی کند و خود را در هر موضوع، مهارت و توانایی که انسان قادر به انجام آن است، هوشمندتر کند.
این سیستم از ابتدا خیلی هوشمند نخواهد بود، اما هر تجربه به نوبه خود توانایی آن را برای بهبود خود افزایش میدهد.
آیا نمیتوان ابرهوش مصنوعی را از برق کشید؟
این شایعترین سوال عمومی در مورد هوش مصنوعی و ترس از پیشرفت آن است. عوام میگویند کافی است هوش مصنوعی را در هنگام خطرساز شدن از برق بکشند، اما میدانیم که این کار ممکن نیست. همانطور که نمیتوانیم یک ویروس رایانهای را با خاموش کردن کامپیوتر پاک کنیم.
اگر یک ویروس میتواند خودش را در یک سیستم مخفی کند یا خود را کپی کند و سیستمهای دیگر را آلوده کند، پس کنترل یک ابرهوش مصنوعی بینهایت مشکلتر خواهد بود.
بدتر از آن این که هوشمندتر از ما است و میتواند راهی برای حفظ خود پیدا کند.
پس چرا هوش مصنوعی را توسعه میدهیم؟
این سوالی است که به طور طبیعی به ذهن متبادر میشود، اما مشکل این است که هیچ راه معقولتری برای توسعه یک سیستم جز AGI وجود ندارد، چرا که توسعه هوش مصنوعی تقلیدی از عملکرد خودکار مغز ما در ایجاد اتصالات عصبی جدید به صورت خود به خود است.
اگر ما بخواهیم از AFIهای ابتدایی فراتر برویم پس توسعه یک ابرهوش مصنوعی اجتناب ناپذیر است، زیرا پس از تجزیه اتم به اجزای هستهای به عنوان یک منبع انرژی، توسعه سلاح هستهای نیز اجتناب ناپذیر شد.
در نهایت، تنها راه جلوگیری از ظهور ابرهوش مصنوعی، جلوگیری از پیشرفت هرگونه توسعه هوش مصنوعی است که به نظر نمیرسد به هیچ عنوان در حال حاضر امکانپذیر باشد.
با این که ابرهوش مصنوعی پتانسیل نامحدودی برای آسیب زدن دارد، حداقل برای سازندگانش میتواند مفید باشد.
اگر دو کشور با هم دشمن باشند، یک کشور چگونه میتواند با وجود چنین سیستمی به دیگری اعتماد کند؟ همین مسئله باعث شده است تا کشورهای ابرقدرت جهان همگی با اختصاص منابع مالی فراوان به دنبال پیشتاز بودن در هوش مصنوعی باشند.
اگر توسعه هوش مصنوعی همینطور ادامه یابد پیدایش یک نژاد هوش مصنوعی اجتناب ناپذیر است؛ بنابراین آیا ما باید از ابرهوش مصنوعی بترسیم؟ البته. همانطور که هر پیشرفت تکنولوژیک همواره عواقب ناخواستهای نیز به دنبال دارد هنگامی که ما یک ابر هوش مصنوعی را راهاندازی کنیم دیگر هیچ بازگشتی وجود نخواهد داشت.
اما ما باید به یاد داشته باشیم که طبیعت ما این است که تهدید چنین سیستمی را در نظر داشته باشیم چرا که ما به طور فطری به دنبال تشخیص خطر و جلوگیری از مواجهه با آن هستیم.
واقعیت این است که چنین سیستم قدرتمندی میتواند برای خودش تصمیم بگیرد و احتمالاً این قدرت را دارد که زندگی انسان را نابود کند؛ بنابراین ابرهوش مصنوعی بزرگترین تهدید برای تمدن انسانی خواهد بود.
اما فراموش نکنیم که اگر چنین قدرتی داشته باشد پس قدرت این را هم دارد که تغییرات آب و هوایی را معکوس کند و منجر به تداوم و بهبود زندگی انسان روی زمین شود.
همانطور که ابرهوش مصنوعی میتواند ناهنجاریهای بالقوه زیادی داشته باشد، در عین حال دارای توانایی برای معکوس کردن اثرات تغییرات اقلیمی، ریشه کنی بیماریها، پایان کمبود و قحطی، پایان دادن به مرگ و ارائه جاودانگی و حتی سفر با سرعتی بیشتر از سرعت نور به سوی کهکشانهای دور است.
ما دلایل زیادی داریم که ابرهوش مصنوعی در نهایت به نفع ما کار خواهد کرد. هر پیشرفت تکنولوژیکی هزینهای در بر داشته است، اما تمدن بشری در نهایت از آن منتفع شده و پیشرفت کرده است.
در نهایت این انسان است که از چیزهای مختلف استفادههای مختلف میکند. برخی از ما سلاحهای ویرانگر کشتار جمعی ساخته اند برخی هم طاعون و فلج اطفال را ریشهکن کردهاند. انسان تا حد زیادی به قحطی فائق آمده است و حتی جنگها هم در حال کاهش است.
اگر روند رسیدن به آینده برای ما چیزی شبیه به گذشته ما باشد، پس ما میتوانیم در مورد آینده هوش مصنوعی خوشبین باشیم.
منبع:
خبرگزاری ایسنا
ارسال نظر